5 Allgemeine Verfahren zum Testen von Hypothesen
|
|
- Meta Morgenstern
- vor 5 Jahren
- Abrufe
Transkript
1 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ). Die Verteilung von X hängt von einem Parametervektor θ ab, dessen wahrer Wert unbekannt ist. Problem: Schätze θ 1. Schritt: Berechnen der Likelihoodfunktion L(θ) Stetige Verteilung mit multivariater Dichtefunktion f( x) f( x θ): L(θ) L(x 1,..., x n θ) = f(x 1 θ) f(x 2 θ) f(x n θ) Log-Likelihoodfunktion: ln L(θ) = n ln f(x i θ) 2. Schritt: Maximieren von ln L(θ) Maximum Likelihood Schätzung ˆθ 51
2 Beispiel 1: X 1,..., X n Zufallsstichprobe mit X N d (µ, Σ). Zu schätzen ist θ = (µ, Σ) Dann gilt L(µ, Σ) = 2πΣ n/2 exp( 1 2 ln L(µ, Σ) = n 2 ln 2πΣ 1 2 n n ( X i µ) T Σ 1 (X i µ)) ( X i µ) T Σ 1 (X i µ) Mit S := n 1 n S = n 1 n n (X i X)(X i X) T lässt sich die Log-Likelihoodfunktion in folgende Form umschreiben: ln L(µ, Σ) = n 2 ln 2πΣ n 2 spur(σ 1 S) n 2 ( X µ) T Σ 1 ( X µ) Resultierende Maximum Likelihood Schätzer: ˆµ = X, ˆΣ = S 52
3 Beispiel 2: Regression unter der Annahme multivariater Normalität Regressionsmodell mit normalverteilten Fehlertermen ɛ i N(0, σ 2 ): Y i = β 0 + p β j X ij + ɛ i j=1 Y i N(β 0 + p β j X ij, σ 2 ) j=1 Log-Likelihoodfunktion: ln L(β, σ 2 ) = n 2 ln(2πσ2 ) 1 2 n (Y i β 0 p j=1 β jx ij ) 2 σ 2 ˆβ maximiert die Likelihoodfunktion genau dann, wenn ˆβ die Summe der Quadrate n (Y i β 0 p j=1 β jx ij ) 2 minimiert. Der Kleinste-Quadrate Schätzer ˆβ = ( ˆβ 0,..., ˆβ p ) T der Maximum Likelihood Schätzer von β. ist auch 53
4 Inferenz für Likelihood Schätzer Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ). Die Verteilung von X hängt von einem Parametervektor θ = (θ 1,....θ k ) ab, dessen wahrer Wert unbekannt ist. Man beachte, dass die Likelihoodfunktion L(θ) von den Daten abhängt, L(θ) L(θ X 1,..., X n ), und daher selbst zufällig ist. Score Funktion: l(θ) = θ ln L(θ) Die Score Funktion hängt wiederum von den Daten ab, l(θ) l(θ X 1,..., X n ) Fisher Informations Matrix: J(θ) = E ( l(θ)l(θ) T ) = COV (l(θ)) Beispiel: X N(µ, σ 2 I), σ 2 bekannt l(µ) = µ = 1 2σ 2 ln L(µ) µ = n σ 2 ( X µ) n (X i µ) T (X i µ) J(µ) = n2 σ 4 COV ( X µ) = n σ 2 I 54
5 Man betrachte nun die Dierenz ˆθ θ zwischen dem Maximum Likelihood Schätzer und dem wahren Wert des Parametervektors. Unter einigen Regularitätsbedingungen gilt für groÿe Stichprobengröÿe n approximativ ˆθ θ N(0, J(θ) 1 ) Resultat von Cramer Rao: Für jeden alternativen Schätzer θ von θ gilt COV ( θ) J(θ) 1, d.h. die Matrix COV ( θ) J(θ) 1 ist positiv semidenit. Dies bedeutet insbesondere, dass für die Schätzer der einzelnen Komponenten des Parametervektors gilt. var( θ j ) (J(θ) 1 ) jj var(ˆθ j ), j = 1,..., k, J(θ) 1 lässt sich durch J(ˆθ) 1 konsistent schätzen Approximatives 1 α Kondenzintervall für θ j : ˆθ j ± z 1 α/2 (J(θ) 1 ) jj 55
6 Beispiel: X N(µ, σ 2 I), σ 2 bekannt. Dann gilt J(θ) 1 = σ2 n I Kondenzintervall: Xj ± z 1 α/2 σ n Beispiel 2: Regression (Fehlervarianz σ 2 bekannt) l(β) = ln L(µ) β = 1 n p 2σ 2 (Y i β 0 β j X ij ) 2 β j=1 1 = 1 n Xi1 p σ 2 (Y i β 0 β j X ij ). j=1 J(β) = 1 σ 2 X ip 1 = 1 n Xi1 σ 2. n X ip ɛ i 1 Xi1 (1, X i1,..., X ip ) = 1. σ 2 XT X X ip und J(β) 1 = σ 2 (X T X) 1. 56
7 5.2 Der Likelihood-Quotienten Test Der Likelihood Ansatz liefert ein allgemeines Verfahren zur Konstruktion von Parameterschätzern. Er lässt sich jedoch ebenfalls in allgemeiner Weise zum Testen von Hypothesen verwenden. Dies führt auf die sogenannten Likelihood-Quotienten Tests. Verteilung einer Stichprobe {X i },...,n hängt von einem Parametervektor θ ab L(θ) Likelihood Funktion Testproblem: H 0 : θ Ω 0, wobei Ω 0 q 0 -dimensionaler Raum; es sind q 0 unbekannte Parameterwerte zu schätzen gegen H 1 : θ Ω 1, wobei Ω 1 q 1 -dimensionaler Raum, q 1 > q 0 ; es sind q 1 > q 0 unbekannte Paramterwerte zu schätzen Beispiel: X 1,..., X n i.i.d., X i N(µ, σ 2 ), σ 2 bekannt H 0 : µ {µ 0 } q 0 = 0, es ist kein unbekannter Parameter zu schätzen H 1 : µ µ 0 q 1 = 1, ein unbekannter Paramter 57
8 ˆθ 0 maximiere L(θ) über alle θ Ω 0 ˆθ 1 maximiere L(θ) über alle θ Ω 1 Teststatistik (Likelihood-Quotienten Test): ( ) L(ˆθ 0 ) T = 2 ln L(ˆθ 1 ) Resultat der mathematischen Statistik: n groÿ, H 0 wahr: T χ 2 q 1 q 0 Ablehung von H 0, falls T χ 2 q 1 q 0 ;1 α klein) (bzw. p-wert zu Beispiel: X i N(µ, σ 2 ), σ 2 bekannt Unter H 0 : µ {µ 0 }: ˆµ 0 = µ 0 Unter H 1 : µ IR\{µ 0 }: ˆµ = X T = 2 ln L(µ 0 ) + 2 ln L( X) = n( X µ 0 ) 2 Unter H 0 : T χ 2 1 σ 2 58
9 Anmerkungen: In dem angebenen Beispiel ist der Likelihood- Quotient unter H 0 auch für kleinen Stichproben- umfang n exakt χ 2 -verteilt. Im Allgemeinen beruht der Likelihood-Quotienten Test jedoch auf einer asymptotischen Approximation (n groÿ) der Verteilung der Teststatistik. In manchen Anwendung gibt es nit exakte Teststatistiken, die asymptotisch mit einem Likelihood-Quotienten Test übereinstimmen. Auch in komplexen Situationen lässt sich der Likelihood- Quotient mit Hilfe von numerischen Verfahren aus den Daten berechnen. Ein wesentlicher Punkt ist eine korrekte Bestimmung der Freiheitsgrade q 1 q 0 der χ 2 -Verteilung. Die jeweiligen Werte q 0, q 1 beziehen sich auf die Anzahl der eektiv zu schätzenden Parameter, d.h. auf die Dimension der Räume Ω 0 und Ω 1. Beispiel: Zwei unbekannte Parameter θ = (θ 1, θ 2 ) unter H 0, Nebenbedingung θ 1 + θ 2 = 1. Ω 0 ist dann der eindimensionale Raum aller θ = (θ 1, θ 2 ) mit θ 1 + θ 2 = 1. Eektiv ist nur ein einziger Parameter zu schätzen, denn bei gegebenem θ 1 erhält man θ 2 aus θ 2 = 1 θ 1. Es gilt dann q 0 = 1 59
10 Beispiel 1: Inferenz für den Mittelwert einer multivariaten Normalverteilung Zufallsstichprobe: X 1,..., X n unabhängig und identisch verteilt, X i N d (µ, Σ) Testproblem: H 0 : µ = µ 0 gegen H 1 : µ µ 0 1) Σ bekannt: Likelihood-Quotienten Test Ω 0 = {µ 0 } ˆµ 0 = µ 0, q 0 = 0 Ω 1 = IR d ˆµ 1 = X, q 1 = d Likelihood-Quotient ( ) L(ˆµ0 ) T = 2 ln L(ˆµ 1 ) = n( X µ 0 ) T Σ 1 ( X µ 0 ) unter H 0 : T χ 2 d (dies gilt auch für kleinen Stichprobenumfang n) Ablehnung von H 0, falls T χ 2 d;1 α 510
11 Beispiel 2: Regression Full Model: Y i = β 0 + β 1 X i β p X ip + ɛ i Ŷ F i = ˆβ 0 + β 1 X i ˆβ p X ip Reduced Model: Y i = β 0 + β 1 X i β q X iq + ɛ i, q < p Ŷ R i = ˆβ 0 + β 1X i ˆβ q X iq Sei σ 2 = var(ɛ i ) bekannt. Man erhält dann ( L( T = 2 ln ˆβ ) ) L( ˆβ) = 1 n σ 2 (Y i Ŷ i R ) 2 1 n σ 2 (Y i Ŷ i F ) 2 = 1 σ 2 n (Y F i Ŷ R i ) 2 Unter H 0 : β q+1 =... = β p = 0 gilt approximativ T χ 2 p q Zur Erinnerung: Unter H 0 F = mit ˆσ 2 = 1 n p 1 n (Y F i Ŷ R i ) 2 /(p q) ˆσ 2 n (Y i Ŷ F i ) 2 F p q,n p 1 n groÿ: Es lässt sich zeigen, dass ˆσ 2 σ 2 sowie (approximativ) (p q) F χ 2 p q 511
12 5.3 Hotellings T 2 Hotellings T 2 Statistik wird zum Testen von Hypothesen bezüglich des Vektors der Mittelwerte einer multivariaten Normalverteilung verwendet. Asymptotisch (n groÿ) sind die resultierenden Testverfahren äquivalent zu einem Likelihood- Quotienten Test. Hotellings T 2 erlaubt jedoch auch bei kleinen Stichprobengröÿen eine exakte Berechnung von kritischen Werten. Seien X 1,..., X n i.i.d, X i N d (µ, Σ) und S = 1 n 1 i (X i X)(X i X) T. Dann gilt T 2 H = n( X µ) T S 1 ( X µ) T 2 (d, n 1), wobei T 2 (d, n 1) Hotellings T 2 -Verteilung mit d und n 1 Freiheitsgraden bezeichnet. Kritische Werte lassen sich mit Hilfe der Beziehung berechnen Spezialfall d = 1: TH 2 i (X i X) 2 1 n 1 n d (n 1)d T 2 H = F d,n d = n( X µ) 2 S 2 T (1, n 1), S 2 = Man beachte, dass n( X µ) S t n 1, und dass das Quadrat einer t n 1 -verteilten Variablen eine F -Verteilung mit 1 und n-1 Freiheitsgraden besitzt. Hotellings T 2.Verteilung kann also als Verallgemeinerung der t-verteilung angesehen werden Hypothesentest: H 0 : µ = µ 0 gegen H 1 : µ µ 0 512
13 Teststatistik: T 2 = n d (n 1)d n( X µ 0 ) T S 1 ( X µ 0 ) Unter H 0 : T 2 F d,n d Ablehnung von H 0, falls T 2 F d,n d;1 α Beispiel: Schweizer Banknoten Datensatz von 200 Schweizer Banknoten. 100 davon sind echt, 100 Banknoten sind gefälscht. d = 6 dimensionaler Beobachtungsvektor: X 1 - Länge der Banknote X 2 - Höhe der Banknote (links) X 3 - Höhe der Banknote (rechts) X 4 - Abstand des inneren Rahmens von der Unterkante X 5 - Abstand des inneren Rahmens von der Oberkante X 6 - Länge der Bilddiagonale bekannter wahrer Mittelwert der echten Banknoten µ 0 = (214.9, 129.9, 129.7, 8.3, 10.1, 141.5) T geschätzter Mittelwert der gefälschten Banknoten X = (214.8, 130.3, 130.2, 10.5, 11.1, 139.4) T Empirische Kovarianzmatrix 513
14 S = T 2 H = n( X µ 0 ) T S 1 ( X µ 0 ) = T 2 = n d (n 1)d T H 2 = = > F 6,94,0.999 =
15 Konstruktion von simultanen Kondenzintervallen für µ: Resultat der linearen Algebra: Für jede symmetrische d s Matrix A und jeden Vektor c IR d gilt c T Ac λ 1 c T c, wobei λ 1 der gröÿte Eigenwert von A ist. Man beachte: Ist A 0, so gilt λ 1 spur(a). Anwendung: Für jeden Vektor a IR d, a 0 erhält man mit c := S 1/2 a (a T ( X µ)) 2 a T Sa = (ct S 1/2 ( X µ)) 2 c T c = ct S 1/2 ( X µ)( X µ) T S 1/2 c c T c spur(s 1/2 ( X µ)( X µ) T S 1/2 ) = ( X µ) T S 1 ( X µ) Sei K α : (n 1)d n(n d) F d,n d;1 α. Hieraus folgt, dass für alle α > 0 1 α = P [ ( X µ) T S 1 ( X ] µ) K α [ (a T ( P X µ)) 2 a T Sa ] K α für alle a IR d, a 0 515
16 Bezeichnen a 1 = (1, 0,..., 0) T,..., a d = (0, 0,..., 1) T die d verschiedenen Einheitsvektoren, so gilt insbesondere P [ (a T i ( X µ)) 2 s 2 i K α für alle i = 1,..., d ] 1 α, wobei s 2 i = at i Sa i = 1 n 1 j (X ij X i ) 2 Simultane Kondenzintervalle für µ i, i = 1,..., d: µ i = X i ± s i Kα Beispiel: Simultane Kondenzintervalle für die Mittelwerte der gefälschten Banknoten: µ µ µ µ µ µ
17 5.4 Inferenz für lineare Hypothesen Seien X 1,..., X n i.i.d, X i N d (µ, Σ) und S = 1 n 1 i (X i X)(X i X) T. Man betrachte nun eine lineare Transformation Y = CX für eine q d-matrix C (q d). Die Matrix CΣC T sei invertierbar. Es gilt Y = CX N q (Cµ, CΣC T ) und Man erhält dann n(c X Cµ) T (CΣC T ) 1 (C X Cµ) χ 2 q n q (n 1)q n(c X Cµ) T (CSC T ) 1 (C X Cµ) }{{} T 2 (q,n 1) F q,n q Anwendung: Multivariates Verfahren der Varianzanalyse mit Messwiederholungen Messungen der Reaktionen eines Individuums (Versuchseinheit) auf jede von i = 1,..., c verschiedenen Stufen eines Faktors n zufällig ausgewählte Individuen Beobachtungen Y ij, i = 1,..., c Faktorstufen; j = 1,..., n Individuen Für jedes Individuum wird Y j = (Y 1j, Y 2j,..., Y cj ) als Vektor von Beobachtungen aufgefasst, Y j N c (µ, Σ), µ = (µ 1,..., µ c ) T 517
18 Nullhypothese (kein Eekt der Faktorstufen): H 0 : µ 1 = µ 2 = = µ c Die Nullhypothese lässt sich umschreiben in die Form: H 0 : Cµ = 0 für die (c 1) c Matrix C := Teststatistik: F = n(n c + 1) (n 1)(c 1) (CȲ Cµ)T (CSC T ) 1 (CȲ Cµ) mit Ȳ = 1 n Y j und S := 1 n 1 n j=1 (Y j Ȳ )(Y j Ȳ )T. Unter H 0 : F F c 1,n c+1 Ablehnung, falls F beob zu groÿ 518
19 Beispiel: Für n = 40 zufällig ausgewählte Kinder wurde jeweils das Vokabular in c = 4 aufeinanderfolgenden Schuljahren mit Hilfe eines Tests überprüft (Klassen 8-11) Beobachtungen: Y j = (Y 1j,..., Y 4j ) T, j = 1,..., n Nullhypothese: µ 1 =..., µ 4 bzw H 0 : Cµ = 0, C := Es ergab sich: Ablehnung von H 0. Ȳ = (1.086; 2.544; 2.851; 3.420) S = F beob = > 26.5 = F 3,37;0.99 Simultane 95% Kondenzintervalle: 1.96 µ 1 µ µ 2 µ µ 3 µ
Lösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrNachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
MehrStatistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrLS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch
LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrDie Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrDie partielle Likelihood-Funktion
Die partielle Likelihood-Funktion Roger Züst 12. Juni 26 1 Repetition: Maximum-Likelihood-Methode Hat man n unabhängige Beobachtungen x 1, x 2,..., x n einer Zufallsvariablen X und eine Familie von möglichen
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrEinfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
Mehr6. Statistische Hypothesentests
6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrNachklausur Mathematik für Biologen WS 08/09
Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrGrundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).
Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Mehr4 Statistik normalverteilter Daten
4 Statistik normalverteilter Daten 4.1 Eine Stichprobe a Die drei Grundfragen. Die schliessende Statistik bildet die Brücke zwischen den Wahrscheinlichkeitsmodellen, die unser Denken strukturieren, und
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Diese Selbstkontrollarbeit bezieht sich auf die Kapitel 1 bis 4 der Kurseinheit 1 (Multivariate Statistik) des Kurses Multivariate Verfahren (883). Hinweise:
Mehr5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419
5.8 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF- Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. auf weitere
Mehr(G)LM. 24. November 2009
(G)LM 24 November 29 Dies ist eine kurze Zusammenfassung der Grundlagen von linearen Modellen, sowie aufbauend darauf von generalisierten linearen Modellen Sie dient lediglich zum Einstieg und zur knappen
MehrD-CHAB Frühlingssemester 2017 T =
D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme
Mehr6. Statistische Schätzung von ARIMA Modellen
6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrHochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann 8. Übungsblatt zur Vorlesung Ökonometrie Aufgabe 1: In der Vorlesung haben wir das lineare Regressionsproblem als statistisches Problem formuliert:
Mehr2 Klassische statistische Verfahren unter Normalverteilungs-Annahme
7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 08. Oktober 2010 Till Breuer, Sebastian Mentemeier und Matti Schneider Institut für Mathematische Statistik Universität Münster WS 2010/11 Gliederung 1 Ein-Stichproben-Fall
Mehr3.2 Maximum-Likelihood-Schätzung
291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
Mehr