Eigenwerte: Auto.eigen<-eigen(cor(Auto.frame))$values round(auto.eigen,digits=4) Kumulierter Anteil
|
|
- Louisa Brahms
- vor 6 Jahren
- Abrufe
Transkript
1 Korrelationsmatrix: Auto.cor<-cor(Auto.frame) round(auto.cor,digits=4) X1 X2 X3 X4 X5 X6 X7 X X X X X X X MV07f01
2 Eigenwerte: Auto.eigen<-eigen(cor(Auto.frame))$values round(auto.eigen,digits=4) Kumulierter Anteil der erklärten Variation: round(cumsum(auto.eigen/7)*100,digits=2) Eigenvektoren: Auto.eigenvektor12<-eigen(cor(Auto.frame))$vectors[,1:2] round(auto.eigenvektor12,digits=4) MV07f02
3 Faktorenladungen: Auto.Ladung<-Auto.eigenvektor12%*%diag(sqrt(Auto.eigen[1:2])) round(auto.ladung,digits=4) [,1] [,2] X X X X X X X Kommunalitäten: Auto.Kommun<-diag(Auto.Ladung%*%t(Auto.Ladung)) round(auto.kommun,digits=4) MV07f03
4 Restmatrix: Ψ (2) = R Λ (2) Λ t (2) Auto.Rest<-Auto.cor-Auto.Ladung%*%t(Auto.Ladung) round(auto.rest,digits=4) X1 X2 X3 X4 X5 X6 X7 X X X X X X X MV07f04
5 Rotation: Optimale Drehwinkel nach Varimax: α = 21.8 T = ( cos(α) sin(α) sin(α) cos(α) ) = Λ (2) = Λ (2) T ( ) Dreh.mat<-matrix(c(0.9284, , , ), byrow=t, nrow=2) Auto.Dreh.Ladung<-Auto.Ladung%*%Dreh.mat
6 Ladungsmatrix nach der Drehung: round(auto.dreh.ladung,digits=4) [,1] [,2] X X X X X X X MV07f05
7 Hilfe zur Interpretation der Faktoren: +, wenn λ jk > 0.5 f 1 f 2 Anschaffungspreis X 1 + Betriebskosten X 2 + Umfang der Serienausstattung X 3 + Styling der Karosserie X 4 + Prestige der Marke X 5 + Fahrkomfort X 6 + Raumangebot X Faktor: Produktdesign 2. Faktor: Wirtschaftlichkeit MV07f06
8 Darstellung der Variablen vor und nach der Drehung: 2. Faktor X1 X2X3 X6 X4 X7 X5 2. Faktor X1 X2 X3 X6 X4 X7 X5 MV07f Faktor Faktor
9 Faktorenanalyse in R: factanal(auto.frame,factors=2) Call: factanal(x = Auto.frame, factors = 2) Uniquenesses: X1 X2 X3 X4 X5 X6 X Loadings: Factor1 Factor2 X X X X X X X Factor1 Factor2 SS loadings Proportion Var Cumulative Var Test of the hypothesis that 2 factors are sufficient. The chi square statistic is 4.96 on 8 degrees of freedom. The p-value is MV07f08
10 1. Uniquenesses: Spezifische Varianzen, d.h. Var(e j ), j = 1,...,7 2. Loadings: Faktorenladungen. 3. SS loadings: Summe der Quadrate der Faktorenladungen in der Spalte = Varianz, die durch diesen Faktor erklärt wird. 4. Proportion Var: Anteil der Varianz, die durch diesen Faktor erklärt wird. 5.Cumulative Var: Der kumulierte Anteil der erklärten Varianz.
11 6.Test of the hypothesis that 2 factors are sufficient: Nullhypothese: Zwei Faktoren reichen. PG χ 2 [(m p) 2 m p]/2 m = 7,p = 2 = [(7 2) 2 7 2]/2 = 8 PG = 4.96 P-Wert: round(1-pchisq(4.96,8),digits=3) MV07f09
12 Auto.Lade.ML<-factanal(Auto.frame, factors=2) $loadings[,1:2] round(auto.lade.ml,digits=4) Factor1 Factor2 X X X X X X X
13 MV07f10 2. Faktor X1 X2 X3 X6 X4 X7 X Faktor
14 Die Funktion varimax rotiert Ladungsmatrizen varimax(auto.ladung) $loadings [,1] [, 2] X X X X X X X $rotmat [,1] [,2] [1,] [2,] Faktorenladungen nach Rotation Rotationsmatrix MV07f11
15 Die multivariate Normalverteilung Y t = (Y 1,...,Y m ) E(Y ) = µ Var(Y ) = Σ a t = (a 1,...,a m ) U = a t Y univariate ZV mit E(U) = a t µ Var(U) = a t Σa Eine m-dimensionale Zufallsvariable Y hat eine multivariate Normalverteilung, wenn alle Linearkombinationen von Y eine univariate Normalverteilung besitzen. Kap. 2.2: Σ positiv semidefinit Im Gegensatz zu Kap. 2.3: Hier keine weiteren Bedingungen an Σ. Definition über Dichte verlangt Existenz von Σ 1, d.h. Σ voller Rang und somit positiv definit Normalverteilung, für die Σ 1 nicht existiert, heißt singuläre oder degenerierte Normalverteilung.
16 Folgerung aus der Definition: A m p -Matrix und W = A t Y = W N p (A t µ;a t ΣA) Denn: Jede Linearkombination von W ist eine Linearkombination von Y und damit normalverteilt. Univariat: Standardisierung: m = 1 = Y µ σ Jetzt multivariates Analogon: N(0; 1) Y N m (µ; Σ) U N p (0;I p ), wobei p = Rang(Σ) und I p p- dimensionale Einheitsmatrix MV07f12
17 Fall A: Rang(Σ) = m m m-matrix B: Σ = BB t (z.b. Σ = AΛA t = AΛ }{{ 1/2 } Λ} 1/2 {{ A} t ) B B t Wir zeigen Y ist verteilt wie: µ + BU U N m (0;I) = BU N m (0;BB }{{} t ) = µ + BU N m (µ; Σ) Y = µ + BU Inverse Transformation: U = B 1 (Y µ) Y N m (µ; Σ) = E(U) = 0 Var(U) = B ( 1 Σ(B ) 1 ( ) t = B 1 (BB t )(B t ) 1 = B 1 B B t (B t ) 1) = I m Damit gilt U N(0;I m ). Σ MV07f13
18 Fall B: Rang(Σ) = p < m = P, nichtsingulär, so dass PΣP t = ( Ip ) ( ) Σ = P 1 Ip 0 (P 1 ) t 0 0 ( ) P1 P = für p m Matrix P 1 = Rang(P 1 ) = p Q := P 1 Q = [Q 1,Q 2 ], wobei Q 1 (m p)-matrix mit Rang(Q 1 ) = p Σ = Q ( Ip ) Q t = [Q 1,Q 2 ] P 2 ( Ip )( Q t 1 Q t 2 Für Σ mit Rang p gibt es P 1 und Q 1 mit Rang p, so dass ) = Q 1 Q t 1 Σ = Q 1 Q t 1 und P 1 ΣP t 1 = I p MV07f14
19 Rang(Σ) = p < m = Σ = Q 1 Q t 1 P 1 ΣP t 1 = I p Wir zeigen Y ist verteilt wie: µ + Q 1 U U N p (0;I) Q 1 U (m 1) N m (0,Q 1 Q t 1 ) = N m(0, Σ) vom Rang p Y = µ + Q 1 U N m (µ;q 1 Q t 1 ) = N m(µ; Σ) vom Rang p Wenn umgekehrt Y N m (µ; Σ), so gilt mit der p m-matrix P 1 U = P 1 (Y µ) p 1 N p (0;P 1 ΣP t 1 ) = N p(0;i)
20 Y = µ + Q 1 U N m (µ;q 1 Q t 1 ) = N m(µ; Σ) vom Rang p U = P 1 (Y µ) p 1 N p (0;P 1 ΣP t 1 ) = N p(0;i) Die Matrizen P 1 und Q 1 können z.b. so gewählt werden: Rang(Σ) = p < m: Λ Diagonalmatrix Eigenwerte 0 von Σ und A die m p-matrix der zugehörigen Eigenvektoren P 1 = Λ 1/2 A t Q 1 = AΛ 1/2 Rang(Σ) = m Λ Diagonalmatrix der Eigenwerte von Σ und A m m-matrix der zugehörigen Eigenvektoren P 1 = P = Λ 1/2 A t Q 1 = Q = P 1 = B Hauptkomponentenanalyse, transformierte Variablen sind unkorreliert und haben Varianz 1 MV07f15
21 Zusammenfassung: Y N m (µ; Σ) mit Rang p m gilt genau dann, wenn Y = µ + BU, wobei U N p (0;I),BB t = Σ und B ist eine m p-matrix vom Rang p. Wenn Σ vollen Rang hat, ist B eine m m-matrix mit vollem Rang und wir schreiben: U = B 1 (Y µ). MV07f16
22 Eigenschaften der multivariaten Normalverteilung Y N m (µ, Σ) vom Rang m = (Y µ) t Σ 1 (Y µ) χ 2 m m = 1 = [(Y µ)/σ] 2 χ 2 1 U = B 1 (Y µ) mit BB t = Σ und U N(0;I) U t U = m Uj 2 U j N(0; 1) = U t U χ 2 m j=1 U t U = (Y µ) t (B 1 ) t B 1 (Y µ) = (Y µ) t Σ 1 (Y µ) µ 0 µ (Y µ 0 ) t Σ 1 (Y µ 0 ) χ 2 m(δ 2 ) Nichtzentralitätsparmeter: δ 2 = (µ µ 0 ) t Σ 1 (µ µ 0 ) MV07f17
23 Randverteilungen und bedingte Verteilungen Y = ( Y 1 Y 2 ) µ = ( µ1 µ 2 mit Y 1 ein (q 1) Vektor ) Σ = ( Σ11 Σ 12 Σ 21 Σ 22 ) q < m Σ 11 q q Σ 22 (m q) (m q) Σ 12 = Σ t 21 q (m q) Y 1 N q (µ 1 ; Σ 11 ). Y 1 und Y 2 unabhängig Σ 12 = 0. Rang(Σ 22 ) = m q = Y 1 Y 2 = y 2 multivariat Normal mit: E(Y 1 Y 2 = y 2 ) = µ 1 + Σ 12 Σ 1 22 (y 2 µ 2 ) Var(Y 1 Y 2 = y 2 ) = Σ 11 Σ 12 Σ 1 22 Σ 21 MV07f18
24 Bedingte Verteilungen für q = 1 q = 1 = Y 1 = Y 1 E(Y 1 Y 2 = y 2 ) = µ 1 + Σ 12 Σ 1 22 (y 2 µ 2 ) Var(Y 1 Y 2 = y 2 ) = Σ 11 Σ 12 Σ 1 22 Σ 21 Σ 12 Σ 1 22 E(Y 1 Y 2 = y 2 ) = µ 1 + Σ 12 Σ 1 22 (y 2 µ 2 ) 1 (m 1) E(Y 1 Y 2 = y 2 ) = µ 1 + β 2 (y 2 µ 2 ) β m (y m µ m ) Var(Y 1 Y 2 = y 2 ) = 1 σ 11 m = 2 E(Y 1 Y 2 = y 2 ) = µ 1 +ρ σ 1 σ 2 (y 2 µ 2 ) Var(Y 1 Y 2 = y 2 ) = σ 2 1 (1 ρ2 ) MV07f19
25 Zerlegung der unbedingten Varianz: Var(Y 1 Y 2 = y 2 ) = σ 11 Σ 12 Σ 1 22 Σ 21 σ 11 = Σ 12 Σ 1 22 Σ 21 + Var(Y 1 Y 2 = y 2 ) SQ(Total) = SQ(Regression) + SQ(Residuale) MV07f19a
26 Linearkombinationen zufälliger Vektoren: V = n r=1 d r X r X r zufällige Vektoren; d r skalare Konstanten. E(X r ) = µ r, Varianz-Kovarianzmatrix Σ r µ V = E(V ) = n r=1 d r E(X r ) = n r=1 d r µ r Σ V = Var(V ) = n r=1 d 2 rσ r + 2 r<s d r d s cov(x r,x s ) Wenn X r normalverteilt, dann auch V
27 V = n r=1 d r X r Σ V = Var(V ) = n r=1 d 2 rσ r + 2 r<s d r d s cov(x r,x s ) X r unkorreliert und dieselbe Varianz-Kovarianzmatrix Σ d t = (d 1,d 2,...,d n ) n Var(V ) = r=1 d 2 r Σ = (d t d)σ MV07f20
28 X r unkorreliert und dieselbe Varianz-Kovarianzmatrix Σ V = n r=1 d r1 X r W = n r=1 d r2 X r d t i = (d 1i,d 2i,...,d ni ) cov(v,w) = (d t 1 d 2)Σ Wenn X r normalverteilt, so auch V und W. V und W sind unabhängig, wenn d t 1 d 2 = 0.
29 Stichprobenmittelwert: X r N m (µ; Σ) unabhängig X = n r=1 X r /n d r = 1/n X N m ( µ; 1 n Σ ) m = 1 Var( X) = σ 2 /n MV07f21
30 Schätzung der Parameter X erwartungstreuer Schätzer des Parameters µ S erwartungstreuer Schätzer von Σ X multivariate Normalverteilung = X M-L-Schätzer von µ [(n 1)/n]S M-L-Schätzer von Σ Gemeinsame Verteilung von X und S??? Brauchen: Wishart-Verteilung!!! MV07f22
31 Die Wishart-Verteilung Multivariate Verallgemeinerung der χ 2 -Verteilung Seien X r, r = 1, 2,...,f unabhängig und N m (µ r ; Σ). Dann nennt man die f Verteilung der m m-matrix W = X r X t r eine Wishart-Verteilung und r=1 W wird eine Wishart-Matrix genannt. Die Verteilung heißt zentral, wenn alle µ r = 0 und wir schreiben dann: W W m (f, Σ) Andernfalls heißt die Verteilung nichtzentral und wir schreiben: Dabei ist M t = [µ 1,µ 2,...,µ f ]. W W m (f, Σ;M) MV07f23
32 Wishart-Matrix: X t X = X = X t 1 X t 2. X t f W = X t X = (X 1,...,X f ) Y t 1 Y t 2. Y t m X = (Y 1, Y 2,...,Y m ) X t 1. X t f (Y 1,Y 2,...,Y m ) = = f X r X t r = (w ij ) m m r=1 Y t 1Y 1 Y t 1Y 2... Y t 1Y m Y t 2Y 1 Y t 2Y 2... Y t 2Y m Y t my 1 Y t my 2... Y t my m w ij = Y t iy j = f Y ir Y jr = f X ri X rj das (ij)-te Element von W, d.h. W ist die r=1 r=1 zufällige Matrix der (unkorrigierten) Summen der Quadrate und Produkte der Y j. MV07f24
33 Eigenschaften der Wishart-Verteilung: 1. E(W) = fσ + M t M 2. Rang(W) = min(f, m) mit Wahrscheinlichkeit W 1 W m (f 1, Σ;M 1 ) und W 2 W m (f 2, Σ;M 2 ) unabhängig = W 1 + W 2 W m (f 1 + f 2, Σ;M) mit M t = [M1 t Mt 2 ]. 4. W W m (f, Σ;M) und C eine m q-matrix von Konstanten = C t WC W q (f,c t ΣC;MC) Z r = C t X r = C t WC = f C t X r X t rc = f Z r Z t r r=1 Z r unabhängig und Z r N(C t µ r ; C t ΣC). 5. W W m (f, Σ;M) und c ein (m 1)-Vektor von Konstanten = c t Wc σ 2 χ 2 f (δ2 ) wobei σ 2 = c t Σc und σ 2 δ 2 = c t M t Mc r=1 MV07f25
34 X = X t 1 X t 2. X t n X r N m (µ r ; Σ) unabhängig mit E(X t ) = M t = [µ 1,µ 2,...,µ n ] D = [d 1,d 2,...,d n ] n n orthogonal V r = X t d r = (X 1,X 2,...,X n ) d r1 d r2. d rn = n d ri X i, i=1 = V r N m (ν r ; Σ) unabhängig mit ν r = M t d r r = 1, 2,...,n MV07f26
35 6. Die Wishart-Matrix X t X kann in die Summe von unabhängigen Wishart-Matrizen zerlegt werden: s X t X = X t D k Dk t X D k (n n k )-Matrizen mit s k=1 k=1 n k = n. Spalten sind disjunkte Teilmengen einer orthogonalen Matrix D. MV07f26a
36 Gemeinsame Verteilung X und S X r N m (µ; Σ), X t = [X 1,X 2,...,X n ] r = 1, 2,...,n unabhängig und identisch D n n orthogonal; D = [d 1,D 2 ] d t 1 = (1/ n)[1, 1,...,1] unabhängige Wishart-Matrizen X t X = X t d 1 d t 1 X + Xt D 2 D t 2 X V r := X t d r unabhängig, normalverteilt, Kovarianzmatrix Σ V 1 = 1 n n X r = n X MV07f27 r=1 X t d 1 d t 1 X = V 1V t t 1 = n X X n X t D 2 D2 t X = V r V t r = X t X n X X t = (n 1)S r=2
37 X = (1/ n)v 1 = X N m (µ; (1/n)Σ) Verteilung von S??? r > 1 = E(V r ) = E da d t 1 d r = 1 n n s=1 ( n d sr = 0 s=1 d sr X r ) = n s=1 d sr }{{} =0 µ = 0 = 0 Definition einer Wishart-Verteilung = n (n 1)S = V r V t r W m (n 1, Σ) E(S) = Σ r=2 m = 1 X N(µ;σ 2 /n) (n 1)s 2 σ 2 χ 2 n 1 s 2 = (1/(n 1)) n (x r x) 2 MV07f28 r=1
6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrKapitel 5. Faktorenanalyse. 5.1 Einführung. 5.2 Das Modell der Faktorenanalyse
Kapitel 5 Faktorenanalyse 51 Einführung Die Faktorenanalyse ist wie die Hauptkomponentenanlyse eine variablenorientierte Methode, die dann angebracht ist, wenn die Variablen gleichwertig sind, dh wenn
Mehr1 (2π) m/2 det (Σ) exp 1 ]
Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrBeispiel 6 (Multivariate Normalverteilung)
Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrGrundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.
Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
MehrGrundzüge der Faktorenanalyse
SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
MehrVektoren und Matrizen
Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrZur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen.
4.3 Faktorenanalyse Problemstellung Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. Je größer jedoch die
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
MehrVergleich von Gruppen I
Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Mehr6 Die Schursche Normalform und einige Klassen von Matrizen
ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrTheorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0.
Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Korollar 2 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrMehrdimensionale Verteilungen und Korrelation
Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in
MehrVAR- und VEC-Modelle. Kapitel 22. Angewandte Ökonometrie / Ökonometrie III Michael Hauser
1 / 42 VAR- und VEC-Modelle Kapitel 22 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 42 Inhalt VAR-Modelle, vector autoregressions VARX in Standardform und Strukturform VAR: Schätzung in
MehrStatistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrGrundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).
Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrD-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j
D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich
MehrEinfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrMC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
MehrSind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor.
5 Faktorenanalyse 5.1 Das orthogonale Faktorenmodell Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. Beispiel 5.1. Körpergröße
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrKonfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr1. Grundbegri e der Stochastik
. Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrStichproben Parameterschätzung Konfidenzintervalle:
Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,
Mehr