Kovarianz, Korrelation und lineare Regression

Größe: px
Ab Seite anzeigen:

Download "Kovarianz, Korrelation und lineare Regression"

Transkript

1 Kovarianz, Korrelation und lineare Regression Dr habil Dorothee Hüser, PTB 2 Nov 217 Fünfte Vorlesung zu Messdatenauswertung und Messunsicherheit MDA Modulverantwortlicher: Prof Dr-Ing R Tutsch iprom, TU Braunschweig 1 Korrelation und Kovarianz Für eine Bewertung von Wechselwirkungen zwischen Effekten werden in der Statistik Maße definiert, die die Stärke und eventuell auch Richtung eines Zusammenhangs zwischen dem Auftreten zufälliger Ereignisse quantifizieren sollen Ein solches Maß für die Charakterisierung linearer Zusammenhänge ist der Korrelationskoeffizient ρ, der so definiert ist, dass er Werte zwischen 1 und 1 annehmen kann Gibt es einen direkten linearen Zusammenhang zwischen zwei Zufallsgrößen X 1 und X 2, so wird man zu einer Beobachtung der einen Größe mit kleinem Wert auch einen kleinen Wert bei der anderen Größe beobachten und wenn die eine Größe einen großen Wert annimmt, so wird die andere auch einen großen Wert annehmen, und ρ wird in der Nähe von 1 liegen Haben zwei Zufallsgrößen einen ebenso direkten Zusammenhang, aber in umgekehrter Weise, dass zu kleinen Werten von der ersten Größe große Werte zur zweiten Größe auftreten und umgekehrt, so liegt ρ in der Nähe von 1 In beiden Fällen sagt man, dass die Größen korreliert seien Gibt es überhaupt gar keinen Zusammenhang zwischen dem, was an Werten zu der einen 1

2 35 X X 2 = = X X 1 Abbildung 1: Wenn es einen linearen Zusammenhang zwischen zwei Zufallsgrößen X 1 und X 2 gibt, so sagt man, dass sie korreliert sind und der Korrelationskoeffizient ρ liegt bei Eins links oder bei minus Eins Wenn es keinen Zusammenhang zwischen zwei Zufallsgrößen X 1 und X 2 gibt, so sagt man, dass sie unkorreliert sind und der Korrelationskoeffizient ρ liegt bei Null rechts Größe beobachtet wird mit dem, was an Werten zu der anderen Größe beobachtet wird, so ist ρ = und man sagt die beiden Größen seien unkorreliert DieErwartungswertezujederderGrößenX 1 undx 2 sindjeweilsex 1 undex 2 Siewerden aus den Mittelwerten der jeweiligen Stichproben geschätzt x 1 = 1 J X 1,j x 2 = 1 J X 2,j 1 Dann ist X = x 1 2 x 2 der Schwerpunkt der Beobachtungen der Größen Sind die Entfernungen der Beobachtungspärchen X 1,j,X 2,j vom Schwerpunkt so, dass die Richtungskomponente der Größe X 1 in die gleiche Richtung weist und auch in proportionale Entfernung wie die Richtungskomponente der Größe X 2, so liefern die Produkte X 1,j x 1 X 2,j x 2 gleiche Vorzeichen Streuen diese aber unzusammenhängend, so mitteln sich die unterschiedlichen Terme X 1,j x 1 X 2,j x 2 bei Summation weg Wir definieren die Größe s 1,2 := 1 J 1 X 1,j x 1 X 2,j x 2 3 MDA, 5V, iprom 2 dhueser@tu-bsde

3 und nennen sie die empirische Kovarianz Allgemein ist die Kovarianz für Zufallsgrößen, deren gemeinsame Verteilung ihre Wahrscheinlichkeitsdichte px 1,X 2 sei, wie folgt definiert CovX 1,X 2 := X 1 EX 1 X 2 EX 2 px 1,X 2 dx 1dX 2 4 Wir sehen hier, dass die Kovarianz einer Zufallsgröße mit sich selbst die Varianz ist VarX 1 := CovX 1,X 1 = X 1 EX 1 2 px 1 dx 1 5 und für die empirsche Varianz und Kovarianz gilt entsprechend s 2 1 := s 1,1 = 1 J 1 X 1,j x Wir haben bereits in der 2 Vorlesung gesehen, dass bei der Steigung der Regressionsgraden Aufgabe 1 genau so ein Term J X 1,j x 1 X 2,j x 2 im Zähler steht Für das Verständnis der Gesamtzusammenhänge ist der Sprachgebrauch für Zufallsgrößen sowie der Sprachgebrauch des Erwartungswertes von Zufallgrößen von Bedeutung Verknüpfungen von Zufallsgrößen sind ihrerseits wieder Zufallsgrößen Betrachten wir eine Größe X, die ganz abstrakt und allgemein eine Zufallsgröße ist, und px die Wahrscheinlichkeitsdichteverteilung dazu, so heißt EX := X px dx 7 Erwartungswert der Zufallsgröße X Ist diese Zufallsgröße eine Verknüpfung von anderen Zufallsgrößen und setzen wir die Verknüpfung ein, so wird der Erwartungwert mit derselben Verknüpfung gebildet Betrachten wir zum Beispiel die Verknüpfung Addition X = X 1 +X 2 EX 1 +X 2 := X 1 +X 2pX 1,X 2 dx 1 dx 2 8 MDA, 5V, iprom 3 dhueser@tu-bsde

4 dh EX 1 +X 2 = + X 1pX 1,X 2 dx 1 dx 2 und mit der Randverteilung engl marginal distribution X 2pX 1,X 2 dx 1 dx 2 9 px 2 = px 1,X 2 dx 1 1 erhalten wir EX 1 +X 2 = X 1pX 1 dx 1 + X 2pX 2 dx 2 11 also EX 1 +X 2 = EX 1 + EX 2 12 In Worten heißt dies: Der Erwartungswert einer Summe von Zufallsgrößen ist die Summe der Erwartungswerte der Zufallsgrößen Als nächstes betrachten wir das Produkt zweier Zufallsgrößen X = X 1 X 2 EX 1 X 2 := X 1X 2 px 1,X 2 dx 2 dx 1 13 Die Kovarianz ist der Erwartungswert folgenden Produktes X 1 EX 1 X 2 EX 2 EX 1 EX 1 X 2 EX 2 = X 1 EX 1 X 2 EX 2 px 1,X 2 dx 1 dx 2 14 also CovX 1,X 2 = EX 1 EX 1 X 2 EX 2 15 Ferner ist zu bemerken, dass sich aus diesen Beziehungen für die Kovarianz ergibt CovX 1,X 2 = EX 1 X 2 X 2 EX 1 X 1 EX 2 +EX 1 EX 2 = EX 1 X 2 EX 2 EX 1 EX 1 EX 2 +EX 1 EX 2 = EX 1 X 2 EX 1 EX 2 16 Per Definitionem gilt VarX := CovX, X 17 MDA, 5V, iprom 4 dhueser@tu-bsde

5 Daraus folgt, dass für die Varianz einer Zufallsgröße, die das Produkt einer Zufallsgröße X mit einem konstanten, festen reellen Faktor b ist, gilt VarbX := b 2 VarX 18 Eine weitere wichtige Beziehung ist folgende zur Varianz einer Summe von Zufallsgrößen: N N Var X i = CovX i,x j 19 i, Die Varianz ist nach Definition N Var X i = [ N X i 2 N E X i ] px 1,,X 2 dx 1 dx N 2 Da der Erwartungswert einer Summe von Zufallsgrößen gleich der Summe der Erwartungswerte jeder einzelnen dieser Zufallsgrößen ist, siehe Gl 12, gilt N N N N X i E X i = X i EX i so dass gilt N Var X i = [ N 2 X i EX i ] px 1,,X 2 dx 1 dx N 21 Mit Anwendung des Assoziativgesetzes gilt N Var X i [ N 2 [ N ] [ N ] X i EX i ] = X i EX i X k EX k k=1 = N N X i EX i X k EX k = N k=1 N X i EX i X k EX k px 1,,X 2 dx 1 dx N k=1 Durch Berechnung der Marginalverteilungen und weil px j dx j = 1 für alle j, die weder i 22 MDA, 5V, iprom 5 dhueser@tu-bsde

6 noch k sind erhalten wir N N N Var X i = k=1 X i EX i X k EX k px i,x k dx i dx k 23 Der Term auf der rechten Seite ist genau die Kovarianz der beiden Größen X i und X k Die Beziehung Gl 19, dass die Varianz der Summe von Zufallsgrößen gleich der Summe der paarweisen Kovarianzen ist, werden wir im Laufe dieser Vorlesungsreihe häufig benötigen: N Var X i = = = N N CovX i,x k k=1 N VarX i + N N i,k=1,i k N 1 VarX i +2 k=i+1 CovX i,x k N CovX i,x k, 24 die sich erweitern lässt, wenn die summierten Zufallsgrößen mit jeweils einem reellen, konstanten Faktor multipliziert sind: N Var c i X i = = = N N Covc i X i,c k X k k=1 N c 2 i VarX i + N N i,k=1,i k N 1 c 2 i VarX i +2 k=i+1 c i c k CovX i,x k N c i c k CovX i,x k 25 Auf Gleichung 25 werden wir in den nächsten Vorlesungen zurück kommen, denn diese ist die Grundlage für das Gesetz zur Fortpflanzung von Messunsicherheiten Für standardnormalverteilte Zufallsgrößen Z i mit Z N,1 und i = 1,2 in die sich die Größen X i wie folgt umrechnen lassen Z i = X i EX i VarXi 26 ist die Kovarianz gleich dem Korrelationskoeffizienten ρ i,k = CovZ i,z k 27 MDA, 5V, iprom 6 dhueser@tu-bsde

7 was äquivalent ist zu ρ i,k = CovX i,x k VarXi VarX k 28 Mit diesem Rüstzeug an Rechenregeln und Definitionen sind wir jetzt ausgestattet, Varianzen fortzupflanzen engl propagate Zentrales Thema dieser Vorlesungsreihe neben dem Schätzen von Modellparametern ist das Schätzen der Kovarianzen der Modellparameter Die Kovarianzen der Modellparameter repräsentieren ihre Messunsicherheit 2 Lineare Regression Bei der Regressionsrechnung gibt es folgende Typen von Größen Regressoren: Sie haben genau bekannte Werte engl exactly known values und sind somit keine Zufallsgrößen Sie sind unabhängig Regressanden: Zu ihnen gibt es beobachtete Werte, die jeweils einem Regressorwert zugeordnet sind engl observed data corresponding to the known values Sie sind Zufallsgrößen Sie sind abhängig vom Regressor dependent or response variable Modellparameter, die unbekannt sind; unknown parameters Zufallsgößen, regression parameters Ferner gibt es zusätzliche unbekannte Parameter, und zwar die Varianzen der beteiligten Zufallsgrößen, unknown additional parameters Für die im folgenden durchgeführten Berechnungen setzen wir voraus, dass die Residuen der Regressanden bezüglich des Modells normalverteilt mit derselben Varianz, dh identisch verteilt sind für jedes Residuum dieselbe Wahrscheinlichkeitsdichte, siehe Abb 2, dass die Beobachtungswerte der Residuen für die unterschiedlichen Werte der Regressoren unabhängig voneinander sind, dh unkorreliert Das heißt, die Residuen sind unabhängig und identisch verteilt, kurz uiv ε uiv N,σ ε 29 Abb 2 soll diesen Sachverhalt veranschaulichen Die unterschiedlichen Farben und Symbole sollen unterschiedliche Durchläufe gleicher Messvorgänge darstellen MDA, 5V, iprom 7 dhueser@tu-bsde

8 1 8 pdf der Residuen Y X Abbildung 2: Lineare Regression für unabhängig und identisch verteilte Residuen Wir erinnern uns nun daran, dass wir in einer der vorigen Vorlesungen darüber gesprochen hatten, dass die einzelnen Beobachtungen zu einer Zufallsgröße wiederum als Zufallsgrößen angesehen werden können, so auch die einzelnen Werte der Residuen ε j Das u für unabhängig in der Aussage 29 bedeutet, dass bei der Kovarianz Covε,ε = 1 ν ε j ε l 3 l=1 die Summanden ε j ε l für j l sich gegenseitig wegmitteln, also Covε,ε = 1 ν ε j ε j = σε 2 31 wobei ν = J M die Anzahl der Freiheitsgrade ist mit M für die Anzahl der Regressionsparameter Regressionsrechnung mit einem Regressanden, wird univariate Regression, oder oft einfach nur lineare Regression genannt Wenn es mehrere abhängige Zufallsgrößen, also mehrere Regressanden gibt, spricht man von multivariater Regression Die Regressoren müssen voneinander linear unabhängig sein Sie können aber eine Potenzbeziehung zueinander haben, also quadratisch, kubisch etc Wir erinnern uns wieder an das Übungsbeispiel Aufgabe 1, das wir in der zweiten Vorlesung behandelt hatten: MDA, 5V, iprom 8 dhueser@tu-bsde

9 Zu Bestimmen ist ein Ohmscher Widerstand R sowie eine Offsetspannung U zwei Zufallsgrößen, beides Modellparameter bei gegebenen Werten einer Präzisionsstromquelle Regressor, genau bekannt, dh keine Zufallsgröße und beobachteten Werten eines Voltmeters Regressand, Zufallsgröße: I in ma U in mv Es wird angenommen, dass die Stromstärken ohne Streuung vorliegen als Regressoren und die Spannungen normalverteilt streuen als Regressanden, so dass min R,U U j RI j U 2 32 a Lösen Sie das Gleichungssystem R U U j RI j U 2 = 33 b Berechnen Sie die aus der Lösung des Gleichungssystems aus a gewonnen Schätzwerte für R und U Wir hatten die partiellen Ableitungen gebildet R U j RI j U = I j U U j RI j U = 1 34 und daraus ein lineares Gleichungsystem gewonnen, das in Matrixschreibweise wie folgt aussah Ij 2 I j I j J R U = U j I j U j 35 MDA, 5V, iprom 9 dhueser@tu-bsde

10 und uns folgendes Ergebnis lieferte R U = Ij 2 I j I j J 1 U j I j U j 36 dh R U = 1 2 J J Ij 2 I j J J I j I j J Ij 2 U j I j U j 37 also R = J J U j I j J J U j I j I 2 j I j 2 38 Ferner schreiben wir alles auf Mittelwerte bezogen um, so dass die Steigung, welche den elektrischen Widerstand repräsentiert, im Zähler die Produktterme der Kovarianz-Beziehung bekommt: und Gl 38 wird umgeformt R = I m := 1 J 1 J I j U j I j 1 J 1 J I 2 j U m := 1 J U j dass wir die Gleichung mit den Mittelwerten aufschreiben können R = 1 J 1 J U j I j Ij 2 1 J 1 J U j 39 U m I m I 2 m I j I j MDA, 5V, iprom 1 dhueser@tu-bsde

11 Eine in der Literatur häufig zu findende Schreibweise für Regressionsgeraden ist R = U j U m I j I m I j I m 2 42 Dies gilt, weil U j U m I j I m = U j I j U j I m I j U m + U m I m 43 = U j I j J U m I m J I m U m + U m I m 44 = U j I j J U m I m J I m U m + J U m I m = U j I j J U m I m 45 gilt Dass erinnert uns an die Umformung in Gl 16 Jetzt schreiben wir alles mit unserer Notation für direkte und indirekte Messgrößen: Die direkten Messgrößen sind der Strom X 1 und die Spannung X 2, die indirekten Messgrößen sind der Widerstand Y 1 und der Spannungsoffset Y 2 Damit sieht die Modellgleichung der linearen Regression wie folgt aus: X 2 = Y 1 X 1 + Y 2 46 wobei X 1 der Regressor ist und X 2 der Regressand und die Residuen dann wie folgt aussehen ε j = X 2,j Y 1 X 1,j + Y 2 47 und das zu lösende Gleichungssystem X1,j 2 X 1,j X 1,j J Y 1 Y 2 = X 2,j X 1,j X 1,j 48 MDA, 5V, iprom 11 dhueser@tu-bsde

12 und schließlich Das ist Y 1 = und das J 1 kürzt sich raus, also X 2,j x 2 X 1,j x 1 X 1,j x Y 1 = J 1CovX 1,X 2 J 1VarX 1 5 Y 1 = CovX 1,X 2 51 VarX 1 Um lineare Regression ganz allgemein notieren zu können, ohne die vielen Summationen explizit hinschreiben zu müssen, wenn es nicht nur eine Gerade innerhalb einer Ebene ist, werden die Vorteile des Matrixformalismus der Mathematik genutzt Wir schreiben die Residuen jetzt so auf, dass der Faktor Eins vor dem Achsenabschnitt Y 2 zu lesen ist ε j = X 2,j Y 1 X 1,j + 1Y 2 52 dann schreiben wir den ganzen Vektor aller Residuen auf und schreiben die Summe als Produkt aus Matrix und Vektor ε 1 X 2,1 Y 1 X 1,1 + 1Y 2 = ε J X 2,J Y 1 X 1,J + 1Y 2 = X 2,1 X 2,J X 1,1 1 X 1,J 1 weil bei dem Produkt einer Matrix, an die von rechts ein Spaltenvektor multipliziert wird, wieder ein Vektor entsteht Die Rechenvorschrift dazu lautet: Zeile mal Spalte Wir nennen die Regressor-Matrix X Für den Vektor, den Regressanden X 2,1 X 2,J suchen wir auch einen Bezeichner, der sich gut von der Matrix unterscheiden lässt In der Literatur wird der Regressand und nicht die Regressionparameter meistens Y genannt Die Regressionparameter heißen dort θ Das passt zu der Denkweise, die Regressoren als Eingangsgrößen anzusehen und die Regressanden als Ausgangsgrößen, wie wir es in der ersten Vorlesung kurz angesprochen hatten Y 1 Y 2 53 MDA, 5V, iprom 12 dhueser@tu-bsde

13 ACHTUNG!!!!! AB HIER WIRD Y FÜR DEN REGRESSANDEN VERWENDET, NICHT FÜR DIE MODELLPARAMETER! Wir haben jetzt also als Y 1,,Y J die beobachteten Werte bezeichnet, die wir zuvor mit X 2,1,,X 2,J notiert hatten! Die beiden Modellparameter heißen ab jetzt θ 1 für das ehemalige Y 2, den Achsenabschnitt und θ 2 für das ehemalige Y 1, die Geradensteigung Als Regressormatrix verwenden wir jetzt X = 1 X 1,1 1 X 1,J 54 und bringen Gl 53 in folgende Gestalt ε 1 ε J = Y 1 1θ 1 + X 1,1 θ 2 Y J 1θ 1 + X 1,J θ 2 = Y 1 Y J 1 X 1,1 1 X 1,J θ 1 θ 2 55 Die Summe der Quadrate der Residuen J ε2 j lässt sich ebenso mit der Rechenregel Zeile mal Spalte schreiben, als Zeilenvektor mal Spaltenvektor ε 2 j = ε 1 ε J ε 1 ε J 56 Dabei heißt der Zeilenvektor der transponierte Vektor, also ε T = ε 1 ε J und ε = ε 1 ε J 57 und ferner führen wir ein θ = θ 1 θ 2 und Y = Y 1 Y J 58 MDA, 5V, iprom 13 dhueser@tu-bsde

14 und Gl 55 sieht in transponierter Schreibweise wie folgt aus 1 X 1,1 ε T = Y T θ T 1 X 1,J T 59 dh ε T = Y T θ 1 θ X 1,1 X 1,J 6 Die Summe der Quadrate der Residuen J ε2 j sieht damit wie folgt aus ε T ε = Y T θ T X T Y Xθ 61 dh ε T ε = Y T Y θ T X T Y Y T Xθ + θ T X T Xθ 62 Für die Ableitungen nach den θ 1,θ 2 gilt θ l ε 2 j = 2 ε j θ l ε j = 2 ε j 1 θ l 1θ 1 + X 1,j θ 2 = 63 wobei l = 1,2 ist also ε j θ 1 1θ 1 + X 1,j θ 2 = und ε j θ 2 1θ 1 + X 1,j θ 2 = 64 also ε j 1 = und ε j X 1,j = 65 Dies sieht in Matrixschreibweise als 2 2-Gleichungssystem wie folgt aus ε T X = 66 dh Y T θ T X T X = 67 dh θ T X T X = Y T X 68 MDA, 5V, iprom 14 dhueser@tu-bsde

15 das ist äquivalent zu X T Xθ = X T Y 69 Die numerische Lösung des Gleichungssystems liefert dann die Schätzwerte zu den Regressionparametern θ Formal notieren wir die Schätzer als solche kenntlich durch das Dach wie folgt ˆθ = X T X 1 X T Y 7 wobei hoch minus Eins soviel bedeutet wie die Inverse der Matrix Als nächstes ermitteln wir, um das vollständige Messergebnis zu erhalten, auch die Schätzwerte der Kovarianzen Die Hauptdiagonale der Kovarianzmatrix sind die Varianzen X Covθ,θ = Cov T X 1 X T Y, X T X 1 X T Y 71 das ist Covθ,θ = X T X 1 X T CovY,Y X T X 1 T X T 72 und mit Einsetzen der aus den Schätzern ˆθ erhaltenen empirischen Varianz der Residuen CovY,Y = Varε = ˆσ 2 ε bekommen wir die empirische Kovarianzmatrix ˆΣ θ = ˆσ 2 ε X T X 1 X T X T X 1 T X T 73 mit Varε = ˆσ 2 ε = 1 J M ˆεTˆε wobei M die Anzahl der Regressionsparameter ist, also M = 2 im Fall der Geraden, für die beiden Parameter Achsenabschnitt und Steigung und ˆε = Y Xˆθ Ferner gilt mit X T X 1 T X T = X X T X 1 ˆΣ θ = ˆσ 2 ε X T X 1 X T X X T X 1 74 und mit X T X 1 X T X = 1I Einheitsmatrix ˆΣ θ = ˆσ 2 ε X T X 1 75 Gleichung 75 liefert die Unsicherheit für die Regressionsparameter θ Setzen wir dies nun MDA, 5V, iprom 15 dhueser@tu-bsde

16 für die Regressionsgerade ein, also setzen wir X = 1 X 1,1 1 X 1,J ein, so erhalten wir für X T X 1 = 1 1 X 1,1 X 1,J 1 X 1,1 1 X 1,J 1 76 dh dh X T X 1 = J X 1,j X T X 1 1 = 2 J J X1,j 2 X 1,j X 1,j X1,j 2 1 X1,j 2 X 1,j J X 1,j J J so dass wir für den Achsenabschnitt θ 1 und die Steigung θ 2 folgende empirische Varianzen und Kovarianzen erhalten ˆσ 2 θ 1 ˆσ θ1,θ 2 ˆσ θ1,θ 2 ˆσ 2 θ 2 ˆσ 2 ε = 2 J J X1,j 2 X 1,j oder einzeln aufgeschrieben, die Varianz des Achsenabschnitts X1,j 2 X 1,j J X 1,j J J 79 ˆσ 2 θ 1 = ˆσ 2 ε X1,j J J X1,j 2 X 1,j MDA, 5V, iprom 16 dhueser@tu-bsde

17 15 1 Y X Abbildung 3: Unsicherheit der Schätzer der linearen Regression einer Geradengleichung für ein Vertrauensniveau von 98% Mit ν = J 2 = 26 2 = 24 Freiheitsgraden ist das Quantil der Student-t-Verteilung t 1 α/2,ν = 2492 die Kovarianz für Achsenabschnitt und Steigung ˆσ θ1,θ 2 = ˆσ 2 ε J J X2 1,j X 1,j 2 81 X 1,j und die Varianz der Steigung ˆσ 2 θ 2 = ˆσ 2 ε 2 82 X1,j 2 1 X J 1,j Die Standardabweichungen zu jedem Regressionsparameter θ l mit l = 1,,M sind die Wurzel aus den Varianzen, die auf der Hauptdiagonalen der Kovarianzmatrix X T X 1 ˆσ 2 ε stehen In der üblichen englischsprachigen Literatur zur Regressionrechnung wird die Standardabweichung der Regressionsparameter Standard Error genannt MDA, 5V, iprom 17 dhueser@tu-bsde

18 Wir definieren folgende M-dimensionale Einheitsvektoren e l = 1 83 bei dem die ersten l 1 Vektorkomponenten Nullen sind, an der l-ten Stelle eine Eins steht und die l+1-te Komponente bis zur M-ten wieder Nullen sind Dann lässt sich durch folgende Multiplikation die l-te Varianz, dh das l-te Element der Hautpdiagonalen aus der Kovarianzmatrix herausholen ˆσ 2 l = e T l X T X 1 el ˆσ 2 ε 84 Die Standardabweichung Standard Error wird daraus durch Ziehen der Wurzel gewonnen ˆσ l = ˆσ 2 l 85 Das vollständige Messergebnis für jeden der Regressionparameter ist damit θ l = e T l X T X 1 X T Y ± t 1 α/2,ν ˆσ l 86 mit ν = J M und die Korrelationskoeffizienten für die Korrelation der Regressionsparameter untereinander sind ρ l,m = ˆσ2 ε ˆσ l ˆσ m e T l X T X 1 em 87 3 Regression mit Vorkenntnis Prior Wir hatten klassisch die Regressionsrechnung nach der Methode der kleinsten QuadrateLeast Squares berechnet, also min θ { Y T θ T X T Y Xθ } was äquivalent dem Maximieren der Likelihood ist { } max e 1 2σε 2YT θ T X T Y Xθ 88 θ MDA, 5V, iprom 18 dhueser@tu-bsde

19 Wir stellen uns vor, dass von einer vorherigen Messkampagne κ 1 zu der gleichen Messaufgabe für alle Regressionparameter ˆθ κ 1 l mit l = 1,,M schon ein vollständiges Messergebnis mit ˆθ κ 1 l = e T l ˆθ κ 1 = e T l X κ 1 T X κ 1 1 X κ 1 Y κ 1 ± t 1 α/2,ν κ 1 e T l X κ 1 T X κ 1 1el 89 2 ˆσ ε κ 1 und ρ l,m = 2 ˆσ ε κ 1 ˆσ κ 1 l ˆσ κ 1 m e T l X κ 1 T 1 X κ 1 em 9 vorliegt, das wir mit neuen Informationen aus unserer neuen Messkampagne κ updaten wollen Die Likelihood mit den Beobachtungen unserer aktuellen Kampagne ist lθ,σ ε Y κ e 1 2σ 2 ε Yκ X κ θ T Y κ X κ θ 91 wobei die Regressanden Y κ mit σ ε streuen, nicht aber die Regressoren X κ und wobei die Modellparameter θ und σ ε die zu schätzenden Größen sind Die Wahrscheinlichkeitsdichteverteilung der vorherigen Messkampagne κ 1 ist p κ 1 θ ˆθ κ 1, ˆΣ κ 1 θ e 1 2 θ ˆθ κ 1 TˆΣ κ 1 θ 1 θ ˆθ κ 1 92 mit ˆΣ κ 1 θ = X κ 1 T X κ 1 1 κ 1 2 ˆσ ε Die Likelihood wird im folgenden formal so aufgeschrieben, dass zu lesen ist, dass es die Wahrscheinlichkeitsdichteverteilung des Regressanden ist, gegeben die Parameter θ und σ ε p L,κ Y κ θ,σ ε e 1 2σ 2 ε Yκ X κ θ T Y κ X κ θ 93 Wir sehen, dass dies an der Verteilung selber hier nichts verändert, sondern nur der Interpretation dient, ob man auf die Verteilung des Regressanden der direkten Messgröße guckt oder auf die Verteilung der Modellparameter der indirekten Messgrößen Zur Schätzung der Modellparameter θ und σ ε berechnen wir die Wahrscheinlichkeitsdichteverteilung als Funktion von θ und σ ε Bei der Methode der kleinsten Quadrate fiel das σ ε zunächst raus, so dass der Schätzvorgang nur für das θ durchzuführen war und nach Erhalt der Schätzer ˆθ für die Modellparameter θ MDA, 5V, iprom 19 dhueser@tu-bsde

20 die entsprechende empirische Standardabweichung ˆσ ε ausgerechnet wurde Dass für die Likelihood und für die Verteilungsdichte der Parameter der vorherigen Messkampagne κ 1 Normalverteilungen angesetzt wurden, bedeutet folgendes: Als à priori-information wurde in das Modell die Voraussetzung hineingesteckt, dass Y j Nθ T 1 X 1,j X M 1,j,σ ε ε j N,σ ε 94 und θ κ 1 Nˆθ κ 1, ˆΣ κ 1 θ 95 Für das σ ε setzen wir voraus, dass es χ 2 -verteilt sei wobeiwirfür ˆσ κ,r ε ν σε ˆσ κ,r ε 2 χ 2 ν 96 beispielsweise das Ergebnis für die lineare Regression ohne Berücksichtigung der vorherigen Messkampagne, also gemäß der im vorigen Kapitel beschriebenen Methode, verwenden Als Prior-Verteilungen haben wir nun zum einen die Verteilung aus der Erfahrung der vorherigen Messkampagnen κ 1, Gl 92 und zum anderen die Verteilung für σ ε p χ 2σ ε ˆσ κ,r ε,ν 97 Die Posterior-Verteilung ist damit p κ θ,σ θ Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ p L,κ Y κ θ,σ ε p χ 2σ ε ˆσ ε κ,r,νp κ 1 θ ˆθ κ 1, ˆΣ κ 1 θ 98 Da in den Y κ nur die Regressoren und die σ ε stecken Σ θ = X κ T X κ 1σ 2 ε brauchen wir nicht das gesamte Σ θ als Funktionsvariable, sondern lediglich σ ε, so dass die MDA, 5V, iprom 2 dhueser@tu-bsde

21 Posterior nur noch Funktion von θ und σ ε ist p κ θ,σ ε Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ p L,κ Y κ θ,σ ε p χ 2σ ε ˆσ ε κ,r,νp κ 1 θ ˆθ κ 1, ˆΣ κ 1 θ 99 Für das vollständige Messergebnis berechnen wir die Marginalverteilung als Funktion von θ, indem wir über σ ε integrieren p κ θ Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ = p κ θ,σ ε Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ dσ ε 1 Dies ist eine Funktion von M Variablen θ 1,,θ M Für die Wahrscheinlichkeitsdichten als Marginalverteilung je eines der Regressionsparameter wird über die anderen numerisch integriert p κ θ m Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ = p κ θ Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ dθ 1 dθ m 1 dθ m+1 dθ M 11 Zur Berechnung der Erwartungswertes wird numerisch integriert Eθ m = θ m p κ θ m Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ dθ m 12 Das Credible Interval wird ebenso mittels numerischer Verfahren berechnet und α/2 = 1 α/2 = θ m,min θ m,max p κ θ m Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ dθ m 13 p κ θ m Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ dθ m 14 Für die Regressionsanalyse kann auch eine Möglichkeit gefunden werden, eine analytische Lösung zu erhalten, wenn anstelle der χ 2 -Verteilung für die σ ε eine Verteilung gewählt wird, so dass sich das Produkt aus Likelihood und einer alternativen Verteilung p a σ ε vereinfachen MDA, 5V, iprom 21 dhueser@tu-bsde

22 lässt, wie es in Klauenberg et al dargelegt wird [1] Da p κ 1 nicht von σ ε abhängt, gilt p κ θ Y κ,ˆσ ε κ,r, ˆθ κ 1, ˆΣ κ 1 θ p κ 1 θ ˆθ κ 1, ˆΣ κ 1 θ und mit einer vereinfachten Verteilung p a σ ε p L,κ Y κ θ,σ ε p a σ ε ˆσ ε κ,r,ν dσ ε 15 p L,κ Y κ θ,σ ε p a σ ε ˆσ κ,r ε,ν dσ ε e 1 2 fν ˆσ κ,r ε 2Y κ X κ θ T Y κ X κ θ 16 mit fν eine sich aus p a ergebende Funktion der Anzahl der Freiheitsgrade Mit Gl 92 bekommen wir p κ θ Y κ,ˆσ κ,r ε e 1 2 θ ˆθ κ 1 TˆΣ κ 1 θ, ˆθ κ 1, ˆΣ κ 1 θ 1 θ ˆθ κ 1 e 1 2 fν ˆσ κ,r ε 2Y κ X κ θ T Y κ X κ θ 17 so dass die Schätzer für θ und Σ θ wie folgt aussehen ˆθ κ = ˆσ κ,r ε fν und 2 ˆΣ κ 1 θ 1 + X κ T X κ 1 ˆσ κ,r ε fν ˆΣ κ θ = 2 ˆΣ κ 1 1 θ κ 1 + X κ T Y κ θ 18 ˆΣ κ X κ T X κ fν 19 θ ˆσ κ,r ε siehe auch folgendes von K Klauenberg verfasste Tutorial, das ausführlicher in der Beschreibung ist als ihre Publikation [1]: MDA, 5V, iprom 22 dhueser@tu-bsde

23 4 Übung Lösung zu Aufgabe 5 Es sollen Abstände auf einem Werkstück mit Hilfe eines induktiven Wegaufnehmers gemessen werden Das Messprinzip eines induktiven Wegaufnehmers beruht darauf, dass eine Wechselspannung ein Spulensystem im Sensor anregt Ein bewegliches ferro-magnetisches Teil am Sensor beeinflusst die Induktivität in den Spulen Diese - in den Spulenteilen unterschiedliche - Induktivitätsveränderung wird vom Messverstärker ausgewertet und in ein positionsproportionales Gleichspannungssignal umgewandelt Um die Abstände in der physikalischen Einheit Mikrometer zu erhalten, muss mit Hilfe eines Bezugsnormals aus dem Spannungssignal ein Weg mit der Dimension einer Länge berechnet werden Es ist bekannt, dass in dem für die Messung relevanten Messbereich Hub des Sensors die Abhängigkeit zwischen Spannungssignal und Auslenkung des ferro-magnetischen Kerns linear ist Das Bezugsnormal ist eine Stufenhöhe Zu dem Bezugsnormal gibt es einen Kalibrierschein, der folgenden Höhenwert für das Normal angibt: d = 4997±11 µm mit k = 21,ν d = Mit dem induktiven Wegaufnehmer wurden auf dem Bezugsnormal folgende Stufenhöhen in der Dimension der elektrischen Spannung mit der Einheit Millivolt gemessen Tabelle A51: U B /mv Tabelle A52: U W /mv Der Zusammenhang zwischen dem Abstand auf dem Werkstück in Mikrometern d W, der Stufenhöhe des Bezugsnormals gemäß Kalibrierschein d, dem gemessenen Spannungssignal an der Stufenhöhe U B und dem gemessenen Spannungssignal U W am Werkstück ist folgender d W = d U B U W 111 Die Änderungen aufgrund der statistischen Streuung der Spannungswerte U B sind so klein, dass für die Sensitivität c B von d W bezüglich Änderungen von U B mit dem hyperbolischen Zusammenhang d W 1 U B die Steigung der Tangenten an die Hyperbel verwendet wird Es MDA, 5V, iprom 23 dhueser@tu-bsde

24 wird die Tangente verwendet, die an dem Punkt, der sich aus den Mittelwerten ergibt, anliegt c B = d W U B ŪB, d,ūw 112 Die Sensitivitäten c d und c W von d W bezüglich Änderungen von d und U W sind aufgrund des linearen Zusammenhangs genau c d = U W U B ŪB,ŪW c W = d U B ŪB, d 113 definiert Die kombinierte Varianz unter der Voraussetzung, dass die gemessenen Größen und die Angabe aus dem Kalbrierschein unkorreliert sind, ist s 2 dw = c d s d 2 + c B s B 2 + c W s W mit s B für die Standardabweichung der in Tabelle A51 aufgelisteten Werte, s W für die Standardabweichung der in Tabelle A52 aufgelisteten Werte und s d für die Standardabweichung der Angabe aus dem Kalibrierschein a Ermitteln Sie aus den Angaben des Kalibrierscheins hier Gl 11 die Standardabweichung s d, indem Sie den dort genannten Erweiterungsfaktor verwenden s d = 524 µm b Ermitteln Sie die beiden Mittelwerte ŪB und ŪW, sowie die beiden empirischen Standardabweichungen s B und s W aus den beiden Tabellen A51 und A52 Ū B = mv,s B = 945 mv,ūw = mv,s W = mv c Bestimmen Sie die Formel für die Sensitivität c B durch Ausführen der partiellen Ableitung c d = d W d = U W U B = 936 c W = d W U W = d U B = 257 µm mv c B = d W = du W U W U B 2 = 239 µm MDA, 5V, iprom 24 dhueser@tu-bsde

25 d Berechnen Sie die kombinierte empirische Standardabweichung s d,w s d,w = c d s d 2 + c W s W 2 + c B s B 2 = 3674 µm e Berechnen Sie die effektive Anzahl der Freiheitsgrade ν eff = s 4 d,w c d s d 4 /ν d + c W s W 4 /J W 1 + c B s B 4 /J B 1 = 124 f Berechnen Sie den Erweiterungsfaktor k, der hier das t-quantil für ein zweiseitiges Vertrauensniveau von 1 α = 95% ist k = t 975,124 = 2178 g Bestimmen Sie das vollständige Messergebnis d W = dūb Ū W ± ks d,w = 4651 ± 82 µm Aufgabe 6 Es wurde eine Stufe vermessen, die nominal eine Höhe von 1 µm haben soll Die laterale Achse x wird eingestellt mit Präzisionstisch positioniert und als Regressor betrachtet, also nicht als Zufallszahl Die vertikale Achse z wird gemessen, als Regressand und damit als Zufallszahl betrachtet x/mm z/µm x/mm z/µm Die Modellgleichung, mit der die Stufe beschrieben wird, ist z j = ax j + c + hδ j C + ε j mit C Menge der Indizes von 1 bis J C Hier sei J C = 1: C = {j j = 1,2,,J C } MDA, 5V, iprom 25 dhueser@tu-bsde

26 und { 1 falls j C dh j = 1 oder j = 2 oder j = J C δ j C = sonst Dabei ist h noch nicht die Stufenhöhe, sondern deren Projektion auf die vertikale Achse Die Stufenhöhe d ist der senkrechte Abstand zwischen den beiden parallelen Geraden, die jeweils durch die Punkte auf dem oberen und dem unteren Niveau gehen z /,um -2 d h x / mm a Stellen Sie das lineare Gleichungssystem auf, das sich durch partielles Ableiten für das Optimierungsproblem ergibt, mit J T = 21 min a,c,h { JT b Schreiben Sie die Formel für die Kovarianzmatrix der Modellparameter a, c, h auf Dazu brauchen Sie die inverse Matrix nicht analytisch zu berechnen, sondern lediglich 1 zu notieren c Schreiben Sie die Gleichung für die Stufenhöhe d als Funktion von h und a auf d Verwenden Sie eine Programmierumgebung Ihrer Wahl, Matlab, Octave, Python, R, die Ihnen einen Solver für lineare Gleichungssysteme zur Verfügung stellt, sowie eine Routine zur Matrixinversion und berechen Sie die Zahlenwerte für die Modellparameter sowie deren Kovarianzmatrix e Schreiben Sie das vollständige Messergebnis zu einem Vertrauensniveau von 95% auf Geben Sie die Anzahl der Freiheitsgrade und den Erweiterungsfaktor zusätzlich einzeln ε 2 j } MDA, 5V, iprom 26 dhueser@tu-bsde

27 an Berechnen Sie die Sensitivität von d bezüglich sehr kleiner Veränderungen von a Schreiben Sie die Formel auf, sowie den numerischen Wert um die Schätzwerte der Parameter Berechnen Sie die Sensitivität von d bezüglich Veränderungen von h f Berechnen Sie die kombinierte Standardabweichung von d Schreiben Sie Formel und numerischen Wert auf Für die Unermüdlichen, die lieber in C programmieren, hier die Routine zum Lösen des linearen Gleichungssystems, näheres siehe Numerical Recipes [2] Wichtig, diese Routine überschreibt den Vektor mit der Inhomogenität des Gleichungssystems mit der Lösung, also den gewünschten Modellparametern und die Matrix a mit den Summen ausdenregressorenmitdereninversea 1,dieSiedannfürdieKovarianzderModellparameter brauchen void gaussjordandouble **a, int n, double **b, int m /* * Linear equation solution by Gauss-Jordan elimination, equation 211 in * Numerical Recipes * a[n-1][n-1] is the input matrix b[m-1][n-1] is input * containing the m right-hand side vectors * For most applications we have m = 1 * On output, a is replaced by its matrix inverse, * and b is replaced by the corresponding set of solution vectors */ int *indxc,*indxr,*ipiv; int i,icol,irow,j,k,l,ll; double big,tmp,pivinv; // The integer arrays ipiv, indxr, and indxc are // used for bookkeeping on the pivoting indxc = int*calloc n, sizeofint; indxr = int*calloc n, sizeofint; ipiv = int*calloc n, sizeofint; /* for ;j<=n;j++ ipiv[j]=;*/ MDA, 5V, iprom 27 dhueser@tu-bsde

28 /* for ;j<=n;j++ ipiv[j]=;*/ /* calloc initializes to zero: Allocates a block of memory for an array of num elements, each of them size bytes long, and initializes all its bits to zero */ /* * This is the main loop over the columns to be reduced */ for i=; i<n; i++ { big=; // This is the outer loop of the search for a pivot element for j=; j<n; j++ if ipiv[j]!= 1 for k=; k<n; k++ { if ipiv[k] == { if fabsa[k][j] >= big { big=fabsa[k][j]; irow=j; icol=k; } } } ++ipiv[icol]; /* * We now have the pivot element, so we interchange rows, if needed, * to put the pivot element on the diagonal The columns are not * physically interchanged, only relabeled: * indxc[i], the column of the ith pivot element, * is the ith column that is reduced, while * indxr[i] is the row in which that pivot element was originally located * If indxr[i]!= * indxc[i] there is an implied column interchange * With this form of bookkeeping, the solution b-s will end up in the * correct order, and the inverse matrix will be scrambled by columns */ MDA, 5V, iprom 28 dhueser@tu-bsde

29 if irow!= icol { for l=; l<n; l++ SWAPa[l][irow],a[l][icol] for l=; l<m; l++ SWAPb[l][irow],b[l][icol] } /* * We are now ready to divide the pivot row by the * pivot element, located at irow and icol */ indxr[i]=irow; indxc[i]=icol; if a[icol][icol] == printf"gaussj: Singular Matrix\n"; pivinv=1/a[icol][icol]; a[icol][icol]=1; for l=; l<n; l++ a[l][icol] *= pivinv; for l=; l<m; l++ b[l][icol] *= pivinv; /* * Next, we reduce the rows * except, if ll!= icol, for the pivot one, of course */ for ll=; ll<n; ll++ if ll!= icol { tmp=a[icol][ll]; a[icol][ll]=; for l=; l<n; l++ a[l][ll] -= a[l][icol]*tmp; for l=; l<m; l++ b[l][ll] -= b[l][icol]*tmp; } } /* * This is the end of the main loop over columns of the reduction */ /* * It only remains to unscramble the solution in view of the column interchanges * We do this by interchanging pairs ofcolumns in the reverse order MDA, 5V, iprom 29 dhueser@tu-bsde

30 * that the permutation was built up */ for l=n-1; l>=;l-- { if indxr[l]!= indxc[l] for k=; k<n; k++ SWAPa[indxr[l]][k],a[indxc[l]][k]; } // And we are done freeipiv; freeindxr; freeindxc; } Literatur [1] K Klauenberg et al A tutorial on bayesian normal linear regression Metrologia, 52, 217 [2] B P Flannery, W H Press, S A Teukolsky, and W T Vetterling Numerical Recipes in C Cambridge University Press, 2 edition, MDA, 5V, iprom 3 dhueser@tu-bsde

Kovarianz, Korrelation und lineare Regression

Kovarianz, Korrelation und lineare Regression Kovarianz, Korrelation und lineare Regression Dozent: Dr-Ing Gerd Ehret Physikalisch-Technische Bundesanstalt 9 Okt 018 Zweite Vorlesung zu Messdatenauswertung und Messunsicherheit MDA Modulverantwortlicher:

Mehr

Konzepte der Statistik für die Messdatenanalyse

Konzepte der Statistik für die Messdatenanalyse Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:

Mehr

Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA)

Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA) Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA) Modulverantwortlicher: Prof. Dr.-Ing. R. Tutsch iprom, TU Braunschweig WS 207/8 Der Vorlesungsstoff lässt sich

Mehr

Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA)

Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA) Musteraufgaben zur Klausurvorbereitung für Messdatenauswertung und Messunsicherheit (MDA) Modulverantwortlicher: Prof. Dr.-Ing. R. Tutsch iprom, TU Braunschweig WS 207/8 Der Vorlesungsstoff lässt sich

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

Die erforderlichen Quantiltabellen und zusätzlich benötigte Formeln werden mit der Aufgabenstellung zusammen ausgeteilt.

Die erforderlichen Quantiltabellen und zusätzlich benötigte Formeln werden mit der Aufgabenstellung zusammen ausgeteilt. Klausurstoff Die Klausur findet in einem Hörsaal ohne elektronische Hilfmittel statt. Zugelassen sind Stifte (Kugelschreiber, Filzschreiber), Papier und Taschenrechner. Geräte wie beispielsweise Smartphones

Mehr

Mehrdimensionale Verteilungen und Korrelation

Mehrdimensionale Verteilungen und Korrelation Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 8. Mai 2009 1 / 29 Bemerkung In der Vorlesung Elemente der Analysis I wurden Funktionen

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Kapitel 7 Methode der kleinsten Quadrate Im Folgenden wird die Methode der kleinsten Quadrate (LS = least square, die auf dem χ -Test beruht, für die Anpassung von parametrisierten Funktionen an normalverteilte

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

6.2 Die Varianzanalyse und das lineare Modell

6.2 Die Varianzanalyse und das lineare Modell 6.2 Die Varianzanalyse und das lineare Modell Man ann die Varianzanalyse auch in einem linearen Modell darstellen. Im univariaten einfatoriellen Fall lautet die Gleichung des linearen Modells in Komponentenschreibweise:

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

1 Matrixdarstellung von Strukturgleichungsmodellen

1 Matrixdarstellung von Strukturgleichungsmodellen Matrixdarstellung von Strukturgleichungsmodellen. Einführung Ein in Mplus mit Hilfe der Syntax-Statements spezifiziertes Modell wird zur Modellschätzing in Matrizenform repräsentiert. Aus diesen Matrizen

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Wahrscheinlichkeiten. Verteilungen

Wahrscheinlichkeiten. Verteilungen Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

Messunsicherheiten und Matrizenrechnung

Messunsicherheiten und Matrizenrechnung Physikalisch-Technische Bundesanstalt Braunschweig und Berlin Matrix Messunsicherheiten und Matrizenrechnung T. Funck Arbeitsgruppe.13 Wechsel-Gleich-Transfer, Impedanz 60. PTB Seminar am 1. Mai 011 Inhalt

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

2 Lineare Regression am Beispiel des Hall-Effekts

2 Lineare Regression am Beispiel des Hall-Effekts Lernziele Lektion 2 Sie kennen die Normalverteilung, die Studentsche t-verteilung, sowie die inverse Gammaverteilung und können mit deren Maximalwerten, Mittelwerten und Varianzen umgehen. Sie kennen und

Mehr