Multivariate Analyse: FS Ergänzungen zur Mitschrift der Vorlesung über Multivariate Datenanalyse von Prof. A. Barbour

Größe: px
Ab Seite anzeigen:

Download "Multivariate Analyse: FS 2012. Ergänzungen zur Mitschrift der Vorlesung über Multivariate Datenanalyse von Prof. A. Barbour"

Transkript

1 Multivariate Analyse: FS 2012 Ergänzungen zur Mitschrift der Vorlesung über Multivariate Datenanalyse von Prof. A. Barbour by PD Dr. Daniel Mandallaz Chair of Land Use Engineering Department of Environmental Sciences, ETH Zurich Übungen: Mathias Weyland

2 Vorwort Diese bündigen Unterlagen sind Ergänzungen und zum Teil Erweiterungen zur Mitschrift der Vorlesung Multivariate Datenanalyse von Prof. em. Andrew D. Barbour, welche von Mathias Weyland verfasst wurde. Der Titel der Vorlesung ist ein bisschen irreführend, weil andere Themen ebenfalls behandelt werden (u. A. nichtparametrische Verfahren sowie Resampling-Methoden). Es ist bekanntlich schwierig, vielleicht sogar unmöglich, multivariate statistische Verfahren ganz ohne lineare Algebra zu erklären. Aus diesem Grund werden die für die Vorlesung wichtigsten Begriffe der linearen Algebra ebenfalls behandelt (eine kurze Einführung ist ebenfalls in der Mitschrift gegeben). Studierende, welche die multivariaten Verfahren gründlich beherrschen wollen, sollten idealerweise die Vorlesung Lineare Algebra belegt haben, auch wenn a posteriori. Ferner sei darauf hingewiesen, dass statistische Grundkenntnisse (z.b. Tests von Hypothesen, Vertrauensintervalle, parametrische und nicht-parametrische Varianzanalyse) vorausgesetzt werden, welche im Skript der Vorlesung Biologische Datenanalyse von D. Mandallaz behandelt werden.

3 Kapitel 1 Nicht-parametrische und Permutationstests 1.1 Der Vorzeichen-Test Wir betrachten n unabhängige binäre Zufallvariablen X i mit P(X i = 1) = p und P(X i = 0) = 1 p und die Teststatistik T = N X i (1.1) Die Nullhypothese sei H 0 : p = p 0 und die einseitige Alternative H A : p > p 0. Wir verwerfen die Nullhypothese H 0 sobald T b und wählen b sodass n ( ) n P(T b H 0 ) = p x x 0(1 p 0 ) n x α (1.2) x=b Diese Entscheidungsregel hat somit Niveau (Level) α. Die beobachtete Realisierung von T sei nun t = T obs. Die beobachtete Signifikanzschranke (observed significance level, p-value) ist definiert als p obs + = n x=t obs ( ) n p x x 0(1 p 0 ) n x (1.3) Für die andere einseitige Alternative H A : p < p 0 definieren wir analog p obs = T obs x=0 ( ) n p x x 0(1 p 0 ) n x (1.4) Die beobachte Signifikanzschranke bezüglich der zweiseitigen Alternative H A : p p o ist 2 min(p obs +, p obs ). Für grosse n kann man die z Statistik z obs = T obs np 0 np0 (1 p 0 ) verwenden, welche nach dem Zentralgrenzwertsatz unter H 0 genähert standard normal verteilt ist, sodass ein (1 α)-vertrauensintervall mittels ˆp±z 1 α ˆp(1 ˆp) 2 n konstruiert werden kann, wobei ˆp = xi n n die relative Frequenz der x i = 1 ist (zur Erinnerung: z 1 α = für (1 α) = Für kleine n können exakte pobs 2 und Vertrauensintervalle berechnet werden, allerdings nur in diskreten Stufen. Der Vorzeichentest kommt in vielen Anwendungen vor, wie zum Beispiel: 1

4 1. Median: Y i unabhängig gleichverteilt, mit stetiger Verteilungsfunktion F (x) = P(Y i x). Die Nullhypothese H 0 besagt, dass der Median von F gleich θ 0 ist ( d.h. F ist symmetrisch um θ 0 ), die einseitige Alternative ist P(Y i > θ 0 ) > 1 2. Man definiert X i = 1 falls Y i > θ 0 und X i = 0 sonst, und T = n X i. Man wendet den Vorzeichentest für T an, mit H 0 : p = P(Y i > θ 0 ) = 1 2 = p 0 und H A : p > 1 2 = p 0, analog für H A : p < 1 2 und den zweiseitigen Test. 2. Paar-Vergleich: Wir haben in diesem Fall m unabhängige Paare (X i, Y i ), von numerischen oder qualitativen Variable und möchten testen, ob X i > Y i (X i besser als Y i ), bzw. X i < Y i (bzw. X i schlechter als Y i ). Wir definieren p + = P(X i > Y i ), p = P(X i < Y i ). Dann gilt offensichtlich P(X i = Y i ) = 1 (p + + p ) (X i und Y i equivalent). Die ensprechend beobachteten Frequenzen sind m + = m = m 0 = n n n I {xi>y i} I {xi<y i} I {xi=y i} Man will die Nullhypothese H 0 : p + = p gegeben m 0 testen. In diesem Falle ist m + binomial verteilt mit p = 1 2 und m m o Beobachtungen. Man wendet also den Vorzeichentest mit T = m +, p 0 = 1 2 und n = m m 0 an. 3. Vergleich von Poisson-Verteilungen: X 1 und X 2 seien Poisson-verteilt mit Parametern λ 1 und λ 2. Die Nullhypothese ist H 0 : λ 1 = λ 2. Sei ferner S = X 1 + X 2, bekanntlich auch Poisson-verteilt mit Parameter λ 1 + λ 2. Wir haben P(X 2 = x 2 S = n) = P(X 2 = x 2 und X 1 = n x 2 ) P(S = n) λ x 2 = e λ2 2 x 2! = λx1 e λ1 1 x 1! e (λ1+λ2) (λ1+λ2)n n! n! x 2!(n x 2 )! ( λ 2 λ 1 + λ 2 ) x2 ( λ 1 λ 1 + λ 2 ) n x2 also binomial verteilt mit Parametern n = x 1 + x 2 und p = ist p = 1 2. λ2 λ 1+λ 2. Unter H 0 Beispiel: in 1989 gab es 21 Verkehrstote in der Stadt Zürich, in 1990 nur 19. Ist diese Abnahme signifikant? Solche Daten werden oft erfolgreich mit Poisson Verteilungen modelliert (seltene Ereignisse). Mit n = 40 und x 2 = 19 bekommt man als exaktes 95%-Vertrauensintervall [0.315, 0.639] welches p = 0.5 enthält. Die Abnahme ist somit nicht signifikant. Die Approximation mittels der Normalverteilung liefert das Intervall ± (1 40 ) = [0.32, 0.63]. Eine knapp signifikante Abnahme hätte man mit nur 9 Verkehrstote in

5 1.2 Kruskal-Wallis und Wilcoxon Tests Der Kruskal-Wallis Test ist eine nicht parametrische Version der klassische Einweg- Varianzanalyse mit k Gruppen, der Test von Wilcoxon bezieht sich auf den Spezialfall k = 2. Wir betrachten k unabängige Stichproben mit jeweils n i, i = 1, 2... k Beobachtungen. Die zugörigen Zufallsvariable haben stetige Verteilungsfunktionen F (x θ 1 ), F (x θ 2 ),... F (x θ k ), (P(X i x) = F (x θ i )), wobei θ i ein Lokationsparameter der i-ten Population (z.b. Erwartungswert oder Median). Wir wollen die Nullhypothese H 0 : θ 1 = θ 2 =... θ k gegen die Alternative testen, dass mindestens zwei Populationen ungleich sind, also θ i θ j für i j. Die Beobachtungen sind Realisierungen der Zufallsvariablen X 11,... X 1n1... X k1... X knk Wir betrachten die gesamte Stichprobe der n = n 1 + n n k Beobachtungen, aufsteigend geordnet: R ij ist der Rang (also eine ganze Zahl zwischen 1 und n, unter der Annahme alle X ij voneinander verschieden sind (keine Bindungen). Unter H 0 haben alle n Beobachtungen dieselbe Verteilung F (x θ), sodass der Vektor der Ränge R = (R 11,... R 1n1,... R k1... R knk ) eine Permutation der Zahlen 1, 2,... n ist. Unter H 0 sind alle Permutationen gleich wahrscheinlich, mit Wahrscheinlichkeit 1 n!. Die Summe aller Ränge ist R.. = n i = n(n+1) 2, mit Mittelwert R.. = n+1 2. Der mittlere Rang in der i-ten Population ist R i. = 1 n i n i j=1 R ij = R i. n i Unter H 0 ist der Erwartungswert der Ränge in allen Populationen gleich. Wir haben somit E H0 ( R i. ) = n Grosse Werte von ( R i. n+1 2 )2 weisen daher auf Abweichung von der Nullhypothese hin. Kruskal and Wallis (1952) haben folgende Teststatistik vorgeschlagen: K := 12 n(n + 1) k ( n i Ri. n + 1 ) 2 12 = 2 n(n + 1) k R 2 i. n i 3(n + 1) (1.5) Es ist grundsätzlich durch Abzählung möglich, die exakte diskrete Verteilung von K unter H 0 zu bestimmen. Für grosse n i kann diese Verteilung mit einer Chi-Quadrat Verteilung mit (k 1) Freiheitsgraden approximiert werden. Wenn Bindungen vorhanden sind, kann man die Ränge der Beobachtungen mit den gleichen Werten durch den zueordneten mittleren Rang ersetzen. Die exakte Verteilung wird jedoch komplizierter. Software Pakete liefern exakte Tests für nicht allzu grosse n, auch mit Bindungen. Im Falle von nur zwei Populationen (k = 2) kann man den statistisch äquivalenten Wilcoxon Test (1945) anwenden. Sei W 1 die Summe der Ränge der ersten Stichprobe und W 2 die Summe der Ränge der zweiten Stichprobe, wobei die Ränge in der zusammengesetzten Stichprobe von allen n = n 1 + n 2 Beobachtungen ermittelt werden. Man hat W 1 + W 2 = n(n+1) 2 und der mittlere Rang unter H 0 ist wie vorhin n1+n Der Erwartungswert von W 1 unter H 0 ist demnach E H0 (W 1 ) = n1(n1+n2+1) 2. Die Varianzen unter H 0 von W 1 and W 2 sind beide gleich 3

6 n 1n 2(n 1+n 2+1) 12. Für grosse n 1 and n 2 ist die Teststatistik z = W 1 n1(n1+n2+1) 2 n 1n 2(n 1+n 2+1) 12 (1.6) approximativ standard normalverteilt. In kleinen Stichproben kann die exakte diskrete Verteilung bestimmt werden. Man kann auch Bindungen wie bei Kruskal- Wallis berücksichtigen. Im Gegensatz zur klassischen Varianzanalyse mit F -Tests wird die Normalverteilung nicht vorausgesetzt. Dies kostet allerdings etwas, nämlich ein Verlust der Macht (Power). Dieser Verlust ist jedoch in grossen Stichproben klein, zum Beispiel ca 5% im Vergleich zum Student t-test im Falle von zwei Stichproben. 1.3 Wilcoxon Vorzeichen-Test Der Vorzeichentest kann, wie wir gesehen haben, beim Paar-Vergleich angewandt werden, wie auch der Student t-test für gepaarte Stichproben, wenn die Differenzen normal verteilt sind (zumindest approximativ). Der Vorzeichen-Test ist selbstverständlich mit einem Informationsverlust verbunden, weil die Grösse der Differenzen nicht berücksichtigt wird. Das sogenannte Wilcoxon Vorzeichen-Test (Wilcoxon signed-rank test) ist ein Kompromiss zwischen den beiden Tests. Wir betrachten n unabhängige Zufallsvariablen Z i, mit stetiger Verteilung F, symmetrisch um θ 0. Ohne Beschränkung der Allgemeinheit setzen wir θ 0 = 0 voraus (ansonsten betrachtet man die Z i θ 0 ). Wir definieren die Funktion ψ(x) gemäss ψ(x) = 1 falls x 0 sonst ψ(x) = 0. Sei ψ i = ψ(x i ). Nach Voraussetzung ist P(ψ i = 1) = P(ψ i = 0) = 1 2. Man kann zeigen, dass wegen der Symmetrie von F die Zufallvariablen Z i und ψ i stochastisch unabhängig sind. R + i sei der Rang von Z i unter Z 1, Z 2,... Z n. Der signed rank (Rang mit Vorzeichen) ist nach Definition ψ i R + i. Es gelten für ganze Zahlen r und s zwischen 1 und n Das Wilcoxon Vorzeichen-Test ist Man zeigt folgende Resultate P(R + i = r) = 1 n P(R + i = r, R + j = s) = 1 n(n 1) E(R + i ) = n V(R + (n + 1)(n 1) i ) = 12 COV(R + i, + 1) R+ j ) = (n 12 W + = n ψ i R + i (1.7) E H0 (W + ) = V H0 (W + ) = n(n + 1) 4 n(n + 1)(2n + 1) 24 (1.8) 4

7 Für grosse n kann man die Normalverteilung als Approximation unter H 0 verwenden, d.h. die Zufallvariable Z = W + E H0 W + VH0 (W + ) (1.9) ist unter der Nullhypothese genähert standard normal verteilt. Für kleine n kann man die exakte diskrete Verteilung von W + berechnen. Man muss dazu alle 2 n Möglichkeiten der Vorzeichen {+, } untersuchen. Im Falle von n = 3 bekommt man 2 3 = 8 Teilmengen von {1, 2, 3} = {R 1, R 2, R 3 } mit positiven Vorzeichen. Tabelle 1.1 fasst die Resultate zusammen. Tabelle 1.1: Wilcoxon Vorzeichen-Test W + Teilmenge von {1, 2, 3} Wert von W + 0 {1} 1 {2} 2 {3} 3 {1, 2} 3 {1, 3} 4 {2, 3} 5 {1, 2, 3} 6 Man erhält somit folgen Verteilung unter H 0 P(W + = 0) = P(W + = 1) = P(W + = 2) = 1 8 P(W + = 4) = P(W + = 5) = P(W + = 6) = 1 8 P(W + = 3) = 1 4 Man verifiziert leicht die Formeln in (1.8) für Erwartungswert und Varianz. Die exakte Behandlung von Bindungen ist mühsam. Man kann wie üblich die mittleren Ränge verwenden oder einen kleinen zufälligen Fehler addieren; die obigen Formeln gelten dann nur approximativ. In kleinen Stichproben liefern die Sofware Pakete die exakten Tests. 1.4 Der Test von Friedman Dieser Test ist die nicht-parametrische Version der Zweiweg-Varianzanalyse ohne Wiederholungen. Wir betrachen k Behandlungen, welche in n homogene Blöcke angewandt werden; zum Beispiel k Düngemittel jeweils in n Versuchsflächen, welche alle in k gleichgrosse Teilflächen unterteilt sind. Die Zielvariable könnte zum Beispiel der Ertrag von Weizen in 103 kg ha sein. Die Beobachtungen der Zielvariable seien die Realisierungen der unabängigen Zufallvariablen Y ij, i = 1, 2... k mit j = 1, 2... n. Die stetige Verteilung von Y ij sei F (x τ i β j ). Die Nullhypothese besagt, dass kein Behandlungseffekt vorliegt, d.h. H 0 : τ 1 = τ 2 =... τ k = τ. Unter H 0 ist somit Y ij, i = 1, 2... k gemäss F (x τ β j ), j = 1, 2... n, verteilt. Die Alternative Hypothese ist H A : τ i τ j für mindestens ein Paar i j. 5

8 Für festes j {1, 2,... n} sei nun R ij der Rang von Y ij unter der Y 1j,... Y kj ; R ij ist somit der Rang der Y ij unter den k Beobachtungen im selben j-ten Block. Der Rangvektor R = (R ij,... R kj ) ist somit unter H 0 eine Permutation der ganzen Zahlen1,... k. Seien R i. = 1 n R ij = 1 n n R i. j=1 der mittlere Rang (innerhalb der Blöcke) der i-ten Behandlungen. Unter H 0 haben wir E H0 ( R i. ) = 1 n E H0 (R ij ) = 1 n 1 k(k + 1) (k + 1) = n n k 2 2 j=1 Grosse Werte von ( R i. (k+1) 2 ) 2 weisen auf Abweichung von der Nullhypothese von keinem Behandlungseffekt hin. Dies führt zur sogenannten Friedman Test-Statistik (1937) Q = 12n k(k + 1) k ( Ri. j=1 (k + 1) ) 2 12 = 2 nk(k + 1) k Ri. 2 3n(k + 1) Für kleine n kann wiederum die exakte Verteilung von Q unter der Nullhypothese H 0 berechnet werden. Für grosse n (k bleibt in der Regel klein) kann man zeigen, dass die Verteilung von Q unter H 0 approximativ Chi-Quadrat mit (k 1) Freiheitsgraden is. Die Approximation funktioniert für kn 30 sehr gut. Bei Bindungen innerhalb der Blöcke kann man die üblichen Anpassungen machen. Für kleine k und n liefern die Software Pakete exakte Tests, auch mit Bindungen. Eine ausgezeichnete Referenz für nicht parametrische Statistik ist und bleibt: E.L. Lehmann (1975). Nonparametrics: statistical methods based on ranks, Holden-Day, Inc. (McGraw-Hill International Book Company). 1.5 Permutationstests Die nicht-parametrischen Tests (wir haben nur eine kleine Anzahl der wichtigsten gesehen) befreien uns teilweise von der einschränkenden Annahme der Normalverteilung. Eine grundlegende Idee der Statistik ist die Randomisierung (Fisher), welche uns von allen Verteilungsannahmen befreit, falls die Zuordnung der statistischen Einheiten zu den Behandlungen zufällig erfolgt. Wir betrachten zum Beispiel n Patienten, identifiziert durch die Indizes i = 1, 2... n, mit Werten y i der Zielvariable. Wir erzeugen eine zufällige Permutation der ganzen Zahlen 1, 2, 3,... n. Die ersten n 1 Patienten bekommen Behandlung A und die übrigen n 2 (n 1 + n 2 = n) bekommen Behandlung B. Idealerweise erfolgt eine solche Studie double blind, d.h. weder der Arzt noch der Patient weiss, welche Behandlung verabreicht wurde (wohl aber der Statistiker!). Wenn die Nullhypothese stimmt, sind die Werte der Beobachtungen von den Behandlungen unabängig, sodass die meisten Permutationen auf keine Differenzen zwischen Behandlungen hinweisen. Es ist jedoch möglich, dass eine Permutation die Daten so umordnet, dass ausgerechnet alle n 1 kleinsten Beobachtungen gerade die n 1 ersten Beobachtungen sind. Wir betrachten folgendes Beispiel. Die erste Gruppe mit 15 Beobachtungen wurden mit Y i = 10+χ 2 (3) simuliert und die zweite Gruppe von ebenfalls 15 Beobachtungen gemäss X i = 12 + χ 2 (2). Die Nullhypothese setzt gleiche Erwartungswerte, was hier falsch ist. Die Daten sind offensichtlich nicht normal verteilt, wie QQ-Plots und 6

9 Shapiro-Wilks Test bestätigen. Als Teststatistik nehmen wir die absolute Differenz Ȳ X, welche gleich ist (die wahre absolute Differenz beträgt 1). Wir haben in diesem Fall (n1+n2)! n 1!n 2! = mögliche Permutationen. Von dieser riesigen Anzahl werden 5000 zufällig ausgewählt und für jede permutierte Stichprobe wird Ȳ X = k, k = 1, berechnet. Der P -Wert des klassischen F -Tests ist in diesem Fall 0.077, was ziemlich genau dem empirischen 92.5% Quantil der empirischen Verteilung der k entspricht, siehe Abbildung 1.1. Die Berechnungen wurden mit folgendem R Programm durchgeführt: mc.group1<-c(rep(1,15));mc.group2<-c(rep(-1,15)); mc.group=c(mc.group1,mc.group2) mc.group set.seed(100) data1<-round(10+c(rchisq(15,3)),digits=2) data2<-round(12+c(rchisq(15,2)),digits=2) data1 data2 hist(data1); hist(data2) mean(data1);mean(data2) deltamean=mean(data1)-mean(data2);deltamean absdeltamean=abs(deltamean);absdeltamean sd(data1)/sqrt(15);sd(data2)/sqrt(15) mc.data<-c(data1,data2) mc.data absdeltameancheck<-abs(sum(mc.group*mc.data)/15) absdeltameancheck aux.group<-factor(mc.group); anova(lm(mc.data~mc.group)) diff<-matrix(0:0,nrow=5000, ncol=1) for(i in 1:5000) { per<-c(sample(mc.group,30)); aux=per*mc.data diff[i,1]=abs(sum(aux)/15) } hist(diff, xlab="absolute Differenz der Mittelwerte",main=" ") abline(v=absdeltamean) quantile(diff,c(0.925,0.95,0.975,0.99)) Man merke sich, dass der Befehl per<-c(sample(mc.group,30)) die zufälligen Permutationen der ursprünglichen 30 Werte erzeugt, allerdings sind diese 5000 Permutationen der Start-Sequenz (mit 15 1 am Anfang gefolgt von 15 1 ) nicht alle verschieden sind (man zieht aus der Menge der Menge aller n! Permutationen mit Zurücklegung), was jedoch für die empirische Bestimmung der Quantile irrelevant ist. Oft wird direkt der P -Wert der klassischen Auswertung als Test-Statistik genommen. Die Mitschrift zeigt, wie man die allgemeine Einweg- Varianzanalyse mit k > 2 Gruppen mittels Permutationstests auswerten kann. Man kann auch komplexere randomisierte Designs (wie Lateinische Quadrate) analog auswerten. R bietet hierfür spezielle Pakete. 7

10 Abbildung 1.1: Histogramm von 5000 k empirischer 92.5% Quantil: 1.029, empirischer 95%-Quantil= Die Permutationstests sind sogenannte bedingte Tests (d.h. gegeben die Daten) und immer gültig falls das Randomisierung-Prinzip verwendet wurde. Streng genommen sind diese Tests allerdings nur für den untersuchten Datensatz gütig. Es gibt theoretische und empirische Evidenz dafür, dass die P -Werte der klassischen ANOVA-Tests den P Werten der Permutationstests ähnlich sind. In diesem Sinne ist die Einhaltung der Randomisierung vor der Auswertung wichtig, auch wenn diese mit klassischen Verfahren erfolgt. Die Randomisierung ist auch unter einem anderen Gesichtspunkt wichtig, nämlich um den potentiellen gefährlichen Einfluss von Variablen zu dämpfen, welche im Modell nicht berücksichtigt wurden. 8

11 Kapitel 2 Resampling und Robuste Verfahren 2.1 Die empirische Verteilungsfunktion Die Verteilungsfunktion F (x) einer Zufallsvariable X ist definiert als F (x) = P(X x) Dies ist eine monoton wachsende Funktion von x. Für eine diskrete Zufallsvariable mit möglichen Werten w k (k = 1, 2, 3...) ist F (x) eine stückweise konstante Treppenfunktion mit Sprungstellen in den w k. Wir betrachten nun n unabhängige gleichtverteilte Zufallsvariablen X i mit Verteilungsfunktion F (x). x i ist die Realisierung von X i. Die empirische Verteilungsfunktion ˆF n (x) ist definiert als ˆF n (x) = 1 n n I {xi x}(x) (2.1) wobei I A (x) = 1 falls x A sonst I A (x) = 0. In Worten: ˆFn (x) ist die relative Frequenz der n Beobachtungen x i, welche kleiner oder gleich x sind. Dies ist eine stückweise konstante Treppenfunktion mit Sprüngen in den Beobachtungen x i. Mit der Zuordnung x i X i können wir ˆF n (x) auch als eine Zufallsvariable betrachten, mit Erwartungswert und Varianz E( ˆF n (x)) = F (x), V( ˆF n (x)) = F (x)(1 F (x)) n Nach dem Gesetz der grossen Zahlen und dem Zentralen Grenzwertsatz ist somit n( ˆFn (x) F (x)) asymptotisch, d.h. für grosse n, normalverteilt mit Erwartungswert 0 und Varianz F (x)(1 F (x)). Die empirische Verteilungsfunktion ist somit eine konsistente Schätzung der wahren unbekannten kumulativen Verteilungsfunktion F (x). Sie fasst die ganze verfügbare Information zusammen, welche die Beobachtungen x i enthalten. Es ist daher intuitiv, dass die Nullhypothese H 0 : F (x) = F 0 (x) (d.h. die Beobachtungen sind unabhängig gemäss der Verteilung F 0 (x) verteilt) mittels der empirischen Verteilungsfunktion ˆF n (x) geprüft werden kann, zum Beispiel 9

12 mit den Statistiken D n = sup ˆF n (x) F 0 (x) W n = n x A n = n ( ˆFn (x) F 0 (x) ) 2 f0 (x)dx ( ˆFn (x) F 0 (x) ) 2 F 0 (x)(1 F 0 (x)) f 0(x)dx (2.2) wobei f 0 (x) = d dx F 0(x) die Wahrscheinlichkeitsdichte ist. sup x steht für Supremum, also die kleinste obere Schranke ( Es ist auf abgeschossene Intervalle der grösste Wert). D n ist die Kolmogorov -Smirnov Statistik, W n die Cramèr-von-Mieses Statistik und A n die Anderson-Darling Statistik, welche die Abweichungen zwischen ˆF n (x) und F 0 (x) über alle x subsummieren. Alle drei Tests haben die bemerkenswerte Eigenschaft, dass die Verteilung unter H 0 : F (x) = F 0 (x) unabhängig von F 0 ist. Für D n zum Beispiel gilt asymptotisch (d.h. für gross n) P( nd n z) = 1 2 ( 1) j 1 e 2j2 z 2 Diese Tests sind universell gültig und in speziellen Fällen daher nicht optimal. Wenn wir zum Beispiel für F 0 die Normalverteilung wählen, ist der sogenannte Shapiro- Wilks Test besser. In den Anwendungen sind graphische Verfahren einfacher und deswegen sehr beliebt, zum Beispiel die sogenannten Quantile-Quantile (Q-Q) Plots, welche im nächsten Abschnitt kurz erläutert werden. 2.2 Q-Q Plots Wir betrachten die Verteilungsfunktion F 0 (x) und möchten prüfen, ob die unabhängige Beobachtungen x i, i = 1, 2... n mit F 0 bis auf Lokation und Streuung verträglich sind. Wir setzen somit voraus, dass P(X i x) = F 0 ( x µ σ ), oder equivalent dazu, dass die nicht beobachtbaren Zufallsvariablen Y i = Xi µ σ die Verteilungsfunktion P(Y i y) = F 0 (y) haben. Seien nun Y (1) < Y (2) <... Y (n) die geordneteten Werte der Y i und entsprechend die X (1) < X (2) <... X (n). Wegen X i = µ + σy i gilt auch X (i) = µ + σy (i). Bekanntlich ist die Zufallvariable U i = F 0 (Y i ) uniform auf dem Interval [0, 1] verteilt. Intuitiv ist es klar (und kann auch bewiesen werden), dass E(U (i) ) i n+1 und daher E(Y (i)) = E(F0 1 (U (i) ) F0 1 (E(U (i) )) F0 1 ( i n+1). Ferner gilt E(X(i) ) = µ + σy (i). Unter H 0 sollten im Mittel die Punkte (F0 1 ( i n+1 ), x (i)) = (E(Y (i) ), x (i) ) auf einer Gerade liegen. Man interpretiert die E(Y (i) ) als die F 0 -theoretischen und die x (i) als die beobachteten Quantile, deshalb der Name Quantile-Quantile Plot (Q-Q Plot). Wenn die Punkte stark von einer Gerade abweichen, ist es ein Hinweis gegen H 0. Man kann bei Bedarf die Parameter µ und σ mittels linearer Regression oder Maximum Likelihood schätzen. 2.3 Bootstrap j=1 Wir nehmen an, dass die Beobachtungen x i Realisierungen von n unabängigen gleichverteilten Zufallsvariablen X i mit Verteilungsfunktion F sind. Wir wollen einen Parameter h(f ) = θ der unbekannten Verteilung F, zum Beispiel median (h(f ) = F 1 (0.5)), Erwartungswert (h(f ) = E(X i )), bestimmte Quantile 10

13 (q α = h(f ) = F 1 (α)), Varianz (h(f ) = V(X i )) usw. schätzen, und auch entsprechende Vertrauensintervalle angeben. Auch wenn F bis auf einzelne Parameter (z.b. Normalverteilung mit Erwartungswert µ und Varianz σ 2 ) bekannt ist, kann die Verteilung der Schätzung ˆθ sehr kompliziert sein (wie zum Beispiel für das Median oder die Testgrössen in 2.2, wobei h(f ) = sup x (F (x) F 0 (x)) und analog für W und A). Oft braucht man auch weiter Eigenschaften der Schätzung ˆθ n, wie zum Beispiel ( λ n (F ) = P F n(ˆθn h(f )) a ) λ n (F ) = ˆθ n θ Verzerrung, Bias λ n (F ) = V( nˆθ n ) λ n (F ) = P F ( n(ˆθ n h(f )) τ(f ) a ) mit Streuungsfaktor τ(f ) (2.3) Wir betrachten Schätzer der Form ˆθ n = h( ˆF n ) oder ˆλ n ( ˆF n ), also die nur von der empirischen Verteilungsfunktion abhängen (plug-in estimators). Würde man die wahre Verteilungsfunktion F kennen, könnte man die Verteilungen der Schätzung durch umfangreiche Simulationen unter F beliebig genau bestimmen. Die geniale und einfache Idee des Resampling Boostrap Verfahrens besteht darin, diese Simulationen mit ˆF n statt mit F durchzuführen (Effron, 1979, 1982). Man zieht also eine sehr grosse Anzahl B Stichproben der Grösse n mittels der Verteilung ˆF n. Eine solche Bootstrap Stichprobe wird mit (X1, X2,... Xn) bezeichnet, wobei die Xi aus den X i gleichwahrscheinlich (d.h. mit Wahrscheinlichkeit 1 n ) mit Zurücklegung gezogen werden. P und E bezeichnen Wahrscheinlichkeit und Erwartungswert bezüglich dieses Verfahrens, kurz bezüglich der Verteilung ˆF n. Der Satz der totalen Wahrscheinlichkeit rechtfertigt das Verfahren, weil P [X i x i ] = n P [Xi x Xi = x i ]P (x i = x i ) = n 1 I {xi x} n = ˆF n (x) (2.4) Die X i haben somit die Verteilungsfunktion ˆF n, welche für grosse n gegen F konvergiert. Es ist somit intuitiv plausibel, dass die B Bootstrap Stichproben das Verhalten von B Stichproben unter F nachahmen, und folglich rein empirisch die Verteilung der ˆθ n und λ n ( ˆF n ) approximieren. Zur Illustration setzen wir θ = h(f ) gleich dem Median und λ n (F ) sei der Bias des Stichprobenmedians ˆθ n im hypothetischen Fall einer Stichprobe mit n = 3. Die Verteilung F sei zudem stetig, sodass Bindungen Wahrscheinlichkeit null haben. Die Daten sind (x (1), x (2), x (3) ) = (b, c, d) mit b < c < d. Die Stichproben (X 1, X 2, X 3 ) können die 3 3 = 27 Werte (b, b, b), (b, b, c), (b, c, b),... (d, d, d) belegen. Zum Beispiel hat man P (X (1) = b, X (2) = b, X (3) = c) = 3 27 gleich der Summe der Wahrscheinlichkeiten der elementaren Ereignisse (b, b, c), (b, c, b), (c, b, b) für (X 1, X 2, X 3 ). Insgesamt bekommt man die Tabelle Der wahre Median sei θ = F 1 (0.5) mit Stichprobenschätzwert ˆθ n. Der Bias ist nach Definition λ n (F ) = E(ˆθ n ) θ 11

14 Tabelle 2.1: Wahrscheinlichkeitsraum für (X (1), X (2), X (3) ) Ereignis (b, b, b) (b, b, c) (b, b, d) (b, c, c) (b, c, d) (b, d, d) (c, c, c) (c, c, d) (c, d, d) (d, d, d) P θ n sei der Median der hypothetischen Stichprobe X 1, X 2, X 3,... X n von ˆF n. Wir haben nach Definition λ n ( ˆF n ) = E (θ n) ˆθ n Man kann zeigen, dass unter gewissen Regularitätsbedingungen und für grosse n, λ n ( ˆF n ) konsistent λ n (F ) schätzt. Wir betrachten hier ˆF n als Zufallvariable. Im Falle n = 3 bekommt man für den Median X (2) von (X 1, X 2, X 3 ) folgende Beziehung P (X(2) = b) = 7 27, P (X(2) 13 = c) = 27, P (X(2) = d) = 7 27 Infolgedessen ist der Schätzer λ 3 ( ˆF 3 ) des Bias von ˆθ 3 = X (2) gemäss der obigen berechtigten Vermutung ( 7 E (X(2) ) X (2) = 27 X (1) X (2) + 7 ) 27 X (3) X (2) = 14 ( X(1) + X ) (3) X (2) 27 2 Man kann zeigen, dass es unter P genau ( ) 2n 1 n verschiedene Kombinationen gibt, z.b. 10 für n = 3 und für n = 10, exponentiell schnell wachsend mit n. λ n ( ˆF n ) ist somit theoretisch berechenbar, leider aber in den meisten Anwendungen trotz leistungsfähiger Computer praktisch nicht. Das Bootstrap-Verfahren liefert hier eine einfache Lösung: Man simuliert B Stichproben gemäss P. Die i-te simulierte Stichprobe liefert die Schätzung θi und der Erwartungswert E (θn) wird mit dem empirischen Mittelwert 1 B B θ i geschätzt. Wir betrachten ein Beispiel. Zunächst simulieren wir 100 Beobachtungen, welche Chi-Quadrat mit 4 FG verteilt sind. Der wahre Erwartungswert ist 4 und der wahre Median Abbildungen 2.1 und 2.2 stellen Histogramm und Q-Q Plot der Rohdaten dar. Der Shapiro-Wilks Test bestätigt, dass die Daten signifikant von einer Normalverteilung abweichen, wie auch direkt vom Histogramm ersichtlich. Wir simulieren nun B = 1000 Bootstrap Stichproben (jeweils bestehend aus 100 Ziehungen mit Zurücklegung aus den 100 Rohdatenwerten). Für jede Bootstrap Stichprobe berechnen wir den Medianwert ˆθ i, Abbildung 2.3 zeigt das entsprechende Histogramm. Die Bestimmung von Vertrauensintervalle beruht auf der Idee, dass die Verteilung der ˆθ i ˆθ die Verteilung von ˆθ θ nachahmt. Für ein 1 α Vertrauensintervall können wir aus diesem Grund schreiben 1 α = P(L ˆθ θ U) P (L ˆθ i ˆθ U) wobei L die untere und U die obere Grenzen sind. Das Vertrauensintervall für θ ist [ˆθ U, ˆθ L], wobei L + ˆθ und U + ˆθ die α 2 und 1 α 2 Quantile der empirischen Boostrap-Verteilung sind, welche wir mit k α und k 2 1 α bezeichnen. Dies 2 ist gerechtfertigt, weil die exakt Wahrscheinlichkeit unter P mit der entsprechenden relativen Frequenz der B = 1000 Bootstrap Stichproben geschätzt wird. Wir bekommen letzten Endes folgendes 1 α Vertrauensintervall für θ [ˆθ U, ˆθ L] = [ˆθ (k 1 α 2 ˆθ), ˆθ (k α 2 ˆθ)] = [2ˆθ k 1 α 2, 2ˆθ k α 2 ] (2.5) 12

15 Abbildung 2.1: Histogramm von 100 Chi-Quadrat xi mit 4 FG empirischer Mittelwert= 4.514, empirischer Median= Abbildung 2.2: Q-Q Plot der 100 xi In obigen Beispiel bekommt man [3.187, 4.018] als 95% Vertrauensintervall, was sich vom naiven [2.5%, 97.5%] Quantil-Range des Histogramms der Bootstrap Medianwerte θ i ( siehe Abbildung 2.3) unterscheidet. Die Berechnungen wurden mit folgenden einfachen R Programm durchgefu hrt: set.seed(200) chi<-rchisq(100,4) hist(chi,nclass=12, main=" ") qqnorm(chi);qqline(chi) mean(chi);median(chi);sd(chi);sd(chi)/sqrt(100) m<-1000;bootres1<-numeric(m) for (j in 1:m) bootres1[j]<-median(sample(chi,replace=t)) mean(bootres1);sd(bootres1);sd(bootres1)/sqrt(1000) hist(bootres1,main=" ") qqnorm(bootres1);qqline(bootres1) quantile(bootres1,probs=c(0.025,0.975)) 13

16 Abbildung 2.3: Histogramm der Bootstrap Medianwerte ˆθ i Mittelwert= 3.756, 2.5%-Quantil = 3.380, 97.5%-Quantile = untere95<-2*median(chi)-quantile(bootres1,probs=c(0.975)) obere95<-2*median(chi)-quantile(bootres1,probs=c(0.025)) In gewissen Fällen (z.b. für Mittelwerte) kennt man die geschätzten Varianzen ˆσ 2, bzw. ˆσ i 2. Es ist dann besser mit der Pivot-Statistik ˆθ i ˆσ ˆθ zu arbeiten, welche 2 i die empirischen Quantile q α und q 2 1 α liefert. Man bekommt dann das (1 α)- 2 Vertrauensintervall [2ˆθ q 1 α ˆσ, 2ˆθ q α ˆσ] 2 2 Die Mitschrift gibt noch weitere Beispiele. Mit Bootstrap-Verfahren kann man grundsätzlich komplexe Tests durchführen, wie in der parametrischen oder nicht parametrischen Varianzanalyse. Es ist dabei zu achten, dass eine Verifikation der P-Werten der Klassischen Analyse mit dem Bootstrap unter der Nullhypothese erfolgen muss. Das heisst im Falle der Einweg-Varianzanalyse zum Beispiel, dass man die Gruppen-Mittelwerte (oder Gruppen-Medianwerte) in jeder Gruppe von den Rohdaten subtrahieren muss, und erst dann das Bootstrap durchführt. Die Mitschrift behandelt solche Beispiele. 2.4 Robuste Verfahren Die parametrischen Verfahren setzen in der Regel erstens ein explikatives Modell (z.b. multiple lineare Regression oder Varianzanalyse), welches von unbekannten Parameter abhängt und zweitens eine bis auf Parameter bekannte Verteilungsfunktion (z.b. Normalverteilung für die Residuen) voraus. Die Parameter werden meistens mit Maximum Likelihood oder Least Squares (LS) geschätzt. Sie erlauben komplexe Modellierungen und Inferenz, welche leider auf Abweichungen vom postulierten Modell, auf Ausreisser (outliers) oder sogenannte Hebelpunkte (leverage points) so empfindlich reagieren können, dass die Auswertung fragwürdig sein kann. Die Nicht-parametrischen Verfahren (wir haben nur die üblichsten und einfachsten behandelt) sind weitgehend frei von Annahmen über die Verteilung der zugrunde liegenden Beobachtungen, erlauben in der Regel jedoch nicht so komplexe Analysen wie die parametrischen Verfahren. Die robuste Statistik versucht ein Kompromiss zwischen beiden Philosophien zu machen, indem die klassischen parametrischen Modelle in einer vollen Umgebung der Grundverteilung (zum Beispiel der Normalverteilung) ihre Gültigkeit behalten (sie sind bis zu einem gewissen Grad Ausreisser- und 14

17 Hebelpunkt resistent). Die emeritierten ETH Professoren Peter Huber und Frank Hampel waren massgeblich an der Entwicklung der robusten Statistik beteiligt. Der Nachteil der robusten Methoden liegt vor allem in der mathematischen und numerischen Komplexität (letztere ist heute mit der Verfügbarkeit von Software, wie z.b. R, kein grosses Hinderniss mehr). Zur Illustrierung betrachten wir die einfache lineare Regression: Y i = θ 1 + θ 2 ξ i + e i, wobei θ 1 der Achsenabschnitt ist, und θ 2 die Steigung. Die explikative Variable ξ i ist fest (keine Zufallsvariable) und fehlerfrei. Die theoretischen Residuen ε i werden in der klassischen Theorie als normal verteilt N(0, σ 2 ) vorausgesetzt, in der robusten Statistik wird oft eine kontaminierte Normalverteilung betrachtet, mit z.b. der Verteilungsfunktion F (x) = (1 α)φ( x σ ) + αφ( x 3σ 1 x u2 ), wobei Φ(x) = e 2 2π die kumulative Verteilungsfunktion der standard Normalverteilung ist; 0 < α < 0.5 ist der Anteil der schlechten Beobachtungen (Ausreisser), welche eine dreimal grössere Standardabweichung haben. Wir haben n Beobachtungen (ξ i, y i ). Die LS Schätzungen (ˆθ 1, ˆθ 2 ) minimieren n r2 i, wobei r i = y i ŷ i die Residuen und ŷ i = θ 1 + θ 2 ξ i die Prognosen sind. Eine Verallgemeinerung wäre n ρ(r i ) zu minimieren, wobei ρ(x) eine symmetrische Funktion (ρ( x) = ρ(x)) mit einem eindeutigen Minimum in x = 0 ist. Die Wahl ρ(x) = x 2 liefert die klassischen Kleinste Quadrat Schätzungen. Ableiten nach θ 1 und θ 2 liefert das 2 2 Gleichungssystem n ψ(r i )x i = (0, 0) wobei ψ(x) = d dx ρ(x) und x i = (1, ξ i ). Die LS Schätzungen sind nicht Ausreisser resistent, weil eine einzige schlechte Beobachtung die Quadratsumme explodieren lässt, die Funktionen ρ(x) und ψ(x) sind nicht beschränkt. Huber s Vorschlag (1964) ist c ψ(x) = min(c, max(x, c)) = x min(1, x ) c ist eine tuning Konstante. Im eindimensionalen Lokationsproblem (θ 2 = 0)sind der Median und der gestutzte Mittelwert (α-trimmed mean, die α% grösten und kleinsten Beobachtung werden weggelassen) einfache robuste Alternative zum Ausreisser empfindlichen Mittelwert. In der einfachen oder multiplen Regression sind nicht nur Aussreisser in der Zielvariable ein Problem, sondern auch Ausreisser in den explikativen Variablen, die sogenannten Hebelpunkte (leverage points). Die Mitschrift gibt diesbezüglich spektakuläre Beispiele. Eine gute Alternative zur LS-Methode ist der Least Median of Squares (LMS) Schätzer, welcher den Medianwert der ri 2 über θ minimiert. Die Software R bietet u.a. die robuste Prozedur lqs. Eine graphische Darstellung der Daten ist auf jeden Fall empfehlenswert, was im zweideimensionalen Fall recht einfach ist. Ausreisser und Hebelpunkte können Fehler (Tipp oder Messfehler), richtige aber ungewöhliche Beobachtungen sein oder sogar potentielle bahnbrechende Entdeckungen. Sie müssen wann immer möglich identifiziert und entsprechend behandelt werden. 15

18 Kapitel 3 Grundzüge der linearen Algebra 3.1 Notation und Grundbegriffe In diesem Kapitel werden die für die multivariate Statistik wichtigsten Begriffe und Sätze zusammengestellt. Die lineare Algebra ist auch in der Modellierung der Populationsdynamik wichtig. Es wird fast gänzlich auf Beweise verzichtet. Wir betrachten den n-dimensionalen Raum R n. Vektoren werden mit kleinen lateinischen Buchstaben bezeichnet und Skalare (hier reelle Zahlen) mit griechischen Buchstaben. Ein Vektor x R n ist somit ein n-tupel von Zahlen x = (ξ 1, ξ 2,..., ξ n ) t. Grundsätzlich werden hier Vektoren als Spaltenvektoren aufgefasst, werden jedoch zur Vereinfachung des Schreibens als transponierte Zeilenvektoren (mit dem Superskript t ) geschrieben. Vektoren kann man komponentenweise addieren und komponentenweise mit einem Skalaren multiplizieren, gemäss x + y = (ξ 1 + η 1, ξ 2 + η 2,... ξ n + η n ) t λx = (λξ 1, λξ 2,..., λξ n ) t (3.1) Das Skalarprodukt von zwei Vektoren ist definiert mittels n x y =< x, y >= ξ i η i R Zwei Vektoren x und y heissen orthogonal falls x y = 0. Die Norm oder Länge von x wird mit x = < x, x > = n ξ2 i definiert. Eine Menge von p Vektoren {x 1, x 2,... x p } R n heisst linear unabhängig falls eine lineare Kombination, welche den Nullvektor ergibt, d.h. p λ i x i = 0 notwendigerweise die triviale lineare Kombination ist, d.h. λ i = 0 für alle i. Man merke sich, dass der Vektor 0 den Nullvektor bezeichnet, dessen Komponente alle gleich der Zahl Null (0) sind. Ein Hauptsatz besagt, dass in R n höchstens n Vektoren linear unbhängig sein können, welche dann eine Basis e i, i = 1, 2... n bilden. Jeder Vektor kann eineindeutig als lineare Kombination von Basisvektoren geschrieben werden, d.h. n x = ξ i e i 16

19 Die ξ i heissen Koordinaten von x bezüglich der Basis e i. Wir werden fast ausschliesslich mit der kanonischen Basis arbeiten, in welcher die Komponenten von e i alle gleich Null sind, bis auf die i-te, welche 1 ist. Alle Vektoren dieser Basis sind zueinander orthogonal und alle haben die Länge 1, eine solche Basis heisst orthonormiert. In R 3 kann man aus der kanonischen Basis durch Rotationen beliebig viele andere orthonormierten gleichorientierte Basen (rechte oder linke Hand Orientierung) erzeugen. 3.2 Lineare Abbildungen und ihre Matrizen Wir betrachten eine Abbildung von R m nach R n Die Abbildung heisst linear falls f : x R m y = f(x) R n f(λ 1 x 1 + λ 2 x 2 ) = λ 1 f(x 1 ) + λ 2 f(x 2 ) für alle x 1, x 2, λ 1, λ 2. Inbesondere gilt f(0) = 0 (Achtung! der erste 0 ist in R m und der zweite in R n ). Wir haben die Basis {e 1, e 2,... e m } in R m und die Basis {f 1, f 2... f n } in R n. Wir haben wegen der Linearität der Abbildung f folgende Zerlegungen nach den Basisvektoren: x = y = f(e j ) = m ξ j e j j=1 n η i f i n α ij f i m m f(x) = f( ξ j e j ) = ξ j f(e j ) = = j=1 j=1 m ( n ) ξ j α ij f i j=1 n η i f i (3.2) Wegen der Eindeutigkeit der Zerlegung nach den Basisvektoren haben wir η i = m α ij ξ j (3.3) j=1 Die Koeffizienten α ij sind die Koordinaten in der Basis {f i, i = 1, 2... n} des Bildes unter der Abbildung f des j-ten Basisvektors e j. Diese α ij sind von der Wahl der zwei Basen abhängig. Diese nm Koeffizienten werden in einer Matrix A mit n Zeilen und m Spalten zusammengefasst, was oft mit der Notation A n m bezeichnet wird. Man merke sich die umgekehrte Reihenfolge der Indizes, die Abbildung geht von m nach n dimensionalen Räumen, während die Matrix vom Typ n m ist. Matrizen werden mit grossen fett gedruckten lateinischen Buchstaben bezeichnet. 17

20 A nm = α 11 α α 1m α 21 α α 2m α n1 α n2... α nm Die Gleichung (3.3) lässt sich als Skalarprodukt der i-ten Zeile der Matrix A mit dem Spaltenvektor x = (ξ 1, ξ 2,... ξ m ) t darstellen. Gelegentlich wird die Notation A n m = (α ij ) verwendet. Wenn man y als Spaltenvektor (η 1, η 2,... η n ) t betrachtet, kann man schreiben y = Ax Dieselbe Abbildung f kann, je nach Wahl der Basen, mit verschiedenen ähnlichen Matrizen dargestellt werden. Die Kunst wird oft darin bestehen, die Basen so zu wählen, dass die Matrix möglichst einfach wird. Die geometrische Natur der Abbildung (zum Beispiel Projektion, Spiegelung, Drehung usw.) ist intrinsisch, während Basen und Koordinaten nur zum eigentlichen Rechnen verwendet werden. Für eine Abbildung f von R n nach R n ist die zugehörige Matrix quadratisch, d.h. m = n. In einem solchen Fall wird meistens dieselbe Basis im Definitionsbereich wie auch im Bildbereich zugrunde gelegt. Ein wichtiger Spezialfall ist die identische Abbildung id : x R n id(x) = x R n. Die zugehörige Matrix wird mit I n bezeichnet (oft wird der Index n nicht angegeben, wenn die Dimension aus dem Kontext klar ist). Diese sogenannte Einheitsmatrix hat 1 in der Diagonale und 0 ausserhalb, d.h. I n = Zwei Matrizen vom selben Typ A n m = (α ij ) und B n m = (β ij ) können komponentenweise addiert werden, um eine neue Matrix C n m zu erhalten, und zwar gemäss: C n m = (γ ij ) = (α ij + β ij ) Die Multiplikation einer Matrix mit einem Skalar wird ebenfalls komponentenweise definiert, d.h. λa n m = (λα ij ) Wir betrachten nun die Verkettung g f von zwei linearen Abbildungen f und g, mit zugehörigen Matrizen A n m und B p n bezüglich der Basen {e 1,... e m }, {f 1... f n }, {g 1... g p } x R m f y R n g g(y) = g(f(x)) = (g f)(x) R p Wie man leicht sieht, ist die Abbildung h = g f ebenfalls eine lineare Abbildung von R m nach R p, also g f : R m R p, mit Matrix C p m = (γ ij ). Zweimalige Anwendung der obigen Überlegungen führt zur wichtigen Relation γ ij = n β ik α kj i = 1, 2... p, j = 1, 2,... m k=1 Das ij-te Element von C p m ist somit das Skalarprodukt der i-ten Zeile von B p n mit der j-ten Spalte von A n m. Man schreibt das als Matrixprodukt C p m = B p n A n m 18

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Statistik im Bachelor-Studium der BWL und VWL

Statistik im Bachelor-Studium der BWL und VWL Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 5. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Glossar Portfolio: In der Ökonomie bezeichnet der Begriff Portfolio ein Bündel von Investitionen, das

Mehr

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 8.1 Schätzer für Lage- und Skalenparameter und Verteilungsmodellwahl Lageparameter (l(x + a) = l(x) + a): Erwartungswert EX Median von X

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Mini-Skript Wahrscheinlichkeitstheorie und Statistik Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................

Mehr

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen.

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen. Matrixalgebra mit einer Einführung in lineare Modelle Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@statuni-muenchende 25 August 24 Vielen Dank an Christiane Belitz, Manuela Hummel und

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08 CURANDO UNIVERSITÄT ULM SCIENDO DOCENDO Statistik II Universität Ulm Abteilung Stochastik Vorlesungsskript Prof Dr Volker Schmidt Stand: Wintersemester 2007/08 Ulm, im Februar 2008 INHALTSVERZEICHNIS 2

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Grundlagen von Versuchsmethodik und Datenanalyse

Grundlagen von Versuchsmethodik und Datenanalyse Grundlagen von Versuchsmethodik und Datenanalyse Der Anfang: Hypothesen über Ursache-Wirkungs-Zusammenhänge Ursache Wirkung Koffein verbessert Kurzzeitgedächtnis Gewaltfilme führen zu aggressivem Verhalten

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

2 Multivariate Statistik

2 Multivariate Statistik MS13 1 2 Multivariate Statistik 21 Grundbegriffe In diesem Abschnitt sollen die ersten wichtigen Grundbegriffe der Multivariaten Statistik eingeführt werden: Mehrdimensionale Variablen, Erwartungswerte,

Mehr

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests Beispiel: Sonntagsfrage Vier Wochen vor der österreichischen Nationalratswahl 1999 wurde 499 Haushalten die Sonntagsfrage gestellt: Falls nächsten Sonntag Wahlen wären, welche Partei würden Sie wählen?

Mehr

Einführung in MATLAB

Einführung in MATLAB Kapitel 4 Einführung in MATLAB 41 Allgemeines MATLAB ist eine kommerzielle mathematische Software zur Lösung mathematischer Probleme und zur graphischen Darstellung der Ergebnisse Die Verfahren in MATLAB

Mehr

MATHEMATISCHE ANALYSE VON ALGORITHMEN

MATHEMATISCHE ANALYSE VON ALGORITHMEN MATHEMATISCHE ANALYSE VON ALGORITHMEN Michael Drmota Institut für Diskrete Mathematik und Geometrie, TU Wien michael.drmota@tuwien.ac.at www.dmg.tuwien.ac.at/drmota/ Ringvorlesung SS 2008, TU Wien Algorithmus

Mehr

4. Relationen. Beschreibung einer binären Relation

4. Relationen. Beschreibung einer binären Relation 4. Relationen Relationen spielen bei Datenbanken eine wichtige Rolle. Die meisten Datenbanksysteme sind relational. 4.1 Binäre Relationen Eine binäre Relation (Beziehung) R zwischen zwei Mengen A und B

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

2.1 Codes: einige Grundbegriffe

2.1 Codes: einige Grundbegriffe Gitter und Codes c Rudolf Scharlau 2. Mai 2009 51 2.1 Codes: einige Grundbegriffe Wir stellen die wichtigsten Grundbegriffe für Codes über dem Alphabet F q, also über einem endlichen Körper mit q Elementen

Mehr

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte K2 MATHEMATIK KLAUSUR 26.2.24 Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max 28 5 5 2 6 Punkte Notenpunkte PT 2 3 4 5 6 7 8 9 P. (max 2 2 2 4 5 3 3 4 3 Punkte WT Ana A.a b A.c Summe P. (max 7 5

Mehr

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 29. Mai 2006 Hinweise:

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Vergleich zweier Stichproben, nichtparametrische Tests Prof. Dr. Achim Klenke http://www.aklenke.de 11. Vorlesung: 27.01.2012 1/86 Inhalt 1 Tests t-test 2 Vergleich zweier

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 für Aufgabenpool 1 Analysis

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table(c:\\compaufg\\kredit. Lösung 16.3 Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 7 Projektionen und Rückprojektionen Der Punkt Die Gerade Die Quadrik Die Ebene Zusammenhang Kalibriermatrix - Bild des absoluten

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Übung 2 28.02.2008 1 Inhalt der heutigen Übung Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben 2.1: Häufigkeitsverteilung 2.2: Tukey Boxplot 25:Korrelation

Mehr

Die Verteilung dieser Werte y ist eine Normalverteilung. hängt nicht von u ab

Die Verteilung dieser Werte y ist eine Normalverteilung. hängt nicht von u ab Einfache lineare Regression als Beispiel für das ALM ALM : Allgemeines Lineares Modell Y : Kriterium U : Prädiktor Modell : Erwartungswert von Y ist lineare Funktion von U Genauer : Für festes u gilt für

Mehr

Definition und Eigenschaften Finiter Elemente

Definition und Eigenschaften Finiter Elemente Definition und Eigenschaften Finiter Elemente 1 Das letzte Mal Im letzten Vortrag haben wir zum Schluss das Lemma von Lax Milgram präsentiert bekommen, dass ich hier nocheinmal in Erinnerung rufen möchte:

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 Inhaltsverzeichnis Vorbemerkungen

Mehr

Z = 60! 29!31! 1,1 1017.

Z = 60! 29!31! 1,1 1017. Aufgabe : Eine Hochzeitsgesellschaft besteht aus 60 Personen. a Wieviele verschiedene Möglichkeiten für Sitzordnungen gibt es? b Nehmen Sie nun an, dass 9 Gäste aus dem Familien- und Freundeskreis der

Mehr

Statistische Software P. Fink. Statistische Software (R) Wiederholungshausübung SoSe 2015

Statistische Software P. Fink. Statistische Software (R) Wiederholungshausübung SoSe 2015 Allgmeine Hinweise Die Hausübung umfasst 7 Aufgaben mit insgesamt 120 Punkten. Erstellen Sie eine R Skript-Datei mit Ihrer Matrikelnummer als Dateinamen. Diese Datei enthält Ihren vollständigen und mit

Mehr

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten Kapitel 3 Erste Schritte der Datenanalyse 3.1 Einlesen und Überprüfen der Daten Nachdem die Daten erfasst worden sind, etwa mit Hilfe eines Fragebogens, ist die nächste Frage, wie ich sie in den Rechner

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

Einführung in die Stochastik

Einführung in die Stochastik Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse

Mehr

Mathematischer Vorkurs für Physiker WS 2009/10

Mathematischer Vorkurs für Physiker WS 2009/10 TU München Prof. Dr. P. Vogl, Dr. S. Schlicht Mathematischer Vorkurs für Physiker WS 2009/10 Vorlesung 1, Montag vormittag Vektoralgebra Ein Vektor lässt sich geometrisch als eine gerichtete Strecke darstellen,

Mehr

Evaluation der Normalverteilungsannahme

Evaluation der Normalverteilungsannahme Evaluation der Normalverteilungsannahme. Überprüfung der Normalverteilungsannahme im SPSS P. Wilhelm; HS SPSS bietet verschiedene Möglichkeiten, um Verteilungsannahmen zu überprüfen. Angefordert werden

Mehr

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln Häufigkeitstabellen Menüpunkt Data PivotTable Report (bzw. entsprechendes Icon): wähle Data Range (Zellen, die die Daten enthalten + Zelle mit Variablenname) wähle kategoriale Variable für Spalten- oder

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Nichtlebenversicherungsmathematik Aus welchen Teilen besteht eine Prämie Zufallsrisiko, Parameterrisiko, Risikokapital Risikomasse (VaR, ES) Definition von Kohärenz Zusammengesetze Poisson: S(i) CP, was

Mehr

Credit Risk+: Eine Einführung

Credit Risk+: Eine Einführung Credit Risk+: Eine Einführung Volkert Paulsen December 9, 2004 Abstract Credit Risk+ ist neben Credit Metrics ein verbreitetes Kreditrisikomodell, dessen Ursprung in der klassischen Risikotheorie liegt.

Mehr