2.1 Gemeinsame-, Rand- und bedingte Verteilungen

Größe: px
Ab Seite anzeigen:

Download "2.1 Gemeinsame-, Rand- und bedingte Verteilungen"

Transkript

1 Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die Verteilung von m Zufallsvariablen Wir verweisen in diesem Zusammenhang auf das Skript zur Vorlesung Statistik III (Zucchini, Böker und Stadie, 001) Wir bezeichnen eine m-dimensionale Zufallsvariable, auch zufälliger Vektor genannt, mit Y, wobei Y t = (Y 1, Y,,Y m ) ist und Y 1, Y,, Y m sind univariate Zufallsvariablen Wir verwenden Großbuchstaben für Zufallsvariablen Wir hatten die Spalten in der Datenmatrix mit y 1,y,,y m bezeichnet, wobei yi t = (x 1i, x i,,x ni ), dh yi t besteht aus n Beobachtungen oder n Realisationen der Zufallsvariablen Y i Man sollte hier also immer genau auf Groß- und Kleinschreibung achten Ferner sei daran erinnert, dass Vektoren fettgedruckt werden, so ist zb Y ein Vektor von Zufallsvariablen,y i ein Vektor von Beobachtungen, während Y i eine einzelne Zufallsvariable ist Obwohl wir es später überwiegend mit stetigen Zufallsvariablen zu tun haben werden, beginnen wir mit dem diskreten Fall, dh wir nehmen an, dass alle Zufallsvariablen Y 1, Y,,Y m diskret sind Die Verteilung dieser m Zufallsvariablen wird dann durch eine Wahrscheinlichkeitsfunktion beschrieben: P Y1 Y Y m (y 1, y,,y m ) = P({Y 1 = y 1, Y = y,,y m = y m }) Man beachte bitte, dass hier y i klein geschrieben und nicht fett gedruckt ist, demnach ist y i eine einzelne mögliche Beobachtung der Zufallsvariablen Y i Die Wahrscheinlichkeitsfunktion gibt die Wahrscheinlichkeit an, dass die Zufallsvariable Y 1 den Wert y 1 und die Zufallsvariable Y den Wert y und und die Zufallsvariable Y m den Wert y m annimmt Die gemeinsame Wahrscheinlichkeitsfunktion beschreibt also die gemeinsame Verteilung der Zufallsvariablen Y 1, Y,,Y m Aus der gemeinsamen Verteilung lassen sich zwei weitere Arten von Verteilungen berechnen, nämlich die Rand- und bedingten Verteilungen Nehmen Sie an, wir interessieren uns für die Verteilung einer einzelnen Komponente des zufälligen Vektors Y, zb Y i Die Wahrscheinlichkeitsfunktion von Y i bekommen wir, indem wir die gemeinsame Wahrscheinlichkeitsfunktion über alle anderen Variablen summieren, dh P Yi (y i ) = P Y1 Y Y m (y 1,,y i,, y m ), 13

2 14 KAPITEL MULTIVARIATE VERTEILUNGEN wobei die Summation über alle m-tupel y = (y 1,, y i,,y m ) mit festem y i, dh mit anderen Worten: es wird über (y 1,,y i 1, y i+1,,y m ) summiert Die Verteilung von Y i heißt dann die Randverteilung von Y i Es sei daran erinnert, dass man (gemeinsame) Randverteilungen auch für mehr als eine Variable bestimmen kann, indem man die gemeinsame Wahrscheinlichkeitsfunktion über alle möglichen Werte der restlichenvariablen aufsummiert Schließlich sei noch an den Begriff der Unabhängigkeit erinnert Die Zufallsvariablen Y 1, Y,,Y m sind unabhängig, wenn die gemeinsame Wahrscheinlichkeitsfunktion das Produkt der Randwahrscheinlichkeitsfunktionen ist Sind die Werte von einigen der m Zufallsvariablen bereits gegeben (gleich festen Werten), so nennt man die Verteilung der übrigen Zufallsvariablen (deren Werte noch nicht bekannt sind) bedingte Verteilung Es sei daran erinnert, dass für zwei Ereignisse A und B, die bedingte Wahrscheinlichkeit des Ereignisses A, gegeben, dass das Ereignis B eingetreten ist, folgendermaßen definiert ist: P(A B) P(A B) = P(B) Für zwei Zufallsvariablen Y 1 und Y ist die bedingte Wahrscheinlichkeitsfunktion von Y 1, gegeben Y = y, definiert durch: P Y1 Y (y 1 y ) = P Y 1 Y (y 1, y ) P Y (y ) Allgemeiner ist die bedingte Wahrscheinlichkeitsfunktion von Y 1, Y,,Y k, gegeben Y k+1 = y k+1,,y m = y m definiert durch: P Y1 Y k Y k+1 Y m (y 1,,y k y k+1,,y m ) = P Y 1 Y m (y 1,,y m ) P Yk+1 Y m (y k+1,,y m ) Die gemeinsame Verteilungsfunktion der Zufallsvariablen Y 1, Y,, Y m ist definiert durch: F Y1 Y Y m (y 1, y,,y m ) = P(Y 1 y 1, Y y,,y m y m ) Diese Definition gilt auch für stetige Zufallsvariablen Die Verteilung von m stetigen Zufallsvariablen kann auch durch die gemeinsame Dichtefunktion beschrieben werden, die man durch Differentiation aus der gemeinsamen Verteilungsfunktion erhält: f Y1 Y,Y m (y 1, y,,y m ) = m F Y1 Y Y m (y 1, y,, y m ) y 1 y y m Die Begriffe Randdichte und bedingte Dichtefunktionen sind analog zum diskreten Fall definiert Man hat nur die Summenzeichen durch Integrale zu ersetzen Die Randdichte einer Komponente des zufälligen Vektors Y, zb Y i bekommen wir, indem wir über alle anderen Variablen integrieren f Yi (y i ) = f Y1 Y Y m (y 1,,y i,,y m )dy 1 dy i 1 dy i+1 dy m Stetige Zufallsvariablen sind unabhängig, wenn die gemeinsame Dichtefunktion das Produkt der Randdichtefunktionen ist Man bekommt die gemeinsame Randdichtefunktion von mehr

3 ERWARTUNGSWERT, VARIANZ, KOVARIANZ UND KORRELATION 15 als einer (und weniger als m) Zufallsvariablen, indem man über die möglichen Werte der restlichen Zufallsvariablen integriert Die bedingte Dichtefunktion von Y 1, gegeben Y = y ist definiert durch: f Y1 Y (y 1 y ) = f Y 1 Y (y 1, y ) f Y (y ) Allgemeiner ist die bedingte Dichtefunktion von Y 1, Y,,Y k, gegeben Y k+1 = y k+1,,y m = y m definiert durch: f Y1 Y k Y k+1 Y m (y 1,,y k y k+1,,y m ) = f Y 1 Y m (y 1,,y m ) f Yk+1 Y m (y k+1,,y m ) Erwartungswert, Varianz, Kovarianz und Korrelation Im univariaten Fall beschreibt man eine Verteilung häufig durch die ersten beiden Momente, dh durch den Erwartungswert und die Varianz, bzw durch die Quadratwurzel aus der Varianz, die Standardabweichung Bei zwei Zufallsvariablen, also im bivariaten Fall, nimmt man noch als gemeinsames Moment die Kovarianz oder die standardisierte Version, den Korrelationskoeffizienten dazu Im multivariaten Fall (m Zufallsvariablen) braucht man für eine Charakterisierung der Verteilung durch die ersten beiden Momente außer den Mittelwerten und den Varianzen noch die Korrelationskoeffizienten für jedes mögliche Paar von Variablen Wir wiederholen kurz die Definitionen: Erwartungswert: Wir bezeichnen den Vektor der Erwartungswerte mit µ t = (µ 1, µ,,µ m ), wobei µ i = E(Y i ) = yf i (y)dy der Erwartungswert der i-ten Komponente des Vektors Y t = (Y 1, Y,,Y m ) ist Diese Definition gilt für eine stetige Zufallsvariable Y i mit Randdichte f i Für eine diskrete Zufallsvariable gilt E(Y i ) = y yp i(y), wenn P i die Randwahrscheinlichkeitsfunktion von Y i bezeichnet Varianz: Die Varianz der i-ten Komponente des Zufallsvektors Y ist gegeben durch Var(Y i ) = E[(Y i µ i ) ] = E(Y i ) µ i Dies wurde bisher üblicherweise mit σi bezeichnet Um Verträglichkeit mit der Bezeichnung der Kovarianzen herzustellen, wählen wir jedoch im multivariaten Fall die Bezeichnung σ ii Kovarianz: Die Kovarianz zweier Zufallsvariablen Y i und Y j ist definiert durch: Cov(Y i, Y j ) = E[(Y i µ i )(Y j µ j )] Sie ist daher das Produktmoment zweier Zufallsvariablen um ihren Erwartungswert (siehe Skript Statistik III, 001, S10) Im Spezialfall i = j ist die Kovarianz einer Zufallsvariablen

4 16 KAPITEL MULTIVARIATE VERTEILUNGEN mit sich selbst einfach die Varianz Die Kovarianz von Y i und Y j wird üblicherweise mit σ ij bezeichnet Für den Fall i = j bezeichnen wir also die Varianz, wie schon oben vereinbart, mit σ ii Die Kovarianz wird oft nach der äquivalenten Formel berechnet σ ij = E(Y i Y j ) µ i µ j Kovarianzmatrix: Bei m Zufallsvariablen gibt es m Varianzen und 1 m(m 1) Kovarianzen Diese Größen werden üblicherweise in einer m m Matrix dargestellt, die mit Σ bezeichnet wird Σ = σ 11 σ 1 σ 1m σ 1 σ σ m σ m1 σ m σ mm Diese Matrix wird gelegentlich mit Dispersionsmatrix, Varianz-Kovarianzmatrix oder einfach als Kovarianzmatrix bezeichnet Beachten Sie, dass in der Diagonalen die Varianzen σ ii stehen Da die Kovarianz von Y i und Y j identisch mit der von Y j und Y i ist, gilt σ ij = σ ji, dh die Kovarianzmatrix ist symmetrisch Da (Y µ)(y µ) t = (Y 1 µ 1 ) (Y 1 µ 1 )(Y µ ) (Y 1 µ 1 )(Y m µ m ) (Y µ )(Y 1 µ 1 ) (Y µ ) (Y µ )(Y m µ m ) (Y m µ m )(Y 1 µ 1 ) (Y m µ m )(Y µ ) (Y m µ m ) und entsprechende Gleichungen auch für YY t und µµ t gelten ist: Σ = E[(Y µ)(y µ) t ] = E[YY t ] µµ t (1) Wir werden die Kovarianzmatrix später benutzen, um die Korrelationsmatrix auszurechnen Wir werden sie hier zunächst einmal benutzen, um die Varianz einer Linearkombination der Komponenten des zufälligen Vektors Y t = (Y 1, Y,,Y m ) zu berechnen Sei a t = (a 1, a,,a m ) ein Vektor von Konstanten Dann ist a t Y das Skalarprodukt aus dem konstanten Vektor a und dem zufälligen Vektor Y, also ein zufälliger Skalar, eine univariate Zufallsvariable Bezeichnen wir diese aus Y durch eine lineare Transformation hervorgegangene Zufallsvariable mit Z Z = a t Y Es gilt: Z = a 1 Y 1 + a Y + + a m Y m Daher ist E(Z) = a 1 E(Y 1 ) + a E(Y ) + + a m E(Y m )) = a 1 µ 1 + a µ + + a m µ m, dh in Vektorschreibweise: Die Varianz von Z ist gegeben durch: E(Z) = E(a t Y ) = a t µ () Var(Z) = E[{Z E(Z)} ] = E[{a t Y a t µ} ] = E[{a t (Y µ)} ]

5 ERWARTUNGSWERT, VARIANZ, KOVARIANZ UND KORRELATION 17 Da a t (Y µ) ein Skalar ist und daher identisch ist mit seinem Transponierten, können wir für die Varianz von Z unter Benutzung von Gleichung 1 unter Beachtung der Linearität des Erwartungswertes schreiben: Var(Z) = E[a t (Y µ)(y µ) t a] = a t E[(Y µ)(y µ) t ]a = a t Σa (3) Diese Formel bedeutet (ohne Matrizen geschrieben): m Var(Z) = Var(a t Y ) = a i σ ii + i=1 m m a i a j σ ij i=1 j=1 i j In dieser Form finden Sie diese Formel im Skript Statistik III (001, S 133) Für m= ist: a t Y = a 1 Y 1 + a Y In den Übungen zu Statistik III wurde gezeigt, dass Var(a 1 Y 1 + a Y ) = Var(a 1 Y 1 ) + Var(a Y ) + Cov(a 1 Y 1, a Y ) = a 1Var(Y 1 ) + a Var(Y ) + a 1 a Cov(Y 1, Y ) = a 1 σ 11 + a σ + a 1 a σ 1 Die letzte Zeile kann in der Form geschrieben werden: (a 1 a ) ( σ 11 σ 1 σ 1 σ ) ( a1 a ) Die Gleichungen und 3 können in der folgenden Weise verallgemeinert werden: Sei A eine m p-matrix von Konstanten Dann ist A t Y ein zufälliger p 1-Vektor, dessen Erwartungswertvektor und Kovarianzmatrix gegeben sind durch die folgenden Gleichungen: E(A t Y) = A t µ (4) Var(A t Y) = A t ΣA (5) Korrelationen: Die Kovarianz wird selten als deskriptives Maß für den linearen Zusammenhang zweier Zufallsvariablen benutzt, da sie von der Dimension abhängt, in der die Variablen gemessen werden Nur das Vorzeichen macht eine Aussage über den Zusammenhang Deshalb dividiert man die Kovarianz häufig durch das Produkt der Standardabweichungen der beiden Zufallsvariablen Y i und Y j und erhält damit den Korrelationskoeffizienten ρ ij, der definiert ist durch: ρ ij = σ ij σ i σ j, wobei σ i die Standardabweichung von Y i bezeichnet Der Korrelationskoeffizient ist ein dimensionsloses Maß für den linearen Zusammenhang zweier Zufallsvariablen und nimmt Werte zwischen -1 und 1 an Der Korrelationskoeffizient ist positiv, wenn der Zusammenhang zwischen beiden Variablen eine positive Steigung hat, dh große Werte der einen Variablen gehen mit großen Werten der anderen Variablen einher Wenn der Korrelationskoeffizient negativ ist, bedeutet dies bildlich, dass die Punktwolke eine negative Steigung hat: große Werte der einen Variablen gehen mit kleinen Werten der andern Variablen einher

6 18 KAPITEL MULTIVARIATE VERTEILUNGEN Wenn zwei Zufallsvariablen unabhängig sind, so ist ihre Kovarianz und damit auch der Korrelationskoeffizient Null Es ist jedoch wichtig, dass die Umkehrung nicht gilt Zwei Zufallsvariablen können unkorreliert und nicht unabhängig sein Meistens sind sie in nichtlinearer Form abhängig (Beispiel Statistik III) Für die bivariate Normalverteilung gilt jedoch die Umkehrung: Wenn zwei Zufallsvariablen gemeinsam normalverteilt sind, so folgt aus der Unkorreliertheit die Unabhängigkeit Die Korrelationsmatrix: Bei m Zufallsvariablen gibt es m(m-1)/ Korrelationen Diese werden häufig ähnlich wie die Kovarianzmatrix in einer (m m)-matrix dargestellt In der i-ten Zeile und j-ten Spalte dieser Matrix steht ρ ij, der Korrelationskoeffizient zwischen Y i und Y j Diese Matrix wird mit P bezeichnet, dem griechischen Symbol für ein großes Rho Die Diagonalelemente der Korrelationsmatrix sind 1 (in der Kovarianzmatrix standen dort die Varianzen!) Die Korrelationsmatrix ist wie die Kovarianzmatrix symmetrisch P = 1 ρ 1 ρ 1m ρ 1 1 ρ m ρ m1 ρ m 1 Um die Beziehung zwischen Kovarianzmatrix und Korrelationsmatrix in Matrizenform zu schreiben, definieren wir eine Diagonalmatrix D, in deren Diagonale die Standardabweichungen σ i = σ ii der Zufallsvariablen stehen Für den umgekehrten Zusammenhang zwischen P und Σ benötigt man die Inverse D 1, die in der Diagonale die reziproken Werte der Standardabweichungen enthält D = σ σ 0 D 1 = 1/σ /σ σ m 0 0 1/σ m Dann gilt: Σ = DP D (6) P = D 1 ΣD 1 (7) Rang von Σ und P: Wir hatten oben gesehen, dass a t Y eine Zufallsvariable ist Die Varianz einer Zufallsvariablen ist selbstverständlich größer oder gleich Null, dh V ar(a t Y) 0 für alle a Da V ar(a t Y) = a t Σa gilt, muss Σ positiv semidefinit sein Da die Diagonalmatrix D nichtsingulär ist, muss wegen der obigen Beziehung zwischen Σ und P, die Korrelationsmatrix P ebenfalls positiv semidefinit sein Weiterhin folgt wegen des gleichen Zusammenhangs zwischen P und Σ, dass P und Σ denselben Rang haben müssen, da für Matrizen A, B und C gilt: Rang(A)=Rang(BA)=Rang(AC), wenn B und C nichtsinguläre quadratische Matrizen sind Der Rang von Σ und daher auch P ist kleiner oder gleich m, der Anzahl der Variablen Wenn Σ und daher auch P von vollem Rang ist, dann ist Σ und daher auch P positiv definit, da dann V ar(a t Y) = a t Σa strikt größer ist als Null für jedes a 0 Ist Rang(Σ) < m,

7 3 MULTIVARIATE NORMALVERTEILUNG 19 so ist Σ und daher auch P singulär, dh es gibt einen linearen Zusammenhang zwischen den Komponenten von Y, dh es existiert ein Vektor a 0, so dass a t Y eine Konstante ist und somit gilt: V ar(a t Y) = a t Σa = 0 Das bedeutet: Σ ist positiv semidefinit und nicht positiv definit Mindestens eine der Variablen lässt sich als Linearkombination der übrigen darstellen und ist somit überflüssig, dh die Information, die in dieser Variablen enthalten ist, steckt auch schon in den anderen drin 3 Multivariate Normalverteilung Wir erinnern an die Dichtefunktion einer normalverteilten Zufallsvariablen Y mit Erwartung µ und Varianz σ, die gegeben ist durch (siehe Skript, Statistik III, S9): f Y (y) = 1 πσ exp[ (y µ) /σ ] für < y < (8) Wir haben dafür geschrieben: Y N(µ; σ ) Im multivariaten Fall sagen wir, dass eine m- dimensionale Zufallsvariable eine m-dimensionale Normalverteilung besitzt, wenn sie die folgende gemeinsame Dichtefunktion besitzt: f Y1 Y Y m (y 1, y,,y m ) = 1 (π) m/ det (Σ) exp[ 1 (y µ)t Σ 1 (y µ)] (9) Dabei ist Σ eine symmetrische, positiv definite m m-matrix und det (Σ) die Determinante der Matrix Σ, Σ 1 die Inverse der Matrix Σ, µ t = (µ 1, µ,,µ m ) undy t = (y 1, y,, y m ) Die Gleichung 9 reduziert sich für m = 1 auf Gleichung 8 Wenn Y 1, Y,,Y m unabhängige Zufallsvariablen mit Y i N(µ i, σi ), dann ist ihre gemeinsame Dichtefunktion das Produkt der Randdichtefunktionen: f(y 1, y,,y m ) = 1 (π) m/ m i=1 σ i exp [ 1 m ( ) ] yi µ i i=1 σ i (10) In diesem Fall hat Y t = (Y 1, Y,,Y m ) den Erwartungswertvektor µ t = (µ 1, µ,,µ m ) und die Kovarianzmatrix σ σ Σ = σm und man sieht, dass Gleichung 10 in der Form von Gleichung 9 geschrieben werden kann Im allgemeinen Fall ist Σ natürlich keine Diagonalmatrix Man kann zeigen, dass Gleichung 9 für alle µ und für alle symmetrischen und positiv definiten m m-matrizen Σ eine gemeinsame Dichtefunktion definiert Dann gilt: E(Y) = µ und V ar(y) = Σ, wobei wir mit,,var die Kovarianzmatrix bezeichnen Wir schreiben dann Y N m (µ; Σ),

8 0 KAPITEL MULTIVARIATE VERTEILUNGEN wobei m die Dimension von Y, µ den Erwartungswertvektor und Σ die Kovarianzmatrix bedeutet Die Definition über Gleichung 9 verlangt, dass die Matrix Σ nichtsingulär ist, damit man die Inverse Σ 1 bilden kann Damit sind lineare Abhängigkeiten zwischen den Komponenten von Y nicht erlaubt Die Bedeutung der multivariaten Normalverteilung beruht auf dem zentralen Grenzwertsatz in seiner multivariaten Form Der zentrale Grenzwertsatz (univariat) besagt, dass standardisierte Mittelwerte für große n annähernd standardnormalverteilt sind (siehe Skript, Statistik III, S 36) Wir kommen auf die multivariate Normalverteilung in einem späteren Kapitel zurück Die multivariate Normalverteilung kann in R mit der Funktion mvrnorm(n=1, mu, Sigma) aus der library MASS simuliert werden Dabei ist n die Anzahl der Simulationen, mu der Erwartungswertvektor µ und Sigma die Kovarianzmatrix 4 Bivariate Normalverteilung Die bivariate Normalverteilung ist ein wichtiger Spezialfall der multivariaten Normalverteilung In diesem Fall ist µ t = (µ 1, µ ), während die Kovarianzmatrix gegeben ist durch: Σ = ( σ11 σ 1 σ 1 σ ) ( σ = 1 ρσ 1 σ ρσ 1 σ σ ) (11) Dabei bezeichnet ρ den Korrelationskoeffizienten zwischen den beiden Zufallsvariablen (siehe Skript, Statistik III, S 18) Dort wurde auch gezeigt, dass dies mit der üblichen Darstellung f Y1 Y (y 1, y ) = 1 πσ 1 σ 1 ρ exp { [ (y1 ) 1 µ ( ) ( ) ( ) ]} 1 y1 µ 1 y µ y µ ρ + (1 ρ ) σ 1 übereinstimmt Die bivariate Normalverteilung hängt von fünf Parametern ab, den beiden Erwartungswerten µ 1 und µ, den beiden Varianzen σ1 und σ und dem Korrelationskoeffizienten ρ Die Kovarianzmatrix ist positiv definit, wenn alle Hauptabschnittsdeterminanten größer als Null sind Die erste Hauptabschnittsdeterminante ist σ1 und damit größer als Null Die zweite ist det(σ) = σ1σ ρ σ1σ = (1 ρ )σ1σ Offensichtlich ist det(σ) genau dann größer als Null, wenn ρ < 1 gilt Wenn ρ = 1 oder ρ = 1, dann sind die beiden Variablen linear abhängig und die Beobachtungen liegen auf einer Geraden Man erhält also eine ausgeartete Form der bivariaten Normalverteilung Wenn ρ = 0, dann ist die gemeinsame Dichtefunktion das Produkt zweier univariater Normalverteilungen Die beiden Zufallsvariablen sind somit unabhängig σ 1 σ σ 5 Andere multivariate Verteilungen a) Diskrete Verteilungen Die beste Quelle zur Information ist das Buch von Johnson, Kotz und Balakrishnan (1997) über diskrete multivariate Verteilungen Im Zusammenhang mit mehrdimensionalen Kontingenztafeln findet man auch viele Verteilungen bei Bishop ua (1980, Kapitel 13) Wir zählen hier nur einige Namen auf Meistens geht

9 5 ANDERE MULTIVARIATE VERTEILUNGEN 1 aus dem Namen schon hervor, zu welcher univariaten Verteilung eine Beziehung besteht Multinomialverteilung Negative Multinomialverteilung Multivariate Poissonverteilungen Multivariate hypergeometrische Verteilung b) Stetige Verteilungen Auch hier hier gibt es ein ganzes Buch über multivariate stetige Verteilungen von Johnson und Kotz (197) Die wichtigste Verteilung ist die bereits oben besprochene multivariate Normalverteilung Wie im univariaten Fall gibt es Verteilungen, die in enger Beziehung zur multivariaten Normalverteilung stehen, wie Wishart-Verteilung (Verallgemeinerung der χ -Verteilung) Multivariate t-verteilung Daneben findet man bei Johnson und Kotz (197) unter anderem Verallgemeinerungen der Betaverteilung (Dirichletverteilung) Gammaverteilung Exponentialverteilung Als Beispiel betrachten wir die Dirichletverteilung Zur Erinnerung sei die Dichtefunktion der Betaverteilung noch einmal gegeben: y α 1 (1 y) β 1 0 y 1 f Y (y) = B(α, β) 0 sonst Wir geben noch einmal die Definition der Betafunktion und ihre Beziehung zur Gammafunktion B(α, β) = 1 0 t α 1 (1 t) β 1 dt α > 0 β > 0 = Γ(α)Γ(β) Γ(α + β) Die Zufallsvariablen Y 1, Y, Y m besitzen eine Dirichletverteilung mit den Parametern α 1, α,,α m, wenn ihre gemeinsame Dichtefunktion gegeben ist durch: y α i 1 i Γ(C) m i=1 f(y 1,,y m ) = m Γ(α i ) Dabei muss gelten y i 0 für alle i mit der Nebenbedingung m i=1 y i = 1 Ferner ist C = m i=1 α i, α i > 0 für alle i Die Dirichletverteilung ist verwendet worden als Modell für die Kaufwahrscheinlichkeit einer bestimmten Marke eines Produkts, von dem nur genau eine Marke gekauft wird i=1

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

1 (2π) m/2 det (Σ) exp 1 ]

1 (2π) m/2 det (Σ) exp 1 ] Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Multivariate Verteilungen und Copulas

Multivariate Verteilungen und Copulas Multivariate Verteilungen und Copulas Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien, Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

4 MEHRDIMENSIONALE VERTEILUNGEN

4 MEHRDIMENSIONALE VERTEILUNGEN 4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen 3 Inhaltsverzeichnis 3. Problemstellung... 7 3.2 Univariate Zufallsvariablen... 7 3.3 Zufallsmatrizen und Zufallsvektoren... 76 3.4 Multivariate Normalverteilung... 88

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Gemeinsame Verteilung von Zufallsvariablen

Gemeinsame Verteilung von Zufallsvariablen Kapitel 6 Gemeinsame Verteilung von Zufallsvariablen 6. Gemeinsame Verteilungen zweier Zufallsvariablen Bisher haben wir nur die Verteilung einer Zufallsvariablen betrachtet. Zur Beschreibung des stochastischen

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

[ 2 ] Die Zufallsvariablen X und Y haben die in der Tabelle gegebene gemeinsame Wahrscheinlichkeitsfunktion

[ 2 ] Die Zufallsvariablen X und Y haben die in der Tabelle gegebene gemeinsame Wahrscheinlichkeitsfunktion Paare von Zufallsvariablen Kapitel : Paare von Zufallsvariablen A: Übungsaufgaben: [ ] Die Zufallsvariable X kann die Werte, 2 und die Zufallsvariable Y die Werte 0,, 2 annehmen. Die gemeinsame Verteilungsfunktion

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Wahrscheinlichkeiten. Verteilungen

Wahrscheinlichkeiten. Verteilungen Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Statistik in Geodäsie, Geoinformation und Bauwesen

Statistik in Geodäsie, Geoinformation und Bauwesen Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen

Mehr

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

Mehrdimensionale Verteilungen und Korrelation

Mehrdimensionale Verteilungen und Korrelation Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =

Mehr

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D.

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Übungsblatt 9 (25. bis 29. Juni)

Übungsblatt 9 (25. bis 29. Juni) Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr