Charakterisierung von 1D Daten

Größe: px
Ab Seite anzeigen:

Download "Charakterisierung von 1D Daten"

Transkript

1 Charakterisierung von D Daten Mittelwert: µ, Schätzung m x = x i / n Varianz σ2, Schätzung: s2 = (s: Standardabweichung) Höhere Momente s 2 = ( x i m x ) 2 n ( ) Eine Normalverteilung ist mit Mittelwert und Varianz voll charakterisiert. Die beiden Parameter definieren die Wahrscheinlichkeitdichtefunktion (Gauss Funktion). Die Wahrscheinlichkeit für das Vorkommen von Messwerten innerhalb eines Bereichs ist durch das Integral über diesen Bereich gegeben. Mittelwert und Varianz können für beliebig verteilte Daten berechnet werden, sie haben dann aber nicht die gleiche statistische Bedeutung.

2 Wichtigkeit von Graphiken Mittelwert = 3.6 s = 4.2

3 Wichtigkeit von Graphiken Mittelwert = 3.6 s= 4.2 Anzahl Beobachtungen

4 Varianz s 2 = x n i x _ = 2 z n i 2 z: zentrierte Variablen Mit Vektornotation: s 2 = n zt z zt z 2 = z i

5 Berechnung der Varianz: Matrixnotation Eindimensionale Daten (Datenvektor x) Mittelwert: x _ = n Σ x i = n T x Summe der Fehlerquadrate: Σ (x i -x _ ) 2 = Σ x i 2 - ( Σ x i ) 2 n = x T x - n (xt )( T x) = x T H n x mit H n =I - ( n n T n ) Varianz: s 2 = n- xt H n x H n : Zentrierungsmatrix Da H n symmetrisch und idempotent ist: (H n x)t H n x = xt H n T H n x = xt H n x

6 Varianz und Kovarianz D Daten 2D Daten n% Wahrscheinlichkeit n% Wahrscheinlichkeit

7 Varianz und Kovarianz 2D Daten 2D Daten Kovarianz = 0 Kovarianz 0

8 Varianz und Kovarianz D Wahrscheinlichkeitsdichtefunktion für die Normalverteilung f(x) = 2πσ 2 e 2 x µ σ 2 = 2πσ 2 e 2 ( x µ ) σ ( 2 x µ ) σ 2 : Varianz nd Wahrscheinlichkeitsdichtefunktion für die Normalverteilung f(x) = 2πΣ e 2 ( x µ )Τ Σ ( x µ ) Σ: Varianz-Kovarianzmatrix

9 Berechnung der Varianz: Matrixnotation s 2 = n- y T H n y Für mehrdimensionale Daten erhält man mit der analogen Matrixoperationen die Varianz-Kovarianzmatrix S: S = n- AT A - n (AT )( T A)= A T H n A Die Diagonalelemente sind die Varianzen, die Ausserdiagonalelemente die Kovarianzen der entsprechenden Variablen. H n A= x -x _ y -y _ z -z _ x 2 -x _ y 2 -y _ z 2 -z _ x 3 -x _ y 3 -y _ z 3 -z _ S = n- AT H n A = n- Σ(x i -x _ ) 2 Σ(x i -x _ )(y i -y _ ) Σ(x i -x _ )(z i -z _ ) Σ(x i -x _ )(y i -y _ ) Σ(y i -y _ ) 2 Σ(y i -y _ )(z i -z _ ) Σ(x i -x _ )(z i -z _ ) Σ(y i -y _ )(z i -z _ ) Σ(z i -z _ ) 2 = var(x) cov(x,y) cov(x,z) cov(x,y) var(y) cov(y,z) cov(x,z) cov(y,z) var(z)

10 Teeproben Category Variety Samples Source Green tea Chunmee C, C2, C3, C4, C5, C6, C7 Shanghai Tea Inst. Hyson H, H2, H3, H4, H5 Shanghai Tea Inst. Black tea Keemun K, K2, K3, K4 Shanghai Tea Inst. Feng Quing F, F2, F3, F4, F5, F6, F7 Yunnan Tea Inst. Oolong tea Tikuanyin T, T2, T3, T4 Xia Men Tea Inst. Se Zhong S, S2, S3, S4 Xia Men Tea Inst. High quality Low quality X. Liu, P. van Espen, F. Adams, S.H. Yan, M. Vanbella, Anal.Chim. Acta 987, 200, 42

11 Teeproben: Messdaten Probe Cellulose Hemicellulose Lignin Polyphenols Caffeine AminoAcids c c c c c c c h h h h h k k k k f f f f f f f t t t t s s s s

12 Teeproben: Varianz-Kovarianzmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Objekte Variablen Variablen Variablen X T H n X Objekte = Variablen S

13 Korrelationskoeffizient Ein normiertes Mass für den Zusammenhang zwischen zwei Zufallsvariablen ist der Korrelationskoeffizient r mit Werten zwischen - und +. ρ = σ xy σ x σ y ( σ xy ist die Kovarianz) Für eine Abschätzung des Korrelationskoeffizienten gilt: r = cov s x s y xy Aus der Varianz-Kovarianzmatrix S kann man die Korrelationsmatrix wie folgt ableiten. Zuerst erzeugt man eine Diagonalmatrix D, die die jeweiligen reziproken Standardabweichungen enthält (vgl. Anhang 2 des Skripts). Die Korrelationsmatrix ist dann: R = D S D Die Diagonalelemente der Korrelationsmatrix haben den Wert, die Ausserdiagonalelmente sind die Korrelationskoeffizienten der entsprechenden Paare von Variablen.

14 Teeproben: Korrelationsmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids

15 Winkel zwischen zwei Vektoren Skalarprodukt: x T y = x y cosa x Länge eines Vektors: x = x 2 + x x n 2 = 2 Â x i = x T x a y cos a = x T x x T y y T y

16 Korrelationskoeffizient r = cov(xy) s x s y = ( x x) 2 ( x x) y y ( ) ( y y) 2 Für zentrierte Variablen: r = x T x x T y y T y cos α = x T x x T y y T y Der Korrelationskoeffizient entspricht dem Cosinus des Winkels zwischen den beiden Vektoren

17 Bedeutung des Korrelationskoeffizienten Variablenraum Variablenraum zentriert Objektraum (zentrierte Variablen) y y 3 3 (2,3) (3,2) (,) x x 2 0 (-,0,) α = 60 o ; cos α = 0.5 (-,,0) [- 0 ] 0 [- 0 ] 0 r = = 2 2 = 0.5 [- 0] 0

18 Teeproben: Korrelationsmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Geometrische Interpretation: Im 3-dimensionalen Objektraum, ist der Winkel zwischen: Cellulose und Amonosäuren: 2o Caffein und Aminosäuren: 28o Caffein und Polyphenole: 4o

19 Distanz zwischen zwei Vektoren 2 x 2 x d 2 x 22 x 2 x x 2 Euklid: d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j

20 Distanz zwischen Teeproben c c2 c3 c4 c5 c6 c7 h h2 h3 h4 h5 k k2 k3 k4 c2.35 c c c c c h h h h h k k k k f f f f f f f t t t t s s s s

21 Distanz zwischen Teeproben f f2 f3 f4 f5 f6 f7 t t2 t3 t4 s s2 s3 c2 c3 c4 c5 c6 c7 h h2 h3 h4 h5 k k2 k3 k4 f f f f f f f t t t t s s s s

22 Clusteranalyse Prinzip der hierarchischen Clusteranalyse: Avarage linkage Methode: links: Koordinaten im 2D Raum, rechts: Dendogramm X2 E D Abstand A B C BC DE X A B C D E

23 Teeproben: Clustering 6 S i m i l a ri t y D eg r e e Green Good quality Black Black and green tea Low quality Oolong Green Black 0 C C2 H C3 C4 H2 H3 K K2 F2 F3 F4 F C5 C6 H4 H5 C7 K3 K4 F5 F6 F7 T T2 S T3 T4 S3 S4 S2

24 Clusterungsmethoden Single linkage (nächster Nachbar): kann zu elongierten Clustern führen Average linkage (Mitte der Cluster) Complete linkage (am weitesten entfernter Mitglied der Cluster): führt zu kompakten Clustern

25 Distanzmasse Minkowski d ij = x ik x jk k ( ) n / n Euklid d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j City block d ij = k x ik x jk

26 Distanzmasse Euklid d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j Euklid gewichtet d ij = ( x i x ) T j W( x i x ) j Gewichtsmatrix: I: Euklid diag W: individuell gewichtet, z.b w i = /s i 2 Kolonnenvarianz Mahalanobis Distanz: W = C- (Inverse der Varianz-Kovarianz Matrix) C = (/n) X z T X z, mit X z : zentrierte Daten

27 Gewichtung = Skalierung der Koordinaten Durch die Gewichtung ändern sich die Distanzen und die Winkel (Korrelationskoeffizienten) zwischen den Vektoren ( 0.4) W = W = (.6 )

28 Mahalanobis Distanz Abstand von einem Punkt zu einem Andren, der sich in einer bekannten Verteilung befindet (der Abstandsmass berücksichtigt die Korrelation). G2 C B A G G3 G4 Die Mahalanobis-Distanz von C zu B ist kleiner als von A zu B (die Euklidschen Distanzen sind gleich). Die Mahalanobis-Distanz zwischen den beiden Clustern G und G2 ist keiner als zwischen G3 und G4 (die Euklidschen Distanzen sind gleich).

29 Distanzmasse für binäre Variablen Hamming Distanz: d ij = k XOR( x ik, x ) jk Die Hamming-Distanz ist die City block-distanz für binäre Variablen XOR: Exklusives OR: 0 XOR 0 = 0; XOR = 0 0 XOR = ; XOR 0 = Tanimoto Koeffizient T zwischen zwei binären Vektoren A und B: Anzahl von in A: N A, in B: N B und gleichzeitiges Vorkommen in A und B: N A&B (Tanimoto Abstand: -T) N A&B T = N A + N B - N A&B Beispiel: A: B: A&B T = 6 / ( ) = 0.667; - T = Hamming Distanz: 3

30 Distanzmasse: Abstand und Winkel X2 D 2 v v 2 D 3 Die Abstände D 2 und D 3 sind gleich gross aber bei der Benützung des Winkels zwischen den Vektoren als Distanzmass, ist v 2 viel ähnlicher zu v als v 3. Der Cosinus des Winkels zwischen zwei Datenvektoren entspricht dem Korrelationskoeffizienten. v 3 X

31 Abstand und Winkel: Ein Beispiel Retentionsindizes von fünf Substanzen ( 5) mit drei stationären Phasen (SF SF3) in der Gaschromatographie Stationäre Phase SF SF SF D2 = 43.9 D3 =329.5 r2 = r3 = Interpretation: Die absoluten Retentionsindizes sind für SF und SF2 ähnlich (ähnliche Polarität der Phasen), die relativen für SF und SF3, d.h. diese beiden zeigen ähnliche spezifische Wechselwirkungen mit den Proben. Man würde bei Erhöhung der Temperatur für SF3 ähnliche Werte bekommen wie für SF.

Chemometrie: von Daten zu Information

Chemometrie: von Daten zu Information Chemometrie: von Daten zu Information Chemometrie: Definition Warnungen Daten von Anscombe: numerisch x y x y x y x y 0 8.04 0 9.4 0 7.46 8 6.58 8 6.95 8 8.4 8 6.77 8 5.76 3 7.58 3 8.74 3 2.74 8 7.7 9

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden.0.008 Günter Meinhardt Johannes Gutenberg Universität Mainz a) Ein Punkt ist, was keine Teile hat b) Eine Linie ist ein Länge ohne Breite p) Es soll gefordert werden, dass

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

4 MEHRDIMENSIONALE VERTEILUNGEN

4 MEHRDIMENSIONALE VERTEILUNGEN 4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Entscheidungen bei der Durchführung einer Cluster-Analyse

Entscheidungen bei der Durchführung einer Cluster-Analyse 7712Clusterverfahren Entscheidungen bei der Durchführung einer Cluster-Analyse nach: Eckes, Thomas, und Helmut Roßbach, 1980: Clusteranalysen; Stuttgart:Kohlhammer A. Auswahl der Merkmale Festlegung des

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Computer in der Wissenschaft

Computer in der Wissenschaft Dr. Michael O. Distler distler@uni-mainz.de Mainz, 8. Januar 2014 Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der kleinsten

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Mehrdimensionale Verteilungen und Korrelation

Mehrdimensionale Verteilungen und Korrelation Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp PHY3 Herbstsemester 04 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 90 CH-8057 Zürich olafs@physik.uzh.ch Büro: 36-J- Tel.: 044-635.57.63 Vorlesungsprogramm Einführung, Messunsicherheiten,

Mehr

Vorlesung 9b. Kovarianz und Korrelation

Vorlesung 9b. Kovarianz und Korrelation Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

Ähnlichkeits- und Distanzmaße

Ähnlichkeits- und Distanzmaße Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8-1 - Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8 -

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und

Mehr

1 (2π) m/2 det (Σ) exp 1 ]

1 (2π) m/2 det (Σ) exp 1 ] Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Moderne Methoden der Datenverarbeitung in der Physik I

Moderne Methoden der Datenverarbeitung in der Physik I Moderne Methoden der Datenverarbeitung in der Physik I Prof. Dr. Stefan Schael / Dr. Thomas Kirn I. Physikalisches Institut MAPLE II, Krypthographie Wahrscheinlichkeit Zufallszahlen, Wahrscheinlichkeitsdichten,

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Rechnernutzung in der Physik

Rechnernutzung in der Physik Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of

Mehr

Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76

Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76 4. Normalverteilung Gauß'sche Glockenkurve: P(a X b) = b 1 x 1 a e dx 1 0.8 0.6 0.4 0. 4 6 8 10 Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^],{x,0,10}] 76 Zentraler Grenzwertsatz: Es sei X 1, X,... eine

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien, Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum

Mehr

Bivariate Normalverteilung

Bivariate Normalverteilung Bivariate Normalverteilung Die Dichtefunktion der gemeinsamen Verteilung für korrelierte normalverteilte Zufallsvariable ist nicht unmittelbar verständlich. Die Definition dieser multivariaten Normalverteilung

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment

Mehr

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment

Mehr

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11

D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11 D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. In dieser Aufgabe wollen wir die Parameter einer gewissen Modellfunktion aus ein paar gemessenen Werten bestimmen. Das Modell

Mehr

Stochastik Musterlösung 7

Stochastik Musterlösung 7 ETH Zürich HS 216 RW, D-MATL, D-MAVT Prof. Dr. Martin Schweizer Koordinator Calypso Herrera Stochastik Musterlösung 7 1. a) Es sind folgende zwei Eigenschaften zu zeigen: f X,Y (x, y) für alle (x, y) R

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Strukturdynamik Prof. Dr. Wandinger. 1.2 Stochastische Lasten. Lösungen. Aus der Definition des Erwartungswerts folgt durch elementare Rechnung:

Strukturdynamik Prof. Dr. Wandinger. 1.2 Stochastische Lasten. Lösungen. Aus der Definition des Erwartungswerts folgt durch elementare Rechnung: Strukturdynamik 1.-1 Prof. Dr. Wandinger Aufgabe 1 1. Stochastische Lasten Lösungen Aus der Definition des Erwartungswerts folgt durch elementare Rechnung: Aufgabe E [a g( x)+b h(y)]= =a =a =a ( ( p(x,

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Statistik in Geodäsie, Geoinformation und Bauwesen

Statistik in Geodäsie, Geoinformation und Bauwesen Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Ziel der Clusteranalyse: Bilde Gruppen (cluster) aus einer Menge multivariater Datenobjekte (stat

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY23) Herbstsemester 207 Olaf Steinkamp 36-J-05 olafs@physik.uzh.ch 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeiten. Verteilungen

Wahrscheinlichkeiten. Verteilungen Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

1 Beispiele multivariater Datensätze... 3

1 Beispiele multivariater Datensätze... 3 Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und

Mehr

Vorlesung 7b. Kovarianz und Korrelation

Vorlesung 7b. Kovarianz und Korrelation Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

achsenparallele Stauchung und Streckung durch Gewichte :

achsenparallele Stauchung und Streckung durch Gewichte : Gewichtete Minkowski-Distanzfunktion achsenparallele Stauchung und Streckung durch Gewichte : Forderung: staab@uni-koblenz.de 1 Einheitskreis Translationsinvarianz keine Skalierungsinvarianz keine Rotationsinvarianz

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

4.4 Hierarchische Clusteranalyse-Verfahren

4.4 Hierarchische Clusteranalyse-Verfahren Clusteranalyse 18.05.04-1 - 4.4 Hierarchische Clusteranalyse-Verfahren Ablauf von hierarchischen Clusteranalyse-Verfahren: (1) Start jedes Objekt sein eigenes Cluster, also Start mit n Clustern (2) Fusionierung

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden Multivariate Distanz Multivariate Normalverteilung Minimum Distance Classifier Bayes Classifier Günter Meinhardt Johannes Gutenberg Universität Mainz Ziele Methoden Multivariate

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

5 Fehlerfortpflanzung

5 Fehlerfortpflanzung 5 Fehlerfortpflanzung Diese Lektion folgt D.S. Sivia, Data Analysis: A Bayesian Tutorial, Oxford University Press, Chapter 3.6. Lernziele Lektion 5 Sie wissen, wie man Wahrscheinlichkeitsverteilungen von

Mehr