Charakterisierung von 1D Daten
|
|
- David Zimmermann
- vor 5 Jahren
- Abrufe
Transkript
1 Charakterisierung von D Daten Mittelwert: µ, Schätzung m x = x i / n Varianz σ2, Schätzung: s2 = (s: Standardabweichung) Höhere Momente s 2 = ( x i m x ) 2 n ( ) Eine Normalverteilung ist mit Mittelwert und Varianz voll charakterisiert. Die beiden Parameter definieren die Wahrscheinlichkeitdichtefunktion (Gauss Funktion). Die Wahrscheinlichkeit für das Vorkommen von Messwerten innerhalb eines Bereichs ist durch das Integral über diesen Bereich gegeben. Mittelwert und Varianz können für beliebig verteilte Daten berechnet werden, sie haben dann aber nicht die gleiche statistische Bedeutung.
2 Wichtigkeit von Graphiken Mittelwert = 3.6 s = 4.2
3 Wichtigkeit von Graphiken Mittelwert = 3.6 s= 4.2 Anzahl Beobachtungen
4 Varianz s 2 = x n i x _ = 2 z n i 2 z: zentrierte Variablen Mit Vektornotation: s 2 = n zt z zt z 2 = z i
5 Berechnung der Varianz: Matrixnotation Eindimensionale Daten (Datenvektor x) Mittelwert: x _ = n Σ x i = n T x Summe der Fehlerquadrate: Σ (x i -x _ ) 2 = Σ x i 2 - ( Σ x i ) 2 n = x T x - n (xt )( T x) = x T H n x mit H n =I - ( n n T n ) Varianz: s 2 = n- xt H n x H n : Zentrierungsmatrix Da H n symmetrisch und idempotent ist: (H n x)t H n x = xt H n T H n x = xt H n x
6 Varianz und Kovarianz D Daten 2D Daten n% Wahrscheinlichkeit n% Wahrscheinlichkeit
7 Varianz und Kovarianz 2D Daten 2D Daten Kovarianz = 0 Kovarianz 0
8 Varianz und Kovarianz D Wahrscheinlichkeitsdichtefunktion für die Normalverteilung f(x) = 2πσ 2 e 2 x µ σ 2 = 2πσ 2 e 2 ( x µ ) σ ( 2 x µ ) σ 2 : Varianz nd Wahrscheinlichkeitsdichtefunktion für die Normalverteilung f(x) = 2πΣ e 2 ( x µ )Τ Σ ( x µ ) Σ: Varianz-Kovarianzmatrix
9 Berechnung der Varianz: Matrixnotation s 2 = n- y T H n y Für mehrdimensionale Daten erhält man mit der analogen Matrixoperationen die Varianz-Kovarianzmatrix S: S = n- AT A - n (AT )( T A)= A T H n A Die Diagonalelemente sind die Varianzen, die Ausserdiagonalelemente die Kovarianzen der entsprechenden Variablen. H n A= x -x _ y -y _ z -z _ x 2 -x _ y 2 -y _ z 2 -z _ x 3 -x _ y 3 -y _ z 3 -z _ S = n- AT H n A = n- Σ(x i -x _ ) 2 Σ(x i -x _ )(y i -y _ ) Σ(x i -x _ )(z i -z _ ) Σ(x i -x _ )(y i -y _ ) Σ(y i -y _ ) 2 Σ(y i -y _ )(z i -z _ ) Σ(x i -x _ )(z i -z _ ) Σ(y i -y _ )(z i -z _ ) Σ(z i -z _ ) 2 = var(x) cov(x,y) cov(x,z) cov(x,y) var(y) cov(y,z) cov(x,z) cov(y,z) var(z)
10 Teeproben Category Variety Samples Source Green tea Chunmee C, C2, C3, C4, C5, C6, C7 Shanghai Tea Inst. Hyson H, H2, H3, H4, H5 Shanghai Tea Inst. Black tea Keemun K, K2, K3, K4 Shanghai Tea Inst. Feng Quing F, F2, F3, F4, F5, F6, F7 Yunnan Tea Inst. Oolong tea Tikuanyin T, T2, T3, T4 Xia Men Tea Inst. Se Zhong S, S2, S3, S4 Xia Men Tea Inst. High quality Low quality X. Liu, P. van Espen, F. Adams, S.H. Yan, M. Vanbella, Anal.Chim. Acta 987, 200, 42
11 Teeproben: Messdaten Probe Cellulose Hemicellulose Lignin Polyphenols Caffeine AminoAcids c c c c c c c h h h h h k k k k f f f f f f f t t t t s s s s
12 Teeproben: Varianz-Kovarianzmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Objekte Variablen Variablen Variablen X T H n X Objekte = Variablen S
13 Korrelationskoeffizient Ein normiertes Mass für den Zusammenhang zwischen zwei Zufallsvariablen ist der Korrelationskoeffizient r mit Werten zwischen - und +. ρ = σ xy σ x σ y ( σ xy ist die Kovarianz) Für eine Abschätzung des Korrelationskoeffizienten gilt: r = cov s x s y xy Aus der Varianz-Kovarianzmatrix S kann man die Korrelationsmatrix wie folgt ableiten. Zuerst erzeugt man eine Diagonalmatrix D, die die jeweiligen reziproken Standardabweichungen enthält (vgl. Anhang 2 des Skripts). Die Korrelationsmatrix ist dann: R = D S D Die Diagonalelemente der Korrelationsmatrix haben den Wert, die Ausserdiagonalelmente sind die Korrelationskoeffizienten der entsprechenden Paare von Variablen.
14 Teeproben: Korrelationsmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids
15 Winkel zwischen zwei Vektoren Skalarprodukt: x T y = x y cosa x Länge eines Vektors: x = x 2 + x x n 2 = 2 Â x i = x T x a y cos a = x T x x T y y T y
16 Korrelationskoeffizient r = cov(xy) s x s y = ( x x) 2 ( x x) y y ( ) ( y y) 2 Für zentrierte Variablen: r = x T x x T y y T y cos α = x T x x T y y T y Der Korrelationskoeffizient entspricht dem Cosinus des Winkels zwischen den beiden Vektoren
17 Bedeutung des Korrelationskoeffizienten Variablenraum Variablenraum zentriert Objektraum (zentrierte Variablen) y y 3 3 (2,3) (3,2) (,) x x 2 0 (-,0,) α = 60 o ; cos α = 0.5 (-,,0) [- 0 ] 0 [- 0 ] 0 r = = 2 2 = 0.5 [- 0] 0
18 Teeproben: Korrelationsmatrix Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Cellulose Hemicellulose Lignin Polyphenols Caffeine Amino acids Geometrische Interpretation: Im 3-dimensionalen Objektraum, ist der Winkel zwischen: Cellulose und Amonosäuren: 2o Caffein und Aminosäuren: 28o Caffein und Polyphenole: 4o
19 Distanz zwischen zwei Vektoren 2 x 2 x d 2 x 22 x 2 x x 2 Euklid: d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j
20 Distanz zwischen Teeproben c c2 c3 c4 c5 c6 c7 h h2 h3 h4 h5 k k2 k3 k4 c2.35 c c c c c h h h h h k k k k f f f f f f f t t t t s s s s
21 Distanz zwischen Teeproben f f2 f3 f4 f5 f6 f7 t t2 t3 t4 s s2 s3 c2 c3 c4 c5 c6 c7 h h2 h3 h4 h5 k k2 k3 k4 f f f f f f f t t t t s s s s
22 Clusteranalyse Prinzip der hierarchischen Clusteranalyse: Avarage linkage Methode: links: Koordinaten im 2D Raum, rechts: Dendogramm X2 E D Abstand A B C BC DE X A B C D E
23 Teeproben: Clustering 6 S i m i l a ri t y D eg r e e Green Good quality Black Black and green tea Low quality Oolong Green Black 0 C C2 H C3 C4 H2 H3 K K2 F2 F3 F4 F C5 C6 H4 H5 C7 K3 K4 F5 F6 F7 T T2 S T3 T4 S3 S4 S2
24 Clusterungsmethoden Single linkage (nächster Nachbar): kann zu elongierten Clustern führen Average linkage (Mitte der Cluster) Complete linkage (am weitesten entfernter Mitglied der Cluster): führt zu kompakten Clustern
25 Distanzmasse Minkowski d ij = x ik x jk k ( ) n / n Euklid d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j City block d ij = k x ik x jk
26 Distanzmasse Euklid d ij = (x ik x jk ) 2 = x i x j k ( ) T ( x i x ) j Euklid gewichtet d ij = ( x i x ) T j W( x i x ) j Gewichtsmatrix: I: Euklid diag W: individuell gewichtet, z.b w i = /s i 2 Kolonnenvarianz Mahalanobis Distanz: W = C- (Inverse der Varianz-Kovarianz Matrix) C = (/n) X z T X z, mit X z : zentrierte Daten
27 Gewichtung = Skalierung der Koordinaten Durch die Gewichtung ändern sich die Distanzen und die Winkel (Korrelationskoeffizienten) zwischen den Vektoren ( 0.4) W = W = (.6 )
28 Mahalanobis Distanz Abstand von einem Punkt zu einem Andren, der sich in einer bekannten Verteilung befindet (der Abstandsmass berücksichtigt die Korrelation). G2 C B A G G3 G4 Die Mahalanobis-Distanz von C zu B ist kleiner als von A zu B (die Euklidschen Distanzen sind gleich). Die Mahalanobis-Distanz zwischen den beiden Clustern G und G2 ist keiner als zwischen G3 und G4 (die Euklidschen Distanzen sind gleich).
29 Distanzmasse für binäre Variablen Hamming Distanz: d ij = k XOR( x ik, x ) jk Die Hamming-Distanz ist die City block-distanz für binäre Variablen XOR: Exklusives OR: 0 XOR 0 = 0; XOR = 0 0 XOR = ; XOR 0 = Tanimoto Koeffizient T zwischen zwei binären Vektoren A und B: Anzahl von in A: N A, in B: N B und gleichzeitiges Vorkommen in A und B: N A&B (Tanimoto Abstand: -T) N A&B T = N A + N B - N A&B Beispiel: A: B: A&B T = 6 / ( ) = 0.667; - T = Hamming Distanz: 3
30 Distanzmasse: Abstand und Winkel X2 D 2 v v 2 D 3 Die Abstände D 2 und D 3 sind gleich gross aber bei der Benützung des Winkels zwischen den Vektoren als Distanzmass, ist v 2 viel ähnlicher zu v als v 3. Der Cosinus des Winkels zwischen zwei Datenvektoren entspricht dem Korrelationskoeffizienten. v 3 X
31 Abstand und Winkel: Ein Beispiel Retentionsindizes von fünf Substanzen ( 5) mit drei stationären Phasen (SF SF3) in der Gaschromatographie Stationäre Phase SF SF SF D2 = 43.9 D3 =329.5 r2 = r3 = Interpretation: Die absoluten Retentionsindizes sind für SF und SF2 ähnlich (ähnliche Polarität der Phasen), die relativen für SF und SF3, d.h. diese beiden zeigen ähnliche spezifische Wechselwirkungen mit den Proben. Man würde bei Erhöhung der Temperatur für SF3 ähnliche Werte bekommen wie für SF.
Chemometrie: von Daten zu Information
Chemometrie: von Daten zu Information Chemometrie: Definition Warnungen Daten von Anscombe: numerisch x y x y x y x y 0 8.04 0 9.4 0 7.46 8 6.58 8 6.95 8 8.4 8 6.77 8 5.76 3 7.58 3 8.74 3 2.74 8 7.7 9
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrVerteilungen mehrerer Variablen
Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
MehrMultivariate Analysemethoden
Multivariate Analysemethoden.0.008 Günter Meinhardt Johannes Gutenberg Universität Mainz a) Ein Punkt ist, was keine Teile hat b) Eine Linie ist ein Länge ohne Breite p) Es soll gefordert werden, dass
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr4 MEHRDIMENSIONALE VERTEILUNGEN
4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1
MehrMultivariate Verfahren
Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrEntscheidungen bei der Durchführung einer Cluster-Analyse
7712Clusterverfahren Entscheidungen bei der Durchführung einer Cluster-Analyse nach: Eckes, Thomas, und Helmut Roßbach, 1980: Clusteranalysen; Stuttgart:Kohlhammer A. Auswahl der Merkmale Festlegung des
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrComputer in der Wissenschaft
Dr. Michael O. Distler distler@uni-mainz.de Mainz, 8. Januar 2014 Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der kleinsten
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrMehrdimensionale Verteilungen und Korrelation
Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in
MehrVektoren und Matrizen
Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
PHY3 Herbstsemester 04 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 90 CH-8057 Zürich olafs@physik.uzh.ch Büro: 36-J- Tel.: 044-635.57.63 Vorlesungsprogramm Einführung, Messunsicherheiten,
MehrVorlesung 9b. Kovarianz und Korrelation
Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
Mehroder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
MehrÄhnlichkeits- und Distanzmaße
Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8-1 - Ähnlichkeits- und Distanzmaße Jörg Rahnenführer, Multivariate Verfahren, WS89, TU Dortmund 11.1.8 -
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
Mehr1 (2π) m/2 det (Σ) exp 1 ]
Multivariate Normalverteilung: m=1: Y N(µ; σ 2 ) Erwartungswert: µ Varianz: σ 2 f Y (y) = f Y1 Y 2...Y m (y 1,y 2,...,y m ) = [ 1 exp 1 ] 2πσ 2 2 (y µ)2 /σ 2 Σ: m m-matrix, symmetrisch, positiv definit.
MehrSind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0
Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am
MehrModerne Methoden der Datenverarbeitung in der Physik I
Moderne Methoden der Datenverarbeitung in der Physik I Prof. Dr. Stefan Schael / Dr. Thomas Kirn I. Physikalisches Institut MAPLE II, Krypthographie Wahrscheinlichkeit Zufallszahlen, Wahrscheinlichkeitsdichten,
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrRechnernutzung in der Physik
Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of
MehrMathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76
4. Normalverteilung Gauß'sche Glockenkurve: P(a X b) = b 1 x 1 a e dx 1 0.8 0.6 0.4 0. 4 6 8 10 Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^],{x,0,10}] 76 Zentraler Grenzwertsatz: Es sei X 1, X,... eine
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrÜbungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,
Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum
MehrBivariate Normalverteilung
Bivariate Normalverteilung Die Dichtefunktion der gemeinsamen Verteilung für korrelierte normalverteilte Zufallsvariable ist nicht unmittelbar verständlich. Die Definition dieser multivariaten Normalverteilung
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrA. Grundlagen der Stochastik
A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment
MehrA. Grundlagen der Stochastik
A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrD-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11
D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. In dieser Aufgabe wollen wir die Parameter einer gewissen Modellfunktion aus ein paar gemessenen Werten bestimmen. Das Modell
MehrStochastik Musterlösung 7
ETH Zürich HS 216 RW, D-MATL, D-MAVT Prof. Dr. Martin Schweizer Koordinator Calypso Herrera Stochastik Musterlösung 7 1. a) Es sind folgende zwei Eigenschaften zu zeigen: f X,Y (x, y) für alle (x, y) R
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
MehrStrukturdynamik Prof. Dr. Wandinger. 1.2 Stochastische Lasten. Lösungen. Aus der Definition des Erwartungswerts folgt durch elementare Rechnung:
Strukturdynamik 1.-1 Prof. Dr. Wandinger Aufgabe 1 1. Stochastische Lasten Lösungen Aus der Definition des Erwartungswerts folgt durch elementare Rechnung: Aufgabe E [a g( x)+b h(y)]= =a =a =a ( ( p(x,
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrStatistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07
Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Ziel der Clusteranalyse: Bilde Gruppen (cluster) aus einer Menge multivariater Datenobjekte (stat
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY23) Herbstsemester 207 Olaf Steinkamp 36-J-05 olafs@physik.uzh.ch 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
MehrWahrscheinlichkeiten. Verteilungen
Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrVerteilungen mehrerer Variablen
Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig
Mehr1 Beispiele multivariater Datensätze... 3
Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und
MehrVorlesung 7b. Kovarianz und Korrelation
Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Mehrachsenparallele Stauchung und Streckung durch Gewichte :
Gewichtete Minkowski-Distanzfunktion achsenparallele Stauchung und Streckung durch Gewichte : Forderung: staab@uni-koblenz.de 1 Einheitskreis Translationsinvarianz keine Skalierungsinvarianz keine Rotationsinvarianz
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
Mehr4.4 Hierarchische Clusteranalyse-Verfahren
Clusteranalyse 18.05.04-1 - 4.4 Hierarchische Clusteranalyse-Verfahren Ablauf von hierarchischen Clusteranalyse-Verfahren: (1) Start jedes Objekt sein eigenes Cluster, also Start mit n Clustern (2) Fusionierung
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrMultivariate Analysemethoden
Multivariate Analysemethoden Multivariate Distanz Multivariate Normalverteilung Minimum Distance Classifier Bayes Classifier Günter Meinhardt Johannes Gutenberg Universität Mainz Ziele Methoden Multivariate
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr5 Fehlerfortpflanzung
5 Fehlerfortpflanzung Diese Lektion folgt D.S. Sivia, Data Analysis: A Bayesian Tutorial, Oxford University Press, Chapter 3.6. Lernziele Lektion 5 Sie wissen, wie man Wahrscheinlichkeitsverteilungen von
Mehr