Methoden der multivariaten Statistik

Größe: px
Ab Seite anzeigen:

Download "Methoden der multivariaten Statistik"

Transkript

1 Meteorologisches Institut der Universität Bonn Skript zur Vorlesung Methoden der multivariaten Statistik Sommersemester 2002 Andreas Hense Version: April 2002 (mit Korrekturen Nov. 2005, PF) 1

2 Inhaltsverzeichnis 1 Einführung Matrix / Vektor Algebra Multivariat normalverteilte Grundgesamtheiten Multivariate Zufallsvariablen Momente multivariater ZVA Multivariate Normalverteilung Eigenschaften der Kovarianzmatrix Schätzungen der Kovarianzmatrix Informationskomprimierung Beispiele für Guessmuster Bedingte Wahrscheinlichkeitsdichten Bivariate Grundgesamtheiten Eigenschaften der Grundgesamtheit Schätzer der Eigenschaften der bivariaten GG Konfidenzintervalle Hypothesentest Multivariate Hypothesentests Einführung Die Hotelling T 2 Variable Vergleich zweier multivariater Stichproben Die Macht des T 2 Tests Informationskomprimierung und der T 2 Test Beispiel zum Hotelling T 2 Test Diskriminanzanalyse Das Problem Klassifikation bei multivariaten Normalverteilungen Klassifikation bei unbekannter pdf Beispiel zur Anwendung der Diskriminanzanalyse

3 6 Empirische Orthogonalfunktionen Definition Schätzung der Prinzipalen Vektoren EOF und die Singulärwert-Zerlegung SVD Schätzung der Konfidenzintervalle Beweis des Satzes über prinzipale Vektoren Rotation Singular Spectral Analysis Beispiel für eine EOF Analyse EOF s und ihre physikalische Interpretation 76 8 Kanonische Korrelationsanalyse Definition Bedeutung der Metrikmatrizen Schätzung der kanonischen Korrelation Signifikanzschätzungen der kanonischen Korrelationen Beispiel für eine CCA

4 1 Einführung Abbildung 1 Feld der 2m Temperaturanomalie (Abweichung vom Mittelwert ), Mittelwert für Januar 1983, Nordhemisphäre zwischen 17.5 N und 77.5 N, Einheit K 1 Einführung In der Vorlesung Statistik sind im wesentlichen Methoden der univariaten Statistik beschrieben worden. Ein nicht unbedeutender Teil der Statistik in der Klimatologie befasst sich aber mit Problemen wie etwa die Statistik des Bodendruckfeldes über dem Nordatlantik, das Feld der 2m Temperaturanomalie oder des 500 hpa Geopotentials über der Nordhemisphäre oder das Windfeld in 200 hpa in den Tropen, um mal eine nicht sehr repräsentative Auswahl zu liefern. Die Daten liegen typischerweise an Gitterpunkten vor, z.b. 72*13 = 936 für die Nordhemisphäre, wenn man/frau einen Gitterpunktsabstand von 5 in N-S Richtung und eine 5 Abstand in E - W Richtung wählt und sich nur auf die Daten zwischen 17.5 N und 77.5 N konzentriert (vergl. Abb. (1)). Deshalb können wir das diskrete Feld Temperatur als eine Realisierung einer multivariaten ZVA mit der Dimension q = 936 auffassen oder allgemeiner bei der statistischen Betrachtung von meteorologischen Daten in Feldform die Notwendigkeit einer multivariaten Statistik ausmachen. Die Verallgemeinerung diskreter Felddaten auf kontinuierliche Felddaten ist ebenfalls möglich und führt auf die Betrachtung von Zufallsfunktionen F ( r), die wir aber nicht weiter betrachten wollen. Zwischen den Werten an den Gitterpunkten gibt 1

5 1 Einführung es Abhängigkeiten, die eine univariate Statistik nicht erfassen würde. Diese Abhängigkeiten entstehen aus der Dynamik: so sind z.b. in hyperbolischen Systemen Wellenausbreitungen (Rossbywellen, seismische Wellen) gegeben, die verschiedene Punkte in Raum und Zeit verknüpfen. in elliptischen Systemen (stationäre Diffusion, Wärmeleitung) die Randwerte, die die Lösung und damit die räumlich-zeitliche Struktur bestimmen die entscheidenden Prozesse, die bei einer statistischen Analyse ein multivariates Vorgehen erzwingen. Generell kann man sagen, dass man Statistik und Dynamik getrennt behandelt, wenn man nur univariate Statistik betreibt. Will man aber eine mit der Dynamik konsistente Statitik (statistisch-dynamische Analyse) betreiben, muss man zwangsläufig auf die multivariate Statistik ausweichen. Das Paradebeispiel hierfür ist die numerische Analyse, in der die multivariate Betrachtung der Beobachtungen an verschiedenen Raum-Zeitpunkten eine mit der Dynamik konsistente Analyse ergeben soll. Schliesslich ist multivariate Statistik gefragt, wenn generell Muster untersucht werden sollen. Das Paradebeispiel für diese Art von Anwendung ist der Nachweis und die Zuordnung von Klimaänderungssignalen: Ist eine simuliertes Klimaänderungsmuster (z.b. ein Temperaturtrend) in den beobachteten Temperaturtrends (vergl. Abb.(1)) wiederzufinden? Wie wir in der Vorlesung Statistik gesehen haben, sind wesentliche statistische Methoden formuliert worden für univariate und normalverteilte Grundgesamtheiten. Es liegt daher nahe, analog zu den univariaten Methoden, sich zunächst auf die multivariate Statistik normalverteilter ZVA zu beschränken. Relevante Bücher in diesem Zusammenhang sind Morrison, D.F., Multivariate Statistical Methods, McGraw Hill Series in Probability and Statistics ([9]) Anderson, T.W., An Introduction to Multivariate Statistical Analysis, 2nd Edition, J. Wiley & Sons, umfangreich und sehr mathematisch, sehr gut, ([10]) Hartung, J. und Elpelt, B. Multivariate Statistik, Lehr- und Handbuch der angewandten Statistik: Wie der Titel verrät, ein Buch zur Anwendung ohne umfangreiche mathematische Herleitungen aber mit viel Anwendungsbeispielen ([16]) 2

6 1 Einführung Abbildung 2 Feld des Trends der 2m Temperaturanomalie Winter DJF zwischen 32.5 S und 77.5 N, Einheit K/10a Hans von Storch und Francis Zwiers, Statistical Analysis in Climate Research, Cambidge University Press: Das Buch, das viele statistische Verfahren, die in der Klimaforschung Verwendung finden, vorstellt und mit Beispielen erläutert. Mit dabei sind auch die multivariaten Untersuchungen. [15] Multivariate ZVA werden i.a. mit Vektoren im IR q identifizert. Deshalb werden wir zu Beginn der Vorlesung die Matrix / Vektorrechenregeln zusammenstellen, auf die wir im Rahmen der Vorlesung immer wieder zurückgreifen werden. 1.1 Matrix / Vektor Algebra Alle Vektoren in der Vorlesung werden als Spaltenvektoren aufgefasst, sofern es nicht explizit anders erwähnt wird. D.h. ein q dimensionaler Vektor wird geschrieben als x = x 1 x 2. x q (1.1) 3

7 1 Einführung Entsprechende ist der transponierte Vektor x T ein Zeilenvektor. x T = (x 1, x 2,..., x q ) (1.2) Eine q p dimensionale Matrix A ist eine Anordnung von p Spaltenvektoren der Dimension q zu einem zweidimensionalen Array A i,j A 11 A A 1p A A = 21 A A 2p... A q1 A q2... A qp (1.3) Dabei bezeichnet der erste Index die Zeilennummer (1,..., q) und der zweite den Spaltenindex (1,..., p). Die Transponierte einer Matrix erhalten wir durch Vertauschen der Zeilenund Spaltenindices. (A T ) ij = A ji (1.4) Eine Matrix nennt man/frau symmetrisch, wenn gilt A T = A (1.5) Die Spur einer Matrix ist definiert als die Summe über die Diagonalelemente A ii Sp(A) = min(p,q) i=1 A ii (1.6) Als Diagonalmatrix wird eine Matrix bezeichnet, die nur auf der Diagonalen Einträge hat, die von Null verschieden sind γ diag(γ i, i = 1, q) = 0 γ γ q Die Einheitsmatrix I ist eine Diagonalmatrix mit 1 als Diagonaleinträgen. (1.7) I = diag(1, i = 1, q) (1.8) Matrizen werden addiert, indem die Matrixelemente addiert werden (A + B) ij = A ij + B ij (1.9) 4

8 1 Einführung Eine Matrix wird skalar mit c multipliziert, indem jedes Element mit dem Skalar c multipliziert wird (ca) ij = ca ij (1.10) Zwei Matrizen A, B der Dimension (p r) und r q werden multipliziert durch folgende Rechenregel r (AB) ij = A ik B kj (1.11) k=1 Diese Multiplikation ist distributiv und assoziativ d.h. es gilt für die drei Matrizen A(p r), B, C(r q) bzw. C(q s) A(B + C) = AB + AC A(BC) = (AB)C (1.12) Dagegen ist die Matrixmultiplikation i.a. (d.h. auch für quadratische Matrizen q = p = r = s nicht kommutativ AB BA (1.13) Lineare Gleichungssysteme für die q Unbekannten x j der Form q A i,j x j = b i (1.14) können kompakt in Matrix - Vektorschreibweise geschrieben werden als: j=1 A x = b (1.15) Zwei Vektoren können auf verschieden Weise multipliziert werden. Das Skalarprodukt zweier Vektoren x, y der Dimension q ist definiert als x T y = q x i y i (1.16) i=1 Da das Ergebnis ein Skalar ist, ist die skalare Multiplikation kommutativ x T y = y T x (1.17) Das äussere Produkt zweier Vektoren ist eine Matrix A mit folgender Beziehung A = x y T A ij = y i x j (1.18) 5

9 1 Einführung Skalarprodukt und äusseres Produkt hängen über folgende Beziehung zusammen: Sp( y x T ) = x T y (1.19) Die Determinanten einer Matrix wollen wir mit det(a) bzw. A bezeichen. Die Inverse einer (quadratischen) Matrix A wollen wir mit A 1 bezeichnen. Dies ist eine Matrix B, für die gilt AB = BA = AA 1 = A 1 A = I B = A 1 (1.20) Die Lösung eines linearen Gleichungssystems A x = b erhalten wir dann formal zu x = A 1 b (1.21) Damit A 1 existiert, muss A nichtsingulär sein bzw. den vollen Rang haben. Dies ist gegeben, wenn gilt det(a) 0. Existiert A 1 nicht, so heisst A singulär und det(a) = 0. Die Inverse der Transponierten einer Matrix ist die Transponierte der Inversen, sofern die Matrix nichtsingulär ist. (A 1 ) T = (A T ) 1 (1.22) Die Inverse eines Matrixproduktes zweier nichtsingulärer Matrizen A, B findet man/frau als (AB) 1 = B 1 A 1 (1.23) Als Rang einer Matrix A mit den Dimensionen q p bezeichnet man/frau die Anzahl der linear unabhängigen Zeilen / Spaltenvektoren rg(a) min(p, q) (1.24) Ist bei einer quadratischen Matrix p = q der Rang gleich der Dimension rg(a) = q, so sagt man/frau, die Matrix A habe den vollen Rang. In diesem Fall existiert eine Inverse A 1. Für die Rangberechnung von Matrizen gelten folgende Regeln rg(a T ) = rg(a) rg(a T A) = rg(a) = rg(aa T ) rg(a) = a rg(b) = b rg(ab) min(a, b) (1.25) Sei B eine quadratische Matrix mit vollem Rang p und A eine Matrix der Dimensionen q p mit rg(a) = a. Dann gilt rg(ab) = a (1.26) 6

10 1 Einführung Die Multiplikation eines Vektors x und einer quadratischen, symmetrischen Matrix A von der Form x T A x (1.27) nennt man/frau eine quadratische Form. Die Matrix A heisst positiv (semi-) definit, wenn für alle x 0 gilt x T A x > 0 positiv definit x T A x 0 positive semidefinit (1.28) Ist die quadratische Form kleiner oder kleiner gleich Null, so nennt man/frau A negative (semi-) definit. Ist kein Vorzeichen der quadratischen Form ausgezeichnet, so heisst A indefinit. x ist ein Eigenvektor der quadratischen Matrix A, wenn sich durch die Multiplikation A x der Vektor bis auf einen Längenfaktor λ reproduziert. A x = λ x (1.29) Dies ist ein lineares, homogenes Gleichungssystem (A λi) x = 0, (1.30) das nur dann nichttriviale Lösungen x 0 haben kann, wenn gilt det(a λi) = 0 (1.31) Diese Gleichung bestimmt die Nullstellen λ eines Polynoms (charakteristisches Polynom) der Ordnung q λ 1, λ 2... λ q (1.32) wobei allerdings einige λ i identisch seien können ( entartet ). Zu jedem dieser Eigenwerte λ i existiert ein Eigenvektor e i, so dass gilt A e i = λ i e i (1.33) Ordnen wir die Eigenvektoren als Spaltenvektoren zu einer Matrix E an und schreiben die Eigenwerte als Elemente einer Diagonalmatrix, erhalten wir E = ( e 1, e 2,..., e q ) Λ = diag(λ 1,..., λ q ) AE = EΛ (1.34) 7

11 1 Einführung Ist A eine symmetrische Matrix, lehrt uns die lineare Algebra, dass gilt λ i IR (1.35) Ist A ausserdem positiv (semi-) definit, so gilt λ i 0 (1.36) für alle i [1, q]. Die Eigenvektoren von symmetrischen Matrizen bilden ein vollständiges, orthogonales Basissystem im IR q, d.h. es gilt: e T i e j = δ ij E T E = EE T = I (1.37) Betrachten wir zum Schluss noch Ableitungen von skalaren Funktionen nach Vektoren ( Gradienten ). Sei f(x 1, x 2,..., x q ) = f( x) eine Abbildung aus dem IR q in IR. Dann können wir nach den bekannten Rechenregeln die partiellen 1. und 2. Ableitungen bilden Sei f nun eine verallgemeinerte quadratische Form f x i 2 f (1.38) x i x j f( x) = ( a C x) T K( a C x) (1.39) wobei a ein fester q dimensionaler Vektor ist, K eine symmetrische Matrix und C eine beliebige Matrix. Gesucht ist der Gradient von f bzgl. des Vektors x: x f = f x (1.40) Üblich wäre es, die verallgemeinerte quadratische Form als Doppelsumme auszuschreiben und dann den Gradienten durch partielle Ableitung nach den Komponenten x i auszurechnen. Man/frau kann sich aber viel Arbeit ersparen, wenn man/frau nach folgenden drei Regeln verfährt: (1) Berechne die Ableitung f x Rechenregeln zur Differentiation. wie im skalaren Fall, d.h. unter Benutzung der üblichen 8

12 1 Einführung (2) Erhalte in jedem Fall die Reihenfolge der Matrix - Vektormultiplikationen, da diese nicht kommutativ sind. (3) Soll die quadratische Form nach dem Komponenten abgeleitet werden, die aus dem transponierten Vektoranteil x T stammen, so verfahre nach den Regeln (1) und (2) ohne Berücksichtigung der Transponierung und transponiere das Ergebnis anschliessend. Mit Hilfe dieser Regeln erhalten wir dann f x = x ( at K a a T KC x x T C T K a + x T C T KC x) = a T KC (C T K a) T + (C T KC x) T + x T C T KC = 2 a T KC + 2 x T C T KC (1.41) Auch die Matrix der zweiten Ableitungen (Hesse - Matrix) erhalten wir durch Anwendung der Rechenregeln auf den Gradienten H = 2 f x x T = 2CT KC (1.42) 9

13 2 Multivariat normalverteilte Grundgesamtheiten 2 Multivariat normalverteilte Grundgesamtheiten 2.1 Multivariate Zufallsvariablen Wir definieren eine q-dimensionale multivariate ZV X als Vektor X = (X 1, X 2,..., X q ) T q. Die Elemente des Vektors X sind kontinuierliche univariate ZV mit den Randdichten f 1 (x 1 ), f 2 (x 2 ),..., f q (x q ) und den Randverteilungen F 1 (x 1 ), F 2 (x 2 ),..., F q (x q ). Die Verteilungsfunktion der multivariaten ZVA X = {( X, F ( x)), X q } ist definiert über die Wahrscheinlichkeit F (x 1, x 2,..., x q ) = P (X 1 x 1, X 2 x 2,..., X q x q ). Diese heisst auf die gemeinsame Verteilung oder joint distribution. Sei F (x 1, x 2,..., x q ) kontinuierlich und differenzierbar, so können wir die gemeinsame Wahrscheinlichkeitsdichtefunktion definieren als f(x 1,..., x q ) = F (x 1,..., x q ), mit F (x 1,..., x q ) = x1... xq f(u 1,..., u q )du 1... du q. Unabhängigkeit: Wenn die Elemente der multivariaten ZVA X statistisch unabhängig voneinander sind, dann gilt f(x 1,..., x q ) = f 1 (x 1 )... f q (x q ) F (x 1,..., x q ) = F 1 (x 1 )... F q (x q ). In diesem Fall könnten wir die univariate Statistik verwenden und mit den Randverteilungen, bzw. -dichten arbeiten. Aber dies ist bei meteorologischen Feldern nicht der Fall! Die Randverteilung eines Elementes eine multivariabten ZVA definiert sich als f i (x i ) =... f(x 1,..., x q )dx 1... dx i 1 dx i+1 dx q. (2.1) Durch die Integration der gemeinsamen Verteilung über einzelne Elemente der multivariaten ZVA wird die Verteilung unabhängig gemacht von diesen Elementen dieser Prozess heisst Marginalisierung. 10

14 2 Multivariat normalverteilte Grundgesamtheiten Multivariate bedingte Verteilungen bzw. Dichten: Gegeben sei eine MV ZVA mit f(x 1,..., x q ). Seien nun die Elemente x p + 1,..., x q z.b. durch ein Experiment oder Beobachtung festgelegt, dann lautet die auf diese Elemente bedingte Wahrscheinlichkeitsdichte Momente multivariater ZVA f(x 1,..., x p x p+1,..., x q ) = f(x 1,..., x q ) f(x p+1,..., x q ). (2.2) Der Erwartungswert E( X) ist ein Vektor bestehend aus den Erwartungswerten der einzelnen Komponenten von X E( X) = (E(X 1 ),..., E(X q )) T = µ. Um auf die allgemeine Form der multivariaten Varianz zu kommen, definieren wir zuerst die Kovarianz Cov(X i, X j ) = E ((X i µ i ) (X j µ j )) = =... (x i µ i )(x j µ j )f(x 1,..., x q )dx 1... dx q (x i µ i )(x j µ j )f(x i, x j )dx i dx j = σ 2 ij (2.3) Wenn i = j ist, dann ist σ 2 ii = σ 2 i die Varianz der i-ten Komponente. Bei einer q- dimensionalen ZVA X existieren also q q Kovarianzen σij 2, wobei diese natürlich symmetrisch sind. Wir können diese also zusammenfassen zu der Kovarianzmatrix Σ E (( X E( X))( X E( X)) ) T = Σ. (2.4) Die Kovarianzmatrix ist also eine symmetrische positiv definite Matrix. 2.2 Multivariate Normalverteilung Wir bereits erwähnt wurde, werden wir uns bei der multivariaten Statistik auf ZVA beschränken, die multivariat normalverteilt sind. Das hat zwei Gründe: 1. Ein Zufallsvektor, der entsteht aus der Summe eine grösseren Anzahl unabhängig und identisch verteilter Zufallsvektoren ist nach dem zentrale Grenzwertsatz der Statistik asymptotisch multivariat normalverteilt (dies gilt analog zu univariaten auch für multivariate 11

15 2 Multivariat normalverteilte Grundgesamtheiten ZVA). Eine solche Annahme kann in vielen Fällen gemacht werden, sollte aber immer begründet oder getestet werden. 2. Ohne die Annahme der Normalverteilung wären statistische Tests sehr komplex und eventuell nur über nicht parametrische Methoden zu lösen. Sei X = {( x, f( x)), x q } (2.5) eine q-dimensionale ZVA. x heißt multivariat NV, wenn f( x) die Form f( x) = 1 Z exp( 1 2 ( x µ)t B( x µ)) (2.6) hat, wobei B eine symmetrische, positiv-definite Matrix ist (d.h. alle Eigenwerte sind positiv) und Z der Normierungsfaktor. Bedenke, daß eigentlich f( x) = f( x, µ, B)! Diese multivariat NV ZVA ist symmetrisch um µ, d.h. Damit ist aber... ( x µ)f( x, µ, B) dx 1 dx 2...dx q = 0 (2.7) E( x µ) = 0 E( x) = µ (2.8) In der Bestimmungsgleichung von f( x, µ, B) war B noch unbestimmt. Daher bildet man nun µ... ( x µ) f( x, µ, B) dx 1 dx 2...dx q = 0 (2.9) Ausrechnen der Ableitung führt auf (I ist die Einheitsmatrix, B = B t )... Damit wiederum gilt auch (O ist die Nullmatrix) (I ( x µ)( x µ) t B) f( x, µ, B) dx 1 dx 2...dx q = 0 (2.10) E(I ( x µ)( x µ) t B) = O (2.11) und daraus folgend E(( x µ)( x µ) t B) = E(I) = I (2.12) d.h. die Matrix B ist die Inverse der Kovarianzmatrix Σ. Damit ist im Fall der multivariaten NV die gesamte Verteilung durch die Parameter µ und Σ vollständig beschrieben. 12

16 2 Multivariat normalverteilte Grundgesamtheiten 2.3 Eigenschaften der Kovarianzmatrix In Kapitel 4.4 der Vorlesung Statistik war die pdf ( probability density function ) einer multivariaten, normalverteilten ZVA X mit der Dimension q definiert worden als: f( x) = 1 Z exp( 1 2 ( x µ)t Σ 1 ( x µ)) (2.13) wobei Z = 2π q det(σ) der Normierungsfaktor ist. Die Kovarianzmatrix Σ ist eine positiv definite, symmetrische Matrix. Die Eigenvektoren e j bilden deshalb eine vollständige orthonormale Basis im IR q und die Eigenwerte λ j sind reell und positiv definit. Die Eigenwerte und die Eigenvektoren seien so angeordnet, daß gilt: λ 1 λ 2... λ q (2.14) Dann lassen sich die Eigenwertgleichungen zusammenfassen zu der Matrixgleichung ΣE = EΛ (2.15) wobei die Spalten der Matrix E die Eigenvektoren e j sind und die Matrix Λ eine Diagonalmatrix ist mit den Eigenwerten λ j als Diagonalelemente. Die Orthonormalitätsrelation lautet dann E T E = I (2.16) wobei I die Einheitsmatrix und E T die Transponierte von E ist. Wegen der Vollständigkeit kann jeder Vektor x nach den Eigenvektoren entwickelt werden. Faßt man/frau die Entwicklungskoeffizienten zum Koeffizientenvektor a zusammen, so kann man/frau schreiben x = q q a x i e i = E a x µ = a µ e i = E a µ i=1 i=1 ( x µ) = E( a x a µ ) (2.17) Der Mahalonobisabstand D 2 D 2 = ( x µ) T Σ 1 ( x µ) (2.18) kann man/frau dann auch schreiben als: D 2 = ( a x a µ ) T E T Σ 1 E( a x a µ ) (2.19) 13

17 2 Multivariat normalverteilte Grundgesamtheiten Wenn e j ein Eigenvektor von Σ zum Eigenwert λ j ist, ist e j ebenfalls auch Eigenvektor von Σ 1 zum Eigenwert λ 1 j. Dann folgt wegen der Orthonormalitätsrelation D 2 = ( a x a µ ) T Λ 1 ( a x a µ ) q (a x j a µ j = )2 (2.20) λ j j=1 Führen wir diese Koordinatentransformation für das Integral zur Berechnung der Normierungsfaktors Z in Gl. (2.13) ein, so folgt für das Volumenelement d q x die Relation d q x = det(e)d q a x = d q a x (2.21) oder Z = = q j=1 exp( q (a x j aµ j )2 )d q a x j=1 exp( 1 2 λ j (a x j aµ j )2 λ j )da j (2.22) Die Integrale unter dem Produkt haben jeweils den Wert 2πλ j. Dann erhält man/frau für den Normierungsfaktor q Z = (2π) q 2 λ j = (2π) q 2 det Σ (2.23) j=1 Wie man/frau sieht, sind die Eigenvektoren der Kovarianzmatrix offenbar ausgezeichnete Richtungen im Vektorraum IR q, nämlich genau die, für die die Kovarianzen cov(a i a j ), i j verschwinden (siehe Darstellung der Mahalanobisdistanz durch die Entwicklungskoeffizienten a). Geometrisch ist der Fall q = 2 besonders einfach zu interpretieren. Sei die Kovarianzmatrix Σ gegeben als Setzt man/frau Σ = σ2 1 c c σ 2 2 (2.24) c = σ 1 σ 2 ρ (2.25) wobei ρ der Korrelationskoeffizient zwischen ersten und zweiten Komponente der ZVA X = (X 1, X 2 ) und σ 1, σ 2 entsprechenden Standardabweichungen sind, so erhält man/frau für die Mahalanobisdistanz folgenden Ausdruck: D 2 = (x 1 µ 1 ) 2 σ2(1 2 ρ 2 ) 2ρ(x 1 µ 1 )(x 2 µ 2 ) + (x 2 µ 2 ) 2 σ 1 σ 2 (1 ρ 2 ) σ1(1 2 ρ 2 ) (2.26) 14

18 2 Multivariat normalverteilte Grundgesamtheiten 3 2-dim Gauss pdf, Eigenvektoren der Kovarianzmatrix Abbildung 3 Illustration zum zweidimensionalen normalverteilten Problem Eine Kontur konstanter Wahrscheinlichkeitsdichte f 0 ist dann durch die Gleichung D 2 (x 1, x 2 ) + 2 ln(f 0 Z) = 0 (2.27) gegeben. Dies ist die Gleichung einer Ellipse (weil σ1σ 2 2(1 2 ρ 2 ) > 0 ) mit dem Mittelpunkt ( µ 1, µ 2 ). Die große Halbachse bildet einen Winkel α mit der x-achse mit σ 1 σ 2 tan 2α = 2ρ (σ1 2 + σ2 2 ) (2.28) Die Drehung der Koordinatenachsen (x 1, x 2 ) in Richtung der Eigenvektoren von Σ dreht diese Ellipse in Normalform: D 2 (a 1, a 2 ) + 2 ln(f 0 Z) = 0 (2.29) mit und D 2 (a 1, a 2 ) = (a(x) 1 a (µ) 1 ) 2 + (a(x) 2 a (µ) 2 ) 2 (2.30) λ 1 λ 2 λ 1,2 = σ2 1 + σ (σ 2 ± 1 σ2) σ1 2 4 σ2 2 ρ2 (2.31) Die Ellipse liegt nun mit den Hauptachsen parallel zu den Koordinatenachsen ( Hauptachsentransformation ), die Längen der Hauptachsen sind proportional zu den Eigenwerten 15

19 2 Multivariat normalverteilte Grundgesamtheiten (vergl. Abb. (3)). Im Fall q > 2 betrachtet man/frau Flächen (Hyperflächen der Dimension q 1) konstanter Wahrscheinlichkeitsdichte. Für Normalverteilungen sind diese Hyperflächen Ellipsoide. Dann spannen die Eigenvektoren der Kovarianzmatrix dieses Ellipsoid auf. Die Länge der q Ellipsoidhalbachsen ist proportional zu den Eigenwerten. Wir werden in einem spätern Abschnitt sehen, daß die Eigenvektoren der Kovarianzmatrix noch eine weitere, bemerkenswerte Eigenschaft haben, die der effektivsten Darstellung. 2.4 Schätzungen der Kovarianzmatrix Analog zur Stichprobe einer univariaten ZVA kann auch die Stichproben ZVA einer multivariaten Grundgesamtheit eingeführt werden. Die Stichproben ZVA einer univariaten ZVA bei einer Stichprobenlänge m war eine Vektorwertige ZVA X (m) der Dimension m. Im Fall einer multivariaten Grundgesamtheit mit der Dimension q > 1 ist die Stichproben ZVA eine q m dimensionale Matrix X, deren Spalten jeweils ein Stichprobenelement eines q-dimensionalen Vektors enthalten und deren Zeilen der Länge m univariate Stichprobenvektoren der i-ten Komponente der Vektor ZVA enthalten. Sei die Grundgesamtheit, der die Stichprobe entnommen wurde, multivariat normalverteilt mit den Parametern µ und Σ. Es gilt nun, Schätzer für Erwartungswert und Kovarianzmatrix anzugeben. In der Vorlesung Statistik hatten wir die Maximum Likelihood Methode eingeführt als eine allgemeine Vorschrift zur Konstruktion von Schätzern. Dies wollen wir jetzt anwenden. Mit Hilfe der Definition (2.13) ist die Wahrscheinlichkeit, die m Stichprobenelemente x k zu beobachten, gegeben durch ( ) 1 f( x 1,..., x m ) = exp 1 m ( x ((2π) qm (detσ) m ) 1 k µ) T Σ 1 ( x k µ) (2.32) 2 2 Bilden wir die log-likelihood Funktion l, erhalten wir k=1 l = ln f = qm 2 ln 2π m 2 ln detσ 1 2 m ( x k µ) T Σ 1 ( x k µ) (2.33) k=1 Führen wir nun das arithmetische Mittel x der Stichprobe ein, x = 1 m m x k, (2.34) k=1 16

20 2 Multivariat normalverteilte Grundgesamtheiten so können wir die log-likelihood Funktion umschreiben zu l = qm 2 ln 2π m 2 ln detσ 1 2 m ( x k x) T Σ 1 ( x k x) k=1 } {{ } I + m 2 ( x µ) T Σ 1 ( x µ) } {{ } II (2.35) Mit Hilfe der Rechenregeln für Vektormultiplikationen könne wir den mit I bezeichneten Term umschreiben zu = k=1 m ( x k x) T Σ 1 ( x k x) m (Σ 1 ( x k x)) T ( x k x) m = Sp( ( x k x)( x k x) T Σ 1 ) = Sp(AΣ 1 ) (2.36) k=1 wobei A die sogenannte Matrix der Produktsummen der Abweichungen vom Mittelwert ist. Dann lautet die log-likelihood Funktion l = qm 2 ln 2π m 2 ln detσ 1 2 Sp(AΣ 1 ) m 2 ( x µ) T Σ 1 ( x µ) (2.37) Ableiten der log - likelihood Funktion (siehe Rechenregeln oben) nach dem Vektor µ und Nullsetzen (maximum likelihood) führt auf den Schätzer ˆ µ für den Erwartungswert m( x µ)σ 1 = 0 x T Σ 1 = ˆ µ T Σ 1 k=1 = ˆ µ = x (2.38) d.h. der arithmetische Mittelwert ist der ML Schätzer für den Erwartungswert. Setzen wir diesen wieder in die log - likelihood Funktion ein, so ist die quadratische Form II in Gl. (2.35) identisch Null und wir müssen, um den ML Schätzer für die Kovarianzmatrix zu bestimmen, nur noch die Funktion l = qm 2 ln 2π m 2 ln detσ 1 2 Sp(AΣ 1 ) (2.39) betrachten. Mit Hilfe der Eigenvektorzerlegung für die (positiv definite, symmetrische) Kovarianzmatrix Σ ist es möglich zu zeigen, dass gilt ln detσ = Sp(ln Σ) (2.40) Dann erhalten wir l = Sp( m 2 ln Σ 1 2 AΣ 1 ) (2.41) 17

21 2 Multivariat normalverteilte Grundgesamtheiten l ist damit eine Funktion der unbekannten Matrix Σ. Spurbildung und Ableitung nach Σ sind vertauschbare Operationen, so dass wir als Bestimmungsgleichung für den Schätzer der Kovarianzmatrix erhalten: m 2 Σ AΣ 2 = 0 (2.42) Bezeichnen wir mit S den Schätzer der Kovarianzmatrix, so erhalten wir ms + A = 0 S = 1 m A (2.43) als ML Schätzer der Kovarianzmatrix. Aufgelöst nach den Komponenten ergibt sich S ij = 1 m (x ik x i )(x jk x j ) m Definieren wir k=1 x i = 1 m m x ik (2.44) k=1 d i,k = x i,k x i (2.45) als ein Matrixelement für die sogenannte Datenmatrix D der zentrierten Abweichungen, so ist der ML Schätzer der Kovarianzmatrix gegeben als S = 1 m DDT (2.46) Wie im univariaten Fall ist jedoch ˆΣ nur asymptotisch unverzerrt, ein unverzerrter Schätzer ist gegeben durch S = 1 m 1 DDT (2.47) Die Schätzer für Erwartungswert und Kovarianzmatrix sind selbstverständlich wiederum ZVA. So ist der Schätzer des E-Wertes x eine multivariat normalverteilte ZVA mit Erwartungswert µ und Kovarianzmatrix Σ/m. Im univariaten Fall war die pdf der aus dem Schätzer der Varianz ˆσ 2 abgeleiteten Größe (m 1)ˆσ 2 /σ 2 die χ 2 Verteilung mit (m 1) Freiheitsgraden. Die multivariate Verallgemeinerung für den unverzerrten Schätzer der Kovarianzmatrix ist die sogenannte Wishart - Verteilung: eine pdf für Matrizen! Sei D eine Stichproben- (Daten-) matrix Stichprobenlänge m und Vektordimension q einer multivariat normalverteilten Grundgesamtheit mit Erwartungswert null und Kovarianzmatrix Σ ( N( 0, Σ)). Dann ist die pdf der positiv definiten symmetrische Matrix A = (m 1)S = DD T (2.48) 18

22 2 Multivariat normalverteilte Grundgesamtheiten die Wishartverteilung W (A, Σ, m 1) mit m 1 Freiheitsgraden (Γ(n) ist die im Kapitel 5 der Statistik I definierte Γ- Funktion): W (A, Σ, m 1) = m q 2 (det A) 2 exp( 1 2 Sp(Σ 1 A)) 2 (m 1)q 2 π q(q 1) 4 (det Σ) m 1 2 q i=1 Im Fall q = 1 ist die Wishart Verteilung identisch zur χ 2 Verteilung. Γ( m i 2 ) (2.49) Zur kompletten Beschreibung der multivariaten Normalverteilung ist aber nicht eine Schätzung von Σ gefragt, sondern eine von Σ 1. Es ergibt sich also die Frage, ob aus unserer ML Schätzung für Σ eine Inverse berechnet werden kann. Die Matrix S (oder auch S ) kann invertiert werden, wenn rg(s) = rg(σ) = q ist. Aus der Gleichung für den Schätzer und der Ungleichung für den Rang von Matrixprodukten folgt rg(s) = rg(dd T ) rg(d) min(m 1, q) (2.50) Ist also m q, so ist die geschätzte Kovarianzmatrix invertierbar, ist dagegen m < q, ist die geschätzte Kovarianzmatrix singulär und damit auch keine Schätzung der pdf möglich. In diesem Fall ist auch die Kovarianzmatrix nicht mehr positiv definit, sondern nur noch semidefinit d.h. mindestens ein Eigenwert ist identisch Null. Diese Matrix ist dann auch nicht mehr Wishart verteilt! Dieses Problem nennt man den Fluch der Dimensionen (Curse of Dimension). Es lieget darin begründet, dass die Dichte an Beobachtungspunkten in einem q dimensionalen Raum mit x q abnimmt, wenn x ein typischer eindimensionaler Abstand zwischen den Datenpunkten ist, z.b. der mittlere Zweipunkteabstand x 1 m ( xk x m 2 k ) 2 (2.51) k,k =1 Auf der anderen Seite ist der Fall m < q in der Klimatologie eigentlich der übliche Fall. Denn wenn man die Kovarianzmatrix der Anomalien der 2m Temperaturs zwischen 32,5 S und 77.5 N für einen bestimmten Monat (z.b. Januar) auf einem 5 5 Gitter (q 1656) schätzen will, so liegen nur 118 Januarfelder vor ( ) (das ist schon sehr viel im Vergleich mit anderen Daten). Eine komplette Darstellung der (angenommenen) multivariaten Normalverteilung der ZVA Temperaturanomalien im Januar im Nordatlantik an allen Gitterpunkten erscheint nicht möglich. Wir werden aber im nächsten Kapitel sehen, wie man da Abhilfe schaffen kann. 19

23 2 Multivariat normalverteilte Grundgesamtheiten Sei für die weitere Diskussion angenommen m > q, d.h. die Schätzung der Kovarianzmatrix führt auf eine nichtsinguläre Matrix S und wir können (S ) 1 berechnen. Die pdf der Matrix ZVA (S ) 1 ist ebenfalls bekannt und heißt die inverse- Wishart Verteilung: Sei A eine Wishart verteilte Matrix ZVA mit W (A, Σ, m 1). Dann ist die Matrix B = A 1 verteilt mit der pdf W 1 (B, Ψ, m 1) = det(ψ) m 1 2 (det B) m+q 2 (m 1)q 2 π q(q 1) 4 2 exp( 1 2 Sp(ΨB 1 )) q i=1 Γ( m i 2 ) (2.52) wobei Ψ = Σ 1 gesetzt wurde. Daraus läßt sich der Erwartungswert für den Schätzer (S ) 1 berechnen zu E((S ) 1 ) = m 1 m q 1 Σ 1 (2.53) Obwohl also der Schätzer der Kovarianzmatrix unverzerrt ist, ist die Inverse des Schätzers eine (möglicherweise stark) verzerrte Schätzung der Inversen der Kovarianzmatrix. Die Verzerrung ist umso größer, je schlechter die Bedingung m > q erfüllt ist. Eine unverzerrte Schätzung der inversen Kovarianzmatrix bildet man aus der inversen geschätzten Kovarianzmatrix dann wie folgt: Σ 1 = m q 1 m 1 (S ) 1 (2.54) Mit dieser Schätzung ist auch eine unverzerrte Schätzung der Mahalanobisdistanz möglich: ˆD 2 = ( x ˆ µ) T Σ 1 ( x ˆ µ) (2.55) wohingegen die intuitive Schätzung ˆD 2 = ( x ˆ µ) T (ˆΣ ) 1 ( x ˆ µ) (2.56) positiv verzerrt ist, d.h. zu große Abstände liefert, da m 1 m q 1 > 1 ist. Die Verzerrung ist im übrigen ein Folge der Schätzung der q Parameter des Erwartungswertes. Setzt man/frau diesen Erwartungswert als bekannt voraus, so verschwindet die Verzerrung der inversen geschätzen Kovarianzmatrix. 2.5 Informationskomprimierung Betrachten wir jetzt den Fall m < q. Auf den ersten Blick scheint man hier nichts machen zu können, wie auch folgendes Zitat aus dem amerikanischen Journal of Atmospheric Sciences (Chervin, 1981, Vol. 38, p.888) zu belegen scheint: 20

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 29. Mai 2006 Hinweise:

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Umweltmonitoring Datenverarbeitung 1, Teil 2: Statistische Verfahren der Datenanalyse

Umweltmonitoring Datenverarbeitung 1, Teil 2: Statistische Verfahren der Datenanalyse Umweltmonitoring Datenverarbeitung 1, Teil 2: Statistische Verfahren der Datenanalyse Roland Stigge stigge@informatik.hu-berlin.de Humboldt Universität zu Berlin 9. Januar 2003 Umweltmonitoring: Statistische

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

2 Multivariate Statistik

2 Multivariate Statistik MS13 1 2 Multivariate Statistik 21 Grundbegriffe In diesem Abschnitt sollen die ersten wichtigen Grundbegriffe der Multivariaten Statistik eingeführt werden: Mehrdimensionale Variablen, Erwartungswerte,

Mehr

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

GF(2 2 ) Beispiel eines Erweiterungskörpers (1) GF(2 2 ) Beispiel eines Erweiterungskörpers (1) Im Kapitel 2.1 wurde bereits gezeigt, dass die endliche Zahlenmenge {0, 1, 2, 3} q = 4 nicht die Eigenschaften eines Galoisfeldes GF(4) erfüllt. Vielmehr

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08 CURANDO UNIVERSITÄT ULM SCIENDO DOCENDO Statistik II Universität Ulm Abteilung Stochastik Vorlesungsskript Prof Dr Volker Schmidt Stand: Wintersemester 2007/08 Ulm, im Februar 2008 INHALTSVERZEICHNIS 2

Mehr

SO(2) und SO(3) Martin Schlederer. 06. Dezember 2012

SO(2) und SO(3) Martin Schlederer. 06. Dezember 2012 SO(2) und SO(3) Martin Schlederer 06. Dezember 2012 Inhaltsverzeichnis 1 Motivation 2 2 Wiederholung 2 2.1 Spezielle Orthogonale Gruppe SO(n)..................... 2 2.2 Erzeuger.....................................

Mehr

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Michael Schaeer 3.04.03 Abstract This seminar is about convex functions and several imortant ineualities. At the beginning the term

Mehr

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen.

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen. Matrixalgebra mit einer Einführung in lineare Modelle Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@statuni-muenchende 25 August 24 Vielen Dank an Christiane Belitz, Manuela Hummel und

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada Stochastische Analysis für Zufallsmatrizen Roland Speicher Queen s University Kingston, Kanada Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C) Was ist eine Zufallsmatrix?

Mehr

Mathematischer Vorkurs für Physiker WS 2009/10

Mathematischer Vorkurs für Physiker WS 2009/10 TU München Prof. Dr. P. Vogl, Dr. S. Schlicht Mathematischer Vorkurs für Physiker WS 2009/10 Vorlesung 1, Montag vormittag Vektoralgebra Ein Vektor lässt sich geometrisch als eine gerichtete Strecke darstellen,

Mehr

Statistik im Bachelor-Studium der BWL und VWL

Statistik im Bachelor-Studium der BWL und VWL Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,

Mehr

II. Klein Gordon-Gleichung

II. Klein Gordon-Gleichung II. Klein Gordon-Gleichung Dieses Kapitel und die zwei darauf folgenden befassen sich mit relativistischen Wellengleichungen, 1 für Teilchen mit dem Spin 0 (hiernach), 2 (Kap. III) oder 1 (Kap. IV). In

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Vorlesung. Komplexe Zahlen

Vorlesung. Komplexe Zahlen Vorlesung Komplexe Zahlen Motivation Am Anfang der Entwicklung der komplexen Zahlen stand ein algebraisches Problem: die Bestimmung der Lösung der Gleichung x 2 + 1 = 0. 1 Mit der Lösung dieses Problems

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 5. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Glossar Portfolio: In der Ökonomie bezeichnet der Begriff Portfolio ein Bündel von Investitionen, das

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln Häufigkeitstabellen Menüpunkt Data PivotTable Report (bzw. entsprechendes Icon): wähle Data Range (Zellen, die die Daten enthalten + Zelle mit Variablenname) wähle kategoriale Variable für Spalten- oder

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Geoadditive Regression

Geoadditive Regression Seminar: Stochastische Geometrie und ihre Anwendungen - Zufallsfelder Universität Ulm 27.01.2009 Inhalt Einleitung 1 Einleitung 2 3 Penalisierung 4 Idee Variogramm und Kovarianz Gewöhnliches Ansatz für

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur. Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte

Mehr

2.1 Codes: einige Grundbegriffe

2.1 Codes: einige Grundbegriffe Gitter und Codes c Rudolf Scharlau 2. Mai 2009 51 2.1 Codes: einige Grundbegriffe Wir stellen die wichtigsten Grundbegriffe für Codes über dem Alphabet F q, also über einem endlichen Körper mit q Elementen

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 für Aufgabenpool 1 Analysis

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten Kapitel 3 Erste Schritte der Datenanalyse 3.1 Einlesen und Überprüfen der Daten Nachdem die Daten erfasst worden sind, etwa mit Hilfe eines Fragebogens, ist die nächste Frage, wie ich sie in den Rechner

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Formelsammlung zu Multivariate Verfahren

Formelsammlung zu Multivariate Verfahren Institut für Statistik Gerhard Tutz, Moritz, Wolfgang Pößnecker Sommersemester 204 Formelsammlung zu Multivariate Verfahren Inhaltsverzeichnis Version 0804204 Diese Formelsammlung darf in der Klausur verwendet

Mehr

Einführung in MATLAB

Einführung in MATLAB Kapitel 4 Einführung in MATLAB 41 Allgemeines MATLAB ist eine kommerzielle mathematische Software zur Lösung mathematischer Probleme und zur graphischen Darstellung der Ergebnisse Die Verfahren in MATLAB

Mehr

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte K2 MATHEMATIK KLAUSUR 26.2.24 Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max 28 5 5 2 6 Punkte Notenpunkte PT 2 3 4 5 6 7 8 9 P. (max 2 2 2 4 5 3 3 4 3 Punkte WT Ana A.a b A.c Summe P. (max 7 5

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis:

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis: Inhaltsverzeichnis: Übungsaufgaben zu Kapitel 5... 1 Aufgabe 101... 1 Aufgabe 102... 2 Aufgabe 103... 2 Aufgabe 104... 2 Aufgabe 105... 3 Aufgabe 106... 3 Aufgabe 107... 3 Aufgabe 108... 4 Aufgabe 109...

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf Kochen mit Jordan Vorbereitungen Man nehme eine Matrix A R n n und bestimme ihr charakteristisches Polynom p(λ) = (λ c ) r (λ c j ) rj C[X] Dabei gilt: algebraische Vielfachheit r j ˆ= Länge des Jordanblocks

Mehr

Standardisierte kompetenzorientierte schriftliche Reifeprüfung. Mathematik. Probeklausur März 2014. Teil-1-Aufgaben

Standardisierte kompetenzorientierte schriftliche Reifeprüfung. Mathematik. Probeklausur März 2014. Teil-1-Aufgaben Standardisierte kompetenzorientierte schriftliche Reifeprüfung Mathematik Probeklausur März 2014 Teil-1-Aufgaben Beurteilung Jede Aufgabe in Teil 1 wird mit 0 oder 1 Punkt bewertet, jede Teilaufgabe in

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

Mathematik III für Ingenieure

Mathematik III für Ingenieure Mathematik III für Ingenieure im Bachelor-Studiengang Maschinenbau Vorlesung Wintersemester 21/211 B. Schuster aktualisert am 27. Januar 211 Inhalt I. Eigenwerte und Eigenvektoren 1 1. Komplexe Matrizen

Mehr

Microsoft Excel 2010 Matrix-Funktionen

Microsoft Excel 2010 Matrix-Funktionen Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft Excel 2010 Matrix-Funktionen Matrix-Funktionen in Excel 2010 Seite 1 von 7 Inhaltsverzeichnis Einleitung... 2 Integrierte Matrixfunktionen...

Mehr

Molekularfeldtheorie (MFT)

Molekularfeldtheorie (MFT) 29.06.2006 Motivation Anwendungen der MFT MFT-Herleitung mittels Variationsansatz und Anwendung Grenzen der Anwendung der MFT Motivation Meisten Probleme nur unter Berücksichtigung von Wechselwirkungen

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 Inhaltsverzeichnis Vorbemerkungen

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer 1 Einleitung Im Rahmen des SST wird teilweise vereinfachend angenommen, dass der Zusammenhang zwischen der Veränderung des risikotragenden

Mehr

Klaus-Groth-Schule - Neumünster Fachcurriculum Mathematik

Klaus-Groth-Schule - Neumünster Fachcurriculum Mathematik Jahrgang 10 Funktionen Funktionsbegriff - Definition - vielfältige Anwendungen - Umkehrbarkeit (intuitiv, Anwendungen) ganzrationale Funktionen Modellierung - Ablesen der Werte - Ungefähre Bestimmung der

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Methoden Quantitative Datenanalyse

Methoden Quantitative Datenanalyse Leitfaden Universität Zürich ISEK - Andreasstrasse 15 CH-8050 Zürich Telefon +41 44 635 22 11 Telefax +41 44 635 22 19 www.isek.uzh.ch 11. September 2014 Methoden Quantitative Datenanalyse Vorbereitung

Mehr

Z = 60! 29!31! 1,1 1017.

Z = 60! 29!31! 1,1 1017. Aufgabe : Eine Hochzeitsgesellschaft besteht aus 60 Personen. a Wieviele verschiedene Möglichkeiten für Sitzordnungen gibt es? b Nehmen Sie nun an, dass 9 Gäste aus dem Familien- und Freundeskreis der

Mehr

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip Sommersemester 2010 KLAUSUR Statistik B Hinweise zur Bearbeitung: Bei allen Teilaufgaben

Mehr

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr