Methoden der multivariaten Statistik

Größe: px
Ab Seite anzeigen:

Download "Methoden der multivariaten Statistik"

Transkript

1 Meteorologisches Institut der Universität Bonn Skript zur Vorlesung Methoden der multivariaten Statistik Sommersemester 2002 Andreas Hense Version: April 2002 (mit Korrekturen Nov. 2005, PF) 1

2 Inhaltsverzeichnis 1 Einführung Matrix / Vektor Algebra Multivariat normalverteilte Grundgesamtheiten Multivariate Zufallsvariablen Momente multivariater ZVA Multivariate Normalverteilung Eigenschaften der Kovarianzmatrix Schätzungen der Kovarianzmatrix Informationskomprimierung Beispiele für Guessmuster Bedingte Wahrscheinlichkeitsdichten Bivariate Grundgesamtheiten Eigenschaften der Grundgesamtheit Schätzer der Eigenschaften der bivariaten GG Konfidenzintervalle Hypothesentest Multivariate Hypothesentests Einführung Die Hotelling T 2 Variable Vergleich zweier multivariater Stichproben Die Macht des T 2 Tests Informationskomprimierung und der T 2 Test Beispiel zum Hotelling T 2 Test Diskriminanzanalyse Das Problem Klassifikation bei multivariaten Normalverteilungen Klassifikation bei unbekannter pdf Beispiel zur Anwendung der Diskriminanzanalyse

3 6 Empirische Orthogonalfunktionen Definition Schätzung der Prinzipalen Vektoren EOF und die Singulärwert-Zerlegung SVD Schätzung der Konfidenzintervalle Beweis des Satzes über prinzipale Vektoren Rotation Singular Spectral Analysis Beispiel für eine EOF Analyse EOF s und ihre physikalische Interpretation 76 8 Kanonische Korrelationsanalyse Definition Bedeutung der Metrikmatrizen Schätzung der kanonischen Korrelation Signifikanzschätzungen der kanonischen Korrelationen Beispiel für eine CCA

4 1 Einführung Abbildung 1 Feld der 2m Temperaturanomalie (Abweichung vom Mittelwert ), Mittelwert für Januar 1983, Nordhemisphäre zwischen 17.5 N und 77.5 N, Einheit K 1 Einführung In der Vorlesung Statistik sind im wesentlichen Methoden der univariaten Statistik beschrieben worden. Ein nicht unbedeutender Teil der Statistik in der Klimatologie befasst sich aber mit Problemen wie etwa die Statistik des Bodendruckfeldes über dem Nordatlantik, das Feld der 2m Temperaturanomalie oder des 500 hpa Geopotentials über der Nordhemisphäre oder das Windfeld in 200 hpa in den Tropen, um mal eine nicht sehr repräsentative Auswahl zu liefern. Die Daten liegen typischerweise an Gitterpunkten vor, z.b. 72*13 = 936 für die Nordhemisphäre, wenn man/frau einen Gitterpunktsabstand von 5 in N-S Richtung und eine 5 Abstand in E - W Richtung wählt und sich nur auf die Daten zwischen 17.5 N und 77.5 N konzentriert (vergl. Abb. (1)). Deshalb können wir das diskrete Feld Temperatur als eine Realisierung einer multivariaten ZVA mit der Dimension q = 936 auffassen oder allgemeiner bei der statistischen Betrachtung von meteorologischen Daten in Feldform die Notwendigkeit einer multivariaten Statistik ausmachen. Die Verallgemeinerung diskreter Felddaten auf kontinuierliche Felddaten ist ebenfalls möglich und führt auf die Betrachtung von Zufallsfunktionen F ( r), die wir aber nicht weiter betrachten wollen. Zwischen den Werten an den Gitterpunkten gibt 1

5 1 Einführung es Abhängigkeiten, die eine univariate Statistik nicht erfassen würde. Diese Abhängigkeiten entstehen aus der Dynamik: so sind z.b. in hyperbolischen Systemen Wellenausbreitungen (Rossbywellen, seismische Wellen) gegeben, die verschiedene Punkte in Raum und Zeit verknüpfen. in elliptischen Systemen (stationäre Diffusion, Wärmeleitung) die Randwerte, die die Lösung und damit die räumlich-zeitliche Struktur bestimmen die entscheidenden Prozesse, die bei einer statistischen Analyse ein multivariates Vorgehen erzwingen. Generell kann man sagen, dass man Statistik und Dynamik getrennt behandelt, wenn man nur univariate Statistik betreibt. Will man aber eine mit der Dynamik konsistente Statitik (statistisch-dynamische Analyse) betreiben, muss man zwangsläufig auf die multivariate Statistik ausweichen. Das Paradebeispiel hierfür ist die numerische Analyse, in der die multivariate Betrachtung der Beobachtungen an verschiedenen Raum-Zeitpunkten eine mit der Dynamik konsistente Analyse ergeben soll. Schliesslich ist multivariate Statistik gefragt, wenn generell Muster untersucht werden sollen. Das Paradebeispiel für diese Art von Anwendung ist der Nachweis und die Zuordnung von Klimaänderungssignalen: Ist eine simuliertes Klimaänderungsmuster (z.b. ein Temperaturtrend) in den beobachteten Temperaturtrends (vergl. Abb.(1)) wiederzufinden? Wie wir in der Vorlesung Statistik gesehen haben, sind wesentliche statistische Methoden formuliert worden für univariate und normalverteilte Grundgesamtheiten. Es liegt daher nahe, analog zu den univariaten Methoden, sich zunächst auf die multivariate Statistik normalverteilter ZVA zu beschränken. Relevante Bücher in diesem Zusammenhang sind Morrison, D.F., Multivariate Statistical Methods, McGraw Hill Series in Probability and Statistics ([9]) Anderson, T.W., An Introduction to Multivariate Statistical Analysis, 2nd Edition, J. Wiley & Sons, umfangreich und sehr mathematisch, sehr gut, ([10]) Hartung, J. und Elpelt, B. Multivariate Statistik, Lehr- und Handbuch der angewandten Statistik: Wie der Titel verrät, ein Buch zur Anwendung ohne umfangreiche mathematische Herleitungen aber mit viel Anwendungsbeispielen ([16]) 2

6 1 Einführung Abbildung 2 Feld des Trends der 2m Temperaturanomalie Winter DJF zwischen 32.5 S und 77.5 N, Einheit K/10a Hans von Storch und Francis Zwiers, Statistical Analysis in Climate Research, Cambidge University Press: Das Buch, das viele statistische Verfahren, die in der Klimaforschung Verwendung finden, vorstellt und mit Beispielen erläutert. Mit dabei sind auch die multivariaten Untersuchungen. [15] Multivariate ZVA werden i.a. mit Vektoren im IR q identifizert. Deshalb werden wir zu Beginn der Vorlesung die Matrix / Vektorrechenregeln zusammenstellen, auf die wir im Rahmen der Vorlesung immer wieder zurückgreifen werden. 1.1 Matrix / Vektor Algebra Alle Vektoren in der Vorlesung werden als Spaltenvektoren aufgefasst, sofern es nicht explizit anders erwähnt wird. D.h. ein q dimensionaler Vektor wird geschrieben als x = x 1 x 2. x q (1.1) 3

7 1 Einführung Entsprechende ist der transponierte Vektor x T ein Zeilenvektor. x T = (x 1, x 2,..., x q ) (1.2) Eine q p dimensionale Matrix A ist eine Anordnung von p Spaltenvektoren der Dimension q zu einem zweidimensionalen Array A i,j A 11 A A 1p A A = 21 A A 2p... A q1 A q2... A qp (1.3) Dabei bezeichnet der erste Index die Zeilennummer (1,..., q) und der zweite den Spaltenindex (1,..., p). Die Transponierte einer Matrix erhalten wir durch Vertauschen der Zeilenund Spaltenindices. (A T ) ij = A ji (1.4) Eine Matrix nennt man/frau symmetrisch, wenn gilt A T = A (1.5) Die Spur einer Matrix ist definiert als die Summe über die Diagonalelemente A ii Sp(A) = min(p,q) i=1 A ii (1.6) Als Diagonalmatrix wird eine Matrix bezeichnet, die nur auf der Diagonalen Einträge hat, die von Null verschieden sind γ diag(γ i, i = 1, q) = 0 γ γ q Die Einheitsmatrix I ist eine Diagonalmatrix mit 1 als Diagonaleinträgen. (1.7) I = diag(1, i = 1, q) (1.8) Matrizen werden addiert, indem die Matrixelemente addiert werden (A + B) ij = A ij + B ij (1.9) 4

8 1 Einführung Eine Matrix wird skalar mit c multipliziert, indem jedes Element mit dem Skalar c multipliziert wird (ca) ij = ca ij (1.10) Zwei Matrizen A, B der Dimension (p r) und r q werden multipliziert durch folgende Rechenregel r (AB) ij = A ik B kj (1.11) k=1 Diese Multiplikation ist distributiv und assoziativ d.h. es gilt für die drei Matrizen A(p r), B, C(r q) bzw. C(q s) A(B + C) = AB + AC A(BC) = (AB)C (1.12) Dagegen ist die Matrixmultiplikation i.a. (d.h. auch für quadratische Matrizen q = p = r = s nicht kommutativ AB BA (1.13) Lineare Gleichungssysteme für die q Unbekannten x j der Form q A i,j x j = b i (1.14) können kompakt in Matrix - Vektorschreibweise geschrieben werden als: j=1 A x = b (1.15) Zwei Vektoren können auf verschieden Weise multipliziert werden. Das Skalarprodukt zweier Vektoren x, y der Dimension q ist definiert als x T y = q x i y i (1.16) i=1 Da das Ergebnis ein Skalar ist, ist die skalare Multiplikation kommutativ x T y = y T x (1.17) Das äussere Produkt zweier Vektoren ist eine Matrix A mit folgender Beziehung A = x y T A ij = y i x j (1.18) 5

9 1 Einführung Skalarprodukt und äusseres Produkt hängen über folgende Beziehung zusammen: Sp( y x T ) = x T y (1.19) Die Determinanten einer Matrix wollen wir mit det(a) bzw. A bezeichen. Die Inverse einer (quadratischen) Matrix A wollen wir mit A 1 bezeichnen. Dies ist eine Matrix B, für die gilt AB = BA = AA 1 = A 1 A = I B = A 1 (1.20) Die Lösung eines linearen Gleichungssystems A x = b erhalten wir dann formal zu x = A 1 b (1.21) Damit A 1 existiert, muss A nichtsingulär sein bzw. den vollen Rang haben. Dies ist gegeben, wenn gilt det(a) 0. Existiert A 1 nicht, so heisst A singulär und det(a) = 0. Die Inverse der Transponierten einer Matrix ist die Transponierte der Inversen, sofern die Matrix nichtsingulär ist. (A 1 ) T = (A T ) 1 (1.22) Die Inverse eines Matrixproduktes zweier nichtsingulärer Matrizen A, B findet man/frau als (AB) 1 = B 1 A 1 (1.23) Als Rang einer Matrix A mit den Dimensionen q p bezeichnet man/frau die Anzahl der linear unabhängigen Zeilen / Spaltenvektoren rg(a) min(p, q) (1.24) Ist bei einer quadratischen Matrix p = q der Rang gleich der Dimension rg(a) = q, so sagt man/frau, die Matrix A habe den vollen Rang. In diesem Fall existiert eine Inverse A 1. Für die Rangberechnung von Matrizen gelten folgende Regeln rg(a T ) = rg(a) rg(a T A) = rg(a) = rg(aa T ) rg(a) = a rg(b) = b rg(ab) min(a, b) (1.25) Sei B eine quadratische Matrix mit vollem Rang p und A eine Matrix der Dimensionen q p mit rg(a) = a. Dann gilt rg(ab) = a (1.26) 6

10 1 Einführung Die Multiplikation eines Vektors x und einer quadratischen, symmetrischen Matrix A von der Form x T A x (1.27) nennt man/frau eine quadratische Form. Die Matrix A heisst positiv (semi-) definit, wenn für alle x 0 gilt x T A x > 0 positiv definit x T A x 0 positive semidefinit (1.28) Ist die quadratische Form kleiner oder kleiner gleich Null, so nennt man/frau A negative (semi-) definit. Ist kein Vorzeichen der quadratischen Form ausgezeichnet, so heisst A indefinit. x ist ein Eigenvektor der quadratischen Matrix A, wenn sich durch die Multiplikation A x der Vektor bis auf einen Längenfaktor λ reproduziert. A x = λ x (1.29) Dies ist ein lineares, homogenes Gleichungssystem (A λi) x = 0, (1.30) das nur dann nichttriviale Lösungen x 0 haben kann, wenn gilt det(a λi) = 0 (1.31) Diese Gleichung bestimmt die Nullstellen λ eines Polynoms (charakteristisches Polynom) der Ordnung q λ 1, λ 2... λ q (1.32) wobei allerdings einige λ i identisch seien können ( entartet ). Zu jedem dieser Eigenwerte λ i existiert ein Eigenvektor e i, so dass gilt A e i = λ i e i (1.33) Ordnen wir die Eigenvektoren als Spaltenvektoren zu einer Matrix E an und schreiben die Eigenwerte als Elemente einer Diagonalmatrix, erhalten wir E = ( e 1, e 2,..., e q ) Λ = diag(λ 1,..., λ q ) AE = EΛ (1.34) 7

11 1 Einführung Ist A eine symmetrische Matrix, lehrt uns die lineare Algebra, dass gilt λ i IR (1.35) Ist A ausserdem positiv (semi-) definit, so gilt λ i 0 (1.36) für alle i [1, q]. Die Eigenvektoren von symmetrischen Matrizen bilden ein vollständiges, orthogonales Basissystem im IR q, d.h. es gilt: e T i e j = δ ij E T E = EE T = I (1.37) Betrachten wir zum Schluss noch Ableitungen von skalaren Funktionen nach Vektoren ( Gradienten ). Sei f(x 1, x 2,..., x q ) = f( x) eine Abbildung aus dem IR q in IR. Dann können wir nach den bekannten Rechenregeln die partiellen 1. und 2. Ableitungen bilden Sei f nun eine verallgemeinerte quadratische Form f x i 2 f (1.38) x i x j f( x) = ( a C x) T K( a C x) (1.39) wobei a ein fester q dimensionaler Vektor ist, K eine symmetrische Matrix und C eine beliebige Matrix. Gesucht ist der Gradient von f bzgl. des Vektors x: x f = f x (1.40) Üblich wäre es, die verallgemeinerte quadratische Form als Doppelsumme auszuschreiben und dann den Gradienten durch partielle Ableitung nach den Komponenten x i auszurechnen. Man/frau kann sich aber viel Arbeit ersparen, wenn man/frau nach folgenden drei Regeln verfährt: (1) Berechne die Ableitung f x Rechenregeln zur Differentiation. wie im skalaren Fall, d.h. unter Benutzung der üblichen 8

12 1 Einführung (2) Erhalte in jedem Fall die Reihenfolge der Matrix - Vektormultiplikationen, da diese nicht kommutativ sind. (3) Soll die quadratische Form nach dem Komponenten abgeleitet werden, die aus dem transponierten Vektoranteil x T stammen, so verfahre nach den Regeln (1) und (2) ohne Berücksichtigung der Transponierung und transponiere das Ergebnis anschliessend. Mit Hilfe dieser Regeln erhalten wir dann f x = x ( at K a a T KC x x T C T K a + x T C T KC x) = a T KC (C T K a) T + (C T KC x) T + x T C T KC = 2 a T KC + 2 x T C T KC (1.41) Auch die Matrix der zweiten Ableitungen (Hesse - Matrix) erhalten wir durch Anwendung der Rechenregeln auf den Gradienten H = 2 f x x T = 2CT KC (1.42) 9

13 2 Multivariat normalverteilte Grundgesamtheiten 2 Multivariat normalverteilte Grundgesamtheiten 2.1 Multivariate Zufallsvariablen Wir definieren eine q-dimensionale multivariate ZV X als Vektor X = (X 1, X 2,..., X q ) T q. Die Elemente des Vektors X sind kontinuierliche univariate ZV mit den Randdichten f 1 (x 1 ), f 2 (x 2 ),..., f q (x q ) und den Randverteilungen F 1 (x 1 ), F 2 (x 2 ),..., F q (x q ). Die Verteilungsfunktion der multivariaten ZVA X = {( X, F ( x)), X q } ist definiert über die Wahrscheinlichkeit F (x 1, x 2,..., x q ) = P (X 1 x 1, X 2 x 2,..., X q x q ). Diese heisst auf die gemeinsame Verteilung oder joint distribution. Sei F (x 1, x 2,..., x q ) kontinuierlich und differenzierbar, so können wir die gemeinsame Wahrscheinlichkeitsdichtefunktion definieren als f(x 1,..., x q ) = F (x 1,..., x q ), mit F (x 1,..., x q ) = x1... xq f(u 1,..., u q )du 1... du q. Unabhängigkeit: Wenn die Elemente der multivariaten ZVA X statistisch unabhängig voneinander sind, dann gilt f(x 1,..., x q ) = f 1 (x 1 )... f q (x q ) F (x 1,..., x q ) = F 1 (x 1 )... F q (x q ). In diesem Fall könnten wir die univariate Statistik verwenden und mit den Randverteilungen, bzw. -dichten arbeiten. Aber dies ist bei meteorologischen Feldern nicht der Fall! Die Randverteilung eines Elementes eine multivariabten ZVA definiert sich als f i (x i ) =... f(x 1,..., x q )dx 1... dx i 1 dx i+1 dx q. (2.1) Durch die Integration der gemeinsamen Verteilung über einzelne Elemente der multivariaten ZVA wird die Verteilung unabhängig gemacht von diesen Elementen dieser Prozess heisst Marginalisierung. 10

14 2 Multivariat normalverteilte Grundgesamtheiten Multivariate bedingte Verteilungen bzw. Dichten: Gegeben sei eine MV ZVA mit f(x 1,..., x q ). Seien nun die Elemente x p + 1,..., x q z.b. durch ein Experiment oder Beobachtung festgelegt, dann lautet die auf diese Elemente bedingte Wahrscheinlichkeitsdichte Momente multivariater ZVA f(x 1,..., x p x p+1,..., x q ) = f(x 1,..., x q ) f(x p+1,..., x q ). (2.2) Der Erwartungswert E( X) ist ein Vektor bestehend aus den Erwartungswerten der einzelnen Komponenten von X E( X) = (E(X 1 ),..., E(X q )) T = µ. Um auf die allgemeine Form der multivariaten Varianz zu kommen, definieren wir zuerst die Kovarianz Cov(X i, X j ) = E ((X i µ i ) (X j µ j )) = =... (x i µ i )(x j µ j )f(x 1,..., x q )dx 1... dx q (x i µ i )(x j µ j )f(x i, x j )dx i dx j = σ 2 ij (2.3) Wenn i = j ist, dann ist σ 2 ii = σ 2 i die Varianz der i-ten Komponente. Bei einer q- dimensionalen ZVA X existieren also q q Kovarianzen σij 2, wobei diese natürlich symmetrisch sind. Wir können diese also zusammenfassen zu der Kovarianzmatrix Σ E (( X E( X))( X E( X)) ) T = Σ. (2.4) Die Kovarianzmatrix ist also eine symmetrische positiv definite Matrix. 2.2 Multivariate Normalverteilung Wir bereits erwähnt wurde, werden wir uns bei der multivariaten Statistik auf ZVA beschränken, die multivariat normalverteilt sind. Das hat zwei Gründe: 1. Ein Zufallsvektor, der entsteht aus der Summe eine grösseren Anzahl unabhängig und identisch verteilter Zufallsvektoren ist nach dem zentrale Grenzwertsatz der Statistik asymptotisch multivariat normalverteilt (dies gilt analog zu univariaten auch für multivariate 11

15 2 Multivariat normalverteilte Grundgesamtheiten ZVA). Eine solche Annahme kann in vielen Fällen gemacht werden, sollte aber immer begründet oder getestet werden. 2. Ohne die Annahme der Normalverteilung wären statistische Tests sehr komplex und eventuell nur über nicht parametrische Methoden zu lösen. Sei X = {( x, f( x)), x q } (2.5) eine q-dimensionale ZVA. x heißt multivariat NV, wenn f( x) die Form f( x) = 1 Z exp( 1 2 ( x µ)t B( x µ)) (2.6) hat, wobei B eine symmetrische, positiv-definite Matrix ist (d.h. alle Eigenwerte sind positiv) und Z der Normierungsfaktor. Bedenke, daß eigentlich f( x) = f( x, µ, B)! Diese multivariat NV ZVA ist symmetrisch um µ, d.h. Damit ist aber... ( x µ)f( x, µ, B) dx 1 dx 2...dx q = 0 (2.7) E( x µ) = 0 E( x) = µ (2.8) In der Bestimmungsgleichung von f( x, µ, B) war B noch unbestimmt. Daher bildet man nun µ... ( x µ) f( x, µ, B) dx 1 dx 2...dx q = 0 (2.9) Ausrechnen der Ableitung führt auf (I ist die Einheitsmatrix, B = B t )... Damit wiederum gilt auch (O ist die Nullmatrix) (I ( x µ)( x µ) t B) f( x, µ, B) dx 1 dx 2...dx q = 0 (2.10) E(I ( x µ)( x µ) t B) = O (2.11) und daraus folgend E(( x µ)( x µ) t B) = E(I) = I (2.12) d.h. die Matrix B ist die Inverse der Kovarianzmatrix Σ. Damit ist im Fall der multivariaten NV die gesamte Verteilung durch die Parameter µ und Σ vollständig beschrieben. 12

16 2 Multivariat normalverteilte Grundgesamtheiten 2.3 Eigenschaften der Kovarianzmatrix In Kapitel 4.4 der Vorlesung Statistik war die pdf ( probability density function ) einer multivariaten, normalverteilten ZVA X mit der Dimension q definiert worden als: f( x) = 1 Z exp( 1 2 ( x µ)t Σ 1 ( x µ)) (2.13) wobei Z = 2π q det(σ) der Normierungsfaktor ist. Die Kovarianzmatrix Σ ist eine positiv definite, symmetrische Matrix. Die Eigenvektoren e j bilden deshalb eine vollständige orthonormale Basis im IR q und die Eigenwerte λ j sind reell und positiv definit. Die Eigenwerte und die Eigenvektoren seien so angeordnet, daß gilt: λ 1 λ 2... λ q (2.14) Dann lassen sich die Eigenwertgleichungen zusammenfassen zu der Matrixgleichung ΣE = EΛ (2.15) wobei die Spalten der Matrix E die Eigenvektoren e j sind und die Matrix Λ eine Diagonalmatrix ist mit den Eigenwerten λ j als Diagonalelemente. Die Orthonormalitätsrelation lautet dann E T E = I (2.16) wobei I die Einheitsmatrix und E T die Transponierte von E ist. Wegen der Vollständigkeit kann jeder Vektor x nach den Eigenvektoren entwickelt werden. Faßt man/frau die Entwicklungskoeffizienten zum Koeffizientenvektor a zusammen, so kann man/frau schreiben x = q q a x i e i = E a x µ = a µ e i = E a µ i=1 i=1 ( x µ) = E( a x a µ ) (2.17) Der Mahalonobisabstand D 2 D 2 = ( x µ) T Σ 1 ( x µ) (2.18) kann man/frau dann auch schreiben als: D 2 = ( a x a µ ) T E T Σ 1 E( a x a µ ) (2.19) 13

17 2 Multivariat normalverteilte Grundgesamtheiten Wenn e j ein Eigenvektor von Σ zum Eigenwert λ j ist, ist e j ebenfalls auch Eigenvektor von Σ 1 zum Eigenwert λ 1 j. Dann folgt wegen der Orthonormalitätsrelation D 2 = ( a x a µ ) T Λ 1 ( a x a µ ) q (a x j a µ j = )2 (2.20) λ j j=1 Führen wir diese Koordinatentransformation für das Integral zur Berechnung der Normierungsfaktors Z in Gl. (2.13) ein, so folgt für das Volumenelement d q x die Relation d q x = det(e)d q a x = d q a x (2.21) oder Z = = q j=1 exp( q (a x j aµ j )2 )d q a x j=1 exp( 1 2 λ j (a x j aµ j )2 λ j )da j (2.22) Die Integrale unter dem Produkt haben jeweils den Wert 2πλ j. Dann erhält man/frau für den Normierungsfaktor q Z = (2π) q 2 λ j = (2π) q 2 det Σ (2.23) j=1 Wie man/frau sieht, sind die Eigenvektoren der Kovarianzmatrix offenbar ausgezeichnete Richtungen im Vektorraum IR q, nämlich genau die, für die die Kovarianzen cov(a i a j ), i j verschwinden (siehe Darstellung der Mahalanobisdistanz durch die Entwicklungskoeffizienten a). Geometrisch ist der Fall q = 2 besonders einfach zu interpretieren. Sei die Kovarianzmatrix Σ gegeben als Setzt man/frau Σ = σ2 1 c c σ 2 2 (2.24) c = σ 1 σ 2 ρ (2.25) wobei ρ der Korrelationskoeffizient zwischen ersten und zweiten Komponente der ZVA X = (X 1, X 2 ) und σ 1, σ 2 entsprechenden Standardabweichungen sind, so erhält man/frau für die Mahalanobisdistanz folgenden Ausdruck: D 2 = (x 1 µ 1 ) 2 σ2(1 2 ρ 2 ) 2ρ(x 1 µ 1 )(x 2 µ 2 ) + (x 2 µ 2 ) 2 σ 1 σ 2 (1 ρ 2 ) σ1(1 2 ρ 2 ) (2.26) 14

18 2 Multivariat normalverteilte Grundgesamtheiten 3 2-dim Gauss pdf, Eigenvektoren der Kovarianzmatrix Abbildung 3 Illustration zum zweidimensionalen normalverteilten Problem Eine Kontur konstanter Wahrscheinlichkeitsdichte f 0 ist dann durch die Gleichung D 2 (x 1, x 2 ) + 2 ln(f 0 Z) = 0 (2.27) gegeben. Dies ist die Gleichung einer Ellipse (weil σ1σ 2 2(1 2 ρ 2 ) > 0 ) mit dem Mittelpunkt ( µ 1, µ 2 ). Die große Halbachse bildet einen Winkel α mit der x-achse mit σ 1 σ 2 tan 2α = 2ρ (σ1 2 + σ2 2 ) (2.28) Die Drehung der Koordinatenachsen (x 1, x 2 ) in Richtung der Eigenvektoren von Σ dreht diese Ellipse in Normalform: D 2 (a 1, a 2 ) + 2 ln(f 0 Z) = 0 (2.29) mit und D 2 (a 1, a 2 ) = (a(x) 1 a (µ) 1 ) 2 + (a(x) 2 a (µ) 2 ) 2 (2.30) λ 1 λ 2 λ 1,2 = σ2 1 + σ (σ 2 ± 1 σ2) σ1 2 4 σ2 2 ρ2 (2.31) Die Ellipse liegt nun mit den Hauptachsen parallel zu den Koordinatenachsen ( Hauptachsentransformation ), die Längen der Hauptachsen sind proportional zu den Eigenwerten 15

19 2 Multivariat normalverteilte Grundgesamtheiten (vergl. Abb. (3)). Im Fall q > 2 betrachtet man/frau Flächen (Hyperflächen der Dimension q 1) konstanter Wahrscheinlichkeitsdichte. Für Normalverteilungen sind diese Hyperflächen Ellipsoide. Dann spannen die Eigenvektoren der Kovarianzmatrix dieses Ellipsoid auf. Die Länge der q Ellipsoidhalbachsen ist proportional zu den Eigenwerten. Wir werden in einem spätern Abschnitt sehen, daß die Eigenvektoren der Kovarianzmatrix noch eine weitere, bemerkenswerte Eigenschaft haben, die der effektivsten Darstellung. 2.4 Schätzungen der Kovarianzmatrix Analog zur Stichprobe einer univariaten ZVA kann auch die Stichproben ZVA einer multivariaten Grundgesamtheit eingeführt werden. Die Stichproben ZVA einer univariaten ZVA bei einer Stichprobenlänge m war eine Vektorwertige ZVA X (m) der Dimension m. Im Fall einer multivariaten Grundgesamtheit mit der Dimension q > 1 ist die Stichproben ZVA eine q m dimensionale Matrix X, deren Spalten jeweils ein Stichprobenelement eines q-dimensionalen Vektors enthalten und deren Zeilen der Länge m univariate Stichprobenvektoren der i-ten Komponente der Vektor ZVA enthalten. Sei die Grundgesamtheit, der die Stichprobe entnommen wurde, multivariat normalverteilt mit den Parametern µ und Σ. Es gilt nun, Schätzer für Erwartungswert und Kovarianzmatrix anzugeben. In der Vorlesung Statistik hatten wir die Maximum Likelihood Methode eingeführt als eine allgemeine Vorschrift zur Konstruktion von Schätzern. Dies wollen wir jetzt anwenden. Mit Hilfe der Definition (2.13) ist die Wahrscheinlichkeit, die m Stichprobenelemente x k zu beobachten, gegeben durch ( ) 1 f( x 1,..., x m ) = exp 1 m ( x ((2π) qm (detσ) m ) 1 k µ) T Σ 1 ( x k µ) (2.32) 2 2 Bilden wir die log-likelihood Funktion l, erhalten wir k=1 l = ln f = qm 2 ln 2π m 2 ln detσ 1 2 m ( x k µ) T Σ 1 ( x k µ) (2.33) k=1 Führen wir nun das arithmetische Mittel x der Stichprobe ein, x = 1 m m x k, (2.34) k=1 16

20 2 Multivariat normalverteilte Grundgesamtheiten so können wir die log-likelihood Funktion umschreiben zu l = qm 2 ln 2π m 2 ln detσ 1 2 m ( x k x) T Σ 1 ( x k x) k=1 } {{ } I + m 2 ( x µ) T Σ 1 ( x µ) } {{ } II (2.35) Mit Hilfe der Rechenregeln für Vektormultiplikationen könne wir den mit I bezeichneten Term umschreiben zu = k=1 m ( x k x) T Σ 1 ( x k x) m (Σ 1 ( x k x)) T ( x k x) m = Sp( ( x k x)( x k x) T Σ 1 ) = Sp(AΣ 1 ) (2.36) k=1 wobei A die sogenannte Matrix der Produktsummen der Abweichungen vom Mittelwert ist. Dann lautet die log-likelihood Funktion l = qm 2 ln 2π m 2 ln detσ 1 2 Sp(AΣ 1 ) m 2 ( x µ) T Σ 1 ( x µ) (2.37) Ableiten der log - likelihood Funktion (siehe Rechenregeln oben) nach dem Vektor µ und Nullsetzen (maximum likelihood) führt auf den Schätzer ˆ µ für den Erwartungswert m( x µ)σ 1 = 0 x T Σ 1 = ˆ µ T Σ 1 k=1 = ˆ µ = x (2.38) d.h. der arithmetische Mittelwert ist der ML Schätzer für den Erwartungswert. Setzen wir diesen wieder in die log - likelihood Funktion ein, so ist die quadratische Form II in Gl. (2.35) identisch Null und wir müssen, um den ML Schätzer für die Kovarianzmatrix zu bestimmen, nur noch die Funktion l = qm 2 ln 2π m 2 ln detσ 1 2 Sp(AΣ 1 ) (2.39) betrachten. Mit Hilfe der Eigenvektorzerlegung für die (positiv definite, symmetrische) Kovarianzmatrix Σ ist es möglich zu zeigen, dass gilt ln detσ = Sp(ln Σ) (2.40) Dann erhalten wir l = Sp( m 2 ln Σ 1 2 AΣ 1 ) (2.41) 17

21 2 Multivariat normalverteilte Grundgesamtheiten l ist damit eine Funktion der unbekannten Matrix Σ. Spurbildung und Ableitung nach Σ sind vertauschbare Operationen, so dass wir als Bestimmungsgleichung für den Schätzer der Kovarianzmatrix erhalten: m 2 Σ AΣ 2 = 0 (2.42) Bezeichnen wir mit S den Schätzer der Kovarianzmatrix, so erhalten wir ms + A = 0 S = 1 m A (2.43) als ML Schätzer der Kovarianzmatrix. Aufgelöst nach den Komponenten ergibt sich S ij = 1 m (x ik x i )(x jk x j ) m Definieren wir k=1 x i = 1 m m x ik (2.44) k=1 d i,k = x i,k x i (2.45) als ein Matrixelement für die sogenannte Datenmatrix D der zentrierten Abweichungen, so ist der ML Schätzer der Kovarianzmatrix gegeben als S = 1 m DDT (2.46) Wie im univariaten Fall ist jedoch ˆΣ nur asymptotisch unverzerrt, ein unverzerrter Schätzer ist gegeben durch S = 1 m 1 DDT (2.47) Die Schätzer für Erwartungswert und Kovarianzmatrix sind selbstverständlich wiederum ZVA. So ist der Schätzer des E-Wertes x eine multivariat normalverteilte ZVA mit Erwartungswert µ und Kovarianzmatrix Σ/m. Im univariaten Fall war die pdf der aus dem Schätzer der Varianz ˆσ 2 abgeleiteten Größe (m 1)ˆσ 2 /σ 2 die χ 2 Verteilung mit (m 1) Freiheitsgraden. Die multivariate Verallgemeinerung für den unverzerrten Schätzer der Kovarianzmatrix ist die sogenannte Wishart - Verteilung: eine pdf für Matrizen! Sei D eine Stichproben- (Daten-) matrix Stichprobenlänge m und Vektordimension q einer multivariat normalverteilten Grundgesamtheit mit Erwartungswert null und Kovarianzmatrix Σ ( N( 0, Σ)). Dann ist die pdf der positiv definiten symmetrische Matrix A = (m 1)S = DD T (2.48) 18

22 2 Multivariat normalverteilte Grundgesamtheiten die Wishartverteilung W (A, Σ, m 1) mit m 1 Freiheitsgraden (Γ(n) ist die im Kapitel 5 der Statistik I definierte Γ- Funktion): W (A, Σ, m 1) = m q 2 (det A) 2 exp( 1 2 Sp(Σ 1 A)) 2 (m 1)q 2 π q(q 1) 4 (det Σ) m 1 2 q i=1 Im Fall q = 1 ist die Wishart Verteilung identisch zur χ 2 Verteilung. Γ( m i 2 ) (2.49) Zur kompletten Beschreibung der multivariaten Normalverteilung ist aber nicht eine Schätzung von Σ gefragt, sondern eine von Σ 1. Es ergibt sich also die Frage, ob aus unserer ML Schätzung für Σ eine Inverse berechnet werden kann. Die Matrix S (oder auch S ) kann invertiert werden, wenn rg(s) = rg(σ) = q ist. Aus der Gleichung für den Schätzer und der Ungleichung für den Rang von Matrixprodukten folgt rg(s) = rg(dd T ) rg(d) min(m 1, q) (2.50) Ist also m q, so ist die geschätzte Kovarianzmatrix invertierbar, ist dagegen m < q, ist die geschätzte Kovarianzmatrix singulär und damit auch keine Schätzung der pdf möglich. In diesem Fall ist auch die Kovarianzmatrix nicht mehr positiv definit, sondern nur noch semidefinit d.h. mindestens ein Eigenwert ist identisch Null. Diese Matrix ist dann auch nicht mehr Wishart verteilt! Dieses Problem nennt man den Fluch der Dimensionen (Curse of Dimension). Es lieget darin begründet, dass die Dichte an Beobachtungspunkten in einem q dimensionalen Raum mit x q abnimmt, wenn x ein typischer eindimensionaler Abstand zwischen den Datenpunkten ist, z.b. der mittlere Zweipunkteabstand x 1 m ( xk x m 2 k ) 2 (2.51) k,k =1 Auf der anderen Seite ist der Fall m < q in der Klimatologie eigentlich der übliche Fall. Denn wenn man die Kovarianzmatrix der Anomalien der 2m Temperaturs zwischen 32,5 S und 77.5 N für einen bestimmten Monat (z.b. Januar) auf einem 5 5 Gitter (q 1656) schätzen will, so liegen nur 118 Januarfelder vor ( ) (das ist schon sehr viel im Vergleich mit anderen Daten). Eine komplette Darstellung der (angenommenen) multivariaten Normalverteilung der ZVA Temperaturanomalien im Januar im Nordatlantik an allen Gitterpunkten erscheint nicht möglich. Wir werden aber im nächsten Kapitel sehen, wie man da Abhilfe schaffen kann. 19

23 2 Multivariat normalverteilte Grundgesamtheiten Sei für die weitere Diskussion angenommen m > q, d.h. die Schätzung der Kovarianzmatrix führt auf eine nichtsinguläre Matrix S und wir können (S ) 1 berechnen. Die pdf der Matrix ZVA (S ) 1 ist ebenfalls bekannt und heißt die inverse- Wishart Verteilung: Sei A eine Wishart verteilte Matrix ZVA mit W (A, Σ, m 1). Dann ist die Matrix B = A 1 verteilt mit der pdf W 1 (B, Ψ, m 1) = det(ψ) m 1 2 (det B) m+q 2 (m 1)q 2 π q(q 1) 4 2 exp( 1 2 Sp(ΨB 1 )) q i=1 Γ( m i 2 ) (2.52) wobei Ψ = Σ 1 gesetzt wurde. Daraus läßt sich der Erwartungswert für den Schätzer (S ) 1 berechnen zu E((S ) 1 ) = m 1 m q 1 Σ 1 (2.53) Obwohl also der Schätzer der Kovarianzmatrix unverzerrt ist, ist die Inverse des Schätzers eine (möglicherweise stark) verzerrte Schätzung der Inversen der Kovarianzmatrix. Die Verzerrung ist umso größer, je schlechter die Bedingung m > q erfüllt ist. Eine unverzerrte Schätzung der inversen Kovarianzmatrix bildet man aus der inversen geschätzten Kovarianzmatrix dann wie folgt: Σ 1 = m q 1 m 1 (S ) 1 (2.54) Mit dieser Schätzung ist auch eine unverzerrte Schätzung der Mahalanobisdistanz möglich: ˆD 2 = ( x ˆ µ) T Σ 1 ( x ˆ µ) (2.55) wohingegen die intuitive Schätzung ˆD 2 = ( x ˆ µ) T (ˆΣ ) 1 ( x ˆ µ) (2.56) positiv verzerrt ist, d.h. zu große Abstände liefert, da m 1 m q 1 > 1 ist. Die Verzerrung ist im übrigen ein Folge der Schätzung der q Parameter des Erwartungswertes. Setzt man/frau diesen Erwartungswert als bekannt voraus, so verschwindet die Verzerrung der inversen geschätzen Kovarianzmatrix. 2.5 Informationskomprimierung Betrachten wir jetzt den Fall m < q. Auf den ersten Blick scheint man hier nichts machen zu können, wie auch folgendes Zitat aus dem amerikanischen Journal of Atmospheric Sciences (Chervin, 1981, Vol. 38, p.888) zu belegen scheint: 20

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer. Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Matrizenrechnung 2 11 Matrixbegri 2 12 Spezielle Matrizen 3 13 Rechnen

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01 Kapitel Komplexe Zahlen Motivation: die Gleichung x = hat offensichtlich keine reellen Lösungen, da x 0 für jedes reelle x gilt Um auch diese Gleichung lösen zu können, muß man neue Zahlen einführen: die

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Definition, Rechenoperationen, Lineares Gleichungssystem

Definition, Rechenoperationen, Lineares Gleichungssystem Bau und Gestaltung, Mathematik, T. Borer Aufgaben / Aufgaben Matrizen Definition, Rechenoperationen, Lineares Gleichungssystem Lernziele - die Bezeichnung der Matrixelemente kennen und verstehen. - den

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Leitfaden Lineare Algebra: Determinanten

Leitfaden Lineare Algebra: Determinanten Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Statistische Methoden

Statistische Methoden Statistische Methoden Dr CJ Luchsinger 6 Repetition: Rechnen mit Matrizen für die Statistik Matrizen sind aus zwei Gründen für die Statistik sehr wichtig: Sie ermöglichen uns einerseits eine sehr elegante

Mehr

1. Methode der Finiten Elemente

1. Methode der Finiten Elemente 1. Methode der Finiten Elemente 1.1 Innenraumprobleme 1.2 Außenraumprobleme 1.3 Analysen 1.4 Bewertung Prof. Dr. Wandinger 5. Numerische Methoden Akustik 5.1-1 1.1 Innenraumprobleme 1.1.1 Schwache Formulierung

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Einführung in Statistik und Messwertanalyse für Physiker

Einführung in Statistik und Messwertanalyse für Physiker Gerhard Böhm, Günter Zech Einführung in Statistik und Messwertanalyse für Physiker SUB Göttingen 7 219 110 697 2006 A 12486 Verlag Deutsches Elektronen-Synchrotron Inhalt sverzeichnis 1 Einführung 1 1.1

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Business Value Launch 2006

Business Value Launch 2006 Quantitative Methoden Inferenzstatistik alea iacta est 11.04.2008 Prof. Dr. Walter Hussy und David Tobinski UDE.EDUcation College im Rahmen des dokforums Universität Duisburg-Essen Inferenzstatistik Erläuterung

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

Weiterbildungskurs Stochastik

Weiterbildungskurs Stochastik Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

3.1. Die komplexen Zahlen

3.1. Die komplexen Zahlen 3.1. Die komplexen Zahlen Es gibt viele Wege, um komplexe Zahlen einzuführen. Wir gehen hier den wohl einfachsten, indem wir C R als komplexe Zahlenebene und die Punkte dieser Ebene als komplexe Zahlen

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

GF(2 2 ) Beispiel eines Erweiterungskörpers (1) GF(2 2 ) Beispiel eines Erweiterungskörpers (1) Im Kapitel 2.1 wurde bereits gezeigt, dass die endliche Zahlenmenge {0, 1, 2, 3} q = 4 nicht die Eigenschaften eines Galoisfeldes GF(4) erfüllt. Vielmehr

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya Inverse Matrix -E Ma Lubov Vassilevskaya Inverse Matrix Eine n-reihige, quadratische Matrix heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt. Anderenfalls heißt sie singulär.

Mehr