2 Multivariate Statistik

Größe: px
Ab Seite anzeigen:

Download "2 Multivariate Statistik"

Transkript

1 MS Multivariate Statistik 21 Grundbegriffe In diesem Abschnitt sollen die ersten wichtigen Grundbegriffe der Multivariaten Statistik eingeführt werden: Mehrdimensionale Variablen, Erwartungswerte, Kovarianzmatrizen, affine Abbildungen Multivariate Daten Sehr oft liefern Versuchspersonen oder allgemeiner Untersuchungseinheiten in Untersuchungen nicht nur einen Zahlenwert als Versuchsergebnis, sondern mehrere Es wird dann also nicht nur eine Variable erhoben, sondern mehrere In solchen Fällen ist es oft angemessen und empfehlenswert, diese Werte oder einen Teil dieser Werte zu einem Vektor zusammenzufassen Gelegentlich fasst man auch zusammengehörende Gruppen von Variablen jeweils zu Vektoren zusammen Beispiele: 1 Bei der Normierung eines Intelligenztests liefern alle Probanden für jeden Untertest einen Wert Hat der Intelligenztest 3 Untertests (verbale, rechnerische, räumliche Intelligenz), so ist es sinnvoll, die Ergebnisse der Personen in einem 3-Vektor zusammenzufassen Ein Ergebnisvektor (10, 7, 9) einer Versuchsperson bedeutet dann, dass sie in dem ersten Untertest (verbale Intelligenz) 10 Punkte erzielt hat, in dem zweiten 7 und so weiter Vielleicht werden bei der Untersuchung zusätzlich Alter und Geschlecht erhoben Dann könnte man die Werte in diesen Variablen (Geschlecht geeignet als Zahl kodiert) hinzufügen und hätte nun als Ergebnis jeder Versuchsperson einen 5-Vektor Ob dies sinnvoll ist oder ob man nur die Intelligenzwerte zusammenfassen sollte, hängt von den Zielsetzungen der Untersuchung und den Auswertungsmethoden ab 2 In einer Studie zum Therapieerfolg wird bei allen Versuchspersonen die Befindlichkeit vor der Therapie, zweimal während der Therapie zu festgesetzten Zeitpunkten und nach der Therapie erhoben Hier liefert jede Person vier Werte, die man sinnvollerweise zu einem 4-Vektor zusammenfasst Ein Ergebnisvektor (4, 7, 6, 8) bedeutet dann, dass die untersuchte Person vor der Therapie einen Wert von 4 hatte, der sich im Laufe der Therapie über die Werte 7 und 6 auf 8 nach der Therapie änderte

2 21 Grundbegriffe MS Man will den Zusammenhang von Persönlichkeitseigenschaften und physiologischen Parameter untersuchen Für die Persönlichkeit liegen 5 Variablen vor (Extraversion, Gewissenhaftigkeit, ), an physiologischen Maßen wurden 4 erhoben (Herzrate, Atemfrequenz, ) Hier ist es angemessen, die Persönlichkeitswerte jeder Versuchsperson zu einem 5-Vektor zusammenzufassen und die physiologischen Maße zu einem 4-Vektor Jede Versuchsperson liefert dann zwei Vektoren, darüber hinaus vielleicht auch noch weitere Variablen wie Alter, Geschlecht etc Die einfachste Situation ist die, dass man alle interessierenden Variablen zu einem Vektor zusammenfasst Sind p solche Variablen zu untersuchen, so ist das Ergebnis für jede Versuchsperson ein p -Vektor Als Beispiel seien an 5 Probanden je drei Intelligenzwerte erhoben worden, die Ergebnisse seien in der üblichen Weise in der folgenden Datenmatrix (Zeilen: Personen, Spalten: Variablen) zusammengefasst: Bezeichnet man diese Datenmatrix mit X, so erhält der Ergebnisvektor der i- ten Versuchsperson üblicherweise den Namen x i Dieser Ergebnisvektor ist die transponierte i-te Zeile der Datenmatrix (man rechnet ja nach Möglichkeit mit Spaltenvektoren, daher die Transposition) Hier ist beispielsweise das Ergebnis der dritten Versuchsperson der Vektor x 3 = (2, 3, 3) Es ist nicht ganz einfach, für solche Situationen eine in jeder Hinsicht befriedigende Notation zu finden Von der univariaten Statistik her würde es naheliegen, Variablen (hier im informellen Sinn) mit großen Buchstaben zu bezeichnen und auf diese Weise eine Variable X von einem möglichen Wert x oder dem Wert x i einer Versuchsperson zu unterscheiden Nun möchte man jedoch Variablen auch zu Vektoren von Variablen zusammenfassen, und hier müsste man folgerichtig für einen solchen Variablenvektor das Symbol X gebrauchen, das jedoch schon für die Datenmatrizen reserviert und ganz ungebräuchlich ist Man kann also nicht alle Wünsche an die Notation befriedigen, und daher werden im folgenden Text unterschiedliche Konventionen benutzt, wobei die leitenden

3 21 Grundbegriffe MS13 3 Gesichtspunkte die sind, dass einerseits die Sachverhalte möglichst deutlich werden sollen, und dass andererseits die Diskrepanz zu üblichen Notationen nicht zu groß werden darf Konkret bedeutet dies, dass zur Bezeichnung von Einzelvariablen gelegentlich große und gelegentlich kleine Buchstaben verwendet werden; werden solche Variablen jedoch zu Variablenvektoren zusammengefasst, so sollen nur kleine Buchstaben gebraucht werden Die Bedeutungskollision bei der Verwendung kleiner Buchstaben, dass damit nämlich einerseits Variablen oder Variablenvektoren und andererseits mögliche Werte solcher Variablen oder Variablenvektoren bezeichnet werden, wird sich immer durch die Beachtung des Kontexts auflösen lassen Statt von Variablenvektoren redet man dabei auch von p-dimensionalen Variablen In dem Beispiel sollen die drei Variablen hier den früheren Konventionen folgend mit X 1, X 2 und X 3 bezeichnet werden, der zugehörige Variablenvektor jedoch mit x; es gilt dann x = (X 1, X 2, X 3 ), und man kann dieses x dann auch eine dreidimensionale Variable nennen Die mögliche Kollision ist die, dass das Symbol x sowohl den Variablenvektor als auch einen möglichen Wert dieses Vektors bezeichnen kann Die wichtigsten deskriptiven Kennwerte in einer multivariaten Datensituation sind die Mittelwerte der Variablen und die Varianzen und Kovarianzen Die Mittelwerte fasst man dabei auch wieder zu einem Vektor zusammen, der den Namen x erhält, und die Varianzen und Kovarianzen stellt man zu der Kovarianzmatrix zusammen, die oft den Namen S bekommt In dem Beispiel ergibt sich dann x = 9 und S = Wenn man n Personen unabhängig aus einer Population gezogen hat und sich für die Varianzen und Kovarianzen in der Population interessiert, so erhält man dafür bekanntlich erwartungstreue Schätzer mit den korrigierten Stichprobenvarianzen und -kovarianzen, bei deren Bildung man nicht durch n, sondern durch n 1 teilt Die analog aufgebaute Matrix der korrigierten Varianzen und Kovarianzen soll hier korrigierte Stichprobenkovarianzmatrix heißen und mit S u abgekürzt werden Der Index u steht dabei für unbiased, die englische Bezeichnung für erwartungstreu Es gilt natürlich S u = (n/(n 1))S

4 21 Grundbegriffe MS13 4 Im Beispiel ergibt sich S u = Die Matrix ns = (n 1)S u, die gewissermaßen die Vorstufe zur Bildung der beiden Kovarianzmatrizen ist, bei der nur noch nicht durch n bzw n 1 dividiert wurde, trägt auch den Namen SSCP-Matrix, wobei SSCP für Sum of Squares and Cross Products steht Der Name weist auf die Rechnung hin, mit der man einen Eintrag dieser Matrix erhält Für das (i, j)-element bildet man zunächst für die zugehörigen Variablen i und j personenweise die Abweichungen vom jeweiligen Mittelwert Dann multipliziert man entsprechende (zur gleichen Person gehörende) Abweichungen miteinander ( Squares and Cross Products, Squares steht für den Fall i = j, in dem einfach zu quadrieren ist) und summiert schließlich auf Im Beispiel ist die SSCP-Matrix gleich Neben den Kovarianzmatrizen ist oft auch die analog aufgebaute Korrelationsmatrix interessant, bei der die Kovarianzen durch Korrelationen ersetzt sind, und die daher in der Diagonalen aus Einsen besteht Die Korrelationsmatrix des Beispiels ist Zentriermatrizen In diesem Abschnitt sollen verschiedene deskriptive Berechnungen mit Hilfe von Matrizenmultiplikationen dargestellt werden Diese Darstellungsmöglichkeit ist für theoretische Zwecke interessant und wichtig Für konkrete Berechnungen beispielsweise von Kovarianzmatrizen sind sie allerdings meist zu aufwendig, hier benutzt man besser die bekannten Formeln aus der Elementarstatistik Ein weiterer Zweck des Abschnitts ist das Einüben des Umgangs mit Matrizen

5 21 Grundbegriffe MS13 5 Zunächst soll eine univariate Situation betrachtet werden, in der an n Versuchspersonen eine Variable X erhoben worden ist Die Werte der Versuchspersonen fasst man dann oft in einem sogenannten Datenvektor zusammen, der hier x heißen soll Sind beispielsweise bei 5 Personen die Werte 10, 8, 7, 6 und 14 erhoben worden, so ist x = (10, 8, 7, 6, 14) Um Verwirrungen vorzubeugen sei hier darauf hingewiesen, dass Vektoren in unterschiedlichen Situationen unterschiedlich verwendet werden In univariaten Situationen wie hier fasst man mit Vektoren meist die Daten vieler Versuchspersonen in einer Variablen zusammen In multivariaten Situationen werden dagegen Vektoren oft auch verwendet, um die Werte einer Versuchsperson in mehreren erhobenen Variablen zusammenzufassen Als erstes soll der Mittelwert berechnet werden Bezeichnet man mit 1 n den Vektor aus n Einsen (den Index n lässt man meist weg, wenn keine Unklarheiten auftreten können), so kann der Mittelwert auch wie folgt dargestellt werden (links steht die allgemeine Form, rechts das konkrete Beispiel): x = 1 n 1 x x = (1, 1, 1, 1, 1) = 45 5 = 9 Eigentlich ist hier das Ergebnis keine Zahl, sondern eine (1 1)-Matrix Diese wird jedoch hier wie üblich mit ihrem einzigen Element identifiziert Beim Berechnen der Varianzen und Kovarianzen ist meist der erste Schritt der, dass man von allen Datenpunkten den Mittelwert abzieht Man spricht hier auch vom Zentrieren der Daten Die Differenzen fasst man dann wieder zu einem Vektor zusammen, den man den zentrierten Datenvektor nennt, und der hier mit ẋ bezeichnet werden soll Den zentrierten Vektor erhält man also, indem man von dem Datenvektor x den Vektor abzieht, dessen Komponenten alle gleich x sind Diesen Vektor kann man auch schreiben als 1( x), wobei ( x) die (1 1)-Matrix mit Element x bezeichnet

6 21 Grundbegriffe MS ẋ = x 1 ( x ) 8 1 ( ) ẋ = = 7 9 = Hier kann man nun für ( x) den gerade berechneten Ausdruck einsetzen und erhält nach einigen Umformungen ( ) 1 ẋ = x 1( x) = x 1 n 1 x = x 1 n 1 (1 x) = x 1 n (11 ) x = Ix 1 ( n (11 ) x = I 1 ) n (11 ) x = Z n x, wobei mit Z n (oder, wenn n aus dem Kontext zu erschließen ist, kurz Z) die Matrix I (1/n)11 abgekürzt wird, die auch Zentriermatrix heißt Für den Spezialfall n = 5 sieht diese Matrix so aus: Z 5 = = Man bemerkt dabei, dass 11 die (n n)-matrix aus lauter Einsen ist Im Gegensatz dazu ist das sogleich benötigte Produkt 1 1 die (1 1)-Matrix (n), die auch mit der Zahl n identifiziert wird Die Zentriermatrix Z hat die beiden wichtigen Eigenschaften wobei Z 2 für ZZ steht Einerseits ist nämlich Z = ( I 1 n 11 ) = I Z = Z und Z 2 = Z, ( 1 n 11 ) = I 1 n (11 ) = I 1 n 1 1 = I 1 n 11 = Z

7 21 Grundbegriffe MS13 7 und andererseits wegen Z 2 = (I 1n 11 ) (I 1n 11 ) = II I ( ) ( ) ( ) ( ) n 11 n 11 I + n 11 n 11 = I 1 n 11 1 n n 2 (11 )(11 ) = I 1 n 11 = Z 1 n 2 (11 )(11 ) = 1 n 2 1(1 1)1 = 1 n 2 1(n)1 = n n 2 1(1)1 = 1 n 11, womit beide Behauptungen gezeigt sind Die beiden genannten Eigenschaften haben auch Namen Erfüllt eine quadratische Matrix A die Bedingung A 2 = A, so nennt man A auch idempotent Gilt für ein quadratisches A die Bedingung A = A, so heißt A auch symmetrisch Die gerade gezeigte Behauptung über Z lässt sich also auch mit den Worten formulieren, dass Z symmetrisch und idempotent ist Die Klasse der symmetrischen und idempotenten Matrizen spielt eine sehr wichtige Rolle in der multivariaten Statistik es ist die Klasse der sogenannten orthogonalen Projektionen Die Zentriermatrix ist also ein Beispiel für eine orthogonale Projektion Viele Argumente lassen sich durch die folgende Beobachtung vereinfachen: Eine quadratische Matrix A ist genau dann symmetrisch und idempotent, wenn sie der Bedingung A A = A genügt Genügt nämlich A der Bedingung A A = A, so folgt einerseits durch einfache Anwendung der Rechenregeln andererseits damit sofort A = (A A) = A A = A A = A, A 2 = AA = A A = A,

8 21 Grundbegriffe MS13 8 insgesamt also Symmetrie und Idempotenz Ist andererseits A symmetrisch und idempotent, so gilt A A = AA = A, wobei die erste Gleichung aus der Symmetrie und die zweite aus der Idempotenz folgt Die behauptete Äquivalenz ist damit gezeigt Insbesondere kann man die oben gezeigte Idempotenz und Symmetrie von Z nun auch alternativ formulieren als Z Z = Z Für Z gilt außerdem Z1 = 0, da der Vektor 1, als konstante Datenreihe interpretiert, zu einem Mittelwert von 1 führt, von dem alle Komponenten die Abweichung 0 besitzen Man macht sich dies auch leicht formal klar: Z1 = (I 1 n 11 )1 = I1 1 n (11 )1 = 1 1 n 1(1 1) = 1 n n 1 = 0 Die Zentriermatrix kann nun dazu benutzt werden, die Bildung von Varianzen und Kovarianzen in der Matrizensprache zu beschreiben Da die Varianz ein Spezialfall der Kovarianz ist, soll gleich die Kovarianz behandelt werden Dazu seien zwei Variablen X und Y an denselben n Versuchspersonen erhoben worden Die Ergebnisse werden wieder in zwei Datenvektoren x und y zusammengefasst, die dann insbesondere gleiche Länge haben Die Kovarianz Kov X,Y von X und Y berechnet sich dann bekanntlich nach der Formel Kov X,Y = 1 n n (x i x)(y i ȳ) i=1 Hier werden zunächst die Abweichungen vom jeweiligen Mittelwert miteinander multipliziert und dann die Produkte aufsummiert und durch n geteilt Die Abweichungen vom jeweiligen Mittelwert stehen jedoch auch in den zentrierten Datenvektoren ẋ und ẏ, so dass man die Kovarianz auch als Kov X,Y = 1 nẋ ẏ

9 21 Grundbegriffe MS13 9 schreiben kann Sind beispielsweise die Werte für die Variable X wie oben 10, 8, 7, 6, 14 und die von Y in der gleichen Reihenfolge 4, 6, 5, 3, 7, so gilt x = 7, y = 5, ẋ = 2, ẏ = und 1 5ẋ 1 ẏ = 1 ( ) = 1 14 = 28, was in der Tat gerade die Kovarianz von X und Y ist Die Operation des Zentrierens kann man auch mit der Zentriermatrix ausdrücken, es gilt daher ẋ ẏ = (Zx) (Zy) = x Z Zy = x Zy wegen der Eigenschaften der Zentriermatrix Insgesamt erhält man die Darstellung Kov X,Y = 1 n x Zy Ein Spezialfall ist die Varianz von X, die man auch als (1/n)x Zx schreiben kann Nun soll der Fall betrachtet werden, dass bei den untersuchten n Personen nicht nur 2, sondern allgemein p Variablen erhoben worden sind Die Ergebnisse seien in einer Datenmatrix X zusammengefasst, die dann n Zeilen und p Spalten besitzt Man überlegt sich leicht, dass man beispielsweise den Mittelwertvektor in der folgenden Weise schreiben kann: x = 1 n X 1 n Das Produkt X 1 ist nämlich gerade die Summe der (als Vektoren aufgefassten) Spalten von X, also die Summe der Ergebnisvektoren aller Versuchspersonen, und mit Division durch n erhält man daraus komponentenweise die Mittelwerte Will man alle Spalten einer Datenmatrix zentrieren, so erhält man das Ergebnis, das hier naheliegenderweise zentrierte Datenmatrix genannt und mit Ẋ bezeichnet werden soll, auch mit der Formel Ẋ = ZX,

10 21 Grundbegriffe MS13 10 wie man sofort sieht, wenn man sich vergegenwärtigt, dass die Spalten von ZX gerade die Produkte von Z mit den Spalten von X sind Die SSCP-Matrix kann man nun schreiben als Ẋ Ẋ Man erhält nämlich das (i, j)-element der Matrix Ẋ Ẋ als Produkt der i-ten Zeile von Ẋ und der j-ten Spalte von Ẋ, also als Produkt der zentrierten Datenreihen der i-ten und der j-ten Variable Dieses Produkt ist aber gerade das (i, j)-element der SSCP-Matrix, die daher mit Ẋ Ẋ in allen Elementen übereinstimmt, woraus die Gleichheit folgt Die Kovarianzmatrix S und die korrigierte Stichprobenkovarianzmatrix S u sind dann S = 1 nẋ Ẋ und S u = 1 n 1Ẋ Ẋ Die SSCP-Matrix kann man nun auch mit Hilfe der Zentriermatrix und der Originaldatenmatrix als X ZX schreiben: Ẋ Ẋ = (ZX) ZX = X Z ZX = X ZX Da man die beiden Versionen der Kovarianzmatrix dadurch erhält, dass man die SSCP-Matrix durch n bzw n 1 teilt, gilt entsprechend S = 1 n X ZX und S u = 1 n 1 X ZX Wegen (Ẋ Ẋ) = Ẋ Ẋ = Ẋ Ẋ erhält man übrigens auch sofort die ohnehin bekannte Tatsache, dass Kovarianzmatrizen und SSCP-Matrizen symmetrisch sind Abschließend sei noch einmal darauf hingewiesen, dass die angegebenen Matrizenformeln eine für theoretische Zwecke elegante Darstellung geben, dass man beim Berechnen von Varianzen und Kovarianzen in den meisten Fällen besser nach den aus der Elementarstatistik bekannten Formeln vorgeht Affine Abbildungen In der multivariaten Statistik spielen die sogenannten affinen Abbildungen eine ganz zentrale Rolle Sie sind Verallgemeinerungen der Abbildungen, die man in der univariaten Statistik oft lineare Transformationen nennt, auf die multivariate Situation

11 21 Grundbegriffe MS13 11 Eine affine Abbildung ist eine Abbildung f von einem R p in einen R q, die die Form f(x) = Ax + b besitzt Dabei ist A eine (q p)-matrix und b ein q-vektor Die Matrix A heißt auch der lineare Anteil der affinen Abbildung und der Vektor b auch der Verschiebungsvektor Als Beispiel sei eine Situation betrachtet, in der man zwei Vordiplomsnoten mit Hilfe von drei Schulnoten in der aus der multiplen Regression bekannten Weise vorhersagen möchte Diesen Fall kann man multivariat so behandeln, dass man zunächst die drei Schulnoten zu einem 3-Vektor x und die beiden vorhergesagten Vordiplomsnoten zu einem 2-Vektor ŷ zusammenfasst Die Vorhersagegleichungen kann man dann in die Form ŷ = Ax + b mit einer geeigneten (2 3)-Matrix A und einem 2-Vektor b bringen, also auf die Form einer affinen Abbildung Schreibt man nämlich die Gleichung ŷ = Ax + b aus, so erhält man ) ( ) 1 ( ) (ŷ1 a11 a = 12 a 13 x x 2 b1 + ŷ 2 a 21 a 22 a 23 b 2 x 3 ( ) a11 x = 1 + a 12 x 2 + a 13 x 3 + b 1 a 21 x 1 + a 22 x 2 + a 23 x 3 + b 2, was man in der Tat als zwei übereinandergeschriebene regressionsartige Gleichungen lesen kann, in denen beispielsweise die erste Vordiplomsnote durch die drei Schulnoten mit den Regressionsgewichten a 11, a 12 und a 13 und der additiven Konstante b 1 vorhergesagt wird, also durch Koeffizienten, die in der ersten Zeile von A zusammengefasst sind und durch die erste Komponente von b Entsprechend enthält die zweite Zeile von A die Koeffizienten der zweiten Regressionsgleichung und die zweite Komponente von b die zugehörige additive Konstante Eine Bemerkung zur Notation: Die Gleichung ŷ = Ax+b kann wegen der Ambiguität der Verwendung der Symbole auf zwei Arten gedeutet werden Einerseits kann man ŷ und x als Bezeichnung von Variablenvektoren lesen; dann gibt die Gleichung symbolisch an, wie der Variablenvektor ŷ aus dem Variablenvektor x hervorgeht Andererseits kann man ŷ und x als Bezeichnungen von möglichen Werten lesen; dann sagt die Gleichung, wie man für einen Wert x den zugehörigen Wert ŷ berechnet Da hier beide Interpretationen denselben Grundgedanken ausdrücken, ist diese Uneindeutigkeit nicht nur harmlos, sondern geradezu nützlich

12 21 Grundbegriffe MS13 12 Ein Spezialfall einer affinen Transformation einer p-dimensionalen Variablen x, die aus den Einzelvariablen X 1,, X p besteht, ist der, in dem q = 1 gilt, in dem also nur eine neue Variable Y gebildet wird Die Matrix A besteht dann aus nur einer Zeile und anstelle eines Vektors b hat man eine Zahl b Hier zieht man es vor, die Koeffizienten in der Zeile der Matrix A zu einem Spaltenvektor zusammenzufassen, der hier a heißen möge es gilt dann also A = a Die entstehende Gleichung Y = a x+b kann man ausschreiben zu Y = a j X j +b, und es folgt, dass dieser Spezialfall gerade das ist, was im Univariaten als eine Linearkombination der Variablen X j bezeichnet wurde Das Ergebnis dieser Überlegungen ist einerseits, dass man Linearkombinationen Y = a j X j +b von Variablen X j auch als Y = a x+b schreiben kann, wobei man die Koeffizienten a j zu einem Spaltenvektor a zusammenfasst, und andererseits, dass solche Linearkombinationen Spezialfälle von affinen Abbildungen sind, wobei die Matrix A aus der allgemeinen Definition durch a ersetzt ist und der Vektor b durch b Will man beipielsweise nur eine Vordiplomsnote mit Hilfe von drei Schulnoten vorhersagen, so fasst man die Regressionsgewichte in einem 3-Vektor a zusammen und schreibt die Vorhersagegleichung ŷ = 3 a j x j + b j=1 auch kurz als ŷ = a x + b ; der lineare Anteil der zugehörigen affinen Abbildung ist hier also a, das dann als Matrix mit einer Zeile und drei Spalten betrachtet wird Ein wichtiges Beispiel einer affinen Transformation ist diejenige Transformation, bei der man alle Variablen z-transformiert, wie nun gezeigt werden soll Zunächst ist es sinnvoll, einige Bezeichnungen einzuführen Ist x der betrachtete p-variablenvektor, so soll mit V x die Diagonalmatrix mit den Varianzen der Komponenten von x bezeichnet werden Mit Vx 1/2 und Vx 1/2 sollen entsprechend die Diagonalmatrizen mit den Streuungen und den Kehrwerten der Streuungen benannt werden (wobei bei der letzten vorauszusetzen ist, dass alle Streuungen von 0 verschieden sind)

13 21 Grundbegriffe MS13 13 Ist zum Beispiel S = die Kovarianzmatrix einer dreidimensionalen Variable x, so gilt /2 0 0 V x = , Vx 1/2 = und Vx 1/2 = 0 1/ /4 Die Verwendung der Exponenten 1/2 und 1/2 soll andeuten, dass bei V x aus den Diagonalelementen die Wurzeln bzw die Kehrwerte der Wurzeln gebildet werden sollen Man kann übrigens für gewisse Matrizen das Potenzieren auch mit nicht ganzzahligen Exponenten definieren, und die hier verwendeten Bezeichnungen lassen sich dann in diesem Sinne interpretieren Oft rechnet man statt mit Varianzen und Kovarianzen mit den entspechenden korrigierten Stichprobenvarianzen und -kovarianzen, also statt mit S mit S u Auch dann ist die Einführung entsprechender Diagonalmatrizen sinnvoll, für die eigentlich eigene Bezeichnungen zu wählen wären Da man jedoch sinnvollerweise nie die beiden Versionen von Varianzen und Kovarianzen in Rechnungen mischt, ist dies nicht nötig, da das jeweils Gemeinte aus dem Kontext deutlich werden sollte Da die z-transformation darin besteht, von den Daten den Mittelwert abzuziehen und das Ergebnis durch die Streuung zu teilen, erkennt man sofort, dass bei einem Datenvektor x diese komponentenweise durchgeführten Operationen zu dem Ergebnis z = Vx 1/2 (x x) = Vx 1/2 x Vx 1/2 x führen Die z-transformation aller Komponenten von x lässt sich also durch die affine Abbildung mit linearem Anteil Vx 1/2 und Verschiebung Vx 1/2 x beschreiben Kennwerte bei affinen Transformationen In diesem Abschnitt soll untersucht werden, wie sich Mittelwertsvektor und Kovarianzmatrix verhalten, wenn man Daten einer affinen Abbildung unterwirft, oder sie, wie man auch sagt, affin transformiert An dieser Stelle ist zu bemerken, dass die üblichen Terminologien im Univariaten und im Multivariaten leider nicht harmonieren: Eine lineare Transformation

14 21 Grundbegriffe MS13 14 im Univariaten heißt multivariat betrachtet nicht mehr linear, sondern affin Die multivariate Bezeichnung ist deshalb sinnvoll, weil der Begriff der linearen Abbildung in der Linearen Algebra etwas anders besetzt ist Allerdings ist hier die Terminologie der multivariaten Statistik in der Literatur auch nicht einheitlich Es soll nun also eine Situation betrachtet werden, in der an n Versuchspersonen Daten einer p-dimensionalen Variable x erhoben worden sind, die in einer (n p)- Datenmatrix X zusammengefasst sind Die p-dimensionale Variable x soll affin zu einer neuen q-dimensionalen Variablen y = Ax+b transformiert werden, wobei A eine (q p)-matrix ist und b ein q-vektor Gefragt ist nach dem Mittelwertvektor und der Kovarianzmatrix von y Bei der Transformation werden also für alle Versuchspersonen deren Datenvektoren x in neue Datenvektoren y = Ax + b umgewandelt; nach dieser Umformung gehören dann zu jeder Versuchsperson nicht mehr p, sondern q Werte Die transformierten Daten sollen wieder in einer neuen Datenmatrix Y zusammengefasst werden, die dann eine (n q)-matrix sein muss Es soll sogleich gezeigt werden, dass man die Matrix Y als erhält Y = XA + 1 n b, Zuvor ein Beispiel zur Veranschaulichung: In dem Beispiel mit den Schulnoten und den vorhergesagten Vordiplomsnoten könnten die Schulnoten von 20 Studierenden als (20 3)-Matrix vorliegen Wendet man dann die Vorhersage auf jede einzelne Person an, so erhält man für alle 20 Personen je zwei Vorhersagewerte für die beiden Vordiplomsnoten, die man in einer neuen (20 2)-Datenmatrix zusammenfassen kann Zur Begründung der Formel für Y transponiert man zunächst die Matrix X, so dass die Datenvektoren der einzelnen Personen nun die Spalten bilden Die Matrix AX ist dann spaltenweise das Produkt von A mit den Datenvektoren der Personen; die Spaltenvektoren sind also bis auf eine Addition des Vektors b bereits die gesuchten transformierten Datenvektoren Die Addition von b zu allen Spalten bewirkt man jedoch, indem man zur Matrix AX die Matrix addiert, die aus der n mal wiederholten Spalte b besteht Die zu addierende Matrix kann man als b1 n schreiben (man interpretiere die beiden Faktoren als Matrizen und wende b auf die Spalten von 1 n an) Als Ergebnis der Addition erhält man so spaltenweise die neuen Datenvektoren für die Versuchspersonen, also die Matrix

15 21 Grundbegriffe MS13 15 Y Aus folgt aber durch Transponieren Y = AX + b1 Y = (AX + b1 ) = (AX ) + (b1 ) = X A + 1 b = XA + 1b, wobei 1 natürlich für 1 n steht Nachdem so die Matrix Y der transformierten Daten bestimmt ist, kann nach dem Mittelwertvektor und der Kovarianzmatrix dieser Daten gefragt werden Eine mögliche Lösung dieser Frage erhält man mit Hilfe der Zentriermatrizen Da die Datenmatrix Y der transformierten Daten gleich XA + 1b ist, errechnet sich der Mittelwertvektor ȳ als ȳ = 1 n Y 1 = 1 n (XA + 1b ) 1 = 1 n A X n b 1 1 ( ) 1 = A n X b(n) = A x + b n Der Mittelwertvektor wird also genauso transformiert wie der Ergebnisvektor jeder einzelnen Versuchsperson Zur Vorbereitung der Formeln für die Kovarianzmatrix gilt zunächst wegen ZX = Ẋ und Z1 = 0 Ẏ = ZY = Z(XA + 1b ) = ZXA + Z1b = ẊA Nun kann die Kovarianzmatrix der transformierten Daten bestimmt werden Zur Unterscheidung soll hier die Kovarianzmatrix der Originaldaten mit S x und die der transformierten Daten mit S y bezeichnet werden Es gilt dann S y = nẏ 1 Ẏ = 1 n (ẊA ) (ẊA ) = 1 ( ) 1 n A Ẋ ẊA = A nẋ Ẋ A = AS x A Man überzeugt sich sofort, dass eine analoge Formel auch für die SSCP-Matrix und die korrigierte Stichprobenkovarianzmatrix gilt Das Ergebnis soll wegen seiner zentralen Bedeutung für alle multivariaten Rechnungen noch einmal ausführlich festgehalten werden:

16 21 Grundbegriffe MS13 16 Feststellung 1 Sind x und S x Mittelwertsvektor und Kovarianzmatrix einer Datenmatrix, und werden die Daten aller Versuchspersonen der affinen Transformation y = Ax + b unterworfen, so gelten für den Mittelwertvektor ȳ und die Kovarianzmatrix S y der transformierten Daten die Formeln ȳ = A x + b und S y = AS x A Da die Korrelationsmatrix gleichzeitig die Kovarianzmatrix der komponentenweise z-transformierten Daten ist, ergibt sich aus der Formulierung der z-transformationen mit Hilfe der affinen Abbildung Vx 1/2 x Vx 1/2 x unmittelbar die Formel Vx 1/2 S x Vx 1/2 für die Korrelationsmatrix von x; hierbei ist noch zu berücksichtigen, dass wegen der Symmetrie von Vx 1/2 das Transponieren des letzten Faktors unterbleiben kann Es soll nun noch der Sonderfall behandelt werden, dass man die Kovarianz von zwei Linearkombinationen (im Sinne der univariaten Statistik) der Daten einer Datenmatrix X mit Kovarianzmatrix S berechnen will Sind also neue Variablen U und V durch die Vorschrift U = a x + b und V = c x + d definiert, so gilt für die zentrierten Datenvektoren der neuen Variablen u = Ẋa und v = Ẋc (man beachte, dass die linearen Anteile der Transformationen hier durch die transponierten Koeffizientenvektoren gegeben sind) Die Kovarianz bestimmt sich dann zu Kov U,V = 1 n u v = 1 n (Ẋa) (Ẋc) = 1 ( ) 1 n a Ẋ Ẋc = a nẋ Ẋ c = a Sc Feststellung 2 Ist S die Kovarianzmatrix einer Datenmatrix X und sind die Variablen U = a x+b und V = c x+d zwei Linerarkombinationen der gegebenen Variablen, so gilt Kov U,V = a Sc Als Spezialfall kann man hier für V auch U einsetzen, und erhält für die Varianz S 2 U der Linearkombination U = a x + b die Formel S 2 U = a Sa Der Mittelwert von U ergibt sich leicht zu a x + b Man hat also

17 21 Grundbegriffe MS13 17 Feststellung 3 Ist S die Kovarianzmatrix einer Datenmatrix X und ist U = a x + b eine Linearkombination der gegebenen Variablen, so gilt ū = a x + b und S 2 U = a Sa Die Teilaussage über die Varianz hat eine wichtige Konsequenz: Da man für a jeden beliebigen Vektor einsetzen kann und mit der Formel dann die Varianz der durch a gegebenen Linearkombination erhält, und da andererseits Varianzen nicht negativ sein können, folgt, dass für eine Kovarianzmatrix S der Ausdruck a Sa für alle Vektoren a nichtnegativ ist Für Matrizen mit dieser Eigenschaft gibt es eine besondere Bezeichnung: Eine symmetrische Matrix A mit der Eigenschaft, dass für alle Vektoren x die Beziehung x Ax 0 gilt, heißt auch positiv semidefinit Die positiv semidefiniten Matrizen sind in gewisser Weise Verallgemeinerungen der nichtnegativen Zahlen im Bereich der Matrizen Da Kovarianzmatrizen symmetrisch sind, folgt die Feststellung 4 Kovarianzmatrizen sind symmetrisch und positiv semidefinit Hier schließen sich interessante Fragen an Zunächst kann man fragen, ob jede positiv semidefinite Matrix eine mögliche Kovarianzmatrix ist, oder ob Kovarianzmatrizen noch weitere einschränkende Eigenschaften haben (man stelle sich jemanden vor, der eine Aufgabe entwirft, in der eine Kovarianzmatrix vorkommt genügt es hier, sich irgendeine positiv semidefinite Matrix auszudenken, oder könnte es sein, dass diese Matrix aus noch nicht bekannten Gründen doch keine Kovarianzmatrix sein kann?) Es wird sich herausstellen, dass tatsächlich jede positiv semidefinite Matrix eine mögliche Kovarianzmatrix ist, genauso, wie jede nicht negative Zahl eine mögliche Varianz ist Nahe verwandt mit der ersten Frage ist dann das Problem, wie man bei einer gegebenen Matrix feststellen kann, ob sie positiv semidefinit ist Die Antwort auf die erste Frage soll schon hier angedeutet werden Es wird sich später zeigen, dass man jede positiv semidefinite (p p)-matrix K schreiben kann als K = AA mit einer geeigneten (p p)-matrix A Wenn es dann in einer untersuchten Situation möglich ist, p unkorrelierte Variablen zu finden,

18 21 Grundbegriffe MS13 18 die die Varianz 1 besitzen, so haben diese Variablen als Kovarianzmatrix die Einheitsmatrix I Fasst man diese Variablen zu einem Vektor x zusammen und definiert man y als affine Transformation y = Ax, so ist die Kovarianzmatrix von y gerade AIA = AA = K Dies ergibt die Feststellung 5 Gibt es in einer Situation p unkorrelierte Variablen der Varianz 1, so ist jede positiv semidefinite (p p)-matrix K eine mögliche Kovarianzmatrix Die Voraussetzung, dass es p unkorrelierte Variablen der Varianz 1 gibt (was nicht heißt, dass sie konkret vorliegen müssen, sondern nur, dass man derartige Variablen finden kann), dürfte in den meisten Situationen harmlos sein, so dass die Begriffe positiv semidefinite Matrix und mögliche Kovarianzmatrix im Wesentlichen zusammenfallen Man kann sie also (wenn man an der Voraussetzung nicht zweifelt) auch synonym gebrauchen, was in Zukunft geschehen soll Gesamtvarianz In einer Situation mit p Variablen gibt die Kovarianzmatrix eine sehr gute Beschreibung der Variabilität der Daten Sie enthält nicht nur die Einzelvarianzen in der Diagonale, sondern auch Informationen über den linearen Zusammenhang der Variablen Ein Nachteil der Kovarianzmatrix ist, dass sie besonders bei großem p nicht leicht überschaubar ist Hier kann der Wunsch entstehen, die Information über die Variabilität in einer einzigen Zahl zusammenzufassen natürlich unter Informationsverlust Eine erste naheliegende Möglichkeit, eine solche Zahl zu definieren, ist es, einfach die Summe der Einzelvarianzen zu bilden Diese Summe soll auch die Gesamtvarianz der gegebenen Variablen genannt werden Da die Varianzen der einzelnen Variablen gerade die Diagonale der Kovarianzmatrix bilden, ist die Gesamtvarianz gleich der Spur der Kovarianzmatrix In dem Beispiel vom Anfang war die Kovarianzmatrix gleich S = , so dass sich die Gesamtvarianz der drei betrachteten Variablen zu = 36 errechnet

19 21 Grundbegriffe MS13 19 Die Eigenschaften der so definierten Gesamtvarianz werden später noch genauer untersucht werden Es ist jedoch klar, dass eine solche Definition in unterschiedlichen Situationen unterschiedlich sinnvoll sein wird Wenn die Variablen inhaltlich viel miteinander zu tun haben und die Skalen, auf denen sie gemessen werden, miteinander harmonieren, so ist das Konzept der Gesamtvarianz sicher angemessener, als wenn man es mit heterogenen Variablen zu tun hat, oder mit solchen, deren Skalen nicht in einem für diese Zwecke geeigneten Zusammenhang stehen Die Problematik wird vielleicht deutlicher, wenn man sich vor Augen führt, dass die Änderung einer der Skalen durch eine Transformation, die die Werte lediglich mit einer großen Zahl multipliziert, dazu führt, dass diese Variable in der Gesamtvarianz nach dieser Transformation ein erheblich größeres Gewicht erhält als vorher und womöglich schließlich die Gesamtvarianz völlig dominiert, obwohl die Transformation an sich so harmlos ist wie die Umrechnung von Kilometern in Millimeter Zufallsvektoren und ihre Kennwerte Sind p eindimensionale Zufallsvariablen x i auf demselben Wahrscheinlichkeitsraum definiert, so kann man sie auch zu einem Zufallsvektor x zusammenfassen, dessen Komponenten dann die einzelnen Variablen sind Man schreibt auch x = x 1 x 2 x p Zur Notation: Es wäre besser, wenn man Zufallsvariablen im Gegensatz zu konkreten Messwerten mit Großbuchstaben bezeichnen würde Dies geht hier jedoch deshalb nicht, weil die Großbuchstaben schon zur Bezeichnung von Matrizen verbraucht sind Es ist daher üblich, Zufallsvariable und konkrete Messwerte mit den gleichen Symbolen zu bezeichnen, wobei sich aus dem Kontext ergibt, was jeweils gemeint ist Es folgen zwei typische Beispiele: Immer wenn eine Versuchsperson (allgemeiner eine Untersuchungseinheit) in einem noch durchzuführenden Experiment mehrere Werte (zb Werte verschiedener physiologischer Variablen) liefern soll, kann man die Zufallsvariablen, die die Einzelergebnisse modellieren, zu einem Zufallsvektor zusammenfassen

20 21 Grundbegriffe MS13 20 Ist in einer Datenerhebung eine Person durch ihre Werte in mehreren Variablen gekennzeichnet (zb Persönlichkeitsvariablen), so fasst man diese Werte auch zu einem Zufallsvektor zusammen (beachte: hier sind nicht die konkreten Werte einer konkreten Person gemeint, sondern die Werte, die eine noch zu ziehende Person liefern wird; der Wahrscheinlichkeitsraum wird dann meist die Population sein, aus der gezogen wird, und das W-Maß wird ein Modell für die Ziehung sein) Sofern nichts anderes gesagt wird, soll von Zufallsvariablen generell vorausgesetzt werden, dass sie einen Erwartungswert und eine Varianz besitzen Als Erwartungswert oder Erwartungswertvektor E(x) des Zufallsvektors x bezeichnet man den Vektor, der als Komponenten die Erwartungswerte der x i besitzt Man bildet sozusagen den Erwartungswert komponentenweise Als Symbole für Erwartungswertvektoren werden meist fette griechische Buchstaben wie µ mit Komponenten µ i verwendet Man schreibt also E(x) = E( x 1 x 2 x p ) = E(x 1 ) E(x 2 ) E(x p ) oder E(x) = µ = µ 1 µ 2 µ p Als Kovarianzmatrix V(x) eines p dimensionalen Zufallsvektors x bezeichnet man diejenige (p p)-matrix, die als (i, j)-element die Kovarianz von x i und x j enthält: V(x) = Kov(x 1, x 1 ) Kov(x 1, x 2 ) Kov(x 1, x p ) Kov(x 2, x 1 ) Kov(x 2, x 2 ) Kov(x 2, x p ) Kov(x p, x 1 ) Kov(x p, x 2 ) Kov(x p, x p ) Wenn x ein Zufallsvektor mit mehr als einer Komponente ist, bezeichnet V(x) also eine ganze Matrix, und nicht etwa nur eine Zahl Nur im Spezialfall einer eindimensionalen Variable x ist V(x) eine Zahl, nämlich die Varianz von x; hier identifiziert man (1 1)-Matrizen wie üblich mit ihrem einzigen Element Als Abkürzung werden oft Symbole wie Σ (mit Elementen σ ij ) verwendet in diesem Zusammenhang ist dann σ ii die Varianz und nicht etwa die Streuung der i-ten Komponente

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

Linearer Zusammenhang von Datenreihen

Linearer Zusammenhang von Datenreihen Linearer Zusammenhang von Datenreihen Vielen Problemen liegen (möglicherweise) lineare Zusammenhänge zugrunde: Mein Internetanbieter verlangt eine Grundgebühr und rechnet minutenweise ab Ich bestelle ein

Mehr

Die Verteilung dieser Werte y ist eine Normalverteilung. hängt nicht von u ab

Die Verteilung dieser Werte y ist eine Normalverteilung. hängt nicht von u ab Einfache lineare Regression als Beispiel für das ALM ALM : Allgemeines Lineares Modell Y : Kriterium U : Prädiktor Modell : Erwartungswert von Y ist lineare Funktion von U Genauer : Für festes u gilt für

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

3.2 Bivariate Verteilungen

3.2 Bivariate Verteilungen 3.2 Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt i, i = 1,..., n, werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare/Kombinationen von

Mehr

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten Kapitel 3 Erste Schritte der Datenanalyse 3.1 Einlesen und Überprüfen der Daten Nachdem die Daten erfasst worden sind, etwa mit Hilfe eines Fragebogens, ist die nächste Frage, wie ich sie in den Rechner

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Leonhard Euler 1 Wann immer in den Anfängen der Analysis die Potenzen des Binoms entwickelt

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

GF(2 2 ) Beispiel eines Erweiterungskörpers (1) GF(2 2 ) Beispiel eines Erweiterungskörpers (1) Im Kapitel 2.1 wurde bereits gezeigt, dass die endliche Zahlenmenge {0, 1, 2, 3} q = 4 nicht die Eigenschaften eines Galoisfeldes GF(4) erfüllt. Vielmehr

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Microsoft Excel 2010 Matrix-Funktionen

Microsoft Excel 2010 Matrix-Funktionen Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft Excel 2010 Matrix-Funktionen Matrix-Funktionen in Excel 2010 Seite 1 von 7 Inhaltsverzeichnis Einleitung... 2 Integrierte Matrixfunktionen...

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Die quadratische Gleichung und die quadratische Funktion

Die quadratische Gleichung und die quadratische Funktion Die quadratische Gleichung und die quadratische Funktion 1. Lösen einer quadratischen Gleichung Quadratische Gleichungen heißen alle Gleichungen der Form a x x c = 0, woei a,, c als Parameter elieige reelle

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Stefan Lucks Diskrete Strukturen (WS 2009/10) 57 2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Uhr: Stunden mod 24, Minuten mod 60, Sekunden mod 60,... Rechnerarithmetik: mod 2 w, w {8, 16, 32,

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 für Aufgabenpool 1 Analysis

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung Die Messung Skalenniveaus 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Grundbegriffe Statistische Einheit,

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 Inhaltsverzeichnis Vorbemerkungen

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf Kochen mit Jordan Vorbereitungen Man nehme eine Matrix A R n n und bestimme ihr charakteristisches Polynom p(λ) = (λ c ) r (λ c j ) rj C[X] Dabei gilt: algebraische Vielfachheit r j ˆ= Länge des Jordanblocks

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Ausgabe: 2005-02-21 Abgabe: 2005-02-21 Technische Informatik - Eine

Mehr

Mathematischer Vorkurs für Physiker WS 2009/10

Mathematischer Vorkurs für Physiker WS 2009/10 TU München Prof. Dr. P. Vogl, Dr. S. Schlicht Mathematischer Vorkurs für Physiker WS 2009/10 Vorlesung 1, Montag vormittag Vektoralgebra Ein Vektor lässt sich geometrisch als eine gerichtete Strecke darstellen,

Mehr

Fortsetzung zu Binswanger2 Überlegungen zu Geld, Kredit und Wirtschaftswachstum

Fortsetzung zu Binswanger2 Überlegungen zu Geld, Kredit und Wirtschaftswachstum Fortsetzung zu Binswanger2 Überlegungen zu Geld, Kredit und Wirtschaftswachstum Peter Fleissner (Version 05.02.2008) Bisher wurde die Rechung nur mit zirkulierendem konstantem Kapital durchgeführt. Die

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18 3. Deskriptive Statistik Ziel der deskriptiven (beschreibenden) Statistik (explorativen Datenanalyse) ist die übersichtliche Darstellung der wesentlichen in den erhobenen Daten enthaltene Informationen

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Sprechen wir über Zahlen (Karl-Heinz Wolff)

Sprechen wir über Zahlen (Karl-Heinz Wolff) Sprechen wir über Zahlen (Karl-Heinz Wolff) Die Überschrift ist insoweit irreführend, als der Autor ja schreibt und nicht mit dem Leser spricht. Was Mathematik im allgemeinen und Zahlen im besonderen betrifft,

Mehr

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen.

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@stat.uni-muenchen. Matrixalgebra mit einer Einführung in lineare Modelle Stefan Lang Institut für Statistik Ludwigstrasse 33 email: lang@statuni-muenchende 25 August 24 Vielen Dank an Christiane Belitz, Manuela Hummel und

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen.

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie und, oder, nicht, wenn... dann zwischen atomaren und komplexen Sätzen. I. Aussagenlogik 2.1 Syntax Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen. Sätze selbst sind entweder wahr oder falsch. Ansonsten

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

3 Der Hamming-Code. Hamming-Codes

3 Der Hamming-Code. Hamming-Codes 3 Der Hamming-Code Hamming-Codes Ein binärer Code C heißt ein Hamming-Code Ha s, wenn seine Kontrollmatrix H als Spalten alle Elemente in Z 2 s je einmal hat. Die Parameter eines n-k-hamming-codes sind:

Mehr

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5 Personal Computer in Betrieb nehmen 1/6 Weltweit setzen die Menschen alltäglich das Zehnersystem für Zählen und Rechnen ein. Die ursprüngliche Orientierung stammt vom Zählen mit unseren 10 Fingern. Für

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Mathematik-Dossier. Die lineare Funktion

Mathematik-Dossier. Die lineare Funktion Name: Mathematik-Dossier Die lineare Funktion Inhalt: Lineare Funktion Lösen von Gleichungssystemen und schneiden von Geraden Verwendung: Dieses Dossier dient der Repetition und Festigung innerhalb der

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011 Graphen: Einführung Vorlesung Mathematische Strukturen Zum Ende der Vorlesung beschäftigen wir uns mit Graphen. Graphen sind netzartige Strukturen, bestehend aus Knoten und Kanten. Sommersemester 20 Prof.

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Analyse bivariater Kontingenztafeln

Analyse bivariater Kontingenztafeln Analyse bivariater Kontingenztafeln Werden zwei kategoriale Merkmale mit nicht zu vielen möglichen Ausprägungen gemeinsam analysiert, so kommen zur Beschreibung der gemeinsamen Verteilung im allgemeinen

Mehr

Grundbegriffe (1) Grundbegriffe (2)

Grundbegriffe (1) Grundbegriffe (2) Grundbegriffe (1) S.1 Äquivalenzklasse Unter einer Äquivalenzklasse versteht man eine Klasse von Objekten, die man hinsichtlich bestimmter Merkmalsausprägungen als gleich (äquivalent) betrachtet. (z.b.

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Vorlesung. Komplexe Zahlen

Vorlesung. Komplexe Zahlen Vorlesung Komplexe Zahlen Motivation Am Anfang der Entwicklung der komplexen Zahlen stand ein algebraisches Problem: die Bestimmung der Lösung der Gleichung x 2 + 1 = 0. 1 Mit der Lösung dieses Problems

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

2 Darstellung von Zahlen und Zeichen

2 Darstellung von Zahlen und Zeichen 2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f

Mehr

2.1 Codes: einige Grundbegriffe

2.1 Codes: einige Grundbegriffe Gitter und Codes c Rudolf Scharlau 2. Mai 2009 51 2.1 Codes: einige Grundbegriffe Wir stellen die wichtigsten Grundbegriffe für Codes über dem Alphabet F q, also über einem endlichen Körper mit q Elementen

Mehr

DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2)

DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2) DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2) Aufgabe 3 Bankkonto Schreiben Sie eine Klasse, die ein Bankkonto realisiert. Attribute für das Bankkonto sind der Name und Vorname des Kontoinhabers,

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Teilbarkeit von natürlichen Zahlen

Teilbarkeit von natürlichen Zahlen Teilbarkeit von natürlichen Zahlen Teilbarkeitsregeln: Die Teilbarkeitsregeln beruhen alle darauf, dass man von einer Zahl einen grossen Teil wegschneiden kann, von dem man weiss, dass er sicher durch

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Einführung in MATLAB

Einführung in MATLAB Kapitel 4 Einführung in MATLAB 41 Allgemeines MATLAB ist eine kommerzielle mathematische Software zur Lösung mathematischer Probleme und zur graphischen Darstellung der Ergebnisse Die Verfahren in MATLAB

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick

Mehr

Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2

Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2 - 5 - Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2 Frau X hat ein Angebot der Bank: Sie würde 5000 Euro erhalten und müsste

Mehr

SO(2) und SO(3) Martin Schlederer. 06. Dezember 2012

SO(2) und SO(3) Martin Schlederer. 06. Dezember 2012 SO(2) und SO(3) Martin Schlederer 06. Dezember 2012 Inhaltsverzeichnis 1 Motivation 2 2 Wiederholung 2 2.1 Spezielle Orthogonale Gruppe SO(n)..................... 2 2.2 Erzeuger.....................................

Mehr

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte K2 MATHEMATIK KLAUSUR 26.2.24 Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max 28 5 5 2 6 Punkte Notenpunkte PT 2 3 4 5 6 7 8 9 P. (max 2 2 2 4 5 3 3 4 3 Punkte WT Ana A.a b A.c Summe P. (max 7 5

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Zuammenfassung: Reelle Funktionen

Zuammenfassung: Reelle Funktionen Zuammenfassung: Reelle Funktionen 1 Grundlegendes a) Zahlenmengen IN = {1; 2; 3; 4;...} Natürliche Zahlen IN 0 = IN {0} Natürliche Zahlen mit 0 ZZ = {... ; 2; 1; 0; 1; 2;...} Ganze Zahlen Q = { z z ZZ,

Mehr

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur. Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte

Mehr

Kapitel 23 Lineare Regression

Kapitel 23 Lineare Regression Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr