13.1 Hauptkomponentenanalyse. 13 Dimensionsreduktion Hauptkomponentenanalyse Hauptkomponentenanalyse

Größe: px
Ab Seite anzeigen:

Download "13.1 Hauptkomponentenanalyse. 13 Dimensionsreduktion Hauptkomponentenanalyse Hauptkomponentenanalyse"

Transkript

1 13.0 Dimensionsreduktion Dimensionsreduktion (aus: C. Weihs und J. Jessenberger (1998): Statistische Methoden zur Qualitätssicherung und -optimierung in der Industrie; Wiley-VCH, Weinheim, ) Jetzt wenden wir uns stetigen Zielgrößen zu. Wenn viele Merkmale beobachtet werden, besteht oft die Hoffnung, diese so geschickt zusammenfassen zu können, dass Unterschiede zwischen den Merkmalsträgern in wenigen Dimensionen sichtbar werden Hauptkomponentenanalyse 13.1 Hauptkomponentenanalyse Dimensionsreduktion 13.1 Hauptkomponentenanalyse Hauptkomponentenanalyse (HKA) = Principal Component Analysis (PCA) 13.1 Hauptkomponentenanalyse Definitionen Definition 10 (Loadings) Die Gewichte gjk der Originalmerkmale j = 1,..., K in einer HK k = 1,..., K heißen Loadings. Der zur k-ten HK gehörende Loading-Vektor hat Länge 1: g T k gk = 1, gk := (g1k... gkk)t, k = 1,..., K. Definition 11 (Scores) Die Beobachtungen zik, i = 1,..., n,k = 1,..., K, der HKs heißen Scores. Für den Vektor zj der Scores der j-ten HK Zj gilt: zk = Xgk, wobei gk der Vektor der Loadings der k-ten HK ist. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion Farbstoffbeispiel: Untersuchungen von 29 Merkmalen (19 analytische Eigenschaften und 11 Qualitätsmerkmale) an 93 Farbstoffpartien. Das Ziel ist, die Unterschiede zwischen den Merkmalsträgern zu entdecken und zu erklären. Mit 29 Merkmalen hat man jedoch 29 Dimensionen, innerhalb derer sich die Partien unterscheiden können, und eine Beschreibung der Unterschiede für jede einzelne dieser Dimensionen wird unanschaulich. Deshalb versucht man, unter den 29 Dimensionen (oder Merkmalen) diejenigen zu bestimmen, deren Kombination am meisten über die Unterschiede in den Partien aussagt Hauptkomponentenanalyse Definitionen Sei X = (x1... xk ) die Spaltendarstellung einer Datenmatrix mit n Beobachtungen von K Merkmalen, wobei jede Spalte x1j xj x2j xj xj =.. xnj xj dem Vektor der n mittelwertbereinigten Beobachtungswerte des Merkmals Xj, j = 1,..., K, entspricht. Bemerkung: Von jeder Beobachtung eines Merkmals wird zunächst der arithmetische Mittelwert sämtlicher Beobachtungen dieses Merkmals abgezogen. Damit sind die Daten zentriert, ihr Schwerpunkt liegt im Nullpunkt Hauptkomponentenanalyse Definitionen Bemerkungen: Für die Scores der k-ten HK gilt: zik = (xi1 x1)g1k (xik xk )gkk. Die Beschränkung der Loading-Vektoren auf Länge 1 ist notwendig, da die empirische Varianz der Score-Vektoren quadratisch mit der Länge der Loading-Vektoren wächst. HKs werden häufig als sog. implizite (latente) Merkmale interpretiert, weil sie selbst nicht beobachtet, sondern aus den Originalmerkmalen abgeleitet werden, so dass die Beobachtungen xi1... xik, i = 1,..., n, der Originalmerkmale zur Berechnung der Beobachtungen zik der HKs verwendet werden. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion Etwas formaler wird durch Dimensionsreduktion versucht, diejenigen Richtungen in einem hochdimensionalen Raum zu bestimmen, in denen die wesentlichen Strukturen in den Daten deutlich werden. Wenn man besonders daran interessiert ist, die verschiedenen Merkmalsträger optimal unterscheiden zu können, liegt es nahe, diejenigen Richtungen zu suchen, in denen die Daten am meisten streuen. Das leistet die Hauptkomponentenanalyse Hauptkomponentenanalyse Definitionen Definition 9 (Hauptkomponenten) Die Hauptkomponenten (HKs) (Principal Components (PCs)) Z1,..., ZK sind mit dem X von der letzten Folie dann die K Richtungen im R K mit folgenden Eigenschaften: 1 Die HKs sind gewichtete Summen der Originalmerkmale. 2 Die Beobachtungen der HKs sind definiert als die entsprechend gewichteten Summen der Beobachtungen der Originalmerkmale. 3 Die erste HK hat maximale empirische Varianz von allen gewichteten Summen der Länge 1 der Originalmerkmale. 4 Die (p + 1)-te HK hat die maximale empirische Varianz von allen gewichteten Summen der Länge 1 der Originalmerkmale, die unkorreliert sind mit jeder der ersten p HKs Hauptkomponentenanalyse Definitionen Bemerkungen: Diese Beobachtungen zik (die Scores) stellt man nun häufig grafisch dar, um etwaige Strukturen oder Gruppen von Beobachtungen zu entdecken. Dabei interessiert nur die relative Lage der Beobachtungen zueinander. Da die HKs standardisiert sind, sind die Absolutabstände zwischen den Beobachtungen nicht interpretierbar. Bisher ist die Definition der HKs nicht konstruktiv, denn es bleibt unklar, wie die HKs berechnet werden, da die Konstruktion der Loadings offen ist. Es ist lediglich klar, dass die mittelwertbereinigten Merkmale X durch geeignete Wahl der Loadings in unkorrelierte implizite Merkmale, die HKs, transformiert werden. Eine elegante Konstruktionsvorschrift basiert auf einer Eigenschaft von Kovarianzmatrizen. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

2 13.1 Hauptkomponentenanalyse Berechnung 13.1 Hauptkomponentenanalyse Berechnung 13.1 Hauptkomponentenanalyse Beispiel Die empirische Kovarianzmatrix S := X T X n 1 der mittelwertbereinigten Merkmale in X lässt sich mit Hilfe der sog. Spektralzerlegung in eine Diagonalmatrix transformieren, wobei eine Matrix G konstruiert wird, so dass gilt: G T SG = Λ, wobei G T G = I, und Λ = Diagonalmatrix, deren Elemente alle 0 sind außer den Diagonalelementen λ11... λkk 0. Diese Matrix G := (g1... gk ) erfüllt die Eigenschaften der Loadingsmatrix, da gilt: Λ = G T SG = G T X T XG n 1 = Z T Z n 1. Die Spalten von Z := (Z1... Zk), d.h. die Score-Vektoren der HKs, sind also unkorreliert, und es gilt: ˆ varz1 = λ11... λkk = varzk ˆ 0. Oft reduziert man die Dimension des Ausgangsproblems (= Anzahl Merkmale in X ) auf diejenige Anzahl HKs, die mindestens 95% der Gesamtvariation repräsentieren: rp Dabei hofft man natürlich, dass schon zwei oder drei HKs 95% der Gesamtvariation beschreiben, da so die Zusammenhänge grafisch gut darstellbar sind. Geometrisch gesehen handelt es sich bei einer Dimensionsreduktion auf die größten HKs um eine (Orthogonal-) Projektion, da die weggelassenen HKs unkorreliert mit den repräsentativen HKs sind und damit senkrecht (orthogonal) auf ihnen stehen. Die Spektralzerlegung dieser Kovarianzmatrix mit Hilfe einer geeigneten Software ergibt die Matrix der Loadings G =, so dass sich die HKs bestimmen lassen als PC1 = LAMBDAC HUEREMAL PC2 = LAMBDAC HUEREMAL Die Matrix Z der HKs mit 93 Beobachtungen und zwei Spalten ergibt sich als Z = XG. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Berechnung 13.1 Hauptkomponentenanalyse Berechnung Screeplot 13.1 Hauptkomponentenanalyse Beispiel Sämtliche K HKs zusammen spannen denselben K-dimensionalen Raum auf wie die K Originalmerkmale. Eine Hauptkomponentenanalyse soll aber zur Dimensionsreduktion verwendet werden. Um festlegen zu können, wie viele Dimensionen notwendig sind, um die hochdimensionalen Daten zu charakterisieren, wird ein Dimensionsreduktionskriterium benötigt. Dazu bietet sich der Anteil rp der ersten p HKs an der Gesamtvariation der Daten an, d.h. das Verhältnis der Varianz der ersten p HKs zu der Gesamtvarianz der Daten. Variances Screeplot Varianz erklärt durch HK Kandidat für max. Anzahl an HKs Dabei ist die Matrix X gegeben durch die 93 Beobachtungen der Merkmale LAMBDAC und HUEREMAL. Weiter lässt sich aus den Matrizen G und S die Diagonalmatrix Λ bestimmen als: G T SG = Λ = Die Diagonalelemente dieser Matrix sind die empirischen Varianzen der HKs, so dass die erste HK eine Varianz von ca. 0.20, die zweite eine von ca aufweist. Der Anteil an der Gesamtvarianz, der durch die erste HK erklärt wird, ist Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 Comp.7 Comp.8 Comp.9 Comp.10 r1 = varz1 ˆ varz1 ˆ + ˆ = varz = Abb. 6 : Screeplot zur Bestimmung der Anzahl der Hauptkpomponenten Natürlich wird durch beide HKs die Gesamtvarianz der Daten erklärt: r2 = 1. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Berechnung Da die HKs empirisch unkorreliert sind, addieren sich die empirischen Varianzen sämtlicher K HKs varz1 ˆ + varz2 ˆ varzk ˆ zur Gesamtvariation der Daten, und es gilt: rp := varz1 ˆ + varz2 ˆ varzp ˆ varz1 ˆ + varz2 ˆ varzk ˆ. Die HKA bietet sich nun insofern zur Dimensionsreduktion an, dass die ersten HKs den größten Anteil an der Gesamtvariation repräsentieren Hauptkomponentenanalyse Beispiel Farbstoffbeispiel: Zur Veranschaulichung der Berechnung wird die Hauptkomponentenanalyse der zwei mittelwertbereinigten Merkmale LAMBDAC (charakteristische Wellenlänge) und HUEREMAL (Farbton bei Kunstlicht) vorgeführt. Die empirische Kovarianzmatrix ist gegeben durch: S = = Dabei hat die empirische Varianz von LAMBDAC den Wert und die empirische Varianz von HUEREMAL den Wert Hauptkomponentenanalyse Beispiel Häufig sind die Originalmerkmale so sehr voneinander abhängig, dass sie selbst nur in r(< K) Dimensionen variieren. Die n Beobachtungen der K Merkmale liegen dann in einem r-dimensionalen Unterraum des R K. Dann gibt es K r versteckte exakte lineare Zusammenhänge zwischen den K Merkmalen X1,..., XK. In solchen Fällen kann man K r Merkmale aus den anderen ausrechnen. Diese Merkmale sind also überflüssig! Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

3 13.1 Hauptkomponentenanalyse Beispiel Bestimmung überflüssiger Merkmale Wenn r < K HKs ausreichen, um 100% der Gesamtvariation zu repräsentieren, dann haben die K r kleinsten HKs Zj Varianz 0, also var(zj) = 0. Für diese K r gewichteten Summen der K (mittelwertbereinigten) Originalmerkmale Xk sind dann alle Beobachtungen konstant = 0, also zik = (xi1 x1)g1k (xik xk )gkk = 0, mit i = 1,..., n; k = r + 1,..., K. Diese K r Gleichungen lassen sich dann nach K r Originalmerkmalen auflösen Hauptkomponentenanalyse Beispiel Kann man die Unterschiede zwischen den fünf Partien ohne großen Informationsverlust einfacher charakterisieren, z.b. nur durch die Unterschiede bei einer einzelnen (charakteristischen) Wellenlänge? Nach der Durchführung der HKA der Originalmerkmale, d.h. auf Basis der Kovarianzmatrix, stellt sich heraus, dass die erste HK schon 96% der Gesamtvariation repräsentiert. Die zweite HK erklärt noch 3%, so dass die ersten beiden HKs zusammen (nahezu) 100 % der Gesamtvariation in den fünf Beobachtungen erklären. Die Loadings, also die Gewichte, mit denen die Originalmerkmale in die ersten beiden HKs eingehen, werden in einer Tabelle dargestellt Hauptkomponentenanalyse Beispiel Abb. 8 : Scores der ersten beiden HKs Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Beispiel Charakteristische Wellenlänge (Lawton, Sylvester, 1971): Für fünf produzierte Partien eines Farbstoffs liegt ein charakteristisches Absorptionsspektrum vor an den Wellenlängen nm in 10nm Schritten (s. Abbildung). Die Daten bestehen also aus fünf Beobachtungen von 30 Merkmalen Hauptkomponentenanalyse Beispiel Tab. 9 : Loadings der ersten beiden HKs 13.1 Hauptkomponentenanalyse Beispiel Partie 5 ist im Scores-Plot auffällig. Sie ist am entferntesten von den anderen Partien und ihnen daher am unähnlichsten. Wir hatten anhand der Loadings der HKs festgestellt, dass sich die fünf Partien am meisten bzgl. der Wellenlängen 550 nm und 590 nm unterscheiden. Schon in den Absorptionskurven in Abhängigkeit von der Wellenlänge werden die Unterschiede zwischen den Partien in den Wellenlängen um 600 nm deutlich. Andererseits ist der Zusammenhang zwischen den Wellenlängen und den HKs durch ihre Loadings gegeben. Die Loadings der HKs können also in Abhängigkeit der Wellenlängen quasi als Pseudospektren dargestellt werden: Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Beispiel 13.1 Hauptkomponentenanalyse Beispiel Der Absolutbetrag der Loadings ist maximal für 590 nm bei PC1 und für 550 nm bei PC2, so dass diese Wellenlängen am meisten zur Variation der Daten beitragen. Anders ausgedrückt heißt dies, dass sich die fünf Partien des Farbstoffs am meisten bzgl. dieser Wellenlängen unterscheiden. Der folgende Scores-Plot zeigt die fünf Farbstoffpartien in der Reihenfolge 1 Partie 1, 4, 3, 2, 5 in Richtung der ersten Hauptkomponente, bzw. 2 Partie 5, 1, 4, 3, 2 in Richtung der zweiten Hauptkomponente Hauptkomponentenanalyse Beispiel Abb. 7 : Charakteristische Absorptionsspektren Abb. 9 : Loadings als Pseudospektren Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

4 13.1 Hauptkomponentenanalyse Beispiel 13.1 Hauptkomponentenanalyse Der Wahl der Skaleneinheiten sollte also größte Aufmerksamkeit geschenkt werden. Meist wird einer von zwei Wegen beschritten: 1 Hauptkomponentenanalyse auf der Basis von Kovarianzen: Man sucht eine natürliche Einheit für jedes der beteiligten Merkmale. 2 Hauptkomponenten auf der Basis von Korrelationen: Man standardisiert sämtliche Merkmale auf Varianz Hauptkomponentenanalyse Interpretation von HKs Wir haben im letzten Abschnitt bei dem Beispiel zur charakteristischen Wellenlänge die Wichtigkeit der Originalmerkmale für die HKs anhand der Größe der Loadings beurteilt. Diese Vorgehensweise ist streng genommen nur richtig, wenn die beteiligten Werte der Originalmerkmale ähnlich groß sind und wenn die Originalmerkmale nicht korreliert sind. Tatsächlich beeinflusst das Loading eines Originalmerkmals die HK über den sog. Beitrag Abb. 10 : Überlagerung von Original- und Pseudospektren (xij xj) gjk der i-ten Beobachtung des j-ten Originalmerkmals zur i-ten Beobachtung der k-ten Hauptkomponente. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Beispiel Die Überlagerung von Pseudospektren und Originalspektren in der vorangehenden Abbildung deutet an, dass die erste HK dort ihr größtes Loading hat, wo die Originalspektren am unterschiedlichsten sind, nämlich bei 590 nm. Für dieses Beispiel konnte also gezeigt werden, dass vor allem die Wellenlänge 590 nm und in geringerem Maß die Wellenlänge 550 nm für die Unterschiedlichkeit der Partien verantwortlich ist Hauptkomponentenanalyse Ein weiterer Nachteil der HKA ist die Tatsache, dass die HKs gewichtete Summen sämtlicher untersuchter Merkmale sind. Solche Summen lassen sich häufig schlecht interpretieren, u.a. weil die Merkmale unterschiedliche Einheiten aufweisen. Nur wenn alle beteiligten Merkmale dieselbe Einheit besitzen, wie in unserem Beispiel nm, ist die Interpretation kein Problem. Wenn die impliziten Merkmale aber nicht interpretierbar sind, sind sie für den Anwender häufig wertlos. Leider hat dieses Problem keine allgemeingültige Lösung. Manchmal wird die Interpretation aber schon dadurch vereinfacht, dass an einer HK nicht sämtliche Merkmale beteiligt sind, sondern nur wenige Originalmerkmale Hauptkomponentenanalyse Interpretation von HKs Dieser Beitrag lässt sich also nur dann mit Hilfe des Loadings allein beurteilen, wenn die Werte (xij xj) für alle Originalmerkmale j = 1,..., K ähnlich groß sind. Das gilt z.b. bei einer Hauptkomponentenanalyse auf der Basis von Korrelationen, da dabei alle Originalmerkmale gleich skaliert sind, also in der gleichen Größenordnung schwanken. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Nachteile der Hauptkomponentenanalyse Eine wichtige, eher nachteilige, Eigenschaft der HKA ist, dass sie nicht skaleninvariant ist. Falls sich also die Einheiten der Merkmale ändern, ändert sich auch das Ergebnis der HKA. Z.B. werden sich aus HKs von drei Merkmalen gemessen in kg, Meter und Jahren die HKs der entsprechenden Merkmale in g, cm und Monaten im Allg. nicht einfach durch Multiplizieren der Loadings der entsprechenden Merkmale mit 1000, 100 bzw. 1/12 ergeben Hauptkomponentenanalyse Gesucht ist deshalb eine Vereinfachungsmethode für die Loadings, die versucht, einmal gefundene HKs (wenigstens näherungsweise) als gewichtete Summe möglichst weniger Originalmerkmale auszudrücken. Eine solche Vereinfachung hilft dann auch bei der Interpretation von HKs, bei denen alle beteiligten Originalmerkmale die gleiche Einheit besitzen. Angestrebt wird die Identifikation derjenigen Originalmerkmale, die eine HK hauptsächlich beeinflussen. Daraus resultiert dann idealerweise ein Loading-Vektor, in dem viele Komponenten verschwinden, d.h. den Wert 0 annehmen. Die Richtung dieses Vektors wird trotzdem fast mit der Richtung der HK übereinstimmen; und der Vektor wird fast unkorreliert mit den anderen HKs sein. Eine mögliche Methode besteht darin, die Scores der HKs mit Hilfe von schrittweiser Regression auf möglichst wenige Originalmerkmale zurückzuführen Hauptkomponentenanalyse Interpretation von HKs Auch wenn das Loading den Beitrag genügend gut charakterisieren sollte, bedeutet ein großes Loading nicht, dass die HK nicht ohne das dazugehörige Originalmerkmal darstellbar wäre. D.h. es kann möglich sein, die HK nur mit den anderen Originalmerkmalen genügend gut anzunähern. Der Grund dafür ist die im Allg. hohe Korrelation zwischen den Originalmerkmalen (Kollinearität), die bewirkt, dass der Beitrag eines Merkmals u.u. zu wesentlichen Teilen durch andere Merkmale abgedeckt werden kann. Tatsächlich wird sich, wie wir noch sehen werden, bei dem Beispiel zur charakteristischen Wellenlänge die Interpretation der Loadings als voreilig herausstellen. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

5 13.1 Hauptkomponentenanalyse Interpretation von HKs Zur Identifikation von Einflussfaktoren, die eine Zielgröße hauptsächlich beeinflussen, wird deshalb schrittweise ein lineares Modell für die Zielgröße in Abhängigkeit von den Einflussfaktoren aufgebaut, indem zunächst derjenige Faktor identifiziert wird, der den größten Effekt auf die Zielgröße hat, dann der Faktor mit dem größten zusätzlichen Effekt, usw. bis keine wesentliche Verbesserung der Modellanpassung mehr feststellbar ist. Im Fall der Vereinfachung von Hauptkomponenten tritt eine HK an die Stelle der Zielgröße und die Originalmerkmale an die Stelle der Einflussfaktoren. Ein solches Verfahren heißt Vorwärtsauswahl bzw. bei Verwendung des Kleinste-Quadrate-Kriteriums zur Bewertung der Effektgröße gierige schrittweise Regression durch Vorwärtsauswahl (greedy stepwise regression with forward selection) Hauptkomponentenanalyse Interpretation von HKs Schrittweise Regression Bei der gierigen schrittweisen Regression durch Vorwärtsauswahl wird zunächst ein Faktor aus den möglichen Faktoren so ausgewählt, dass die Summe der quadrierten Residuen RSS für das lineare Modell mit dem Achsenabschnitt und diesem Faktor minimal ist. Danach wird derjenige Faktor gewählt, dessen Hinzunahme in das Modell RSS am meisten verringert, usw. bis das adjustierte Bestimmtheitsmaß Radj 2 nicht mehr steigt Hauptkomponentenanalyse Interpretation von HKs Zur Illustration gibt die folgende Tabelle die Werte des adjustierten Bestimmtheitsmaßes bei der schrittweisen Regression der Wellenlängen auf die erste HK an. Schon bei Wellenlänge 610 nm im Modell werden fast 100 % der Variation der ersten HK PC1 erklärt. Die zweitbeste Erklärungsgüte liefert Wellenlänge 590 nm, die schon bei den Loadings auffällig war. Also liefert nicht die Wellenlänge mit dem größten Loading (590 nm) den größten Beitrag zu der ersten HKs, sondern die Wellenlänge 610 nm, die nur das viertgrößte Loading aufweist. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Interpretation von HKs Wesentlich für die Funktionstüchtigkeit eines solches Verfahrens ist die Wahl eines geeigneten Maßes für die Güte der Modellanpassung. Wir verwenden hier zunächst das adjustierte Bestimmtheitsmaß: wobei R 2 adj := 1 ˆσ 2 := ˆσ2 var(y) ˆ, RSS n K 1, RSS = Summe der quadrierten Residuen (Residual Sum of Squares) Hauptkomponentenanalyse Interpretation von HKs Wird die schrittweise Regression zur Vereinfachung von Hauptkomponenten angewendet, so führt das bei dem einführenden Beispiel zu überraschenden Ergebnissen. Charakteristische Wellenlänge: Schrittweise Regression ergibt, dass sich die ersten beiden HKs hier schon sehr befriedigend durch jeweils eine Wellenlänge erklären lassen (s. Tabelle). Insbesondere reicht die Wellenlänge 610 nm zur Charakterisierung der ersten HK aus. Die zweite HK wird charakterisiert durch die Wellenlänge 550 nm Hauptkomponentenanalyse Interpretation von HKs Tab. 11 : Schrittweise Regression auf PC1 Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Interpretation von HKs Der entscheidende Unterschied zwischen R 2 und R 2 adj ist die Tatsache, dass R 2 bei Hinzunahme eines weiteren Faktors in das Modell in jedem Fall größer wird, während dies für das adjustierte Bestimmtheitsmaß nicht zu gelten braucht. Durch die Hinzunahme eines Merkmals wird nämlich einerseits RSS, andererseits aber auch n K 1 kleiner. Je nachdem, was überwiegt, wird R 2 adj fallen oder steigen. Man sagt, dass bei Verwendung von R 2 adj die größere Komplexität des Modells durch die Hinzunahme eines weiteren Merkmals gegen den Nutzen in Form der besseren Erklärung der Zielgröße abgewogen wird. Deshalb wird im Folgenden bei der schrittweisen Regression R 2 adj als Bestimmtheitsmaß verwendet. Wenn n groß ist, spielt eine solche Angleichung natürlich keine wesentliche Rolle Hauptkomponentenanalyse Interpretation von HKs Bei dieser Wellenlänge weisen die Partien eine andere Reihenfolge auf als in der ersten Hauptkomponente, nämlich diejenige Reihenfolge, die bei den Scores der zweiten HK beobachtet wurde (s. Originalspektren und Scores-Plot). Um die verschiedenen Farbstoffpartien zu unterscheiden, reicht in diesem Fall also die Betrachtung der beiden Wellenlängen 610 nm und 550 nm aus. Tab. 10 : Vereinfachung der HKs 13.1 Hauptkomponentenanalyse Um eine gefundene Struktur zu verstehen, versucht man, Originalmerkmale zu finden, deren Änderung mit der Struktur in Zusammenhang gebracht werden kann. In unserem Beispiel wäre es z.b. ideal, wenn man die Richtung senkrecht zu den Clustern interpretieren könnte. Dann wäre bekannt, in welchem (evtl. impliziten) Merkmal sich die Cluster unterscheiden. Das kann mit dem sog. Bi-Plot versucht werden, in dem neben den Beobachtungen auch die Richtungen der Originalvariablen bzgl. der Hauptkomponenten eingezeichnet werden. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

6 13.1 Hauptkomponentenanalyse Definition 12 (Bi-Plot) Ein Bi-Plot ist eine Überlagerung von zwei Plots, dem Scores-Plot der ersten beiden Hauptkomponenten und dem Plot der Loadings dieser HKs, wobei die Punkte der beiden Plots unterschiedlich gekennzeichnet sind. Dabei wird der Nullpunkt der Loadings in das arithmetische Mittel der Punkte des Scores-Plots gelegt, und die Loadings werden so skaliert, dass Scores-Plot und Loadings-Plot dieselbe Ausdehnung haben Hauptkomponentenanalyse 13.1 Hauptkomponentenanalyse Typische Scores-Strukturen Die nächste Abbildung zeigt typische Strukturen, die in Streudiagrammen nach Projektion auf HKs auftreten können: 1 ein sog. Schrotschuss (uninteressante Struktur) 2 eine andere Variante von drei Clustern 3 nicht-lineare funktionale Abhängigkeit zwischen HKs. Abb. 12 : Typische Scores-Strukturen (PC1 gegen PC2) Abb. 11 : Bi-Plot Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Farbstoffbeispiel: Zur Konstruktion des Loadings-Plots werden die Originalmerkmale durch ihre Gewichte in den HKs dargestellt. Um einen direkten Vergleich mit den Beobachtungen zu ermöglichen, können die Vektoren der Originalmerkmale um denselben Faktor gestreckt oder gestaucht werden. Meist wird dieser Faktor so gewählt, dass der längste Vektor gerade noch im Plot der Beobachtungen liegt. Z.B. hat SUMDYE in x-richtung, also für HK 1, das Loading und in y-richtung, also für HK 2 das Loading Multiplikation beider Loadings mit dem Faktor ergibt die Werte 60 und , die im Plot abgetragen wurden. Die Loadings der anderen Merkmale wurden ebenfalls mit demselben Faktor multipliziert und in die Grafik eingezeichnet Hauptkomponentenanalyse Typische Scores-Strukturen Erinnerung: Hauptkomponentenanalyse hat das Ziel, mittels Dimensionsredktion niedrigdimensionale Strukturen aus hochdimensionalen Daten herauszufiltern. Dabei ist zu beachten, dass Projektionen auf Hauptkomponenten höchstens nicht-lineare Strukturen zeigen können. Lineare Zusammenhänge zwischen den Originalmerkmalen sind deshalb nicht sichtbar, weil die HKs so konstruiert worden sind, dass sie evtl. existierende lineare Zusammenhänge oder Strukturen in sich aufnehmen. Technischer ausgedrückt sind HKs senkrecht aufeinander stehende implizite Merkmale und deshalb unkorreliert Hauptkomponentenanalyse Typische Scores-Strukturen Bei interessanten nicht-linearen Strukturen stellt sich wiederum das Problem der Interpretation. Was nutzt die einfache Formulierung eines gefundenen Zusammenhangs zwischen den Originalmerkmalen mit Hilfe von impliziten Merkmalen, wenn der Zusammenhang nicht interpretiert werden kann? Hier können wiederum schrittweise Regression und Bi-Plot wertvolle Hilfe leisten. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Hauptkomponentenanalyse Die Richtung senkrecht zu den Clustern entspricht offenbar ziemlich genau der Variablen SUMDYE, der Summe der Farbstoffe in der chemischen Verbindung (s. nächste Abbildung). Nachfragen beim Anwender ergab, dass im Laufe der Zeit tatsächlich gefunden wurde, dass auch weniger Farbstoffinput ausreicht, um dieselbe Intensität der Färbung auf der Faser zu erreichen. Deshalb wurde die Produktion zweimal umgestellt! Der Bi-Plot stützt das insofern, dass u.a. die Farbstärke STRREM nahezu senkrecht auf SUMDYE steht, dass Farbstärke und Summe der Farbstoffe also nahezu unkorreliert sind. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

13.0 Dimensionsreduktion Dimensionsreduktion. 13 Dimensionsreduktion Hauptkomponentenanalyse Dimensionsreduktion

13.0 Dimensionsreduktion Dimensionsreduktion. 13 Dimensionsreduktion Hauptkomponentenanalyse Dimensionsreduktion 13 Dimensionsreduktion 13.0 Dimensionsreduktion Dimensionsreduktion 13 Dimensionsreduktion (aus: C. Weihs und J. Jessenberger (1998): Statistische Methoden zur Qualitätssicherung und -optimierung in der

Mehr

13 Dimensionsreduktion

13 Dimensionsreduktion 13 Dimensionsreduktion 13.0 Dimensionsreduktion Dimensionsreduktion 13 Dimensionsreduktion (aus: C. Weihs und J. Jessenberger (1998): Statistische Methoden zur Qualitätssicherung und -optimierung in der

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse)

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Seminar für Statistik Markus Kalisch 25.11.2014 1 Unsupervised Learning Supervised Learning: Erkläre Zielgrösse durch erklärende Variablen

Mehr

Bivariate Regressionsanalyse

Bivariate Regressionsanalyse Universität Bielefeld 15. März 2005 Kovarianz, Korrelation und Regression Kovarianz, Korrelation und Regression Ausgangspunkt ist folgende Datenmatrix: Variablen 1 2... NI 1 x 11 x 12... x 1k 2 x 21 x

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 397 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig

Mehr

Least Absolute Shrinkage And Seletion Operator (LASSO)

Least Absolute Shrinkage And Seletion Operator (LASSO) Least Absolute Shrinkage And Seletion Operator (LASSO) Peter von Rohr 20 März 2017 Lineare Modell und Least Squares Als Ausgangspunkt haben wir das Lineare Modell und Least Squares y = Xβ + ɛ (1) ˆβ =

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Herleitung der Hauptkomponenten: Y t = (Y 1,..., Y m ) Erwartung:µ Kovarianz:Σ. Z j = a 1j Y 1 + a 2j Y a mj Y m = a t j Y

Herleitung der Hauptkomponenten: Y t = (Y 1,..., Y m ) Erwartung:µ Kovarianz:Σ. Z j = a 1j Y 1 + a 2j Y a mj Y m = a t j Y Herleitung der Hauptkomponenten: Y t = (Y 1,..., Y m ) Erwartung:µ Kovarianz:Σ Z j = a 1j Y 1 + a 2j Y 2 +... + a mj Y m = a t j Y a t j = (a 1j, a 2j,..., a mj ) Z 1, Z 2,...,Z m unkorreliert Varianzen

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript 3. Deskriptive Statistik Die deskriptive (auch: beschreibende) Statistik hat zum Ziel, [ ] Daten durch Tabellen, Kennzahlen [ ] und Grafiken übersichtlich darzustellen und zu ordnen. Dies ist vor allem

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A. Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 8. Mai 2009 1 / 29 Bemerkung In der Vorlesung Elemente der Analysis I wurden Funktionen

Mehr

Kapitel 2. Mittelwerte

Kapitel 2. Mittelwerte Kapitel 2. Mittelwerte Im Zusammenhang mit dem Begriff der Verteilung, der im ersten Kapitel eingeführt wurde, taucht häufig die Frage auf, wie man die vorliegenden Daten durch eine geeignete Größe repräsentieren

Mehr

Faktoren- und Hauptkomponentenanalyse

Faktoren- und Hauptkomponentenanalyse Ziel: Anwendung von Verfahren der Dimensionsreduzierung Erkennen von Strukturen in Daten an ausgewählten Anwendungsbeispielen Betreuer: Dipl.-Chem. Stefan Möller IAAC, Lehrbereich Umweltanalytik Lessingstraße

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011 Hier eine kurze Erklärung zu der. Als Grundlage diente teilweise eine Beschreibung von Markus Göhl vom Sommersemester 00. Quadriken Definition. Eine Quadrik ist die Nullstellenmenge eines quadratischen

Mehr

Kapitel XI - Korrelationsrechnung

Kapitel XI - Korrelationsrechnung Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Kapitel XI - Korrelationsrechnung Markus Höchstötter Uni Karlsruhe Karlsruhe, SS 2008 Kapitel XI - Korrelationsrechnung

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

Hauptkomponenten-basierte Klassifikationsverfahren (PCA)

Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Projektseminar: Wetterlagen und Feinstaub - Übung Dozent: Claudia Weitnauer Referent: Esther Oßwald, Julian Dare Datum: 30.05.2011 Übersicht 1 Einleitung

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Statistik. Ronald Balestra CH St. Peter

Statistik. Ronald Balestra CH St. Peter Statistik Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch 17. Januar 2010 Inhaltsverzeichnis 1 Statistik 1 1.1 Beschreibende Statistik....................... 1 1.2 Charakterisierung von Häufigkeitsverteilungen...........

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 8 18. Mai 2010 Kapitel 8. Vektoren (Fortsetzung) Lineare Unabhängigkeit (Fortsetzung) Basis und Dimension Definition 80. (Lineare (Un-)Abhängigkeit)

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

12. R n als EUKLIDISCHER VEKTORRAUM

12. R n als EUKLIDISCHER VEKTORRAUM 12. R n als EUKLIDISCHER VEKTORRAUM 1 Orthogonalität in der Ebene. Die Vektoren in der Ebene, die (im üblichen Sinne) senkrecht zu einem Vektor x = (x 1, x 2 ) T stehen, lassen sich leicht angeben. Sie

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die

Mehr

Lineare Algebra. 1 Lineare Abbildungen

Lineare Algebra. 1 Lineare Abbildungen Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe

Mehr

Mathematik für Wirtschaftswissenschaftler, SS 2010 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, SS 2010 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, SS 00 Musterlösungen zu Aufgabenblatt Aufgabe 77: Die Matrix A R sei darstellbar als A U D U mit 0 0 U, D 0 0. a) Verifizieren Sie, dass U eine orthogonale Matrix

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

1. Referenzpunkt Transformation

1. Referenzpunkt Transformation 2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere

Mehr

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Kapitel 4 Determinante Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Was ist eine Determinante? Wir wollen messen, ob n Vektoren im R n linear abhängig sind bzw. wie weit sie davon entfernt

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau

Mehr

Statistisches Lernen

Statistisches Lernen Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 7 11. Mai 2010 Kapitel 8. Vektoren Definition 76. Betrachten wir eine beliebige endliche Anzahl von Vektoren v 1, v 2,..., v m des R n, so können

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

6 Lineare Algebra. 6.1 Einführung

6 Lineare Algebra. 6.1 Einführung 6 Lineare Algebra 6.1 Einführung Die lineare Algebra ist für die Wirtschaftswissenschaften von zentraler Bedeutung. Einerseits liefert sie die theoretischen und praktischen Grundlagen für das Lösen linearer

Mehr

Einführung in die Hauptkomponentenanalyse

Einführung in die Hauptkomponentenanalyse Einführung in die Hauptkomponentenanalyse Florian Steinke 6. Juni 009 Vorbereitung: Einige Aspekte der multivariaten Gaußverteilung Definition.. Die -D Gaußverteilung für x R ist ( p(x exp (x µ σ. ( Notation:

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

2.6 Bestimmung der Faktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode)

2.6 Bestimmung der Faktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode) 2.6 Bestimmung der aktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode) usgangspunkt zur Ermittlung der aktorwerte ist die Strukturgleichung Z E mn mp pn mn Z: Matrix der standardisierten Merkmalsausprägungen,

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.

Mehr

5 Beschreibung und Analyse empirischer Zusammenhänge

5 Beschreibung und Analyse empirischer Zusammenhänge 5 Beschreibung und Analyse empirischer Zusammenhänge 132 5 Beschreibung und Analyse empirischer Zusammenhänge 5.1 Zusammenhänge zwischen kategorialen Merkmalen 137 5.1.1 Kontingenztabellen 137 Verteilungen

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018

Mehr

(x i x) 2. (x i a) 2, x i x med. x i a. i=1. 3 Lage- und Streuungsmaße 134

(x i x) 2. (x i a) 2, x i x med. x i a. i=1. 3 Lage- und Streuungsmaße 134 Lagemaße als Lösung eines Optimierungsproblems 3.1 Lagemaße Gegeben sei die Urliste x 1,...,x n eines intervallskalierten Merkmals X, die zu einer Zahl a zusammengefasst werden soll. Man könnte sagen,

Mehr

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen. Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik I+II Frühlingsemester 219 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 46 8. Lineare Algebra: 5. Eigenwerte und

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79 Matrixpotenzen n Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden. a) terative Berechnung = 2 = 2 2 2 5 = 7 = 2 2 2 2 = 5 4 4 5 = 5 4 4 5 5 = 29 25 = 5 4 4 5 2 3 = 4 2 3

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

Inhaltsverzeichnis. Vorwort. 1 Einführung in die multivariate Datenanalyse 1

Inhaltsverzeichnis. Vorwort. 1 Einführung in die multivariate Datenanalyse 1 V Inhaltsverzeichnis Vorwort XI 1 Einführung in die multivariate Datenanalyse 1 1.1 Was ist multivariate Datenanalyse? 1 1.2 Datensätze in der multivariaten Datenanalyse 4 1.3 Ziele der multivariaten Datenanalyse

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Ähnlichkeits- und Distanzmaße

Ähnlichkeits- und Distanzmaße Einheit 1 Ähnlichkeits- und Distanzmaße IFAS JKU Linz c 2015 Multivariate Verfahren 1 0 / 41 Problemstellung Ziel: Bestimmung von Ähnlichkeit zwischen n Objekten, an denen p Merkmale erhoben wurden. Die

Mehr

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere

Mehr