13.0 Dimensionsreduktion Dimensionsreduktion. 13 Dimensionsreduktion Hauptkomponentenanalyse Dimensionsreduktion

Größe: px
Ab Seite anzeigen:

Download "13.0 Dimensionsreduktion Dimensionsreduktion. 13 Dimensionsreduktion Hauptkomponentenanalyse Dimensionsreduktion"

Transkript

1 13 Dimensionsreduktion 13.0 Dimensionsreduktion Dimensionsreduktion 13 Dimensionsreduktion (aus: C. Weihs und J. Jessenberger (1998): Statistische Methoden zur Qualitätssicherung und -optimierung in der Industrie; Wiley-VCH, Weinheim, ) Jetzt wenden wir uns stetigen Zielgrößen zu. 13 Dimensionsreduktion 13.0 Dimensionsreduktion Etwas formaler wird durch Dimensionsreduktion versucht, diejenigen Richtungen in einem hochdimensionalen Raum zu bestimmen, in denen die wesentlichen Strukturen in den Daten deutlich werden. Wenn man besonders daran interessiert ist, die verschiedenen Merkmalsträger optimal unterscheiden zu können, liegt es nahe, diejenigen Richtungen zu suchen, in denen die Daten am meisten streuen. Das leistet die Hauptkomponentenanalyse. Wenn viele Merkmale beobachtet werden, besteht oft die Hoffnung, diese so geschickt zusammenfassen zu können, dass Unterschiede zwischen den Merkmalsträgern in wenigen Dimensionen sichtbar werden. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.0 Dimensionsreduktion Farbstoffbeispiel: Untersuchungen von 29 Merkmalen (19 analytische Eigenschaften und 11 Qualitätsmerkmale) an 93 Farbstoffpartien. Das Ziel ist, die Unterschiede zwischen den Merkmalsträgern zu entdecken und zu erklären. Mit 29 Merkmalen hat man jedoch 29 Dimensionen, innerhalb derer sich die Partien unterscheiden können, und eine Beschreibung der Unterschiede für jede einzelne dieser Dimensionen wird unanschaulich. Deshalb versucht man, unter den 29 Dimensionen (oder Merkmalen) diejenigen zu bestimmen, deren Kombination am meisten über die Unterschiede in den Partien aussagt. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse 13.1 Hauptkomponentenanalyse Dimensionsreduktion 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Hauptkomponentenanalyse (HKA) = Principal Component Analysis (PCA) Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

2 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Definitionen Hauptkomponentenanalyse Sei X = (x1... xk ) die Spaltendarstellung einer Datenmatrix mit n Beobachtungen von K Merkmalen, wobei jede Spalte x1j xj x2j xj xj =.. xnj xj dem Vektor der n mittelwertbereinigten Beobachtungswerte des Merkmals Xj, j = 1,..., K, entspricht. Bemerkung: Von jeder Beobachtung eines Merkmals wird zunächst der arithmetische Mittelwert sämtlicher Beobachtungen dieses Merkmals abgezogen. Damit sind die Daten zentriert, ihr Schwerpunkt liegt im Nullpunkt. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Definitionen Hauptkomponentenanalyse Definition 10 (Loadings) Die Gewichte gjk der Originalmerkmale j = 1,..., K in einer HK k = 1,..., K heißen Loadings. Der zur k-ten HK gehörende Loading-Vektor hat Länge 1: g T k gk = 1, gk := (g1k... gkk)t, k = 1,..., K. Definition 11 (Scores) Die Beobachtungen zik, i = 1,..., n,k = 1,..., K, der HKs heißen Scores. Für den Vektor zj der Scores der j-ten HK Zj gilt: zk = Xgk, wobei gk der Vektor der Loadings der k-ten HK ist. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Definitionen Hauptkomponentenanalyse 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Definitionen Hauptkomponentenanalyse Definition 9 (Hauptkomponenten) Die Hauptkomponenten (HKs) (Principal Components (PCs)) Z1,..., ZK sind mit dem X von der letzten Folie dann die K Richtungen im R K mit folgenden Eigenschaften: 1 Die HKs sind gewichtete Summen der Originalmerkmale. 2 Die Beobachtungen der HKs sind definiert als die entsprechend gewichteten Summen der Beobachtungen der Originalmerkmale. 3 Die erste HK hat maximale empirische Varianz von allen gewichteten Summen der Länge 1 der Originalmerkmale. 4 Die (p + 1)-te HK hat die maximale empirische Varianz von allen gewichteten Summen der Länge 1 der Originalmerkmale, die unkorreliert sind mit jeder der ersten p HKs. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Bemerkungen: Für die Scores der k-ten HK gilt: zik = (xi1 x1)g1k (xik xk )gkk. Die Beschränkung der Loading-Vektoren auf Länge 1 ist notwendig, da die empirische Varianz der Score-Vektoren quadratisch mit der Länge der Loading-Vektoren wächst. HKs werden häufig als sog. implizite (latente) Merkmale interpretiert, weil sie selbst nicht beobachtet, sondern aus den Originalmerkmalen abgeleitet werden, so dass die Beobachtungen xi1... xik, i = 1,..., n, der Originalmerkmale zur Berechnung der Beobachtungen zik der HKs verwendet werden. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

3 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Definitionen Hauptkomponentenanalyse Bemerkungen: Diese Beobachtungen zik (die Scores) stellt man nun häufig grafisch dar, um etwaige Strukturen oder Gruppen von Beobachtungen zu entdecken. Dabei interessiert nur die relative Lage der Beobachtungen zueinander. Da die HKs standardisiert sind, sind die Absolutabstände zwischen den Beobachtungen nicht interpretierbar. Bisher ist die Definition der HKs nicht konstruktiv, denn es bleibt unklar, wie die HKs berechnet werden, da die Konstruktion der Loadings offen ist. Es ist lediglich klar, dass die mittelwertbereinigten Merkmale X durch geeignete Wahl der Loadings in unkorrelierte implizite Merkmale, die HKs, transformiert werden. Eine elegante Konstruktionsvorschrift basiert auf einer Eigenschaft von Kovarianzmatrizen. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Berechnung Berechnung der Hauptkomponenten Sämtliche K HKs zusammen spannen denselben K-dimensionalen Raum auf wie die K Originalmerkmale. Eine Hauptkomponentenanalyse soll aber zur Dimensionsreduktion verwendet werden. Um festlegen zu können, wie viele Dimensionen notwendig sind, um die hochdimensionalen Daten zu charakterisieren, wird ein Dimensionsreduktionskriterium benötigt. Dazu bietet sich der Anteil rp der ersten p HKs an der Gesamtvariation der Daten an, d.h. das Verhältnis der Varianz der ersten p HKs zu der Gesamtvarianz der Daten. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Berechnung Berechnung der Hauptkomponenten Die empirische Kovarianzmatrix S := X T X n 1 der mittelwertbereinigten Merkmale in X lässt sich mit Hilfe der sog. Spektralzerlegung in eine Diagonalmatrix transformieren, wobei eine Matrix G konstruiert wird, so dass gilt: G T SG = Λ, wobei G T G = I, und Λ = Diagonalmatrix, deren Elemente alle 0 sind außer den Diagonalelementen λ11... λkk 0. Diese Matrix G := (g1... gk ) erfüllt die Eigenschaften der Loadingsmatrix, da gilt: Λ = G T SG = G T X T XG = Z T Z n 1 n 1. Die Spalten von Z := (Z1... Zk), d.h. die Score-Vektoren der HKs, sind also unkorreliert, und es gilt: ˆ = λ11... λkk = varzk ˆ 0. varz1 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Berechnung Berechnung der Hauptkomponenten Da die HKs empirisch unkorreliert sind, addieren sich die empirischen Varianzen sämtlicher K HKs varz1 ˆ + varz2 ˆ varzk ˆ zur Gesamtvariation der Daten, und es gilt: rp := varz1 ˆ + varz2 ˆ varzp ˆ varz1 ˆ + varz2 ˆ varzk ˆ. Die HKA bietet sich nun insofern zur Dimensionsreduktion an, dass die ersten HKs den größten Anteil an der Gesamtvariation repräsentieren. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

4 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Berechnung Berechnung der Hauptkomponenten Oft reduziert man die Dimension des Ausgangsproblems (= Anzahl Merkmale in X ) auf diejenige Anzahl HKs, die mindestens 95% der Gesamtvariation repräsentieren: rp Dabei hofft man natürlich, dass schon zwei oder drei HKs 95% der Gesamtvariation beschreiben, da so die Zusammenhänge grafisch gut darstellbar sind. Geometrisch gesehen handelt es sich bei einer Dimensionsreduktion auf die größten HKs um eine (Orthogonal-) Projektion, da die weggelassenen HKs unkorreliert mit den repräsentativen HKs sind und damit senkrecht (orthogonal) auf ihnen stehen. Farbstoffbeispiel: Zur Veranschaulichung der Berechnung wird die Hauptkomponentenanalyse der zwei mittelwertbereinigten Merkmale LAMBDAC (charakteristische Wellenlänge) und HUEREMAL (Farbton bei Kunstlicht) vorgeführt. Die empirische Kovarianzmatrix ist gegeben durch: S = 1 92 ( ) = ( ) Dabei hat die empirische Varianz von LAMBDAC den Wert und die empirische Varianz von HUEREMAL den Wert Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Berechnung Screeplot Variances Comp.1 Comp.2 Comp.3 Comp.4 Screeplot Varianz erklärt durch HK Kandidat für max. Anzahl an HKs Comp.5 Abb. 6 : Screeplot zur Bestimmung der Anzahl der Hauptkpomponenten Comp.6 Comp.7 Comp.8 Comp.9 Comp.10 Die Spektralzerlegung dieser Kovarianzmatrix mit Hilfe einer geeigneten Software ergibt die Matrix der Loadings ( ) G =, so dass sich die HKs bestimmen lassen als PC1 = LAMBDAC HUEREMAL PC2 = LAMBDAC HUEREMAL Die Matrix Z der HKs mit 93 Beobachtungen und zwei Spalten ergibt sich als Z = XG. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

5 Dabei ist die Matrix X gegeben durch die 93 Beobachtungen der Merkmale LAMBDAC und HUEREMAL. Weiter lässt sich aus den Matrizen G und S die Diagonalmatrix Λ bestimmen als: ( ) G T SG = Λ = Die Diagonalelemente dieser Matrix sind die empirischen Varianzen der HKs, so dass die erste HK eine Varianz von ca. 0.20, die zweite eine von ca aufweist. Der Anteil an der Gesamtvarianz, der durch die erste HK erklärt wird, ist varz1 ˆ r1 = varz1 ˆ + varz2 ˆ = = Natürlich wird durch beide HKs die Gesamtvarianz der Daten erklärt: r2 = 1. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Bestimmung überflüssiger Merkmale Wenn r < K HKs ausreichen, um 100% der Gesamtvariation zu repräsentieren, dann haben die K r kleinsten HKs Zj Varianz 0, also var(zj) = 0. Für diese K r gewichteten Summen der K (mittelwertbereinigten) Originalmerkmale Xk sind dann alle Beobachtungen konstant = 0, also zik = (xi1 x1)g1k (xik xk )gkk = 0, mit i = 1,..., n; k = r + 1,..., K. Diese K r Gleichungen lassen sich dann nach K r Originalmerkmalen auflösen. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Häufig sind die Originalmerkmale so sehr voneinander abhängig, dass sie selbst nur in r(< K) Dimensionen variieren. Die n Beobachtungen der K Merkmale liegen dann in einem r-dimensionalen Unterraum des R K. Dann gibt es K r versteckte exakte lineare Zusammenhänge zwischen den K Merkmalen X1,..., XK. In solchen Fällen kann man K r Merkmale aus den anderen ausrechnen. Diese Merkmale sind also überflüssig! Charakteristische Wellenlänge (Lawton, Sylvester, 1971): Für fünf produzierte Partien eines Farbstoffs liegt ein charakteristisches Absorptionsspektrum vor an den Wellenlängen nm in 10nm Schritten (s. Abbildung). Die Daten bestehen also aus fünf Beobachtungen von 30 Merkmalen. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

6 Abb. 7 : Charakteristische Absorptionsspektren Tab. 9 : Loadings der ersten beiden HKs Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Kann man die Unterschiede zwischen den fünf Partien ohne großen Informationsverlust einfacher charakterisieren, z.b. nur durch die Unterschiede bei einer einzelnen (charakteristischen) Wellenlänge? Nach der Durchführung der HKA der Originalmerkmale, d.h. auf Basis der Kovarianzmatrix, stellt sich heraus, dass die erste HK schon 96% der Gesamtvariation repräsentiert. Die zweite HK erklärt noch 3%, so dass die ersten beiden HKs zusammen (nahezu) 100 % der Gesamtvariation in den fünf Beobachtungen erklären. Die Loadings, also die Gewichte, mit denen die Originalmerkmale in die ersten beiden HKs eingehen, werden in einer Tabelle dargestellt. Der Absolutbetrag der Loadings ist maximal für 590 nm bei PC1 und für 550 nm bei PC2, so dass diese Wellenlängen am meisten zur Variation der Daten beitragen. Anders ausgedrückt heißt dies, dass sich die fünf Partien des Farbstoffs am meisten bzgl. dieser Wellenlängen unterscheiden. Der folgende Scores-Plot zeigt die fünf Farbstoffpartien in der Reihenfolge 1 Partie 1, 4, 3, 2, 5 in Richtung der ersten Hauptkomponente, bzw. 2 Partie 5, 1, 4, 3, 2 in Richtung der zweiten Hauptkomponente. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

7 Abb. 8 : Scores der ersten beiden HKs Abb. 9 : Loadings als Pseudospektren Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Partie 5 ist im Scores-Plot auffällig. Sie ist am entferntesten von den anderen Partien und ihnen daher am unähnlichsten. Wir hatten anhand der Loadings der HKs festgestellt, dass sich die fünf Partien am meisten bzgl. der Wellenlängen 550 nm und 590 nm unterscheiden. Schon in den Absorptionskurven in Abhängigkeit von der Wellenlänge werden die Unterschiede zwischen den Partien in den Wellenlängen um 600 nm deutlich. Andererseits ist der Zusammenhang zwischen den Wellenlängen und den HKs durch ihre Loadings gegeben. Die Loadings der HKs können also in Abhängigkeit der Wellenlängen quasi als Pseudospektren dargestellt werden: Abb. 10 : Überlagerung von Original- und Pseudospektren Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

8 Die Überlagerung von Pseudospektren und Originalspektren in der vorangehenden Abbildung deutet an, dass die erste HK dort ihr größtes Loading hat, wo die Originalspektren am unterschiedlichsten sind, nämlich bei 590 nm. Für dieses Beispiel konnte also gezeigt werden, dass vor allem die Wellenlänge 590 nm und in geringerem Maß die Wellenlänge 550 nm für die Unterschiedlichkeit der Partien verantwortlich ist. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Nachteile der HKA Nachteile der HKA Der Wahl der Skaleneinheiten sollte also größte Aufmerksamkeit geschenkt werden. Meist wird einer von zwei Wegen beschritten: 1 Hauptkomponentenanalyse auf der Basis von Kovarianzen: Man sucht eine natürliche Einheit für jedes der beteiligten Merkmale. 2 Hauptkomponenten auf der Basis von Korrelationen: Man standardisiert sämtliche Merkmale auf Varianz 1. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Nachteile der HKA Nachteile der HKA Nachteile der Hauptkomponentenanalyse Eine wichtige, eher nachteilige, Eigenschaft der HKA ist, dass sie nicht skaleninvariant ist. Falls sich also die Einheiten der Merkmale ändern, ändert sich auch das Ergebnis der HKA. Z.B. werden sich aus HKs von drei Merkmalen gemessen in kg, Meter und Jahren die HKs der entsprechenden Merkmale in g, cm und Monaten im Allg. nicht einfach durch Multiplizieren der Loadings der entsprechenden Merkmale mit 1000, 100 bzw. 1/12 ergeben. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Nachteile der HKA Nachteile der HKA Ein weiterer Nachteil der HKA ist die Tatsache, dass die HKs gewichtete Summen sämtlicher untersuchter Merkmale sind. Solche Summen lassen sich häufig schlecht interpretieren, u.a. weil die Merkmale unterschiedliche Einheiten aufweisen. Nur wenn alle beteiligten Merkmale dieselbe Einheit besitzen, wie in unserem Beispiel nm, ist die Interpretation kein Problem. Wenn die impliziten Merkmale aber nicht interpretierbar sind, sind sie für den Anwender häufig wertlos. Leider hat dieses Problem keine allgemeingültige Lösung. Manchmal wird die Interpretation aber schon dadurch vereinfacht, dass an einer HK nicht sämtliche Merkmale beteiligt sind, sondern nur wenige Originalmerkmale. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

9 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Nachteile der HKA Nachteile der HKA Gesucht ist deshalb eine Vereinfachungsmethode für die Loadings, die versucht, einmal gefundene HKs (wenigstens näherungsweise) als gewichtete Summe möglichst weniger Originalmerkmale auszudrücken. Eine solche Vereinfachung hilft dann auch bei der Interpretation von HKs, bei denen alle beteiligten Originalmerkmale die gleiche Einheit besitzen. Angestrebt wird die Identifikation derjenigen Originalmerkmale, die eine HK hauptsächlich beeinflussen. Daraus resultiert dann idealerweise ein Loading-Vektor, in dem viele Komponenten verschwinden, d.h. den Wert 0 annehmen. Die Richtung dieses Vektors wird trotzdem fast mit der Richtung der HK übereinstimmen; und der Vektor wird fast unkorreliert mit den anderen HKs sein. Eine mögliche Methode besteht darin, die Scores der HKs mit Hilfe von schrittweiser Regression auf möglichst wenige Originalmerkmale zurückzuführen. Dieser Beitrag lässt sich also nur dann mit Hilfe des Loadings allein beurteilen, wenn die Werte (xij xj) für alle Originalmerkmale j = 1,..., K ähnlich groß sind. Das gilt z.b. bei einer Hauptkomponentenanalyse auf der Basis von Korrelationen, da dabei alle Originalmerkmale gleich skaliert sind, also in der gleichen Größenordnung schwanken. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Wir haben im letzten Abschnitt bei dem Beispiel zur charakteristischen Wellenlänge die Wichtigkeit der Originalmerkmale für die HKs anhand der Größe der Loadings beurteilt. Diese Vorgehensweise ist streng genommen nur richtig, wenn die beteiligten Werte der Originalmerkmale ähnlich groß sind und wenn die Originalmerkmale nicht korreliert sind. Tatsächlich beeinflusst das Loading eines Originalmerkmals die HK über den sog. Beitrag (xij xj) gjk der i-ten Beobachtung des j-ten Originalmerkmals zur i-ten Beobachtung der k-ten Hauptkomponente. Auch wenn das Loading den Beitrag genügend gut charakterisieren sollte, bedeutet ein großes Loading nicht, dass die HK nicht ohne das dazugehörige Originalmerkmal darstellbar wäre. D.h. es kann möglich sein, die HK nur mit den anderen Originalmerkmalen genügend gut anzunähern. Der Grund dafür ist die im Allg. hohe Korrelation zwischen den Originalmerkmalen (Kollinearität), die bewirkt, dass der Beitrag eines Merkmals u.u. zu wesentlichen Teilen durch andere Merkmale abgedeckt werden kann. Tatsächlich wird sich, wie wir noch sehen werden, bei dem Beispiel zur charakteristischen Wellenlänge die Interpretation der Loadings als voreilig herausstellen. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

10 Zur Identifikation von Einflussfaktoren, die eine Zielgröße hauptsächlich beeinflussen, wird deshalb schrittweise ein lineares Modell für die Zielgröße in Abhängigkeit von den Einflussfaktoren aufgebaut, indem zunächst derjenige Faktor identifiziert wird, der den größten Effekt auf die Zielgröße hat, dann der Faktor mit dem größten zusätzlichen Effekt, usw. bis keine wesentliche Verbesserung der Modellanpassung mehr feststellbar ist. Im Fall der Vereinfachung von Hauptkomponenten tritt eine HK an die Stelle der Zielgröße und die Originalmerkmale an die Stelle der Einflussfaktoren. Ein solches Verfahren heißt Vorwärtsauswahl bzw. bei Verwendung des Kleinste-Quadrate-Kriteriums zur Bewertung der Effektgröße gierige schrittweise Regression durch Vorwärtsauswahl (greedy stepwise regression with forward selection). Der entscheidende Unterschied zwischen R 2 und R 2 adj ist die Tatsache, dass R 2 bei Hinzunahme eines weiteren Faktors in das Modell in jedem Fall größer wird, während dies für das adjustierte Bestimmtheitsmaß nicht zu gelten braucht. Durch die Hinzunahme eines Merkmals wird nämlich einerseits RSS, andererseits aber auch n K 1 kleiner. Je nachdem, was überwiegt, wird R 2 adj fallen oder steigen. Man sagt, dass bei Verwendung von R 2 adj die größere Komplexität des Modells durch die Hinzunahme eines weiteren Merkmals gegen den Nutzen in Form der besseren Erklärung der Zielgröße abgewogen wird. Deshalb wird im Folgenden bei der schrittweisen Regression R 2 adj als Bestimmtheitsmaß verwendet. Wenn n groß ist, spielt eine solche Angleichung natürlich keine wesentliche Rolle. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Wesentlich für die Funktionstüchtigkeit eines solches Verfahrens ist die Wahl eines geeigneten Maßes für die Güte der Modellanpassung. Wir verwenden hier zunächst das adjustierte Bestimmtheitsmaß: wobei Radj 2 := 1 ˆσ2 var(y) ˆ, ˆσ 2 RSS := n K 1, RSS = Summe der quadrierten Residuen (Residual Sum of Squares). Schrittweise Regression Bei der gierigen schrittweisen Regression durch Vorwärtsauswahl wird zunächst ein Faktor aus den möglichen Faktoren so ausgewählt, dass die Summe der quadrierten Residuen RSS für das lineare Modell mit dem Achsenabschnitt und diesem Faktor minimal ist. Danach wird derjenige Faktor gewählt, dessen Hinzunahme in das Modell RSS am meisten verringert, usw. bis das adjustierte Bestimmtheitsmaß R 2 adj nicht mehr steigt. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

11 Wird die schrittweise Regression zur Vereinfachung von Hauptkomponenten angewendet, so führt das bei dem einführenden Beispiel zu überraschenden Ergebnissen. Charakteristische Wellenlänge: Schrittweise Regression ergibt, dass sich die ersten beiden HKs hier schon sehr befriedigend durch jeweils eine Wellenlänge erklären lassen (s. Tabelle). Insbesondere reicht die Wellenlänge 610 nm zur Charakterisierung der ersten HK aus. Die zweite HK wird charakterisiert durch die Wellenlänge 550 nm. Zur Illustration gibt die folgende Tabelle die Werte des adjustierten Bestimmtheitsmaßes bei der schrittweisen Regression der Wellenlängen auf die erste HK an. Schon bei Wellenlänge 610 nm im Modell werden fast 100 % der Variation der ersten HK PC1 erklärt. Die zweitbeste Erklärungsgüte liefert Wellenlänge 590 nm, die schon bei den Loadings auffällig war. Also liefert nicht die Wellenlänge mit dem größten Loading (590 nm) den größten Beitrag zu der ersten HKs, sondern die Wellenlänge 610 nm, die nur das viertgrößte Loading aufweist. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Bei dieser Wellenlänge weisen die Partien eine andere Reihenfolge auf als in der ersten Hauptkomponente, nämlich diejenige Reihenfolge, die bei den Scores der zweiten HK beobachtet wurde (s. Originalspektren und Scores-Plot). Um die verschiedenen Farbstoffpartien zu unterscheiden, reicht in diesem Fall also die Betrachtung der beiden Wellenlängen 610 nm und 550 nm aus. Tab. 10 : Vereinfachung der HKs Tab. 11 : Schrittweise Regression auf PC1 Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

12 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Bi-Plot Um eine gefundene Struktur zu verstehen, versucht man, Originalmerkmale zu finden, deren Änderung mit der Struktur in Zusammenhang gebracht werden kann. In unserem Beispiel wäre es z.b. ideal, wenn man die Richtung senkrecht zu den Clustern interpretieren könnte. Dann wäre bekannt, in welchem (evtl. impliziten) Merkmal sich die Cluster unterscheiden. Das kann mit dem sog. Bi-Plot versucht werden, in dem neben den Beobachtungen auch die Richtungen der Originalvariablen bzgl. der Hauptkomponenten eingezeichnet werden. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Bi-Plot Farbstoffbeispiel: Zur Konstruktion des Loadings-Plots werden die Originalmerkmale durch ihre Gewichte in den HKs dargestellt. Um einen direkten Vergleich mit den Beobachtungen zu ermöglichen, können die Vektoren der Originalmerkmale um denselben Faktor gestreckt oder gestaucht werden. Meist wird dieser Faktor so gewählt, dass der längste Vektor gerade noch im Plot der Beobachtungen liegt. Z.B. hat SUMDYE in x-richtung, also für HK 1, das Loading und in y-richtung, also für HK 2 das Loading Multiplikation beider Loadings mit dem Faktor ergibt die Werte 60 und , die im Plot abgetragen wurden. Die Loadings der anderen Merkmale wurden ebenfalls mit demselben Faktor multipliziert und in die Grafik eingezeichnet. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Bi-Plot Definition 12 (Bi-Plot) Ein Bi-Plot ist eine Überlagerung von zwei Plots, dem Scores-Plot der ersten beiden Hauptkomponenten und dem Plot der Loadings dieser HKs, wobei die Punkte der beiden Plots unterschiedlich gekennzeichnet sind. Dabei wird der Nullpunkt der Loadings in das arithmetische Mittel der Punkte des Scores-Plots gelegt, und die Loadings werden so skaliert, dass Scores-Plot und Loadings-Plot dieselbe Ausdehnung haben. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Bi-Plot Die Richtung senkrecht zu den Clustern entspricht offenbar ziemlich genau der Variablen SUMDYE, der Summe der Farbstoffe in der chemischen Verbindung (s. nächste Abbildung). Nachfragen beim Anwender ergab, dass im Laufe der Zeit tatsächlich gefunden wurde, dass auch weniger Farbstoffinput ausreicht, um dieselbe Intensität der Färbung auf der Faser zu erreichen. Deshalb wurde die Produktion zweimal umgestellt! Der Bi-Plot stützt das insofern, dass u.a. die Farbstärke STRREM nahezu senkrecht auf SUMDYE steht, dass Farbstärke und Summe der Farbstoffe also nahezu unkorreliert sind. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

13 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Bi-Plot 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Typische Scores-Strukturen Die nächste Abbildung zeigt typische Strukturen, die in Streudiagrammen nach Projektion auf HKs auftreten können: 1 ein sog. Schrotschuss (uninteressante Struktur) 2 eine andere Variante von drei Clustern 3 nicht-lineare funktionale Abhängigkeit zwischen HKs. Abb. 12 : Typische Scores-Strukturen (PC1 gegen PC2) Abb. 11 : Bi-Plot Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Typische Scores-Strukturen Erinnerung: Hauptkomponentenanalyse hat das Ziel, mittels Dimensionsredktion niedrigdimensionale Strukturen aus hochdimensionalen Daten herauszufiltern. Dabei ist zu beachten, dass Projektionen auf Hauptkomponenten höchstens nicht-lineare Strukturen zeigen können. Lineare Zusammenhänge zwischen den Originalmerkmalen sind deshalb nicht sichtbar, weil die HKs so konstruiert worden sind, dass sie evtl. existierende lineare Zusammenhänge oder Strukturen in sich aufnehmen. Technischer ausgedrückt sind HKs senkrecht aufeinander stehende implizite Merkmale und deshalb unkorreliert. 13 Dimensionsreduktion 13.1 Hauptkomponentenanalyse Bi-Plot Typische Scores-Strukturen Bei interessanten nicht-linearen Strukturen stellt sich wiederum das Problem der Interpretation. Was nutzt die einfache Formulierung eines gefundenen Zusammenhangs zwischen den Originalmerkmalen mit Hilfe von impliziten Merkmalen, wenn der Zusammenhang nicht interpretiert werden kann? Hier können wiederum schrittweise Regression und Bi-Plot wertvolle Hilfe leisten. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

Korrelation und Regression

Korrelation und Regression FB 1 W. Ludwig-Mayerhofer und 1 und FB 1 W. Ludwig-Mayerhofer und 2 Mit s- und sanalyse werden Zusammenhänge zwischen zwei metrischen Variablen analysiert. Wenn man nur einen Zusammenhang quantifizieren

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung Systematische Stichprobe Rel. große Gruppe von Stichprobenverfahren. Allgemeines Merkmal: es existiert ein festes, systematisches Muster bei der Auswahl. Wie passt das zur allgemeinen Forderung nach Randomisierung

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Dr. I. Fahrner WiSe 2016/17 Fakultät Grundlagen Hochschule Esslingen Übungsblatt 2. Statistik

Dr. I. Fahrner WiSe 2016/17 Fakultät Grundlagen Hochschule Esslingen Übungsblatt 2. Statistik Dr. I. Fahrner WiSe 2016/17 Fakultät Grundlagen 6.10.2016 Hochschule Esslingen Übungsblatt 2 Statistik Stichworte: arithmetischer Mittelwert, empirische Varianz, empirische Standardabweichung, empirischer

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

TEIL 13: DIE EINFACHE LINEARE REGRESSION

TEIL 13: DIE EINFACHE LINEARE REGRESSION TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Zentralabitur 2011 Physik Schülermaterial Aufgabe I ga Bearbeitungszeit: 220 min

Zentralabitur 2011 Physik Schülermaterial Aufgabe I ga Bearbeitungszeit: 220 min Thema: Eigenschaften von Licht Gegenstand der Aufgabe 1 ist die Untersuchung von Licht nach Durchlaufen von Luft bzw. Wasser mit Hilfe eines optischen Gitters. Während in der Aufgabe 2 der äußere lichtelektrische

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Corinne Schenka Vorkurs Mathematik WiSe 2012/13 4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Vektorgeometrie. Inhaltsverzeichnis. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden)

Vektorgeometrie. Inhaltsverzeichnis. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden) fua3673 Fragen und Antworten Vektorgeometrie (bitte nur für den Eigengebrauch verwenden) Inhaltsverzeichnis Vektorgeometrie im Raum. Fragen................................................. Allgemeines..........................................

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Hauptkomponentenanalyse PCA

Hauptkomponentenanalyse PCA Hauptkoponentenanalyse PCA Die Hauptkoponentenanalyse (Principal Coponent Analysis, PCA) ist eine Methode zur linearen Transforation der Variablen, so dass: öglichst wenige neue Variablen die relevante

Mehr

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen Geometrische Objekte im -dimensionalen affinen Raum Bekanntlich versteht man unter geometrischen Objekten Punktmengen, auf die man die üblichen Mengenoperationen wie z.b.: Schnittmenge bilden: - aussagenlogisch:

Mehr

3.2 Streuungsmaße. 3 Lage- und Streuungsmaße 133. mittlere Variabilität. geringe Variabilität. große Variabilität 0.0 0.1 0.2 0.3 0.4 0.

3.2 Streuungsmaße. 3 Lage- und Streuungsmaße 133. mittlere Variabilität. geringe Variabilität. große Variabilität 0.0 0.1 0.2 0.3 0.4 0. Eine Verteilung ist durch die Angabe von einem oder mehreren Mittelwerten nur unzureichend beschrieben. Beispiel: Häufigkeitsverteilungen mit gleicher zentraler Tendenz: geringe Variabilität mittlere Variabilität

Mehr

Kapitel 4. Hauptkomponentenanalyse. 4.1 Einführung. 4.2 Herleitung der Hauptkomponenten

Kapitel 4. Hauptkomponentenanalyse. 4.1 Einführung. 4.2 Herleitung der Hauptkomponenten Kapitel 4 Hauptkomponentenanalyse 4. Einführung Die Hauptkomponentenanalyse ist eine variablenorientierte Methode, die, wie die Faktorenanalyse auch, versucht, die Originalvariablen durch eine kleinere

Mehr

Oberstufe (11, 12, 13)

Oberstufe (11, 12, 13) Department Mathematik Tag der Mathematik 1. Oktober 009 Oberstufe (11, 1, 1) Aufgabe 1 (8+7 Punkte). (a) Die dänische Flagge besteht aus einem weißen Kreuz auf rotem Untergrund, vgl. die (nicht maßstabsgerechte)

Mehr

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154 Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch

Mehr

Faktorenanalysen höherer Ordnung

Faktorenanalysen höherer Ordnung Faktorenanalysen höherer Ordnung 1 Ausgangssituation Übliche Faktorenanalysen (erster Ordnung) gehen von Zusammenhängen zwischen manifesten, beobachteten Variablen aus und führen diese Zusammenhänge auf

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors Einführu hnung Was ist ein Vektor? In Bereichen der Naturwissenschaften treten Größen auf, die nicht nur durch eine Zahlenangabe dargestellt werden können, wie Kraft oder Geschwindigkeit. Zur vollständigen

Mehr

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH ) Grundlegende Bemerkungen : Der Begriff des Vektors wurde in den vergangenen Jahren im Geometrieunterricht eingeführt und das mathematische Modell des Vektors wurde vor allem auch im Physikunterricht schon

Mehr

Faktorenanalyse Beispiel

Faktorenanalyse Beispiel Faktorenanalyse Zweck der Faktorenanalyse ist die Dimensionsreduktion einer gegebenen Variablenanzahl, d. h. also die Zusammenfassung vorhandener Variablen zu wenigen latenten, i. d. R. voneinander unabhängigen

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik Wahrscheinlichkeitsrechnung und Statistik Für Ingenieurstudenten an Fachhochschulen von Michael Sachs erweitert Wahrscheinlichkeitsrechnung und Statistik Sachs schnell und portofrei erhältlich bei beck-shopde

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2015 Mathematik Kompensationsprüfung Angabe für Prüfer/innen Hinweise zur Kompensationsprüfung

Mehr

Brückenkurs Elementarmathematik

Brückenkurs Elementarmathematik Brückenkurs Elementarmathematik IV. Ungleichungen November 13, 2013 Inhalt 1 Ungleichungen 2 Umformungen von Ungleichungen 2.1 Äquivalenzumformungen 2.2 Addition und Multiplikation von Ungleichungen 3

Mehr

10 Kapitel I: Anschauliche Vektorrechnung

10 Kapitel I: Anschauliche Vektorrechnung 10 Kapitel I: Anschauliche Vektorrechnung haben. In Mengenschreibweise ist G = {x x = a + tb für ein t R}. Wir werden für diese einführenden Betrachtungen im Interesse einer knappen Redeweise jedoch häufig

Mehr

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur

Mehr

Modulklausur Multivariate Verfahren

Modulklausur Multivariate Verfahren Name, Vorname Matrikelnummer Modulklausur 31821 Multivariate Verfahren Datum Punkte Note Termin: 28. März 2014, 9.00-11.00 Uhr Erstprüfer: Univ.-Prof. Dr. H. Singer Hinweise zur Bearbeitung der Modulklausur

Mehr

Ein Beispiel für eine lineare Abbildung

Ein Beispiel für eine lineare Abbildung Inhaltsverzeichnis Ein Beispiel für eine lineare Abbildung Lothar Melching Vorbemerkungen 2 Ein Beispiel 2 2 Definition der Abbildung f 2 22 Die Abbildungsmatrix 3 23 Anwendung 3 Eigenwerte 3 Die neue

Mehr

Anhang B. Regression

Anhang B. Regression Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 73 Ergänzungen Prof Dr Erich Walter Farkas Mathematik I+II, 73 Ergänzungen 1 / 17 1 Reguläre Matrizen Prof Dr

Mehr

Statische Versuchsplanung (DoE - Design of Experiments)

Statische Versuchsplanung (DoE - Design of Experiments) Statische Versuchsplanung (DoE - Design of Experiments) Übersicht Bei der statistischen Versuchsplanung wird die Wirkung von Steuerparametern unter dem Einfluss von Störparametern untersucht. Mit Hilfe

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

Aufgaben. zu Inhalten der 5. Klasse

Aufgaben. zu Inhalten der 5. Klasse Aufgaben zu Inhalten der 5. Klasse Universität Klagenfurt, Institut für Didaktik der Mathematik (AECC-M) September 2010 Zahlbereiche Es gibt Gleichungen, die (1) in Z, nicht aber in N, (2) in Q, nicht

Mehr

Die Korrelation von Merkmalen

Die Korrelation von Merkmalen Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Reression Zweck: Vorhersae Dimensionsreduktion Klassifizierun Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eienschaften: nicht-linear verteilunsfrei

Mehr

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße Wofür? Lageparameter Modus/ Modalwert Zentrum Median Zentralwert Im Datensatz stehende Informationen auf wenige Kenngrößen verdichten ermöglicht

Mehr

(geometrische) Anschauung

(geometrische) Anschauung (geometrische) Anschauung Marcus Page Juni 28 In dieser Lerneinheit widmen wir uns dem schon oft angesprochenen Zusammenhang zwischen Matrizen und linearen Abbildungen. Außerdem untersuchen wir Funktionen,

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher Planen mit mathematischen Modellen 00844: Computergestützte Optimierung Leseprobe Autor: Dr. Heinz Peter Reidmacher 11 - Portefeuilleanalyse 61 11 Portefeuilleanalyse 11.1 Das Markowitz Modell Die Portefeuilleanalyse

Mehr

Kapitel 6. Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit

Kapitel 6. Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit Kapitel 6 Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit 159 160 Kapitel 6. Zusammenfassung der Ergebnisse Im Fokus der vorliegenden Arbeit steht die Frage nach der Eignung verschiedener Matchingverfahren

Mehr

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik Informationsbestände analysieren Statistik 8. Statistik Nebst der Darstellung von Datenreihen bildet die Statistik eine weitere Domäne für die Auswertung von Datenbestände. Sie ist ein Fachgebiet der Mathematik

Mehr

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:

Mehr

Projekt Kaffeemaschine Welche Faktoren beeinflussen das Geschmacksurteil?

Projekt Kaffeemaschine Welche Faktoren beeinflussen das Geschmacksurteil? AKULTÄT ANGEWANDTE SOZIALWISSENSCHATEN PRO. DR. SONJA HAUG Projekt Kaffeemaschine Welche aktoren beeinflussen das Geschmacksurteil? Ausgehend von der Verkostung an der Hochschule Regensburg und der dabei

Mehr

8. Mehrkomponentensysteme. 8.1 Partielle molare Größen. Experiment 1 unter Umgebungsdruck p:

8. Mehrkomponentensysteme. 8.1 Partielle molare Größen. Experiment 1 unter Umgebungsdruck p: 8. Mehrkomponentensysteme 8.1 Partielle molare Größen Experiment 1 unter Umgebungsdruck p: Fügen wir einer Menge Wasser n mit Volumen V (molares Volumen v m =V/n) bei einer bestimmten Temperatur T eine

Mehr

Kapitel IR:III (Fortsetzung)

Kapitel IR:III (Fortsetzung) Kapitel IR:III (Fortsetzung) III. Retrieval-Modelle Modelle und Prozesse im IR Klassische Retrieval-Modelle Bool sches Modell Vektorraummodell Retrieval-Modelle mit verborgenen Variablen Algebraisches

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Kapitel 5 Untermannigfaltigkeiten. 5.1 Glatte Flächen in R 3

Kapitel 5 Untermannigfaltigkeiten. 5.1 Glatte Flächen in R 3 Kapitel 5 Untermannigfaltigkeiten 5.1 Glatte Flächen in R 3 Bisher haben wir unter einem glatten Weg im R n stets eine differenzierbare Abbildung γ:i R n, definiert auf einem Intervall I R, verstanden.

Mehr

5.4 Vektorgeometrie. 1 Repetition der Vektorgeometrie I Freie Vektoren, Ortsvektoren Die skalare Multiplikation eines Vektors...

5.4 Vektorgeometrie. 1 Repetition der Vektorgeometrie I Freie Vektoren, Ortsvektoren Die skalare Multiplikation eines Vektors... 5.4 Vektorgeometrie Inhaltsverzeichnis Repetition der Vektorgeometrie I. Freie Vektoren, Ortsvektoren................................... Die skalare Multiplikation eines Vektors.............................3

Mehr

(x 1. Vektoren. g: x = p + r u. p r (u1. x 2. u 2. p 2

(x 1. Vektoren. g: x = p + r u. p r (u1. x 2. u 2. p 2 Vektoren Mit der Vektorrechnung werden oft geometrische Probleme gelöst. Wenn irgendwelche Aufgabenstellungen geometrisch darstellbar sind, z.b. Flugbahnen oder Abstandsberechnungen, dann können sie mit

Mehr

Hauptkomponentenanalyse. Principal Component Analysis (PCA)

Hauptkomponentenanalyse. Principal Component Analysis (PCA) Hauptkomponentenanalyse Principal Component Analysis (PCA) Principal Component Analysis (PCA) Welche Ziele verfolgt man bei der Verwendung einer PCA? Repräsentation multidimensionaler Daten mit einer geringeren

Mehr

Lehrskript Mathematik Q12 Analytische Geometrie

Lehrskript Mathematik Q12 Analytische Geometrie Lehrskript Mathematik Q1 Analytische Geometrie Repetitorium der analytischen Geometrie Eine Zusammenfassung der analytischen Geometrie an bayerischen Gymnasien von Markus Baur, StR Werdenfels-Gymnasium

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Regression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung

Regression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung Sommersemester 2009 Ein Beispiel: Armut und Gewaltverbrechen Rechtswahl 15 10 5 0 5 10 Arbeitslosigkeit Zum Nachlesen Agresti: 9.1-9.4 Gehring/Weins: 8 Schumann: 8.1-8.2 Was ist ein Zusammenhang? Gemeinsame

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Aufgaben zu Kapitel 14

Aufgaben zu Kapitel 14 Aufgaben zu Kapitel 14 1 Aufgaben zu Kapitel 14 Verständnisfragen Aufgabe 14.1 Haben (reelle) lineare Gleichungssysteme mit zwei verschiedenen Lösungen stets unendlich viele Lösungen? Aufgabe 14.2 Gibt

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Ergänzung Eigenwerte und Eigenvektoren Motivation Definitionen Beispiele im IR 2 Beispiele im IR 3 Eigenwerte und Eigenvektoren Motivation Lineare Abbildungen, Ausgangsvektor und Bildvektor Lineare Abbildungen

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

Das Problem signifikanter Betaschätzungen

Das Problem signifikanter Betaschätzungen Das Problem signifikanter Betaschätzungen Bachelorarbeit Münchener Forschungspreis für 2. Dezember 2010 Gliederung 1. Problemstellung 2. Praktische Anwendung des Beta-Konzepts 3. Theoretische Grundlagen

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h. Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr