SBWL Tourismusanalyse und Freizeitmarketing



Ähnliche Dokumente
SBWL Tourismusanalyse und Freizeitmarketing

k-means Clustern in R

Multivariate Verfahren

4.Tutorium Multivariate Verfahren

SBWL Tourismusanalyse und Freizeitmarketing

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07

Klassifikation und Ähnlichkeitssuche

Strukturerkennende Verfahren

SBWL Tourismusanalyse und Freizeitmarketing

4.4 Hierarchische Clusteranalyse-Verfahren

Ähnlichkeits- und Distanzmaße

Lösungen zu den Aufgaben zur Multivariaten Statistik Teil 4: Aufgaben zur Clusteranalyse

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

Entscheidungen bei der Durchführung einer Cluster-Analyse

Unüberwachtes Lernen

Clusteranalyse. Florian Löwenstein. Clusteranalyse eoda GmbH

Mathematisch-Statistische Verfahren des Risiko-Managements - SS

Ziel: Unterteilung beobachteter Objekte in homogene Gruppen. Vorab meist weder Anzahl noch Charakteristika der Gruppen bekannt.

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

Ähnlichkeits- und Distanzmaße

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse)

Multivariate Verfahren

6. Multivariate Verfahren Zufallszahlen

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Bivariate explorative Datenanalyse in R

Kapitel ML: X (Fortsetzung)

Musterlösung. Modulklausur Multivariate Verfahren

Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität

Lösbarkeit linearer Gleichungssysteme

Hauptseminar KDD SS 2002

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

1 Beispiele multivariater Datensätze... 3

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

OPT Optimierende Clusteranalyse

Euklidische Distanzmatrizen. Andrei Grecu

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Übersicht der Vorlesung

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Charakterisierung von 1D Daten

Mehrdimensionale Skalierung

Vektoren und Matrizen

Clusteranalyse und Display-Methoden

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen III

Clustering Seminar für Statistik

VII Unüberwachte Data-Mining-Verfahren

Selbstständiges Lernen

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

1. Referenzpunkt Transformation

5.Tutorium Multivariate Verfahren

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Maschinelles Lernen in der Bioinformatik

Statistik, Datenanalyse und Simulation

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

09. Lineare Abbildungen und Koordinatentransformationen

Statistik II: Klassifikation und Segmentierung

Konzepte II. Netzwerkanalyse für Politikwissenschaftler

Multivariate Statistik

6 Symmetrische Matrizen und quadratische Formen

Univariate explorative Datenanalyse in R

Eine zweidimensionale Stichprobe

Clustering. Methods Course: Gene Expression Data Analysis -Day Four. Rainer Spang

Parallele Algorithmen in der Bildverarbeitung

4 Lineare Abbildungen

1 Umkehrfunktionen und implizite Funktionen

Vortrag 20: Kurze Vektoren in Gittern

Klausurvorbereitung Multivariate Statistik

Übung zum Projektseminar Wetterlagen und Feinstaub

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Mathematik I. Vorlesung 14. Rang von Matrizen

Kapitel 2: Mathematische Grundlagen

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Dr. Ralf Gutfleisch, Stadt Frankfurt a.m.

Erich Schubert, Arthur Zimek KDD Übung

Multivariate Statistische Methoden

6. Vorlesung. Rechnen mit Matrizen.

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Algorithmische Methoden für schwere Optimierungsprobleme

Empirische Forschungsmethoden

Bivariate explorative Datenanalyse in R

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Multivariate Statistische Methoden und ihre Anwendung

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Vorkurs Mathematik B

Konzepte II. Netzwerkanalyse für Politikwissenschaftler. Wiederholung

Multivariate Analysemethoden

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sparse PCA. Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick

5 Lineare Algebra (Teil 3): Skalarprodukt

B Grundbegriffe zu Mengen und Abbildungen

1 Euklidische und unitäre Vektorräume

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Transkript:

SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 2: Explorative multivariate Analyse & Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics Cluster

Inhalt Einheit 8: Explorative Grafik Einheit 9: Hauptkomponentenanalyse Einheit 10: Multidimensionale Skalierung Einheit 11: Hierarchisches Clustern Einheit 12: k-means Institute for Statistics and Mathematics Cluster 2-1

Notation Bei der (explorativen) multivariaten Analyse werden in aller Regel p Variablen untersucht, die alle gleichberechtigt in die Analyse eingehen wo also nicht nur eine Variable die abhängige Größe ist und alle anderen Erklärungsvariablen sind. Basis der Analyse sind dann die Beobachtungen dieser p Variablen an n Merkmalsträgern. Jede Beobachtung lässt sich als p-dimensionaler Vektor schreiben x i = (x i1,..., x ip ). Institute for Statistics and Mathematics Cluster 2-2

Notation Der gesamte Datensatz läßt sich dann wie gehabt als Matrix schreiben x 11... x 1p X =..... x n1... x np Dabei kann es sein, daß n p (wie typischerweise in der Regressionsanalyse), aber auch n p. Es gibt auch Fälle, wo die Rollen von n und p vertauschbar sind, d.h. also auch X anstatt X betrachtet werden kann. Wir werden zunächst davon ausgehen, daß alle Beobachtungen in X quantitativ sind. Institute for Statistics and Mathematics Cluster 2-3

Notation Beispiel: Für die Touristen aus dem GSA Datensatz betrachten wir einen aggregierten Teildatensatz: Für jede der betrachteten Sommeraktivitäten wird der Anteil der Touristen jedes Landes berechnet, die angegeben haben, diese Aktivität in ihrem Urlaub betrieben zu haben. Damit erhalten wir eine Datensatz mit n = 15 Ländern und verwenden p = 8 verschiedene Sommeraktivitäten. Institute for Statistics and Mathematics Cluster 2-4

Explorative Grafik Paarweise Streudiagramme Eine sehr einfache Möglichkeit, sich einen Überblick über eine Datenmatrix zu verschaffen, sind paarweise Streudiagramme. Diese werden manchmal auch Streudiagramm-Matrix genannt. Dabei wird einfach für jede mögliche paarweise Kombination der p Variablen ein Streudiagramm (mit n Beobachtungen) in ein Matrix- Schema eingetragen. Formal gesprochen heißt das, daß die Daten aus dem IR p in den IR 2 projiziert und dann visualisiert werden. Institute for Statistics and Mathematics Cluster 2-5

Explorative Grafik 0.05 0.15 0.1 0.2 0.3 0.4 0.5 0.02 0.06 0.05 0.20 0.35 SA01.tennis 0.01 0.04 0.05 0.15 SA02.cycle 0.1 0.3 0.5 SA03.ride SA05.swim 0.000 0.010 SA17.shop 0.10 0.25 0.02 0.08 SA18.concert SA19.sight 0.2 0.5 0.8 0.05 0.25 0.01 0.03 0.000 0.006 0.012 0.10 0.20 0.2 0.4 0.6 0.8 SA21.museum Institute for Statistics and Mathematics Cluster 2-6

Explorative Grafik 0.05 0.10 0.15 0.20 0.1 0.2 0.3 0.4 0.5 SA01.tennis 0.01 0.02 0.03 0.04 0.05 0.10 0.15 0.20 SA02.cycle 0.1 0.2 0.3 0.4 0.5 SA03.ride SA05.swim 0.000 0.004 0.008 0.012 0.01 0.02 0.03 0.04 0.000 0.004 0.008 0.012 Institute for Statistics and Mathematics Cluster 2-7

Explorative Grafik 0.02 0.04 0.06 0.08 0.05 0.15 0.25 0.35 SA17.shop 0.10 0.15 0.20 0.25 0.02 0.04 0.06 0.08 SA18.concert SA19.sight 0.2 0.4 0.6 0.8 0.05 0.15 0.25 0.35 SA21.museum 0.10 0.15 0.20 0.25 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Institute for Statistics and Mathematics Cluster 2-8

Explorative Grafik Während die Verwendung von Variablen mit unterschiedlichen Spannbreiten in paarweisen Streudiagrammen kein Problem ist, so benötigen andere Visualisierungsmethoden Beobachtungen auf einer standardisierten Skala. Dafür wird in der Regel das Einheitsintervall [0,1] verwendet. Um eine beliebige Matrix X in eine Matrix X zu transformieren, die nur Beobachtungen aus [0, 1] enthält, skaliert man üblicherweise jede Spalte so, daß das Minimum bei 0 und das Maximum bei 1 liegt. Die transformierten Werte X können dann als Anteile zwischen Minimum und Maximum interpretiert werden. Institute for Statistics and Mathematics Cluster 2-9

Explorative Grafik Formal heißt das, daß für jede Spalte das Minimum min j und das Maximum max j (j = 1,..., p) ausgerechnet wird. Damit ist dann x ij definiert als: min j = min ij i=1,...,n max j = max ij i=1,...,n x ij = x ij min j max j min j Institute for Statistics and Mathematics Cluster 2-10

Explorative Grafik Chernoff-Gesichter Eine eher unterhaltsame als wirklich informative Darstellung sind die Chernoff vorgeschlagenen und Flury & Riedwyl verbesserten Gesichter. Dabei werden verschiedene Attribute eines Gesichts mit Variablen belegt und gemäß X visualisiert. Die hier verwendete Implementierung kann bis zu 15 verschiedene Attribute variieren: 1 Höhe des Gesichts, 2 Breite des Gesichts, 3 Form des Gesichts, 4 Höhe des Munds, 5 Breite des Munds, 6 Form des Lächelns, 7 Höhe der Augen, 8 Breite der Augen, 9 Höhe der Haare, 10 Breite der Haare, 11 Styling der Haare, 12 Höhe der Nase, 13 Breite der Nase, 14 Breite der Ohren, 15 Höhe der Ohren. Institute for Statistics and Mathematics Cluster 2-11

Explorative Grafik 1 2 3 Institute for Statistics and Mathematics Cluster 2-11

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland UK USA other Institute for Statistics and Mathematics Cluster 2-12

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland UK USA other Institute for Statistics and Mathematics Cluster 2-13

Explorative Grafik Andrews-Kurven Eine deutlich wissenschaftlichere wenn auch nicht immer informativere Form der Visualisierung sind die Andrews-Kurven. Hierbei wird jede der multivariaten Beobachtungen x i durch einen kompletten Funktionsverlauf visualisiert. Die Funktion ist definiert als f xi (t) = 1 2 x i1 + x i2 sin(t) + x i3 cos(t) + x i4 sin(2 t) + x i5 cos(2 t) +... + x ip sin( p 2 t) bzw. cos( ) falls p ungerade. Institute for Statistics and Mathematics Cluster 2-14

Explorative Grafik Die Funktion wird dann auf dem Intervall π < t < π abgetragen. Diese Andrews-Kurven haben zwar die angenehme Eigenschaft, daß sie sowohl Mittelwerte als auch euklidische Distanzen beibehälten, jedoch hängt die Darstellung wieder stark von der Reihenfolge der Variablen ab und ist nicht immer sehr informativ. Institute for Statistics and Mathematics Cluster 2-15

Explorative Grafik 1.0 0.5 0.0 0.5 1.0 3 2 1 0 1 2 3 Institute for Statistics and Mathematics Cluster 2-16

Explorative Grafik 1.0 0.5 0.0 0.5 1.0 3 2 1 0 1 2 3 Institute for Statistics and Mathematics Cluster 2-17

Explorative Grafik 0.5 0.0 0.5 1.0 3 2 1 0 1 2 3 Institute for Statistics and Mathematics Cluster 2-18

Explorative Grafik Parallele Koordinaten Eine sehr einfache Art der Visualisierung ist es für jede Beobachtung x i einen Polygonzug zu zeichnen, diese nennt man auch parallele Koordinaten. Manchmal werden auch die Originalbeobachtungen x i visualisiert. Institute for Statistics and Mathematics Cluster 2-19

Explorative Grafik 0.0 0.2 0.4 0.6 0.8 SA01.tennis SA02.cycle SA03.ride SA05.swim SA17.shop SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-20

Explorative Grafik SA01.tennis SA02.cycle SA03.ride SA05.swim SA17.shop SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-21

Explorative Grafik Sterne Wenn die Anzahl der Beobachtungen n nicht zu groß ist, sind Sterne ein sehr gutes Mittel der Visualisierung von multivariaten Daten X (oder ggf. auch X). Dabei wird ein Kreis in p gleich große Sektoren eingeteilt und jeder Wert x ij wird in einem der Sektoren abgetragen. Verschiedene Varianten dieser Darstellung werden auch Sonnen, Glyphen, o.ä., genannt. Institute for Statistics and Mathematics Cluster 2-22

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland UK USA other Institute for Statistics and Mathematics Cluster 2-23

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland SA03.ride SA05.swim SA02.cycle SA17.shop SA01.tennis UK USA other SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-24

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland SA03.ride SA05.swim SA02.cycle SA17.shop SA01.tennis UK USA other SA18.concert SA21.museum SA19.sight Institute for Statistics and Mathematics Cluster 2-25

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland SA03.ride SA02.cycle SA05.swim SA01.tennis UK USA other SA17.shop SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-26

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland SA03.ride SA02.cycle SA05.swim SA01.tennis UK USA other SA17.shop SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-27

Explorative Grafik Austria (Vienna) Austria (other) Belgium Denmark France Germany Hungary Italy Netherlands Spain Sweden Switzerland SA03.ride SA02.cycle SA05.swim SA01.tennis UK USA other SA17.shop SA18.concert SA19.sight SA21.museum Institute for Statistics and Mathematics Cluster 2-28

Explorative Grafik SA01.tennis SA02.cycle SA03.ride SA05.swim SA19.sight SA17.shop SA21.museum SA18.concert France Denmark Belgium Germany Austria (other) Hungary Italy Netherlands Spain Sweden UK Switzerland USA Austria (Vienna) other Institute for Statistics and Mathematics Cluster 2-29

Tutorium Explorative multivariate Analyse in R (MVA.pdf ) Institute for Statistics and Mathematics Cluster 2-30

Übung Aufgabe 11: 102 Kinder haben 11 verschiedene Eissorten (u.a. Magnum, Cornetto, Calippo) getestet und dann jede Eissorte bezüglich 14 Eigenschaften (u.a. tastes excellent, looks good ) bewertet. Dabei konnten sie jede Aussage nur als zutreffend oder unzutreffend einstufen. Der Datensatz Ice.rda enthält aggregierte Daten, die für jede Kombination von Eissorte und Aussage den Anteil der Kinder angeben, die die Aussage als zutreffend eingestuft haben. Versuchen Sie die Daten mit Hilfe von verschiedenen Grafiken zu visualisieren. Können Sie irgendwelche Strukturen erkennen? Institute for Statistics and Mathematics Cluster 2-31

Übung Die 14 Aussagen sind im Detail: 1 tastes excellent, 2 looks good, 3 satisfies my hunger, 4 satisfies my thirst, 5 refreshing, 6 for everyday, 7 for special occasions, 8 for adults, 9 my favorite, 10 different, 11 cool, 12 I would never eat that, 13 fun for children, 14 expensive. Institute for Statistics and Mathematics Cluster 2-32

Hauptkomponentenanalyse Mit den paarweisen Streudiagrammen haben wir bereits eine Visualisierungstechnik kennengelernt, die eine Projektion der gesamten Datenmatrix X aus dem IR p in den IR 2 vornimmt. Problem: 1. Es gibt eine große Anzahl von möglichen 2-dimensionalen Projektionen ohne eine bestimmte Reihenfolge. 2. Man projiziert nur entlang der Achsen. Lösung: Betrachte Linearkombinationen Xa j (j = 1,..., p) mit beliebigen Koeffizienten a j, so daß Xa 1 die interessanteste Linearkombination ist und Xa 2 die zweit-interessanteste usw. Institute for Statistics and Mathematics Cluster 2-33

Hauptkomponentenanalyse 4 2 0 2 4 4 2 0 2 4 Institute for Statistics and Mathematics Cluster 2-34

Hauptkomponentenanalyse 4 2 0 2 4 4 2 0 2 4 Institute for Statistics and Mathematics Cluster 2-35

Hauptkomponentenanalyse 4 2 0 2 4 4 2 0 2 4 Institute for Statistics and Mathematics Cluster 2-36

Hauptkomponentenanalyse 6 4 2 0 2 4 6 4 2 0 2 4 Institute for Statistics and Mathematics Cluster 2-37

Hauptkomponentenanalyse Formal gesprochen heißt interessant immer mit hoher Varianz, da man ja genau versucht die zufällige Variation der Daten zu verstehen. Man versucht also durch Linearkombinationen XA ein neues Koordinatensystem zu finden, in dem die erste Variable die meiste Information diesbezüglich enthält, die zweite die zweitmeiste Information usw. Mit etwas Glück enthalten dann die ersten paar (bspw. 2 oder 3) fast die gesamte Information und die verbleibenden (p 2 bzw. p 3) Variablen können bei der weiteren Analyse vernachlässigt werden. Institute for Statistics and Mathematics Cluster 2-38

Hauptkomponentenanalyse Die durch Linearkombinationen neu konstruierten Variablen nennt man auch Hauptkomponenten (engl.: principal components). Die Hauptkomponentenanalyse (engl.: principal component analysis, PCA) ist eine Technik zur Dimensionsreduktion. Institute for Statistics and Mathematics Cluster 2-39

Hauptkomponentenanalyse Konstruktion: Sei S = V (X) die Kovarianzmatrix der Daten X. Dann wollen wir eine Linearkombination Xa 1 finden, so daß V (Xa 1 ) = a 1 Sa 1 maximal wird. Um dieses Problem identifizierbar zu machen, legen wir außerdem die Nebenbedingung a 1 a 1 = 1 an. Die Lagrange-Funktion, die hier optimiert werden muß ist daher f(a 1, λ 1 ) = a 1 Sa 1 λ 1 (a 1 a 1 1) Das heißt f(a 1, λ 1 ) muß nach a 1 und nach λ 1 differenziert und dann gleich 0 gesetzt werden. Institute for Statistics and Mathematics Cluster 2-40

Hauptkomponentenanalyse Differenzierung nach λ 1 ergibt die Nebenbedingung und Differenzierung nach a 1 2Sa 1 2λ 1 a 1 = 0 Sa 1 = λ 1 a 1 Ein Vektor a 1 mit dieser Eigenschaft heißt Eigenvektor der Matrix S und λ 1 ist der zugehörige Eigenwert. Daher kann man die Hauptkomponenten aus der Eigenwertzerlegung der Kovarianzmatrix S berechnen. Institute for Statistics and Mathematics Cluster 2-41

Hauptkomponentenanalyse Alternative: Statt mit der Kovarianzmatrix rechnet man mit der Korrelationsmatrix um sich des Problems unterschiedlicher Skalen zu entledigen. Das entspricht wieder eine Skalierung der Daten X zu ˆX, so daß jede Spalte von ˆX den Mittelwert 0 und die Varianz 1 hat: ˆx ij = x ij x j SD j Institute for Statistics and Mathematics Cluster 2-42

Hauptkomponentenanalyse Beispiel: Hauptkomponentenzerlegung für die aggregierten GSA- Daten für n = 15 Länder und p = 8 Aktivitäten. Die Hauptkomponentenanalyse berechnet die 8 8 Rotationsmatrix A, die die Koeffizienten/Eigenvektoren a 1,..., a 8 enthält. Diese nennt man auch Ladungen der Hauptkomponenten. Die zugehörgigen Eigenwerte λ 1,..., λ 8 geben an, welcher Anteil der Gesamtvarianz durch die entsprechende Hauptkomponente eingefangen wird. Bemerkung: Da die Eigenvektoren nur bis auf einen Faktor definiert sind, sind die Hauptkomponenten nur bis auf das Vorzeichen definiert. Institute for Statistics and Mathematics Cluster 2-43

Hauptkomponentenanalyse Aktivität PC 1 PC 2... Tennis -0.351-0.287 Radfahren -0.387-0.202 Reiten -0.315-0.477 Schwimmen -0.363 0.249 Shopping 0.344 0.387 Konzert 0.351-0.303 Sightseeing 0.384-0.232 Museum 0.327-0.541 Die erste Hauptkomponente fängt dabei 73% der Varianz ein, die zweite 12%. Einen Plot der Varianzen nennt man auch Screeplot. Institute for Statistics and Mathematics Cluster 2-44

Hauptkomponentenanalyse Variances 0 1 2 3 4 5 Institute for Statistics and Mathematics Cluster 2-45

Hauptkomponentenanalyse Hier fängt also die erste Hauptkomponente bereits den grössten Teil der Varianz ein. Alle Koeffizienten von PC 1 haben in etwa denselben Absolutbetrag, aber unterschiedliche Vorzeichen. Damit kontrastiert PC 1 die durchschnittliche sportliche Aktivität (Tennis, Rad, Reiten Schwimmen) mit der durchschnittlichen kulturellen Aktivität (Shopping, Konzert, Sightseeing, Museum). Ein hoher Wert bei PC 1 spricht für hohe kulturelle Aktivität, ein niedriger für hohe sportliche Aktivität. Die zweite Komponente PC 2 kontrastiert vor allem die Kombination Shopping/Schwimmen mit den übrigen Variablen. Institute for Statistics and Mathematics Cluster 2-46

Hauptkomponentenanalyse PC2 4 2 0 2 4 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-47

Hauptkomponentenanalyse PC2 4 2 0 2 4 Denmark Sweden Netherlands UK Belgium other Austria (other) Germany France Austria Switzerland (Vienna) Hungary Italy USA Spain 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-48

Hauptkomponentenanalyse Biplot: Wenn zusätzlich zu den Beobachtungen auch noch die Projektion der ursprünglichen Achsen in die Grafik der (ersten beiden) Hauptkomponenten zeichnet, dann nennt man sie Biplot. Achsen die in eine ähnliche Richtung zeigen (also nur einen geringen Winkel nach der Projektion haben), messen ähnliche Konzepte. Präziser formuliert entsprechen Winkel Korrelationen zwischen den Variablen. Institute for Statistics and Mathematics Cluster 2-49

Hauptkomponentenanalyse 4 2 0 2 4 Denmark PC2 0.2 0.0 0.2 0.4 Sweden Netherlands UK SA17.shop Belgium SA05.swim other Austria (other) Germany SA02.cycle SA01.tennis USA FranceSA18.concert SA19.sight Hungary Austria SA03.ride Switzerland (Vienna) SA21.museum 2 0 2 4 Italy Spain 0.4 0.2 0.0 0.2 0.4 PC1 Institute for Statistics and Mathematics Cluster 2-50

Tutorium Hauptkomponentenanalyse in R (PCA.pdf ) Institute for Statistics and Mathematics Cluster 2-51

Übung Aufgabe 12: Führen Sie eine Hauptkomponentenanalyse (mit Skalierung) der Ice Daten durch. Wie viele Hauptkomponenten muß man bei der Analyse mindestens berücksichtigen? Welche Konzepte messen die ersten Hauptkomponenten? Visualisieren Sie das Ergebnis geeignet. Institute for Statistics and Mathematics Cluster 2-52

Übung Aufgabe 13: Der Datensatz SwissBank enthält 6 verschiedene physische Abmessungen von 200 Schweizer Banknoten (u.a. Randbreite, Diagonale, Höhe, usw.). Einige dieser Banknoten sind echt, andere Falschgeld. Führen Sie eine Hauptkomponentenanalyse (ohne Skalierung) durch. Wie viele Hauptkomponenten muß man bei der Analyse mindestens berücksichtigen? Visualisieren Sie die Daten. Gibt es Gruppen in den Daten? Welche Eigenschaften führen zu einer guten Diskriminierung der Geldscheine? Institute for Statistics and Mathematics Cluster 2-53

Distanzen In den vorangegangenen Abbildungen der Hauptkomponenten haben wir immer die Distanzen zwischen Punkten betrachtet: Punkte, die nahe beieinander liegen, sind ähnlich Punkte, die weit entfernt liegen, sind unähnlich. Nun kann man sich also fragen, wie man genereller die Distanzen (d.h. Unähnlichkeiten) zwischen zwei Beobachtungen (d.h. Zeilen) der Datenmatrix X messen kann. Institute for Statistics and Mathematics Cluster 2-54

Distanzen 0 1 2 3 4 5 1 2 3 4 5 6 Institute for Statistics and Mathematics Cluster 2-55

Distanzen Euklidische Distanz 0 1 2 3 4 5 d = 3 2 + 4 2 1 2 3 4 5 6 Institute for Statistics and Mathematics Cluster 2-56

Distanzen Manhattan Distanz 0 1 2 3 4 5 d = 3 + 4 1 2 3 4 5 6 Institute for Statistics and Mathematics Cluster 2-57

Distanzen Manhattan Distanz 0 1 2 3 4 5 d = 3 + 4 1 2 3 4 5 6 Institute for Statistics and Mathematics Cluster 2-58

Distanzen Maximumsdistanz 0 1 2 3 4 5 d = max(3, 4) 1 2 3 4 5 6 Institute for Statistics and Mathematics Cluster 2-59

Distanzen Seien also x 1 und x 2 zwei verschiedene Beobachtungen/Zeilen aus X, dann sind: Manhattan Distanz: d 1 (x 1, x 2 ) = p x 1j x 2j j=1 Euklidische Distanz: d 2 (x 1, x 2 ) = p (x 1j x 2j ) 2 j=1 Institute for Statistics and Mathematics Cluster 2-60

Distanzen Maximumsdistanz: Canberra Distanz: d (x 1, x 2 ) = max j=1,...,p x 1j x 2j d C (x 1, x 2 ) = p j=1 x 1j x 2j x 1j + x 2j Institute for Statistics and Mathematics Cluster 2-61

Distanzen Zusätzlich gibt es spezielle Distanzen für binäre Merkmale. Am gängigsten ist die binäre Distanz, die jeweils den Anteil von Variablen angibt, die für beide Beobachtungen kein Erfolg ist, unter den Variablen, wo zumindest eine der Beobachtungen ein Erfolg ist. Man läßt also zuerst alle Spalten weg, wo beide Merkmale 0 sind. Dann berechnet man den Anteil diskordanter Spalten (wo eine Beobachtung 1 und die andere 0 ist) unter den verbleibenden Spalten. Institute for Statistics and Mathematics Cluster 2-62

Multidimensionale Skalierung Mit jeder der vorher definierten Distanzen kann aus einer gegebenen n p Matrix von Beobachtungen X eine n n Matrix von paarweisen Distanzen D berechnet werden. Frage: Ist die Umkehrung auch möglich? Antwort: Ja, ist immer exakt möglich, wenn p = n 1 (unter bestimmten Regularitätsvoraussetzungen an D). Institute for Statistics and Mathematics Cluster 2-63

Multidimensionale Skalierung Frage: Ist dasselbe auch möglich für kleines p (bspw. p = 2)? Antwort: Ja, wenn so eine Lösung existiert. Sonst können approximative Lösungen gefunden werden. Solche Verfahren nennt man Multidimensionale Skalierung (MDS), das bekannteste ist die sogenannte klassische MDS. Die resultierende Matrix X der Skalierung nennt man Konfiguration, sie ist bis auf Rotationen (insbesonders also Vorzeichenwechsel) definiert. Institute for Statistics and Mathematics Cluster 2-64

Multidimensionale Skalierung Beispiel: Distanzen zwischen Sprachen Um Abstände zwischen verschiedenen Sprachen (u.a. Englisch, Deutsch, Dänisch,...) zu messen, wird eine sehr einfache Distanz verwendet: man zählt einfach, wie viele Wörter für die Zahlen 1 bis 10 mit unterschiedlichen Buchstaben beginnen. In Englisch und Deutsch fangen one/eins, two/zwei, three/drei, four/vier, eight/acht, ten/zehn mit unterschiedlichen Buchstaben an, hingegen five/fünf, six/sechs, seven/sieben und nine/neun mit den gleichen Buchstaben. Der Abstand beträgt also 6. Institute for Statistics and Mathematics Cluster 2-65

Multidimensionale Skalierung Für die ersten vier betrachteten Sprachen ergibt sich daraus eine Distanzmatrix Englisch Dänisch Holländisch Deutsch Englisch 0 2 7 6 Dänisch 2 0 6 5 Holländisch 7 6 0 5 Deutsch 6 5 5 0 Die zugehörigen klassische MDS ergibt folgende Konfiguration. Institute for Statistics and Mathematics Cluster 2-66

Multidimensionale Skalierung Finnish 2 0 2 4 Hungarian Dutch Danish English German Russian Polish French Arabic 6 4 2 0 2 4 Institute for Statistics and Mathematics Cluster 2-67

Tutorium Multidimensionale Skalierung in R (MDS.pdf ) Institute for Statistics and Mathematics Cluster 2-68

Übung Aufgabe 14: Der Datensatz autodist gibt die Distanzen zwischen den neun österreichischen Landeshauptstädten in Kilometern an (nach dem Shell-Online Autoatlas). Versuchen Sie aus diesen Distanzen eine Karte der Landeshauptstädte zu rekonstruieren. (Hinweis: Konfigurationen können gespiegelt werden.) Der Datensatz oebbdist gibt dieselben Distanzen gemäß der OeBB- Bahnverbindungen an. Konstruieren Sie auch hier eine Karte und vergleichen Sie die Konfiguration mit der auf den Autodistanzen basierenden. Institute for Statistics and Mathematics Cluster 2-69

Clusteranalyse Eine Klassifikation von Objekten (Beobachtungen) ist eine Einteilung dieser Objekte in Gruppen (Cluster), so daß der Abstand der Objekte innerhalb einer Gruppe möglichst klein, aber zwischen den Gruppen möglichst groß ist. Man möchte also Homogenität/Ähnlichkeit innerhalb der Cluster, Heterogenität/Unähnlichkeit zwischen den Clustern erzielen. Institute for Statistics and Mathematics Cluster 2-70

Clusteranalyse Die Klassifikationen, die wir hier betrachten, sind entweder Partitionen oder Hierarchien von Partitionen. Eine Partition ist eine vollständige und alternative Zerlegung der n Objekte in k Cluster, d.h. jede Beobachtung ist genau einem Cluster zugehörig. Die Vereinigung aller Cluster ergibt also die Gesamtheit aller Objekte, während alle paarweisen Durchschnitte der Cluster leer sind. Institute for Statistics and Mathematics Cluster 2-71

Clusteranalyse Formal: Eine Partition C ist eine Menge von k Clustern C = {C 1,..., C k } wobei jeder Cluster C j eine Menge von Objekten ist, so daß C 1... C k = {x 1,..., x n } C i C j = Eine Hierarchie von Partitionen ist eine Folge von Partitionen, so daß C j und C j+1 sich nur dadurch unterscheiden, daß mindestens ein Cluster aus C j nochmals partitioniert wurde. Institute for Statistics and Mathematics Cluster 2-72

Clusteranalyse Um nun die Heterogenität zwischen den Clustern beurteilen zu können, benötigen wir geeignete Distanzen D(, ) zwischen Clustern. Diese werden üblicherweise basierend auf den paarweisen Distanzen zwischen den Objekten aus den Clustern d(, ) berechnet. Dadurch kann diesen Heterogenitätsmaßen jedes beliebige Distanzmaß von Objekten zugrunde gelegt werden. Einige solcher Distanzmaße haben wir bereits kennengelernt. Institute for Statistics and Mathematics Cluster 2-73

Clusteranalyse Die Distanz von zwei Clustern wird durch die Distanz der beiden ähnlichsten Objekte der Cluster definiert. D s (C 1, C 2 ) = min x C 1,y C 2 d(x, y) Cluster Verfahren, die dieses Heterogenitätsmaß verwenden, heißen single linkage Verfahren oder Verfahren der nächsten Nachbarn. Problem: Die Heterogenität wird tendenziell unterschätzt. Institute for Statistics and Mathematics Cluster 2-74

Clusteranalyse Die Distanz von zwei Clustern wird durch die Distanz der beiden unähnlichsten Objekte der Cluster definiert. D c (C 1, C 2 ) = max x C 1,y C 2 d(x, y) Cluster Verfahren, die dieses Heterogenitätsmaß verwenden, heißen complete linkage Verfahren oder Verfahren der weitesten Nachbarn. Problem: Die Heterogenität wird tendenziell überschätzt. Institute for Statistics and Mathematics Cluster 2-75

Clusteranalyse Die Distanz von zwei Clustern wird durch die mittlere Distanz der Objekte der Cluster definiert. D a (C 1, C 2 ) = 1 C 1 C 2 x C 1 y C 2 d(x, y) Cluster Verfahren, die dieses Heterogenitätsmaß verwenden, heißen average linkage Verfahren. Institute for Statistics and Mathematics Cluster 2-76

Clusteranalyse Eine weitere Methode um Distanzen zwischen Clustern zu definieren, ist die Methode von Ward. Die Idee ist dabei, daß eine Art Varianzanalyse durchgeführt wird, die die Fehlerquadratsumme in zwei Clustern mit der Fehlerquadratsumme des resultierenden vereinigten Clusters vergleicht. Institute for Statistics and Mathematics Cluster 2-77

Clusteranalyse Analog können Maße für die Homogenität innerhalb eines Clusters definiert werden: maximale Distanz, minimale Distanz oder durchschnittliche Distanz von jeweils zwei Objekten innerhalb desselben Clusters. Institute for Statistics and Mathematics Cluster 2-78

Hierarchisches Clustern Clusterverfahren, die Hierarchien von Partitionen erzeugen, nennt man hierarchische Clusterverfahren. Diese lassen sich unterteilen in divisive und agglomerative Verfahren. Divisive Verfahren beginnen mit einem einzigen Cluster, der alle Objekte enthält, partitionieren diesen Cluster, und wiederholen dies rekursiv für jeden Cluster der entstandenen Partition. In der Regel wird in jedem Schritt genau ein Cluster in zwei neue Cluster zerlegt. Institute for Statistics and Mathematics Cluster 2-79

Hierarchisches Clustern Agglomerative Verfahren gehen genau umgekehrt vor: Sie fangen also mit einer Partition an, in der jeder Cluster nur genau ein Objekt enthält, und legen dann rekursiv Cluster zusammen. Die hier betrachteten Verfahren sind von der Form: 1. Starte mit n Clustern (einer für jedes Objekt). Die Distanzen zwischen den Clustern sind einfach die Distanzen zwischen den Objekten. 2. Lege die beiden ähnlichsten Cluster zusammen. 3. Berechne die Distanzen des neuen zu allen übrigen Clustern. 4. Wiederhole 2. und 3. bis es nur noch einen Cluster (mit allen Objekten) gibt. Institute for Statistics and Mathematics Cluster 2-80

Hierarchisches Clustern In Schritt 1. bei der Berechnung der Distanzen zwischen den Objekten kann ein beliebiges Distanzmaß verwendet werden. Bei metrischen Merkmalen werden in aller Regel euklidische Distanzen verwendet. In Schritt 3. bei der Berechnung der Distanzen zwischen den Clustern kann eines der oben definierten Distanzmaße verwendet werden. Einige Eigenschaften der verschiedenen Verfahren lassen sich festhalten. Institute for Statistics and Mathematics Cluster 2-81

Hierarchisches Clustern Single linkage verwendet eine Freunde von Freunden -Strategie, um die Cluster zu konstruieren, da ein einziges Objekt zwei ansonsten weit auseinander liegende Cluster verbinden kann. Dies führt oft zu Verkettungen von Clustern. Complete linkage versucht sehr homogene Cluster zu finden, manchmal zu homogene. Average linkage ist ein Kompromiß zwischen single und complete linkage. Die Ward-Methode versucht kompakte sphärische Cluster zu finden. Institute for Statistics and Mathematics Cluster 2-82

Hierarchisches Clustern Cluster Dendrogram Height 1.2 1.6 2.0 2.4 Spain USA Italy Austria (other) Austria (Vienna) Switzerland France Hungary Germany Netherlands Denmark Belgium Sweden UK other gsa.dist hclust (*, "single") Institute for Statistics and Mathematics Cluster 2-83

Hierarchisches Clustern Cluster Dendrogram Height 1 3 5 7 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary Belgium Sweden Denmark Netherlands UK other France Italy gsa.dist hclust (*, "complete") Institute for Statistics and Mathematics Cluster 2-84

Hierarchisches Clustern Cluster Dendrogram Height 1 2 3 4 5 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary France Italy Belgium Sweden Denmark Netherlands UK other gsa.dist hclust (*, "average") Institute for Statistics and Mathematics Cluster 2-85

Hierarchisches Clustern Cluster Dendrogram Austria (other) Austria (Vienna) Switzerland Germany Hungary Spain USA Belgium Sweden Denmark Netherlands UK other France Italy Height 0 4 8 12 16 gsa.dist hclust (*, "ward") Institute for Statistics and Mathematics Cluster 2-86

Hierarchisches Clustern Das Dendrogramm einer Hierarchie von Partitionen visualisiert als Baum in welcher Reihenfolge die Cluster zusammengelegt werden. Die Höhe gibt dabei an, ab welcher Distanz zwei Cluster zusammengefaßt werden. Je höher also der Schritt zur nächsten Zusammenlegung ist, desto unähnlicher sind die Cluster die zusammengelegt werden. Typischerweise sind die zu überschreitenden Höhen zunächst klein und werden dann immer größer. Man hört in der Regel dann auf, Cluster zusammenzufassen, wenn die Distanzen zu groß werden. Ein Zerschneiden des Baumes auf einer bestimmten Höhe ergibt immer eine Partition der Daten. Institute for Statistics and Mathematics Cluster 2-87

Hierarchisches Clustern Cluster Dendrogram Height 1 2 3 4 5 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary France Italy Belgium Sweden Denmark Netherlands UK other gsa.dist hclust (*, "average") Institute for Statistics and Mathematics Cluster 2-88

Hierarchisches Clustern Cluster Dendrogram Height 1 2 3 4 5 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary France Italy Belgium Sweden Denmark Netherlands UK other gsa.dist hclust (*, "average") Institute for Statistics and Mathematics Cluster 2-89

Hierarchisches Clustern Cluster Dendrogram Height 1 2 3 4 5 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary France Italy Belgium Sweden Denmark Netherlands UK other gsa.dist hclust (*, "average") Institute for Statistics and Mathematics Cluster 2-90

Hierarchisches Clustern Cluster Dendrogram Height 1 2 3 4 5 Spain USA Austria (other) Austria (Vienna) Switzerland Germany Hungary France Italy Belgium Sweden Denmark Netherlands UK other gsa.dist hclust (*, "average") Institute for Statistics and Mathematics Cluster 2-91

Tutorium Hierarchisches Clustern in R (HClust.pdf ) Institute for Statistics and Mathematics Cluster 2-92

Übung Aufgabe 15: Clustern Sie die Ice Daten (nach Skalierung) hierarchisch. Welche Distanzmethode halten Sie für die geeignetste? Wie viele Cluster würden Sie wählen? Welche der Eigenschaften unterscheidet sich besonders stark zwischen den Clustern? Institute for Statistics and Mathematics Cluster 2-93

Übung Aufgabe 16: Clustern Sie die SwissBank Daten (ohne Skalierung) hierarchisch. Welche Distanzmethode halten Sie für die geeignetste? Wie viele Cluster würden Sie wählen? Welche der Eigenschaften unterscheidet sich besonders stark zwischen den Clustern? Institute for Statistics and Mathematics Cluster 2-94

Übung Aufgabe 17: Aggregieren Sie die GSA Daten nach dem Zielbundesland province (anstatt nach dem Herkunftsland) für die Motivationsvariablen 01, 02, 06, 07, 08, 09 (anstatt der Sommeraktivitäten). Visualisieren Sie die Daten mit Hilfe von Sternen. Führen Sie eine Hauptkomponentenanalyse durch. Clustern Sie die Daten hierarchisch. Wie und in welchen Eigenschaften bzgl. der Motivationen unterscheiden sich die Zielbundesländer? Institute for Statistics and Mathematics Cluster 2-95

k-means Neben Algorithmen, die Hierarchien von Partitionen berechnen, gibt es auch Algorithmen, die direkt nur Partitionen für eine bestimmte Zahl k von Clustern eine Partition berechnet. Frage: Welche aller möglichen Partitionen von n Objekten in k Cluster, soll aber gewählt werden? Antwort: Benutze eine Zielfunktion und wähle die Partition, die die Zielfunktion optimiert. Institute for Statistics and Mathematics Cluster 2-96

k-means Frage: Was ist eine geeignete Zielfunktion? Antwort: Eine mögliche Zielfunktion, die gerade bei Verwendung euklidischer Distanzen intuitiv ist, ist die Fehlerquadratsumme SS. Dies ist die Summe der quadratischen euklidischen Distanzen der Beobachtungen von ihrem Cluster-Mittelwert. Mittelwert in Cluster j: x j = 1 C j x C j x Institute for Statistics and Mathematics Cluster 2-97

k-means Fehlerquadratsumme in Cluster j und gesamte Fehlerquadratsumme: WSS(C j ) = x C j d 2 (x, x j ) 2 SS(C) = k j=1 WSS(C j ) Damit hat man also die Partition C durch k Mittelwerte x 1,..., x k repräsentiert. Diese nennt man auch Prototypen. Die Partition C (oder äquivalent: die zugehörigen k Mittelwerte), die Institute for Statistics and Mathematics Cluster 2-98

k-means die Fehlerquadratsumme SS(C) minimieren, nennt man k-means- Partition. Institute for Statistics and Mathematics Cluster 2-98

k-means Es gibt verschiedene Algorithmen, die eine approximative Lösung für das k-means-problem berechnen. Der bekannteste ist: 1. Beginne mit k (zufälligen) Mittelwerten x j. 2. Ordne jeden Punkt x i dem Cluster j zu, zu dessem Mittelwerte x j er am nächsten liegt. 3. Berechne die neuen Mittelwerte x j als Mittelwerte der Cluster j. 4. Wiederhole 2. und 3. bis sich die Cluster nicht mehr ändern. Problem: Dieser Algorithmus findet nur ein lokales Minimum von SS(C) und nicht das globale Minimum. Institute for Statistics and Mathematics Cluster 2-99

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-100

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-101

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-102

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-103

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-104

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-105

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-106

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-107

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-108

k-means x[,2] 4 2 0 2 4 4 2 0 2 4 x[,1] Institute for Statistics and Mathematics Cluster 2-109

k-means Beispiel: Zwei verschiedene Läufe von k-means mit unterschiedlichen Startwerten auf den skalierten GSA Daten. Bemerkung: Die Visualisierung der Partition verwendet die ersten beiden Hauptkomponenten. Die Distanzen wurden im IR 8 berechnet, werden aber auch in der Projektion in den IR 2 noch gut widergespiegelt. Institute for Statistics and Mathematics Cluster 2-110

k-means Denmark PC2 1.0 0.5 0.0 0.5 1.0 1.5 Sweden Netherlands Belgium Austria (other) Germany Hungary ria (Vienna) Switzerland UK France other USA Italy Spain 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-111

k-means Denmark PC2 1.0 0.5 0.0 0.5 1.0 1.5 Sweden Netherlands Belgium Austria (other) Germany Hungary ria (Vienna) Switzerland UK France other USA Italy Spain 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-112

k-means Es sind also aufgrund unterschiedlicher Startwerte, unterschiedliche Partitionen gewählt worden. Mindestens eine der beiden Partitionen hat also nur ein lokales Minimum gefunden. Hier ist und deshalb ist C 2 vorzuziehen. SS(C 1 ) = 30.723 SS(C 2 ) = 24.565 In der Praxis: Berechne 20 Partitionen mit unterschiedlichen Startwerten. Behalte nur die mit der kleinsten Fehlerquadratsumme. Institute for Statistics and Mathematics Cluster 2-113

k-means Frage: Welche Anzahl k von Clustern soll verwendet werden? Antwort: Berechne für k = 2,3,... jeweils eine geeignete k-means- Partition und visualisiere die zugehörigen Fehlerquadratsummen. Man hört in der Regel dann auf, Cluster hinzuzufügen, wenn die Verbesserung der Fehlerquadratsumme zu gering wird. Institute for Statistics and Mathematics Cluster 2-114

k-means Denmark PC2 1.0 0.5 0.0 0.5 1.0 1.5 Sweden Netherlands Belgium Austria (other) Germany Hungary ria (Vienna) Switzerland UK France other USA Italy Spain 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-115

k-means Denmark PC2 1.0 0.5 0.0 0.5 1.0 1.5 Sweden Netherlands Belgium Austria (other) Germany Hungary ria (Vienna) Switzerland UK France other USA Italy Spain 4 2 0 2 4 PC1 Institute for Statistics and Mathematics Cluster 2-116

k-means 0 10 20 30 40 50 2 3 4 5 6 7 Institute for Statistics and Mathematics Cluster 2-117

k-means Alternativ: Es gibt verschiedene Güte-Indizes, die versuchen einen geeigneten Trade-off zwischen der Anzahl der Cluster k, der Heterogenität zwischen den Clustern und der Homogenität innerhalb der Cluster festzulegen. Die Anzahl der Cluster wird dann durch Optimierung des jeweils verwendeten Güte-Index durchgeführt. Institute for Statistics and Mathematics Cluster 2-118

Tutorium k-means Clustern in R (kmeans.pdf ) Institute for Statistics and Mathematics Cluster 2-119

Übung Aufgabe 18: Clustern Sie die Ice Daten (nach Skalierung) mit Hilfe von k-means. Wie viele Cluster würden Sie wählen? Durch welche Eigenschaften sind die Prototypen charakterisiert? Aufgabe 19: Clustern Sie die SwissBank Daten (ohne Skalierung) mit Hilfe von k-means. Wie viele Cluster würden Sie wählen? Durch welche Eigenschaften sind die Prototypen charakterisiert? Institute for Statistics and Mathematics Cluster 2-120

Übung Aufgabe 20: Aggregieren Sie die GSA Daten nach dem Zielbundesland province (anstatt nach dem Herkunftsland) für die Motivationsvariablen 01, 02, 06, 07, 08, 09 (anstatt der Sommeraktivitäten). Clustern Sie die resultierenden Daten mit Hilfe von k-means. Wie viele Cluster würden Sie wählen? Durch welche Eigenschaften sind die Prototypen charakterisiert? Institute for Statistics and Mathematics Cluster 2-121

Verwandte Methoden Hauptkomponentenanalyse: Independent component analysis (ICA), Faktoranalyse. Multidimensionale Skalierung: nicht-metrische Erweiterungen Sammon-Mapping, Kruskals MDS, Self-organizing maps (SOMs). Institute for Statistics and Mathematics Cluster 2-122

Verwandte Methoden Clustern divisive hierarchische Algorithmen (DIANA), optimale Partitionierung: partitioning around medoids (PAM), fuzzy clustering (FANNY), Neural Gas, Convex Clustering, Learning Vector Quantization. Institute for Statistics and Mathematics Cluster 2-123