Hauptkomponenten-basierte Klassifikationsverfahren (PCA)
|
|
- Berthold Schuler
- vor 6 Jahren
- Abrufe
Transkript
1 Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Projektseminar: Wetterlagen und Feinstaub - Übung Dozent: Claudia Weitnauer Referent: Esther Oßwald, Julian Dare Datum:
2 Übersicht 1 Einleitung 2 Definition: Hauptkomponentenanalyse (PCA) 3 Geometrische Veranschaulichung 4 Analyseverfahren zur Klassifikation Überblick 5 Arten der Hauptkomponentenanalyse (PCA-based methods) 5.1 S-PCA 5.2 T-PCA 5.3 P PCAXTR
3 1 Einleitung Problem bei der Gesichtserkennung: Bewältigung von enormen, hochdimensionalen Datenmengen, von denen jedoch nicht wenige Komponenten irrelevant bzw. weniger relevant sind als andere, da sie nahezu konstant sind! Beispielsweise unterscheiden sich Gesichter in Nasen-, Augen- und Mundpartien stärker voneinander als in Ausschnitten der Stirn oder Wangen.
4 1 Einleitung Notwenigkeit eines Verfahrens, das die einzelnen Dimensionen der Datenmenge nach ihrer Relevanz bzw. nach den Abweichungen der Menge in dieser Dimension klassifiziert! PCA: Verfahren, das eine Dimensionsreduzierung ermöglicht, bei der der Informationsverlust minimal ist!
5 1 Einleitung PCA Durchschnittsgesicht (Quelle: Originalfotos mehrerer Gesichter (12 aus 97) (Quelle:
6 2 Definition PCA Die Hauptkomponentenbasierte Klassifikationsmethode (Principal component analysis PCA) versucht die Originaldaten durch eine kleinere Anzahl dahinter liegender Variablen so zu ersetzen, dass die wesentlichen Beziehungen in den Ausgangsdaten durch die Hauptkomponenten reproduziert werden. D.h. Die Hauptkomponenten sollen die Variabilität der Ausgangsdaten, gemessen als Summe der Varianz der Ausgangsvariablen, möglichst vollständig erklären.
7 2 Definition PCA Die PCA besteht in einer orthogonalen Transformation der ursprünglichen Variablen in eine neue Menge unkorrelierter Variablen, den Hauptkomponenten (Principal components). Die Hauptkomponenten sind Linearkombinationen der ursprünglichen Variablen und werden nacheinander in absteigender Bedeutung konstruiert, wobei die erste Hauptkomponente so konstruiert wird, dass die für den größten Teil der Variation verantwortlich ist. Damit wird die effektive Dimension der Ausgangsdatenmenge verringert.
8 2 Definition PCA Die zweite Hauptkomponente wird nun so berechnet, dass sie die noch verbleibende größte Variation abdeckt usw. Der Vorgang wiederholt sich bis die Variation der Ausgangsdaten nahezu vollständig durch die Hauptkomponenten dargestellt ist.
9 3 Geometrische Veranschaulichung Zur Anschauung wird das Beispiel einer dreidimensionalen Datenmenge betrachtet, die im Sinne der PCA transformiert und anschließend auf zwei Dimensionen reduziert wird. Gegeben sei eine Reihe mehrdimensionaler Messungen (Datenmenge), die folgende Punktwolke (roter Körper) bilden: (Quelle:
10 3 Geometrische Veranschaulichung Als erstes wird der Ursprung des Koordinatensystems in den Schwerpunkt der Punktwolke gesetzt. (Quelle:
11 3 Geometrische Veranschaulichung Als nächstes wird das Koordinatensystem gedreht, sodass die erste Achse in Richtung der größten Abweichung bzw. der größten Varianz gerichtet ist (blauer Pfeil). (Quelle:
12 3 Geometrische Veranschaulichung Der nächste Schritt dreht die zweite Achse in Richtung der größtmöglichen Varianz unkorreliert zur ersten Achse (gelber Pfeil). D.h. Die Drehung des Koordinatensystems richtet die zweite Achse in Richtung der größten Varianz aus, die möglich ist, ohne die Richtung der ersten Achse zu verändern ( Drehung des Systems um die erste Achse). (Quelle:
13 3 Geometrische Veranschaulichung Das Verfahren wird fortgesetzt bis die k-te Achse in Richtung der größten Varianz ausgerichtet ist, unkorreliert zu den ersten k-1 Achsen. Die k-te Achse bezeichnet so die k-te Hauptkomponente. geometrische Interpretation der Hauptkomponenten als Hauptachsen eines Ellipsoiden (Punktwolke).
14 3 Geometrische Veranschaulichung Ziel der PCA: Hilfe bei der Interpretation einer Datenmenge durch Bestimmung der Komponenten mit dem größten Einfluss. Wenn diese Komponenten bekannt sind, kann eine kleinere Anzahl von Basisvektoren für die Menge gefunden werden (= Dimensionsreduzierung), sodass nur ein möglichst kleiner Teil der in den Daten enthaltenen Informationen verloren geht. (Quelle:
15 Analyseverfahren zur Klassifikation - moderne Computertechnik ermöglicht immer komplexere und vielfältigere Klassifikationsmethoden - deswegen: Einteilung in drei Kategorien durch Yarnal et al. (2001): 1. manuelle Eingabe 2. Korrelationsanalyse 3. Eigenvektoranalyse z.b. Hauptkomponentenanalyse (PCA), andere: EOF, weitere multivariate Klassifikationen --> alle sehr ähnlich!
16 5 Arten der PCA - keine Verwendung von vordefinierten Modellen im Gegensatz zu vielen anderen Methoden - Modelle werden durch die Eigenschaften und Attribute des Datensatzes definiert - von Richman (1981) als Klassifikationsinstrument vorgeschlagen - schließlich erprobt von Gong und Richman (1995) - Grundidee: Jeder einzelne Fall wird einem Hauptkomponenten zugewiesen
17 5 Arten der PCA (Quelle: - Es gibt verschiedene Arten/Modi der Hauptkomponentenanalyse - am häufigsten wird der "s-mode" verwendet
18 5.1 S-PCA (s-mode) - score-time series - liefert Zeitreihenergebnisse - hohe zeitliche Datenvariabilität/auflösung - Eingabe der räumlichen Variablen in die Zeitreihe
19 5.2 T-PCA (t-mode) - umgekehrtes Verhalten zum "s-mode - höherer Rechenaufwand und Rechenzeit als beim s-mode - Ergebnisse beschreiben vor allem räumliche Muster - Eingabe von Zeitvariablen - indirektes Rotationsverfahren
20 5.2 T-PCA (t-mode) - Bsp. nach Huth (2000): 10 Datenteilmengen - für die 1. Teilmenge wird der 1., 11., 21. Tag etc. ausgewählt, für die 2. Teilmenge entsprechend der 2., 12, 22. Tag, usw. - Berechnung mit einer Matrizengleichung Dadurch repräsentiert die Lösung den kompletten Datensatz
21 5.2 T-PCA (t-mode) - klassifiziert wird jeder untersuchte Tag durch die Hauptkomponente mit dem höchsten "Loading - die 10 Klassifikationen werden untereinander verglichen, diejenige mit der höchsten Vergleichbarkeit zu allen anderen wird als Resultat ausgegeben
22 5.3 P27 - Kruizinga empirical orthogonal function types - Entwickelt am Royal Netherlands Meteorological Institute, Kruizinga (1979) - verwendet S-PCA - Bsp.: tägliche Luftdruckwerte GPH werden in Modellwerte mit reduzierter saisonaler Variabilität transformiert, indem der tägliche Mittelwert abgezogen wird - Verknüpfung der Hauptkomponenten mit zonaler, meridionaler und zyklonaler Komponente
23 5.4 PCAXTR - principal component analysis extreme score - verwendet vordefinierte zentrale Werte - orthogonal durchwechselnde (Rotationsprinzip: VARIMAX) Zeitreihenwerte im "s-mode - VARIMAX Modell haben die höchste Ähnlichkeit zu den wahren Begebenheiten - "s-mode" weil: Dieser ist representativer im Bezug auf die Originaldaten, die hier alle mit einbezogen werden
24 Literatur Philip et al. (2010): Cost733cat A database of weather and circulation type classifications. In: Physics and Chemistry of Earth. S the US San Diego Cognitive Science Department (2010): Principal Component Analysis (PCA). ( )
SEMINAR AUTOMATISCHE GESICHTSERKENNUNG
SEMINAR AUTOMATISCHE GESICHTSERKENNUNG OBERSEMINAR AUTOMATISCHE ANALYSE VON GESICHTSAUSDRÜCKEN Organisation, Überblick, Themen Überblick heutige Veranstaltung 1. Organisatorisches 2. Überblick über beide
MehrTermin3 Klassifikation multispektraler Daten unüberwachte Verfahren
Ziel Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Einteilung (=Klassifikation) der Pixel eines multispektralen Datensatzes in eine endliche Anzahl von Klassen. Es sollen dabei versucht
MehrMedienart: Print Medientyp: Publikumszeitschriften Auflage: 312'871 Erscheinungsweise: 26x jährlich
Ausschnitt Seite: 1/10 Bericht Seite: 8/28 Datum: 28.05.2010 Ausschnitt Seite: 2/10 Bericht Seite: 9/28 Datum: 28.05.2010 Ausschnitt Seite: 3/10 Bericht Seite: 10/28 Datum: 28.05.2010 Ausschnitt Seite:
MehrDarstellung der Rotation 2,85 / 0,08 1 / 3,5 3,62 / 0,40. α = 67,76 -1 / -1 -2,08 / 0,23-1,30 / 0,55
Darstellung der Rotation 2,85 /,8 1 / 3,5 3,62 /,4 α = 67,76-1 / -1-2,8 /,23-1,3 /,55 Material für die Übungen zur Hauptkomponenten- und Faktoranalyse Principal Components Analysis Analysis Summary Data
MehrFaktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007
Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur
MehrStatistische Verfahren für das Data Mining in einem Industrieprojekt
Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de
MehrLernen von Entscheidungsbäumen. Volker Tresp Summer 2014
Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis
MehrPersonalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.
Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen
MehrPR Statistische Genetik und Bioinformatik
PR Statistische Genetik und Bioinformatik Johanna Bertl Institut für Statistik und OR, Universität Wien Oskar-Morgenstern-Platz 1/6.344, 1090 Wien, Tel.: 01-4277-38617 johanna.bertl@univie.ac.at, homepage.univie.ac.at/johanna.bertl
MehrHauptkomponentenanalyse PCA
Hauptkoponentenanalyse PCA Die Hauptkoponentenanalyse (Principal Coponent Analysis, PCA) ist eine Methode zur linearen Transforation der Variablen, so dass: öglichst wenige neue Variablen die relevante
MehrMethoden Quantitative Datenanalyse
Leitfaden Universität Zürich ISEK - Andreasstrasse 15 CH-8050 Zürich Telefon +41 44 635 22 11 Telefax +41 44 635 22 19 www.isek.uzh.ch 11. September 2014 Methoden Quantitative Datenanalyse Vorbereitung
MehrWebergänzung zu Kapitel 10
Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder
MehrVisualisierung I 5. Statistische Graphiken
Visualisierung I 5. Statistische Graphiken Vorlesung: Mi, 9:00 11:00, INF 368 532 Übung: Do, 14:00 16:00, INF 350 OMZ R U011 JProf. Dr. Heike Jänicke http://www.iwr.uni-heidelberg.de/groups/covis/ Inhaltsverzeichnis
MehrMesssystemanalyse (MSA)
Messsystemanalyse (MSA) Inhaltsverzeichnis Ursachen & Auswirkungen von Messabweichungen Qualifikations- und Fähigkeitsnachweise Vorteile einer Fähigkeitsuntersuchung Anforderungen an das Messsystem Genauigkeit
MehrWETRAX (Weather Patterns, Storm TRAcks and related precipitation Extremes) Arbeitspaket 3 Wetterlagen
WETRAX (Weather Patterns, Storm TRAcks and related precipitation Extremes) Arbeitspaket 3 Wetterlagen Markus Homann, Christoph Beck, Jucundus Jacobeit, Andreas Philipp University of Augsburg, Institute
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrLösung zu Kapitel 11: Beispiel 1
Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten
MehrData Mining als Arbeitsprozess
Data Mining als Arbeitsprozess Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 31. Dezember 2015 In Unternehmen werden umfangreichere Aktivitäten oder Projekte im Bereich des Data Mining
Mehr1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18
3. Deskriptive Statistik Ziel der deskriptiven (beschreibenden) Statistik (explorativen Datenanalyse) ist die übersichtliche Darstellung der wesentlichen in den erhobenen Daten enthaltene Informationen
MehrWeitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression
Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen
Mehr2 Stand der Forschung. Bei der Analyse komplexer Proben ist es mit Hilfe moderner Analysensysteme moglich,
2.5 Medatenauswertung mit Hilfe chemometrischer Methoden Bei der Analyse komplexer Proben ist es mit Hilfe moderner Analysensysteme moglich, simultan eine Vielzahl von Eigenschaften zu bestimmen und so
MehrAnwendung der Predictive Analytics
TDWI Konferenz mit BARC@TDWI Track 2014 München, 23. 25. Juni 2014 Anwendung der Predictive Analytics Prof. Dr. Carsten Felden Dipl. Wirt. Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg
MehrAbb. 30: Antwortprofil zum Statement Diese Kennzahl ist sinnvoll
Reklamationsquote Stornierungsquote Inkassoquote Customer-Lifetime-Value Hinsichtlich der obengenannten Kennzahlen bzw. Kontrollgrößen für die Neukundengewinnung wurden den befragten Unternehmen drei Statements
MehrQuery Transformation based on XSLT
Query Transformation based on XSLT Gesamtsystem XML format 2 transformation component XML format 1 query transformation query XP2 query XP1 transformed XML fragment F2 XSLT stylesheet XSL processor XML
MehrEinseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.
Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte
MehrData Mining-Modelle und -Algorithmen
Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,
MehrAbbildung 1: Titelbild (Quelle: http://www.oobject.com/algorithmic-architecture/follymorph-continuum-group-finalpresentation/3267/)
Abbildung 1: Titelbild (Quelle: http://www.oobject.com/algorithmic-architecture/follymorph-continuum-group-finalpresentation/3267/) Enterprise Continuum Wiederverwendung von Unternehmensarchitekturen Modul
MehrMessen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse
Messen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse Dominik Ernst 26.05.2009 Bachelor Seminar Dominik Ernst Reliabilität und explorative Faktorenanalyse 1/20
MehrDatenanalyse und abstrakte Visualisierung
Datenanalyse und abstrakte Visualisierung Patrick Auwärter Hauptseminar: Visualisierung großer Datensätze SS 2011 Inhalt Einleitung Anwendungsbeispiele Kondensationsvorgang Protein-Lösungsmittel System
MehrDeskriptive Statistik
Deskriptive Statistik [descriptive statistics] Ziel der deskriptiven (beschreibenden) Statistik einschließlich der explorativen Datenanalyse [exploratory data analysis] ist zunächst die übersichtliche
MehrSuchmaschinen. Anwendung RN Semester 7. Christian Koczur
Suchmaschinen Anwendung RN Semester 7 Christian Koczur Inhaltsverzeichnis 1. Historischer Hintergrund 2. Information Retrieval 3. Architektur einer Suchmaschine 4. Ranking von Webseiten 5. Quellenangabe
MehrVisualisierung der Imperfektion in multidimensionalen Daten
Visualisierung der Imperfektion in multidimensionalen Daten Horst Fortner Imperfektion und erweiterte Konzepte im Data Warehousing Betreuer: Heiko Schepperle 2 Begriffe (1) Visualisierung [Wikipedia] abstrakte
MehrGlück ist wie ein Schmetterling?
Glück ist wie ein Schmetterling? Zur Stabilität und Variabilität subjektiven Wohlbefindens Michael Eid Freie Universität Berlin Glück ist wie ein Schmetterling es kommt zu dir und fliegt davon (Mouskouri)
MehrAdobe Flash CS4»3D-Tool«
Flash Tutorial Philipp Nunnemann Adobe Flash CS4»3D-Tool«Im folgenden Tutorial könnt Ihr das»3d-tool«in Adobe Flash CS4 kennenlernen. Das Tool erlaubt euch, Objekte im dreidimensionalen Raum zu bewegen.
MehrNeuerungen Analysis Services
Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen
MehrGrundlagen der Farbbildverarbeitung
Grundlagen der arbbildverarbeitung Vorlesender: Dr.-Ing. Rico Nestler Skripte: PD Dr.-Ing. habil. K.-H. ranke U Ilmenau / akultät IA Institut für Praktische Informatik und Medieninformatik achgebiet Graphische
MehrMultivariate Verfahren
Multivariate Verfahren Lineare Reression Zweck: Vorhersae Dimensionsreduktion Klassifizierun Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eienschaften: nicht-linear verteilunsfrei
MehrModulationsanalyse. Amplitudenmodulation
10/13 Die liefert Spektren der Einhüllenden von Teilbändern des analysierten Signals. Der Anwender kann damit Amplitudenmodulationen mit ihrer Frequenz, ihrer Stärke und ihrem zeitlichen Verlauf erkennen.
MehrTrendlinien in Diagrammen (Excel 2010)
Trendlinien in Diagrammen (Excel 2010) Trendlinien in Diagrammen (Excel 2010)... 1 Allgemeines... 2 Informationen über Prognosen und das Anzeigen von Trends in Diagrammen... 3 AUSWÄHLEN DES PASSENDEN TRENDLINIETYPS
MehrGrundlagen der Computer-Tomographie
Grundlagen der Computer-Tomographie Quellenangabe Die folgenden Folien sind zum Teil dem Übersichtsvortrag: imbie.meb.uni-bonn.de/epileptologie/staff/lehnertz/ct1.pdf entnommen. Als Quelle für die mathematischen
Mehr25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche
Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach
MehrSuche schlecht beschriftete Bilder mit Eigenen Abfragen
Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere
MehrProf. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION
Prof. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION 2. FS Master Rehabilitationspsychologie, SoSe 2012 Faktorenanalyse/ faktorielle Validität 2 Einleitung Allgemeines zu Faktorenanalysen (FA)
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Lernwerkstatt für die Klassen 7 bis 9: Linsen und optische Geräte
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Lernwerkstatt für die Klassen 7 bis 9: Linsen und optische Geräte Das komplette Material finden Sie hier: Download bei School-Scout.de
Mehr0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )
Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,
MehrAuswertung mit dem Statistikprogramm SPSS: 30.11.05
Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit
Mehr5. Schließende Statistik. 5.1. Einführung
5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.
MehrMultivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
MehrMETHODENLEHRE I WS 2013/14 THOMAS SCHÄFER
METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
MehrAnalyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots
Einleitung Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots von Irmela Herzog Im Rahmen der Herbsttagung der AG DANK (Datenanalyse und Numerische Klassifikation)
MehrWie optimiert man die Werbungserkennung von Ad- Detective?
Wie optimiert man die Werbungserkennung von Ad- Detective? Die Ad-Detective-Werbe-Erkennung von VideiReDo basiert auf der Erkennung von Schwarzwerten / scharzen Bildern, die die Werbeblöcke abgrenzen.
MehrVergleich verschiedener Optimierungsansätze
Vergleich verschiedener Optimierungsansätze Inhaltsverzeichnis 1 Einleitung... 2 2 Welchen Nutzen schafft munio?... 3 3 Analysen... 3 3.1 Schritt 1: Optimierung anhand von Indizes... 3 3.2 Schritt 2: Manuell
MehrMultivariate Analysemethoden
Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick
MehrGrundzüge der Wirtschaftsinformatik - Übung
Grundzüge der Wirtschaftsinformatik - Übung Prof. Dr. Martin Hepp Dipl.-Kfm. Alexander Richter Fakultät für Wirtschafts- und Organisationswissenschaften 2 SWS Übung 2 SWS Übung Herbsttrimester 2007 Stunde
MehrTesten und Metriken. Einige Fehler. Fehler vermeiden. Andreas Zeller Universität des Saarlandes Microsoft Research. http://www.st.cs.uni-sb.
Testen und Metriken Andreas Zeller Universität des Saarlandes Microsoft Research http://www.st.cs.uni-sb.de/ Einige Fehler Fehler vermeiden Spezifizieren Beweisen Gegenlesen Testen Module Welche sollte
MehrKlausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min
Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe
MehrMethoden der Biosignalverarbeitung
Vorlesung SS 2012 Methoden der Biosignalverarbeitung Common Spatial Patterns Dipl. Math. Michael Wand Prof. Dr. Tanja Schultz 1 Einführung In dieser Vorlesung behandeln wir Common Spatial Patterns (CSPs),
MehrEine Einführung in R: Hochdimensionale Daten: n << p Teil II
Eine Einführung in R: Hochdimensionale Daten: n
Mehr5 DATEN. 5.1. Variablen. Variablen können beliebige Werte zugewiesen und im Gegensatz zu
Daten Makro + VBA effektiv 5 DATEN 5.1. Variablen Variablen können beliebige Werte zugewiesen und im Gegensatz zu Konstanten jederzeit im Programm verändert werden. Als Variablen können beliebige Zeichenketten
MehrUsability Metrics. Related Work. Von Torsten Rauschan (torsten.rauschan@haw-hamburg.de) HAW Hamburg M-Inf2 Anwendungen 2 Betreuer: Prof. Dr.
Usability Metrics Related Work Von Torsten Rauschan (torsten.rauschan@haw-hamburg.de) HAW Hamburg M-Inf2 Anwendungen 2 Betreuer: Prof. Dr. Zukunft Agenda Rückblick AW1 Motivation Related work QUIM SUM
MehrSeminar Visual Analytics and Visual Data Mining
Seminar Visual Analytics and Visual Data Mining Dozenten:, AG Visual Computing Steffen Oeltze, AG Visualisierung Organisatorisches Seminar für Diplom und Bachelor-Studenten (max. 18) (leider nicht für
MehrAlgorithmen und Datenstrukturen Bereichsbäume
Algorithmen und Datenstrukturen Bereichsbäume Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Überblick Einführung k-d Baum BSP Baum R Baum Motivation
MehrÜbungsaufgaben zur Vorlesung Modellbasierte Softwareentwicklung Wintersemester 2014/2015 Übungsblatt 8
Prof. Dr. Wilhelm Schäfer Paderborn, 8. Dezember 2014 Christian Brenner Tristan Wittgen Besprechung der Aufgaben: 15. - 18. Dezember 2014 Übungsaufgaben zur Vorlesung Modellbasierte Softwareentwicklung
MehrHinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel
Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel AICON 3D Systems GmbH Celler Straße 32 D-38114 Braunschweig Telefon: +49 (0) 5 31 58 000 58 Fax: +49 (0) 5 31 58 000 60 Email: info@aicon.de
Mehr9 Resümee. Resümee 216
Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls
MehrData Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY
Data Cube On-line Analytical Processing (OLAP). Einführung Ziel: Auffinden interessanter Muster in großen Datenmengen 2. Aggregation in SQL, GROUP BY 3. Probleme mit GROUP BY 4. Der Cube-Operator! Formulierung
Mehr4.3 Treppe bearbeiten
penstil können diese Eigenschaften auch objektabhängig bearbeitet werden (siehe hierzu Kapitel 4.1.5, Zusammenspiel Treppenstil/Treppen-Eigenschaften). 4.3 Treppe bearbeiten Fast alle Eigenschaften, die
MehrPhysik im Studium. Physik I - IV. Theoretische Vorlesungen. Praktika. Vorlesungen für Fortgeschrittene. Praktika für Fortgeschrittene
Physik im Studium Physik I - IV Übungen Theoretische Vorlesungen Praktika Vorlesungen für Fortgeschrittene Praktika für Fortgeschrittene Einführung in die Physik Teil I: Einführung: Philosophisches und
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
MehrProbestudium der Physik: Mathematische Grundlagen
Probestudium der Physik: Mathematische Grundlagen Ludger Santen 1. Februar 2013 Fachrichtung Theoretische Physik, Universität des Saarlandes, Saarbrücken 1 Einführung Die Mathematik ist die Sprache der
MehrPHP 5.4 ISBN 978-3-86249-327-2. Stephan Heller, Andreas Dittfurth 1. Ausgabe, September 2012. Grundlagen zur Erstellung dynamischer Webseiten GPHP54
PHP 5.4 Stephan Heller, Andreas Dittfurth 1. Ausgabe, September 2012 Grundlagen zur Erstellung dynamischer Webseiten ISBN 978-3-86249-327-2 GPHP54 5 PHP 5.4 - Grundlagen zur Erstellung dynamischer Webseiten
Mehr4.12 Elektromotor und Generator
4.12 Elektromotor und Generator Elektromotoren und Generatoren gehören neben der Erfindung der Dampfmaschine zu den wohl größten Erfindungen der Menschheitsgeschichte. Die heutige elektrifizierte Welt
MehrPublic. Technische Computer Tomographie DELPHI Wuppertal
Public Technische Computer Tomographie DELPHI Wuppertal 2 Die Computer Tomographie ist eine Weiterentwicklung der Radiographie (Röntgen). Das Röntgen (Radiographie): Eine zu untersuchende Struktur wird
MehrREGELUNG EINER PMSM (SPARK) FÜR EINE WINDKRAFTANLAGE
Regelung einer PMSM (SPARK) für eine Windkraftanlage 1 REGELUNG EINER PMSM (SPARK) FÜR EINE WINDKRAFTANLAGE F. Turki 1 EINFÜHRUNG Alternative Stromversorgungen werden immer attraktiver und eine der saubersten
MehrUmgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen
Umgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen Warum überhaupt Gedanken machen? Was fehlt, ist doch weg, oder? Allgegenwärtiges Problem in psychologischer Forschung Bringt Fehlerquellen
MehrVarianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)
Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe
MehrExploratorische Faktorenanalyse: Hauptachsenanalyse und Hauptkomponentenanalyse SPSS-Beispiel zu Kapitel 13 1
Exploratorische Faktorenanalyse: Hauptachsenanalyse und Hauptkomponentenanalyse SPSS-Beispiel zu Kapitel 13 1 Karin Schermelleh-Engel, Christina S. Werner & Helfried Moosbrugger Inhaltsverzeichnis 1 Vorbemerkungen...
MehrTutorial 2: Simulationen
Tutorial 2: Simulationen Andrea Wiencierz Institut für Statistik, LMU München Andrea.Wiencierz@stat.uni-muenchen.de Abschlussarbeiten-Kolloquium, AG Augustin A. Wiencierz (LMU Munich) Literature & LATEX
MehrMultinomiale logistische Regression
Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable
MehrBildverstehen. Vorlesung an der TU Chemnitz SS 2013
Bildverstehen Vorlesung an der TU Chemnitz SS 2013 Johannes Steinmüller 1/B309 Tel.: 531 35198 stj@informatik.tu-chemnitz.de Seite zur Vorlesung: http://www.tu-chemnitz.de/informatik/ki/edu/biver/ Buch
MehrInhaltsverzeichnis. I Einführung in STATISTICA 1. 1 Erste Schritte in STATISTICA 3
I Einführung in STATISTICA 1 1 Erste Schritte in STATISTICA 3 2 Datenhaltung in STATISTICA 11 2.1 Die unterschiedlichen Dateitypen in STATISTICA....... 11 2.2 Import von Daten......... 12 2.3 Export von
MehrEinführung in die statistische Datenanalyse I
Einführung in die statistische Datenanalyse I Inhaltsverzeichnis 1. EINFÜHRUNG IN THEORIEGELEITETES WISSENSCHAFTLICHES ARBEITEN 2 2. KRITIERIEN ZUR AUSWAHL STATISTISCH METHODISCHER VERFAHREN 2 3. UNIVARIATE
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrClustering Seminar für Statistik
Clustering Markus Kalisch 03.12.2014 1 Ziel von Clustering Finde Gruppen, sodas Elemente innerhalb der gleichen Gruppe möglichst ähnlich sind und Elemente von verschiedenen Gruppen möglichst verschieden
MehrVarianzanalyse * (1) Varianzanalyse (2)
Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz
MehrVersuchsprotokoll - Michelson Interferometer
Versuchsprotokoll im Fach Physik LK Radkovsky August 2008 Versuchsprotokoll - Michelson Interferometer Sebastian Schutzbach Jörg Gruber Felix Cromm - 1/6 - Einleitung: Nachdem wir das Interferenzphänomen
MehrDatenrecherche mit Datastream
Nachfolgend wird anhand zweier Beispiele in kurzer Form dargestellt, wie eine Datenrecherche in Datastream durchzuführen ist. Grundsätzlich gibt es zwei Möglichkeiten: Zum einen kann direkt in Datastream
Mehr1.4 Portfolio-Analyse (Marktwachstums-Marktanteils-Portfolio)
FACHHOCHSCHULE LAUSITZ Prof. Dr.-Ing. M. Strunz Lehrgebiet Projektmanagement Übungsskript l 1.4 Portfolio-Analyse (Marktwachstums-Marktanteils-Portfolio) Zu den bekanntesten Instrumenten des strategischen
MehrUmweltmonitoring Datenverarbeitung 1, Teil 2: Statistische Verfahren der Datenanalyse
Umweltmonitoring Datenverarbeitung 1, Teil 2: Statistische Verfahren der Datenanalyse Roland Stigge stigge@informatik.hu-berlin.de Humboldt Universität zu Berlin 9. Januar 2003 Umweltmonitoring: Statistische
MehrEntwicklung der Faktorenanalyse 17.06.2009. Faktorenanalyse. Faktorenanalyse nach Spearman Variablen zur Beschreibung von Intelligenz
Faktorenanalyse Thomas Schäfer SS 009 1 Entwicklung der Faktorenanalyse Faktorenanalyse nach Spearman Variablen zur Beschreibung von Intelligenz Hauptkomponentenanalyse (Pearson, Hotelling) Thomas Schäfer
MehrEinsatz der Mehrkörpersimulation in Verbindung mit Computertomographie in der Produktentwicklung
Einsatz der Mehrkörpersimulation in Verbindung mit Computertomographie in der Produktentwicklung Hintergrund Bei komplexen Baugruppen ergeben sich sehr hohe Anforderungen an die Tolerierung der einzelnen
MehrÜbung 1: CAM-Teil Definition
Übung 1: CAM-Teil Definition Diese Übung zeigt den Prozess der CAM-Teil Definition. In dieser Übung müssen Sie das CAM-Teil für das unten gezeigte Modell erzeugen, d.h. den Nullpunkt, das Spannfutter,
MehrHinweise zur. Auswertung. Markus Scholz Michael Wagner Version 1.0
Hinweise zur Auswertung Markus Scholz Michael Wagner Version 1.0 Struktur der Auswertung Die Auswertung der Ergebnisse und somit der Vergleich der Einschätzungen verschiedener Personen erfolgt mittels
MehrAnmerkungen zur Übergangsprüfung
DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung
MehrEinführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.
Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging
MehrHerzlich Willkommen zur Vorlesung Statistik
Herzlich Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Kovarianz und Korrelation Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrBenutzerhandbuch RedMill Maschinenplanung
Benutzerhandbuch RedMill Maschinenplanung Die Benutzung der RedMill Maschinenplanung geschieht auf eigene Gefahr Es wird jegliche Haftung abgelehnt. Die in diesem Handbuch beschriebenen Verfahrensweisen
MehrMein erstes Tableau-Dashboard. Tableau Software Schritt für Schritt kennenlernen und ein erstes Dashboard erstellen
Tableau Software Schritt für Schritt kennenlernen und ein erstes Dashboard erstellen Vorgehensweise 1) Datenaufbereitung in Microsoft Excel 2) Tableau - Datenimport 3) Erstellung verschiedener Tableau-Arbeitsblätter
Mehr