Sparse Hauptkomponentenanalyse
|
|
- Johann Bösch
- vor 7 Jahren
- Abrufe
Transkript
1 Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar / 36
2 1 Einführung / 36
3 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es sich um eine spezielle Form der gewöhnlichen (PCA) mittels SPCA einen besseren Überblick über die Daten verschaffen Interpretierbarkeit soll gegenüber PCA gesteigert werden 3 / 36
4 sgebiete Segmentierung z.b Industrie (Kunden- oder Marktsegmentierung) oder der Bildsegmentierung Genomforschung Sämtliche Gebiete, in denen große Datenmengen vorkommen 4 / 36
5 1 Einführung / 36
6 Allgemeines Ziel: Dimension der Daten zu verringern ohne zu großen Informationsverlust Bilden von Linearkombinationen: Z j = a 1j X 1 + a 2j X a pj X p = a T j X Z j : Hauptkomponenten X T = (X 1,..., X p ): n p -Datenmatrix aj T = (a 1j,..., a pj ): Ladungen Es gilt: aj T a j = p k=1 a kj = 1 und (für j 2) ah T a j = 0, h < j Hauptkomponenten sind unabhängig voneinander 6 / 36
7 Herleitung der Hauptkomponenten maximiere Var(aj T X ) (bzw. äquivalent hierzu; maximiere X X T a j, wobei X die zentrierte Datenmatrix darstellt) a T j erste Hauptkomponente Z 1 wird gefunden, indem a 1 so bestimmt wird, dass Z 1 die größtmögliche Varianz erklärt entspricht dem zum größten Eigenwert von Cov(X ) = 1 n 1 X T X gehörendem Eigenvektor 7 / 36
8 Herleitung der Hauptkomponenten Definition (Singulärwertzerlegung): Ohne Beschränkung der Allgemeinheit sei der Erwartungswert aller Spalten von X gleich 0. Die Singulärwertzerlegung von X sei nun X = UDV T. (1) Z = UD beschreibt nun die Hauptkomponenten. Äquivalent dazu ist Z = XV mit V als die dazugehörigen Ladungen der Hauptkomponenten. Die Stichprobenvarianz der i-ten Hauptkomponente wird durch Dii 2 /n beschrieben. Bei U und V handelt es sich um orthogonale Matrizen, d.h. es gilt UU T = I bzw. VV T = I. Die Spaltenvektoren von V und U, v i und u i, nennt man Singulärvektoren (Eigenvektoren), die Elemente D ii der Diagonalmatrix D sind die Singulärwerte (Eigenwerte). 8 / 36
9 Anzahl der Hauptkomponenten Bestimme Anteil der erklärenden Varianz der ersten q Hauptkomponenten durch q Dii 2 i=1 p Dii 2 i=1 α Übliche Werte für α liegen zwischen 0.7 und / 36
10 Probleme der Interpretation der Hauptkomponenten Linearkombinationen besitzen für gewöhnlich keine, bis sehr wenige 0-Einträge für die Ladungen alle p Variablen sind Bestandteil einer Hauptkomponente 10 / 36
11 1 Einführung / 36
12 Allgemeines Bei sparse Hauptkomponenten handelt es sich um Hauptkomponenten, die bei mehreren Variablen eine Ladung von exakt Null aufweisen Interpretierbarkeit soll gegenüber PCA gesteigert werden Regressionsansatz, welcher auf der Idee des LASSOs und des Elastic Nets basiert 12 / 36
13 LASSO (Least Absolute Shrinkage and Selection Operator) Betrachte ein lineares Regressionsmodell mit n Beobachtungen und p Variablen Y = (y 1,..., y n ) sei der Responsevektor und X = [X 1,..., X p ] mit X j = (x 1j,..., x nj ) die Prädiktoren, j = 1,..., p Nach Transformation können wir annehmen, dass alle X j und Y zentriert sind 13 / 36
14 LASSO (Least Absolute Shrinkage and Selection Operator) Der LASSO-Schätzer (Least Absolute Shrinkage and Selection Operator) ist derart konstruiert, dass er die Koeffizienten schrumpft Abschätzung für ˆβ LASSO durch Minimieren von ˆβ LASSO = arg min β wobei λ positiv ist Y p X j β j λ j=1 p β j, LASSO-Verfahren verkleinert die Koeffizienten kontinuierlich gegen Null und erreicht die gewünschte Genauigkeit gegen einen Varianzverlust j=1 14 / 36
15 Elastic Net Elastic Net ist Spezialfall des LASSO-Verfahrens Für positive λ 1 und λ 2 ist das Elastic Net definiert als ˆβ EN = (1+λ 2 ){arg min β Y p X j β j 2 2+λ 2 j=1 p p β j 2 +λ 1 β j } j=1 Für ein fixes λ 2 löst der sogenannte LARS-EN Algorithmus das Problem für alle λ 1 j=1 15 / 36
16 SCoTLASS (Simplified Component Technique-LASSO) Vorgestellt von Jolliffe, Trendafilov und Uddin (2003) SCoTLASS ist ein Verfahren, welches durch direkte der L1-Norm auf die PCA sparse Ladungen erzielt (basierend auf LASSO-Verfahren) SCoTLASS-Methode maximiert schrittweise die Varianz wobei a T k (X T X )a k, a T k a k = 1 und (für k 2) a T h a k = 0, h < k, mit der Einschränkung, dass p j=1 a kj t für einen Parameter t Hoher Rechenaufwand, da keine Vorgaben für die Wahl von t vorhanden sind erstellt höchstens n Ladungen > 0 16 / 36
17 Sparse Regressionsansatz von Zou, Hastie und Tibshirani (2006) Da jede Hauptkomponente eine Linearkombination der p Variablen ist, können wir die Ladungen durch Zurückführen der Hauptkomponenten auf die Variablen erhalten 17 / 36
18 Herleitung der sparse Hauptkomponenten Theorem 1 Für jedes i sei Z i = U i D ii die i-te Hauptkomponente. Betrachte ein positives λ und die Randabschätzung β Ridge gegeben durch ˆβ Ridge = arg min β Z i X β λ β 2 2. Sei nun ˆv = ˆβ Ridge ˆβ Ridge 2, dann gilt: ˆv = V i 18 / 36
19 Herleitung der sparse Hauptkomponenten Das Theorem zeigt den Zusammenhang zwischen PCA und Regression Durch Hinzufügen des L1-Fehlerterm erhalten wir: ˆβ = arg min Z i X β λ β λ 1 β 1 β ˆV i = ˆβ ˆβ Approximation für die Ladungen der i-ten sparse 2 Hauptkomponente hängt von den Ergebnissen der gewöhnlichen PCA ab und stellt somit keine optimalen Lösungsweg dar 19 / 36
20 Herleitung der sparse Hauptkomponenten Theorem 2 Für jedes λ > 0 sei (ˆα, ˆβ) = arg min α,β n x i αβ T x i λ β 2 2, (2) i=1 wobei α 2 2 = 1 gilt. Dann gilt ˆβ V 1 20 / 36
21 Herleitung der sparse Hauptkomponenten Theorem 3 Angenommen wir betrachten die ersten k Hauptkomponenten. Sei A p k = [α 1,..., α k ] und B p k = [β 1,..., β k ]. Für jedes λ > 0 sei (Â, ˆB) = arg min A,B n k x i AB T x i λ β j 2 2, (3) i=1 j=1 mit A T A = I k k. Dann gilt ˆβ j V j, für j = 1,..., k. 21 / 36
22 Herleitung der sparse Hauptkomponenten Theoreme 2 und 3 wandeln das PCA Problem zu einem Regressionsproblem um Indem wir einen LASSO-Fehlerterm hinzufügen, wird der Zusammenhang zwischen PCA und Regression weiter verstärkt, womit wir auf folgendes Optimierungsproblem kommen: (Â, ˆB) = arg min A,B n k x i AB T x i 2 2+λ β j 2 2+λ 1,j i=1 j=1 k β j 1, j=1 wobei A T A = I k k gilt Um die Gleichung zu lösen, wird ein Algorithmus benötigt, welcher eine numerische Lösung liefert 22 / 36
23 SPCA Algorithmus Für ein festes A: Für jedes j, sei Y j ˆβ j = arg min β j = X α j. So gilt: Y j X β j λ β j λ 1,j β j 1, mit ˆB = [ ˆβ 1,..., ˆβ k ]. Dies entspricht eine Abschätzung des Elastic Nets 23 / 36
24 SPCA Algorithmus Für ein festes B: Falls B gegeben ist, kann der Bestrafungsterm aus Gleichung (3) ignoriert werden, womit wir lediglich versuchen müssen den Term n i=1 x i AB T x i 2 2 = X XBAT 2 2 zu minimieren, wobei A T A = I k k. Die Lösung ist dann gegeben durch eine Reduced Rank-Form der Procrustes Rotation, welche im folgendem Theorem 4 gezeigt wird. Wir berechnen die Singulärwertzerlegung durch: und setzen  = UV T (X T X )B = UDV T (4) 24 / 36
25 Herleitung der sparse Hauptkomponenten Theorem 4 (Reduced Rank Procrustes Rotation) Seien M n p und N n k zwei Matrizen. Betrachte das eingeschränkte Minimierungsproblem  = arg min A M NA T 2 2, (5) mit A T A = I k k. Sei weiter die Singulärwertzerlegung von M T N gleich UDV T. Dann gilt  = UV T 25 / 36
26 SPCA Algorithmus 1. Setze A = [v 1,..., v k ], also die ersten k Ladungen der gewöhnlichen PCA 2. Für ein festes A = [α 1,...α k ], löse das folgende Elastic Net Problem für alle j = 1,..., k: ˆβ j = arg min β (α j β) T X T X (α j β) + λ β λ 1,j β 1, 3. Für ein festes B = [β 1,..., β k ], berechne die Singulärwertzerlegung von X T XB = UDV T und setze A = UV T 4. Wiederhole die Schritte 2 und 3 solange bis Konvergenz zu einem lokalen Optimum erreicht wird 5. Normiere ˆV j = β β 2, j = 1,..., k 26 / 36
27 1 Einführung / 36
28 Allgemeines Vergleich der gewöhnlichen PCA mit SPCA Untersuchung an simuliertem und an realem Datensatz R-package: elasticnet 28 / 36
29 Simulation Betrachte Datensatz mit 10 Variablen und Beobachtungen Variablen werden generiert durch drei zugrundeliegende Faktoren von der Form: V 1 N(0, 20), V 2 N(0, 30) V 3 = 0.5V V 2 + ɛ, ɛ N(0, 1) Die Variablen werden nun generiert durch: X i = V 1 + ɛ i, ɛ i N(0, 1), i = 1, 2, 3, 4 X i = V 2 + ɛ i, ɛ i N(0, 1), i = 5, 6, 7, 8 X i = V 3 + ɛ i, ɛ i N(0, 1), i = 9, / 36
30 Simulation PCA SPCA PC1 PC2 PC1 PC2 x x x x x x x x x x adjustierte Varianz (in %) Tabelle: Ladungen der Hauptkomponenten der PCA und SPCA 30 / 36
31 Zahlenerkennung Datensatz, welcher per Hand geschriebene Zahlen 0-9 enthält 6131 Beobachtungen für die Zahl 3 Jedes Bild enthält Pixel Datenmatrix der Dimension / 36
32 Zahlenerkennung Abbildung: Unterschiedliche Ausführungen der Zahl 3 32 / 36
33 Zahlenerkennung Abbildung: Vergleich der PCA (obere Reihe) mit der SPCA (untere Reihe) auf einen Datensatz mit handgeschriebenen Dreien 33 / 36
34 Zahlenerkennung Ergebnisse der SPCA lassen sich visuell besser interpretieren Die ersten 4 Hauptkomponenten der PCA erklären eine Varianz von 35.1%, die ersten 4 Hauptkomponenten der SPCA erklären nur eine Varianz von 10.6% 34 / 36
35 ist eine relativ einfache Methode, um Datensätze zu verkleinern Sparse steigert die Interpretierbarkeit gegen einen Varianzverlust SPCA hängt stark von der Wahl von λ ab 35 / 36
36 Vielen Dank für die Aufmerksamkeit! 36 / 36
Sparse PCA und Robust PCA - PCA-Erweiterungen für die Bildund Videobearbeitung
Sparse PCA und Robust PCA - PCA-Erweiterungen für die Bildund Videobearbeitung Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science Westfälische Wilhelms-Universität Münster Fachbereich
MehrStatistisches Lernen
Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrSingulärwertzerlegung
LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrElastic Net und Lasso: Lassen Sie in unübersichtlichen Situationen Software statistische Modelle finden.
Elastic Net und Lasso: Lassen Sie in unübersichtlichen Situationen Software statistische Modelle finden. Bernd Heinen SAS Institute GmbH In der Neckarhelle 168 Heidelberg Bernd.heinen@jmp.com oder Zusammenfassung
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
Mehr5.7 Lineare Abhängigkeit, Basis und Dimension
8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Mehr6. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrEXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME
EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME In diesem Abschnitt wiederholen wir zunächst grundlegende Definitionen und Eigenschaften im Bereich der Matrizenrechnung, die wahrscheinlich bereits in Ansätzen
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrMathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))
Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.
MehrMatrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte
Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung
MehrVektoren und Matrizen
Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
Mehr3.1 Sukzessive Minima und reduzierte Basen: Resultate
Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
MehrLineare Differenzengleichungen
Lineare Differenzengleichungen Die Fibonacci-Zahlen F n sind definiert durch F 0 = 0 F 1 = 1 F n = F n 1 +F n 2 für n >= 2 Die letzte Zeile ist ein Beispiel für eine homogene lineare Differenzengleichung
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrKapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrSkalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist
Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrSingulärwert-Zerlegung
Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF
TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit
MehrBlockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :
Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5
MehrKategorielle Zielgrössen
Kategorielle Zielgrössen 27.11.2017 Motivation Bisher gesehen: Regressionsmodelle für diverse Arten von Zielgrössen Y. kontinuierliche Zielgrösse Lineare Regression Binäre/binomiale Zielgrösse Logistische
MehrLernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012
Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
MehrOrthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrMathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrHöhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
MehrLösungsskizzen zur Klausur
sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie
Mehr7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrD-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9
D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 9 Best Before: 24.5/25.5, in den Übungsgruppen (2 wochen) Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrLineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.
Lineare Hülle Def A sei eine nichtleere Teilmenge des Vektorraums (V,+, ) Die lineare Hülle von A (Bezeichung: span(a)) ist die Menge aller Linearkombinationen der Elemente aus A { k } span(a) := λ i v
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrSingular Value Decomposition
Singular Value Decomposition (Singulärwertzerlegung) Seminar Robust Design Vitali Müller 2 Inhalt Was ist die SVD? Interpretationen Anwendungsmöglichkeiten Berechnung 3 Datenmatrix Experiment mit n Objekten
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrA = α α 0 2α α
Aufgabe 8. Berechnen Sie abhängig von α R die Dimension dim(f(r 4 )) und die Dimension dim(kern(f)) sowie je eine Basis von f(r 4 ) und Kern(f) der linearen Abbildung f : R 4 R 4, x Ax mit der Matrix A
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Mehr6.5 Lineare Abhängigkeit, Basis und Dimension
6.5. Lineare Abhängigkeit, Basis und Dimension 123 6.5 Lineare Abhängigkeit, Basis und Dimension Seien v 1,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrAusgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
MehrSerie 12: Eigenwerte und Eigenvektoren
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie : Eigenwerte und Eigenvektoren Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom 7 und 9 Dezember Finden Sie für folgende
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Mehr