Tensoren in der Datenanalyse

Ähnliche Dokumente
Reduced-Rank Least Squares Modelle

Singulärwertzerlegung

Singulärwert-Zerlegung

Überbestimmte Gleichungssysteme

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate

Vektorräume und Rang einer Matrix

Matrixprodukt und Basiswechsel bei Abbildungen

9. Vorlesung Lineare Algebra, SVD und LSI

47 Singulärwertzerlegung

Überbestimmte Gleichungssysteme, Regression

Orthogonale Matrix. Definition 4.19

1 Singulärwertzerlegung und Pseudoinverse

Vektoren und Matrizen

3 Matrizenrechnung. 3. November

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Ökonometrische Analyse

Methode der kleinsten Quadrate

Mathematische Grundlagen

Matrixzerlegungen. Überbestimmte Systeme

Singular Value Decomposition

Vortrag 20: Kurze Vektoren in Gittern

Drehung. Die orthogonale n n-matrix 1 0. c s. Zeile j. s c

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Das innere Produkt von zwei Vektoren in V entspricht dem standard Skalarprodukt ihrer Komponenten bezüglich einer Orthonormalbasis von V.

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.

10.2 Linearkombinationen

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

05. Lineare Gleichungssysteme

Orthonormalbasis. Orthogonalentwicklung

Linear Systems and Least Squares

10 Unitäre Vektorräume

Euklidische und unitäre Vektorräume

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Aufgabenkomplex 3: Vektoren und Matrizen

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

3 Lineare Algebra Vektorräume

Serie 10: Inverse Matrix und Determinante

1 Matrizenrechnung zweiter Teil

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

und Unterdeterminante

und Unterdeterminante

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

LINEARE ALGEBRA II (LEHRAMT GYMNASIUM) SOMMERSEMESTER 2017

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

7 Determinanten. D ist alternierend g.d.w. für alle i j gilt:

Lineare Algebra II 8. Übungsblatt

Vektoren und Matrizen

6.1 Definition der multivariaten Normalverteilung

Mathematische Erfrischungen III - Vektoren und Matrizen

Determinanten. I. Permutationen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen)

Mathematik I. Vorlesung 14. Rang von Matrizen

Eigenwerte und Eigenvektoren

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Spezielle Matrixformen

Determinanten. I. Permutationen

Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra)

6. Normale Abbildungen

Quadratische Formen. und. Symmetrische Matrizen

Lineare Algebra und Numerische Mathematik für D-BAUG

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Lineare Algebra 1. Roger Burkhardt

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

7.1 Matrizen und Vektore

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Übersicht Kapitel 9. Vektorräume

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

MLAN1 1 MATRIZEN 1 0 = A T =

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

3. Übungsblatt zur Lineare Algebra I für Physiker

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Regularisierung in Bildrekonstruktion und Bildrestaurierung

6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238

4 Vorlesung: Matrix und Determinante

Skalarprodukte (Teschl/Teschl Kap. 13)

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k).

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

Proseminar Lineare Algebra SS10

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Vorkurs Mathematik. Vektoren, lineare Gleichungssysteme und Matrizen

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT

Einführung in die Kodierungstheorie

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

Erzeugendensystem und Basis

37 Gauß-Algorithmus und lineare Gleichungssysteme

3 Systeme linearer Gleichungen

Transkript:

Tensoren in der Datenanalyse Edgar Tretschk Universität des Saarlandes 2. Dezember 2015 1

Inhalt 1 Grundlagen 2 Singulärwertzerlegung 3 Ziffernerkennung 4 Bewegungsabläufe 2

Tensoren als mehrdimensionale Datenarrays Tensor: Verallgemeinerung von Vektoren und Matrizen auf beliebig viele Dimensionen dreidimensionale Tensoren über R: A = (a ijk ) R l m n Ziffernerkennung n verschiedene 16 16-Bilder von Ziffern D R 16 16 n 3

Tensoren als mehrdimensionale Datenarrays Tensor: Verallgemeinerung von Vektoren und Matrizen auf beliebig viele Dimensionen dreidimensionale Tensoren über R: A = (a ijk ) R l m n multipliziere Vektoren der d-ten Dimension von A mit M: A d M Ziffernerkennung n verschiedene 16 16-Bilder von Ziffern D R 16 16 n 4

Frobenius-Norm, Orthogonalität & Untertensoren analog zu Vektoren und Matrizen: inneres Produkt: A, B := i,j,k a ijk b ijk Frobenius-Norm: ( A F := A, A 1/2 = Orthogonalität: A, B = 0 i,j,k a 2 ijk ) 1/2 k-ter (n 1-dimensionaler) Untertensor in der d-ten Dimension (fixiere d-ten Index auf k): S id =k 5

Singulärwert-Zerlegung von Matrizen in Tensorschreibweise betrachte M R m n als Tensor: M = U (1) Σ U (2)T = Σ 1 U (1) 2 U (2) Interpretation: U (1) transformiert Spalten (Vektoren der ersten Dimension) von Σ U (2) transformiert Zeilen (Vektoren der zweiten Dimension) von Σ 6

Singulärwert-Zerlegung von Tensoren A = S 1 U (1) 2 U (2) 3 U (3) Kerntensor S stellt Singulärwerte dar jede Dimension d hat eigene Singulärwerte: k-ter Singulärwert der d-ten Dimension: σ (d) k := S id =k F Ordnung der Singulärwerte einer Dimension d: σ (d) 1 σ (d) 2... σ (d) I d 7

Singulärwert-Zerlegung von Tensoren A = S 1 U (1) 2 U (2) 3 U (3) Kerntensor S stellt Singulärwerte dar jede Dimension d hat eigene Singulärwerte: k-ter Singulärwert der d-ten Dimension: σ (d) k := S id =k F Ordnung der Singulärwerte einer Dimension d: σ (d) 1 σ (d) 2... σ (d) I d S ist nicht diagonal, sondern orthogonal: alle parallelen Scheiben sind paarweise orthogonal 8

Berechnung der Singulärwertzerlgung Matrix-Singulärwertzerlegung für Dimension d: setze: A d = U (d) Σ (d) (V (d) ) T S := A 1 (U (1) ) 1 2 (U (2) ) 1 3 (U (3) ) 1 9

Optimierte Basis für Ziffern (I) wähle Basis (B k ) mit B k := S i3 =k 1 U (1) 2 U (2) erste Reihe: B 1, B 2 und B 3 zweite Reihe: entsprechende Scheiben S i3 =1, S i3 =2 und S i3 =3 Quelle: Eldén, 2007 10

Optimierte Basis für Ziffern (II) erster/größter Singulärwert in dritter Dimension: S i3 =1 wichtigste Richtung aller Ziffern: B 1 größte Abweichungsrichtung von B 1 : B 2 orthogonale Basis robuste Darstellung von Ziffern 11

Darstellung unbekannter Ziffer Z in optimierter Basis Optimierungsproblem via Methode der kleinsten Quadrate: Z n F min z j B j z R n j=1 Ergebnis: z j = Z, B j, j = 1,..., n B j, B j 12

Singulärwertzerlegung von Bewegungsabläufen einzelne Bewegung: Vektor b R w von Gelenkwinkeln zu bestimmten Zeiten n Personen führen m verschiedene Bewegungsarten aus: R n m w M 13

Singulärwertzerlegung von Bewegungsabläufen einzelne Bewegung: Vektor b R w von Gelenkwinkeln zu bestimmten Zeiten n Personen führen m verschiedene Bewegungsarten aus: R n m w M = S 1 P P enthält die Personenparameter (Signatur) p i jedes Individuums i p T 1 p T n p T P = 2. 14

Singulärwertzerlegung von Bewegungsabläufen einzelne Bewegung: Vektor b R w von Gelenkwinkeln zu bestimmten Zeiten n Personen führen m verschiedene Bewegungsarten aus: R n m w M = S 1 P 2 A P enthält die Personenparameter (Signatur) p i jedes Individuums i, A die Bewegungsparameter a j jeder Bewegungsart j p T 1 a T 1 p T P = 2., A = a T 2. p T n a T m 15

Singulärwertzerlegung von Bewegungsabläufen einzelne Bewegung: Vektor b R w von Gelenkwinkeln zu bestimmten Zeiten n Personen führen m verschiedene Bewegungsarten aus: R n m w M = S 1 P 2 A 3 J P enthält die Personenparameter (Signatur) p i jedes Individuums i, A die Bewegungsparameter a j jeder Bewegungsart j und J die Eigenbewegungen p T 1 a T 1 p T P = 2., A = a T 2. p T n a T m 16

Basis für Bewegungsarten Bewegungsbasis für Bewegungsart j: A j := S 2 a T j 3 J 17

Basis für Bewegungsarten Bewegungsbasis für Bewegungsart j: A j := S 2 a T j 3 J Linearkombination der Zeilenvektoren von A j gemäß p i liefert Instanz b i,j der Bewegungsart j für Person i: b i,j = p T i A j 18

Bewegungssynthese zu neuer Person u neue Person u führt Bewegungsart j aus: b u,j löse nach Signatur p u auf: b u,j = p T u A j 19

Bewegungssynthese zu neuer Person u neue Person u führt Bewegungsart j aus: b u,j löse nach Signatur p u auf: b u,j = p T u A j gemäß p u synthetisierte Bewegungen für Person u: S 1 p T u 2 A 3 J k-ter Vektor der dritten Dimension des Tensors entspricht b u,k 20

Basis für Personen Bewegungsbasis für Person i: P i := S 1 p T i 3 J 21

Basis für Personen Bewegungsbasis für Person i: P i := S 1 p T i 3 J Linearkombination der Zeilenvektoren von P i gemäß a j liefert Instanz b i,j der Bewegungsart j für Person i: b i,j = a T j P i 22

Bewegungssynthese zu neuer Bewegung v bekannte Person i führt neue Bewegungsart v aus: b i,v löse nach Signatur a v auf: b i,v = a T v P i 23

Bewegungssynthese zu neuer Bewegung v bekannte Person i führt neue Bewegungsart v aus: b i,v löse nach Signatur a v auf: b i,v = a T v P i gemäß a v synthetisierte Bewegungen für Bewegungsart v: S 1 P 2 a T v 3 J k-ter Vektor der dritten Dimension des Tensors entspricht b k,v 24

Haarlose Personen sind synthetisierte Versionen der anderen Quelle: Vasilescu, Human motion signatures: Analysis, synthesis, recognition, 2002. 25

Anhand von Treppensteigen synthetisierte Laufbewegung Quelle: Vasilescu, Human motion signatures: Analysis, synthesis, recognition, 2002. 26

Anhand von Treppensteigen synthetisierte Laufbewegung Quelle: Vasilescu, Human motion signatures: Analysis, synthesis, recognition, 2002. 27

Anhand von Treppensteigen synthetisierte Laufbewegung Quelle: Vasilescu, Human motion signatures: Analysis, synthesis, recognition, 2002. 28

Anhand von Treppensteigen synthetisierte Laufbewegung Quelle: Vasilescu, Human motion signatures: Analysis, synthesis, recognition, 2002. 29

Quellen I Eldén, L. Matrix methods in data mining and pattern recognition. Volume 4, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 2007. De Lathauwer, Lieven and De Moor, Bart and Vandewalle, Joos. A multilinear singular value decomposition. SIAM Journal on Matrix Analysis and Applications, 21(4):1253 1278, 2000. Vasilescu, M Alex O. Human motion signatures: Analysis, synthesis, recognition. 16th International Conference on Pattern Recognition. Proceedings, 3:456 460, 2002. 30

Vielen Dank für Ihre Aufmerksamkeit! 31