Reduced-Rank Least Squares Modelle
|
|
- Philipp Baum
- vor 7 Jahren
- Abrufe
Transkript
1
2 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A = UΣV T = n i=1 σ i u i v T i Rang: rank(a) = {σ σ > 0} min(m, n) k i=1 σ i u i v T i = A k
3 Least Squares Problem Gegeben: überbestimmtes LGS Ax = b ohne Lösung (m > n) Gesucht: Approximative Lösung für x in Ax b = r (1) durch Minimierung des Residuenvektors r Mit Euklidischer Distanz Least Squares Problem genannt: min x Ax b 2 (2)
4 Das Least Squares Problem min x ( Ax b 2 ) (3) wird, angenommen x liegt im aufgespannten Raum der Basis Z k x = Z k y rank(z) = k mit k < rang(a) zum Problem min y ( AZ k y b 2 ) (4) Problem: Finde geeignete Basis Z k
5 Gegeben sei die SVD von A: A = UΣV T = Und damit die kleinste Norm Lösung: x = r i=1 r i=1 σ i u i v T i (5) u T i b σ i v i (6) Gesucht: Ein geeignete Basis Z k und die Lösung für x
6 Setze im : Z k = V k (7) x beschränkt auf den von den k rechten Singulärvektoren von A aufgespannten Raum Die ja nach den absteigenden Singulärwerten sortiert sind σ 1 σ 2... σ k (8)
7 Damit wird also Z k = V k in das Least Squares Problem eingesetzt: Ax b 2 2 AV k y b 2 2 UΣV T V k y b 2 2 ( ) Ik y b 2 2 UΣ U ( Σk 0 0 ) y b 2 2 (9a) (9b) (9c) (9d) (9e)
8 U U( ) y b ) y U T b) ) y U T b 2 2 ( Σk ( Σk ( Σk 0 ( Σk 0 ) ( U T y 1...k b Uk+1...r T b Σ k y U T 1...k b (10a) (10b) (10c) ) 2 2 (10d) r i=k+1 (u T i b) 2 (10e)
9 Somit gilt für y: Bzw. für x: Σ k y U T 1...k b r i=k+1 (u T i b) 2 (11) y = Σ 1 k UT k b (12) x k = V k Σ 1 k UT k b (13)
10 Beispiel 1.1 aus [Eld07, S. 4]. Dokumente d1: The Google matrix P is a model of the Internet. d2: P ij is nonzero if there is a link from Web page j to i. d3: The Google matrix is used to rank all Web pages. d4: The ranking is done by solving a matrix eigenvalue problem. d5: England dropped out of the top 10 in the FIFA ranking. Queries q1: ranking of Web pages q2: England in FIFA
11 Term d1 d2 d3 d4 d5 q1 q2 eigenvalue England FIFA Google Internet link matrix page rank Web
12 Least Squares für b = q i : min y ( AV k y q i 2 ) (14) Relativer Fehler: AV k y q i 2 / q i 2 (15)
13 Wiederholung Householdertransformation Gegeben einen beliebigen Vektor v 0: Dann ist P eine symmetrische, orthogonale Matrix, wenn: P = I 2 v T v vv T (16) Gegeben zwei Vektoren x und y mit gleicher Länge, x 2 = y 2. Gesucht eine Householdertransformation die x nach y überführt: Px = y (17)
14 Setzt man v = x y: Px =y (I 2 v T v vv T )x =y x 2v T x v T v v =y (18a) (18b) (18c) v T v = x T x + y T x 2x T y = 2(x T x x T y) (19)
15 Da x T x = y T y gilt: Und somit: v T x = x T x y T x = v T v 2 (20) Px = x 2 v T x v T v v = x v = y (21)
16 mit Householdertransformationen Gegeben: C R mxn m n Gesucht obere Bidiagonalisierung ˆB: C = P Wobei P und W orthogonal sind. ) (ˆB W T (22) 0
17 Verfahren mit Householdertransformationen Householdertransformationen Pi T, W i abwechselnd auf C auf die Spalten P T i W i auf die Zeilen P und W sind dann die Produkte: P = P 1 P 2 P 3... P n R mxm W = W 1 W 2 W 3... W n 2 R nxn ˆB ist das so transformierte C
18 Beispiel mit C R 6x5 P T 1 C = P T 1 x x x x x x x x x x 0 x x x x x x x x x x = 0 0 x x x x x 0 x x x x x 0 Wobei P T 1 eine Householdertransformation ist.
19 P1 T CW 1 = 0 0 W 1 = 0 0 = C ( ) 1 0 Wobei W 1 = und Z 0 Z 1 eine Householdertransformation ist. 1
20 P2 T C 1 W 2 = = C
21 P T CW = = ) (ˆB 0
22 Allgemein hat ˆB R nxn die Form: β 1 α 1 β 2 α 2 ˆB = β n 1 α n 1 β n Und W enthält die orthogonale Matrix Z R n 1xn 1 : ( ) 1 0 W = 0 Z
23 Zum lösen des Least Squares Problem: Setzen wir C = ( b A ) : min x b Ax 2 P T CW = P T ( b A ) W
24 P T CW = P T ( b A ) ( ) Z (23a) = ( P T b P T AZ ) (23b) ( ) β1 e = 1 B (23c) 0 0 wobei B: α 1 β 2 α 2 B = β n 1 α n 1 β n
25 Wieder angenommen y = Z T x: b Ax 2 = ( b A ) ( ) 1 x 2 (24a) ) ( 1 = P T ( b A ) ( Z = ( P T b P T AZ ) ( 1 y = β 1 e 1 By 2 bzw. als Least Squares Problem: ) 2 (24b) y ) 2 (24c) (24d) min y ( β 1 e 1 By 2 ) (25)
26 Approximation der Lösung: min y ( AZ k y b 2 ) (26) min y ( P k+1 Z k+1 y b 2 ) = min y ( B k+1 β 1 e 1 2 ) (27) wobei B k+1 : α 1 β 2 α 2 B k+1 = β k β 1 0 β 1 e 1 = 0 α k 0 β k+1 0
27 1. Ziehen sie das Beispiel für die truncated SVD anhand der Matrix aus dem letzten Vortrag Latent Semantic Indexing von Florian Frankenberger nach.
28 Lars Eldén. Matrix Methods in Data Mining and Pattern Recognition. Society for Industrial and Applied Mathematics, Philadelphia, PA, USA, Gene H. Golub and Charles F. van Loan. Matrix Computations. John Hopkins University Press, Baltimore and London, 3rd edition, Gilbert Strang. Lineare Algebra. Springer, 2003.
Singulärwertzerlegung
LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
MehrLatent Semantic Analysis. Christian Ebert & Fritz Hamm. Lineare Algebra IV: Diagonalisierungen. Latent Semantic. Analysis/Indexing. 12.
12. Januar 2012 Eigenwerte & Diagonalisierungen I Sei V ein K-Vektorraum und A ein Endomorphismus/eine n n Matrix über K {R, C} Erinnerung 1 Gilt A x = λ x, x 0 V, λ K, heißt λ Eigenwert und x Eigenvektor
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
MehrMatrix- Algorithmen Householder- und Givens- Matrizen
Fast und 20. Mai 2011 und Inhaltsverzeichnis Fast 1 2 Fast und Fast ist eine eines Vektors an der Hyperebene durch die Null im euklidischen Raum Ein zur Spiegelebene orthogonaler Vektor v R n \ {0} wird
MehrComputergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!
Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
MehrTensoren in der Datenanalyse
Tensoren in der Datenanalyse Edgar Tretschk Universität des Saarlandes 2. Dezember 2015 1 Inhalt 1 Grundlagen 2 Singulärwertzerlegung 3 Ziffernerkennung 4 Bewegungsabläufe 2 Tensoren als mehrdimensionale
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrD-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13
D-INFK Lineare Algebra HS 6 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 3. a) Wir berechnen 3 A T A = 3 Bei der Berechnung des charakteristischen Polynoms erkennt man leicht, dass man das Monom (
MehrQR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.
20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrSingulärwert-Zerlegung
Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder
Mehr9. Dezember 2015 TEXT MINING. Sebastian Wack
9. Dezember 2015 1 TEXT MINING Sebastian Wack 2 GLIEDERUNG Was ist Text Mining? Primitive Algorithmen Vorbereitungen Vektormodell Latent Semantic Indexing Clustering Nichtnegative Matrix Faktorisierung
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,
MehrIII Das Symmetrische Eigenwertproblem (SEP)
III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im
MehrKurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011
Choleskyzerlegung Julia Hoeboer 13 Mai 2011 Inhalt: LDM T Zerlegung LDL T Zerlegung Cholesky Zerlegung Person Berechnung Gaxpy Algorithmus Effektivität LDM T Zerlegung LDM T Zerlegung lässt sich aus LR
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrRegularisierung in Bildrekonstruktion und Bildrestaurierung
Regularisierung in Bildrekonstruktion und Bildrestaurierung Ulli Wölfel 15. Februar 2002 1 Einleitung Gegeben seien Daten g(x, y), die Störungen enthalten. Gesucht ist das (unbekannte) Originalbild ohne
MehrKapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)
Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
Mehr5 Lineare Ausgleichsrechnung
Numerische Mathematik 195 5 Lineare Ausgleichsrechnung 5.1 Die Normalgleichungen Das lineare Ausgleichsproblem (Kleinste-Quadrate-Problem): Gegeben sind A R m n und b R m. Gesucht ist ein Vektor x R n
MehrLineare Gleichungssysteme und die Methode der kleinsten Quadrate
Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig 14. Oktober 2010 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A
MehrComputer Vision. Klaus Diepold Lehrstuhl für Datenverarbeitung. 18. Juni l 1 z x. l 2. (R,T) Koordinatentransformation. Bild 1: Stereo Setup.
Computer Vision Klaus Diepold Lehrstuhl für Datenverarbeitung 8. Juni 008 3 3-D Stereo Vision Grundlegender Aufbau eines Steroekamerasystems ist in dargestellt. Q P y z x x x l z x C e e C l q y (R,T)
Mehr4 Lineare Ausgleichsrechnung
Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrLernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012
Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
MehrIX. Das symmetrische Eigenwertproblem (SEP)
IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :
MehrT := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass
I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrNumerische Verfahren
Numerische Verfahren Jens-Peter M. Zemke zemke@tu-harburg.de Institut für Numerische Simulation Technische Universität Hamburg-Harburg 03.06.2008 TUHH Jens-Peter M. Zemke Numerische Verfahren Lineare Ausgleichsprobleme
MehrD-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov. Serie 14
D-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov Serie 14 1. In dieser Aufgabe wollen wir die Singulärwertzerlegung der Matrix 1 / 2 0 1 / 2 A = 1 1 1 1 1 1 1 / 2 0 1 / 2 von Hand berechnen.
MehrMusterlösung Serie 21
D-MATH Lineare Algebra II FS 09 Prof. Richard Pink Musterlösung Serie Positiv-Definitheit und Singulärwertzerlegung. Welche der folgenden drei reellen symmetrischen Matrizen sind positiv definit? A : 6
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrI) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i
MehrLineare Approximation
Lineare Approximation Yasemin Hafizogullari 9. Januar 2009 Yasemin Hafizogullari () Lineare Approximation 9. Januar 2009 1 / 49 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
MehrKapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])
Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu
Mehr7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
Mehra ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung
MehrMathematik I für MB/ME
Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrDirekte Methoden für dünnbesetzte lineare Gleichungssysteme
Direkte Methoden für dünnbesetzte lineare Gleichungssysteme Seminar, Wintersemester 2012/13 Hans Georg Bock Andreas Potschka Ruprecht-Karls-Universität Heidelberg 17. Oktober 2012 Direkte Methoden für
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
MehrProbeprüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Frühling 018 Probeprüfung Lineare Algebra I/II für D-MAVT Die Prüfung dauert 10 Minuten. Sie dient der Selbstevaluation. Die Musterlösungen folgen. Die Multiple Choice
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrLineare Algebra und Numerische Mathematik für D-BAUG. Winter 2016 Typ B
R. Käppeli T. Welti F. Weber Herbstsemester 2015 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Winter 2016 Typ B Name a a Note Vorname Leginummer Datum 03.02.2017 1 2 3
MehrPseudoinverse Matrizen
Miniaturen zur Einführung in die Mathematik Vertiefungen, Ergänzungen und zusätzliche interessante Aspekte für Hörsaalanleitungen oder schlicht als Lektüreangebot 09 Pseudoinverse Matrizen Moore-Penrose-Inverse
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrWir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind.
1 Lineare Algebra Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind. 1.1 Vektorräume (VRe) Definition 1.1.1 Ein Vektorraum
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
MehrMathematik I für MB und ME
Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden
MehrLineare Algebra, Prüfung mit Lösungen
Lineare Algebra, Prüfung mit Lösungen M. Gruber.Juli, 8:{:, R.8 (5), R.9 (5), R. (), R. (); Code. . Sei A eine Matrix, die durch die ublichen Zeilenoperationen in die Form gebracht werden kann. R = 5 a)
MehrProbeklausur zu Mathematik 2 für Informatik
Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die
MehrKlausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017
Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block
MehrKlausurähnliche Aufgaben
Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2017 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8
MehrLineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.
b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x
MehrWiederholungsserie II
Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
MehrInhaltsverzeichnis. 1. Matrizen ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN
ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN Inhaltsverzeichnis 1 Matrizen 1 Matrizen 1 11 Spezielle Matrizen 1 1 Rechnen mit Matrizen 1 13 Symmetrische und Hermitesche Matrizen 14 Inverse einer Matrix
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrA w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix
Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:
MehrA w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix
Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:
MehrMatrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen
Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen 15.04.2011 Inhaltsverzeichnis Grundlagen 1 Grundlagen Matrizen Vektoren 2 Skalarprodukt und Saxpy Matrix-Vektor-Multiplikation Gaxpy Matrix-Matrix-Multiplikation
Mehrfj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.
Stroppel Musterlösung 4..4, 8min Aufgabe 3 Punkte) Sei f n ) n N die Fibonacci-Folge, die durch f :=, f := und f n+ := f n +f n definiert ist. Beweisen Sie durch vollständige Induktion, dass für alle n
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
Mehr1. Referenzpunkt Transformation
2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere
MehrLineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen
Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die
MehrSparse Hauptkomponentenanalyse
Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es
MehrLösungen Serie 5. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler
D-MAVT Lineare Algebra II S 8 Prof. Dr. N. Hungerbühler Lösungen Serie 5. Die Abbildung V n R n, v [v] B, die jedem Vektor seinen Koordinatenvektor bezüglich einer Basis B zuordnet, ist linear. Sei B =
MehrLösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:
Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in
MehrWirtschafts- und Finanzmathematik
Prof Dr Stefan Etschberger HSA Wirtschafts- und Finanzmathematik für Betriebswirtschaft und International Management Wintersemester 2016/17 Determinanten: Vorüberlegung Permutationen und Inversionen
MehrD-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den
D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes
MehrLineare Gleichungssysteme
Mathematik I für Biologen, Geowissenschaftler und Geoökologen 5. Dezember 2007 Definition : Tomographie (Fortsetzung) : Tomographie Definition: Ein lineares Gleichungssystem (LGS) ist ein System von n
MehrT2 Quantenmechanik Lösungen 7
T2 Quantenmechanik Lösungen 7 LMU München, WS 7/8 7.. Lineare Algebra Prof. D. Lüst / Dr. A. Schmidt-May version: 28.. Gegeben sei ein komplexer Hilbert-Raum H der Dimension d. Sei { n } mit n,..., d eine
MehrDer Kern einer Matrix
Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis
MehrLatent Semantic Indexing: Einführung und Experiment
Latent Semantic Indexing: Einführung und Experiment Jonathan Geiger, Felix Hieber HS: Information Retrieval Dr. Haenelt 12.01.2009 WS 08/09 Motivation Grundsätzlich stecken zwei Ideen hinter, eine praktischer
MehrProbabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal ist
Rückblick Probabilistisches IR bestimmt die Wahrscheinlichkeit, dass ein Dokument d zur Anfrage q relevant ist Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal
MehrKlausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.
Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Sommersemester 03 Klausur zur Mathematik II (Modul: Lineare Algebra II) 4.08.03 Sie haben 60 Minuten Zeit zum Bearbeiten
Mehr