Reduced-Rank Least Squares Modelle

Größe: px
Ab Seite anzeigen:

Download "Reduced-Rank Least Squares Modelle"

Transkript

1

2 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A = UΣV T = n i=1 σ i u i v T i Rang: rank(a) = {σ σ > 0} min(m, n) k i=1 σ i u i v T i = A k

3 Least Squares Problem Gegeben: überbestimmtes LGS Ax = b ohne Lösung (m > n) Gesucht: Approximative Lösung für x in Ax b = r (1) durch Minimierung des Residuenvektors r Mit Euklidischer Distanz Least Squares Problem genannt: min x Ax b 2 (2)

4 Das Least Squares Problem min x ( Ax b 2 ) (3) wird, angenommen x liegt im aufgespannten Raum der Basis Z k x = Z k y rank(z) = k mit k < rang(a) zum Problem min y ( AZ k y b 2 ) (4) Problem: Finde geeignete Basis Z k

5 Gegeben sei die SVD von A: A = UΣV T = Und damit die kleinste Norm Lösung: x = r i=1 r i=1 σ i u i v T i (5) u T i b σ i v i (6) Gesucht: Ein geeignete Basis Z k und die Lösung für x

6 Setze im : Z k = V k (7) x beschränkt auf den von den k rechten Singulärvektoren von A aufgespannten Raum Die ja nach den absteigenden Singulärwerten sortiert sind σ 1 σ 2... σ k (8)

7 Damit wird also Z k = V k in das Least Squares Problem eingesetzt: Ax b 2 2 AV k y b 2 2 UΣV T V k y b 2 2 ( ) Ik y b 2 2 UΣ U ( Σk 0 0 ) y b 2 2 (9a) (9b) (9c) (9d) (9e)

8 U U( ) y b ) y U T b) ) y U T b 2 2 ( Σk ( Σk ( Σk 0 ( Σk 0 ) ( U T y 1...k b Uk+1...r T b Σ k y U T 1...k b (10a) (10b) (10c) ) 2 2 (10d) r i=k+1 (u T i b) 2 (10e)

9 Somit gilt für y: Bzw. für x: Σ k y U T 1...k b r i=k+1 (u T i b) 2 (11) y = Σ 1 k UT k b (12) x k = V k Σ 1 k UT k b (13)

10 Beispiel 1.1 aus [Eld07, S. 4]. Dokumente d1: The Google matrix P is a model of the Internet. d2: P ij is nonzero if there is a link from Web page j to i. d3: The Google matrix is used to rank all Web pages. d4: The ranking is done by solving a matrix eigenvalue problem. d5: England dropped out of the top 10 in the FIFA ranking. Queries q1: ranking of Web pages q2: England in FIFA

11 Term d1 d2 d3 d4 d5 q1 q2 eigenvalue England FIFA Google Internet link matrix page rank Web

12 Least Squares für b = q i : min y ( AV k y q i 2 ) (14) Relativer Fehler: AV k y q i 2 / q i 2 (15)

13 Wiederholung Householdertransformation Gegeben einen beliebigen Vektor v 0: Dann ist P eine symmetrische, orthogonale Matrix, wenn: P = I 2 v T v vv T (16) Gegeben zwei Vektoren x und y mit gleicher Länge, x 2 = y 2. Gesucht eine Householdertransformation die x nach y überführt: Px = y (17)

14 Setzt man v = x y: Px =y (I 2 v T v vv T )x =y x 2v T x v T v v =y (18a) (18b) (18c) v T v = x T x + y T x 2x T y = 2(x T x x T y) (19)

15 Da x T x = y T y gilt: Und somit: v T x = x T x y T x = v T v 2 (20) Px = x 2 v T x v T v v = x v = y (21)

16 mit Householdertransformationen Gegeben: C R mxn m n Gesucht obere Bidiagonalisierung ˆB: C = P Wobei P und W orthogonal sind. ) (ˆB W T (22) 0

17 Verfahren mit Householdertransformationen Householdertransformationen Pi T, W i abwechselnd auf C auf die Spalten P T i W i auf die Zeilen P und W sind dann die Produkte: P = P 1 P 2 P 3... P n R mxm W = W 1 W 2 W 3... W n 2 R nxn ˆB ist das so transformierte C

18 Beispiel mit C R 6x5 P T 1 C = P T 1 x x x x x x x x x x 0 x x x x x x x x x x = 0 0 x x x x x 0 x x x x x 0 Wobei P T 1 eine Householdertransformation ist.

19 P1 T CW 1 = 0 0 W 1 = 0 0 = C ( ) 1 0 Wobei W 1 = und Z 0 Z 1 eine Householdertransformation ist. 1

20 P2 T C 1 W 2 = = C

21 P T CW = = ) (ˆB 0

22 Allgemein hat ˆB R nxn die Form: β 1 α 1 β 2 α 2 ˆB = β n 1 α n 1 β n Und W enthält die orthogonale Matrix Z R n 1xn 1 : ( ) 1 0 W = 0 Z

23 Zum lösen des Least Squares Problem: Setzen wir C = ( b A ) : min x b Ax 2 P T CW = P T ( b A ) W

24 P T CW = P T ( b A ) ( ) Z (23a) = ( P T b P T AZ ) (23b) ( ) β1 e = 1 B (23c) 0 0 wobei B: α 1 β 2 α 2 B = β n 1 α n 1 β n

25 Wieder angenommen y = Z T x: b Ax 2 = ( b A ) ( ) 1 x 2 (24a) ) ( 1 = P T ( b A ) ( Z = ( P T b P T AZ ) ( 1 y = β 1 e 1 By 2 bzw. als Least Squares Problem: ) 2 (24b) y ) 2 (24c) (24d) min y ( β 1 e 1 By 2 ) (25)

26 Approximation der Lösung: min y ( AZ k y b 2 ) (26) min y ( P k+1 Z k+1 y b 2 ) = min y ( B k+1 β 1 e 1 2 ) (27) wobei B k+1 : α 1 β 2 α 2 B k+1 = β k β 1 0 β 1 e 1 = 0 α k 0 β k+1 0

27 1. Ziehen sie das Beispiel für die truncated SVD anhand der Matrix aus dem letzten Vortrag Latent Semantic Indexing von Florian Frankenberger nach.

28 Lars Eldén. Matrix Methods in Data Mining and Pattern Recognition. Society for Industrial and Applied Mathematics, Philadelphia, PA, USA, Gene H. Golub and Charles F. van Loan. Matrix Computations. John Hopkins University Press, Baltimore and London, 3rd edition, Gilbert Strang. Lineare Algebra. Springer, 2003.

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

Computergestützte Mathematik zur Linearen Algebra

Computergestützte Mathematik zur Linearen Algebra Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Latent Semantic Analysis. Christian Ebert & Fritz Hamm. Lineare Algebra IV: Diagonalisierungen. Latent Semantic. Analysis/Indexing. 12.

Latent Semantic Analysis. Christian Ebert & Fritz Hamm. Lineare Algebra IV: Diagonalisierungen. Latent Semantic. Analysis/Indexing. 12. 12. Januar 2012 Eigenwerte & Diagonalisierungen I Sei V ein K-Vektorraum und A ein Endomorphismus/eine n n Matrix über K {R, C} Erinnerung 1 Gilt A x = λ x, x 0 V, λ K, heißt λ Eigenwert und x Eigenvektor

Mehr

9. Vorlesung Lineare Algebra, SVD und LSI

9. Vorlesung Lineare Algebra, SVD und LSI 9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent

Mehr

Matrix- Algorithmen Householder- und Givens- Matrizen

Matrix- Algorithmen Householder- und Givens- Matrizen Fast und 20. Mai 2011 und Inhaltsverzeichnis Fast 1 2 Fast und Fast ist eine eines Vektors an der Hyperebene durch die Null im euklidischen Raum Ein zur Spiegelebene orthogonaler Vektor v R n \ {0} wird

Mehr

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Tensoren in der Datenanalyse

Tensoren in der Datenanalyse Tensoren in der Datenanalyse Edgar Tretschk Universität des Saarlandes 2. Dezember 2015 1 Inhalt 1 Grundlagen 2 Singulärwertzerlegung 3 Ziffernerkennung 4 Bewegungsabläufe 2 Tensoren als mehrdimensionale

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

D-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13

D-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13 D-INFK Lineare Algebra HS 6 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 3. a) Wir berechnen 3 A T A = 3 Bei der Berechnung des charakteristischen Polynoms erkennt man leicht, dass man das Monom (

Mehr

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung. 20.0.2011 Inhaltsverzeichnis 1 2 3 4 1 2 3 4 der Matrix A R mxn, m n A = Q R Matrix Q: Q R nxn orthogonale Matrix (Spalten paarweise orthogonal) Q Q T = E Matrix R: R R mxn obere Dreiecksmatrix r 11 r

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Singulärwert-Zerlegung

Singulärwert-Zerlegung Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder

Mehr

9. Dezember 2015 TEXT MINING. Sebastian Wack

9. Dezember 2015 TEXT MINING. Sebastian Wack 9. Dezember 2015 1 TEXT MINING Sebastian Wack 2 GLIEDERUNG Was ist Text Mining? Primitive Algorithmen Vorbereitungen Vektormodell Latent Semantic Indexing Clustering Nichtnegative Matrix Faktorisierung

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,

Mehr

III Das Symmetrische Eigenwertproblem (SEP)

III Das Symmetrische Eigenwertproblem (SEP) III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im

Mehr

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011 Choleskyzerlegung Julia Hoeboer 13 Mai 2011 Inhalt: LDM T Zerlegung LDL T Zerlegung Cholesky Zerlegung Person Berechnung Gaxpy Algorithmus Effektivität LDM T Zerlegung LDM T Zerlegung lässt sich aus LR

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Regularisierung in Bildrekonstruktion und Bildrestaurierung

Regularisierung in Bildrekonstruktion und Bildrestaurierung Regularisierung in Bildrekonstruktion und Bildrestaurierung Ulli Wölfel 15. Februar 2002 1 Einleitung Gegeben seien Daten g(x, y), die Störungen enthalten. Gesucht ist das (unbekannte) Originalbild ohne

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

5 Lineare Ausgleichsrechnung

5 Lineare Ausgleichsrechnung Numerische Mathematik 195 5 Lineare Ausgleichsrechnung 5.1 Die Normalgleichungen Das lineare Ausgleichsproblem (Kleinste-Quadrate-Problem): Gegeben sind A R m n und b R m. Gesucht ist ein Vektor x R n

Mehr

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig 14. Oktober 2010 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A

Mehr

Computer Vision. Klaus Diepold Lehrstuhl für Datenverarbeitung. 18. Juni l 1 z x. l 2. (R,T) Koordinatentransformation. Bild 1: Stereo Setup.

Computer Vision. Klaus Diepold Lehrstuhl für Datenverarbeitung. 18. Juni l 1 z x. l 2. (R,T) Koordinatentransformation. Bild 1: Stereo Setup. Computer Vision Klaus Diepold Lehrstuhl für Datenverarbeitung 8. Juni 008 3 3-D Stereo Vision Grundlegender Aufbau eines Steroekamerasystems ist in dargestellt. Q P y z x x x l z x C e e C l q y (R,T)

Mehr

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012 Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

IX. Das symmetrische Eigenwertproblem (SEP)

IX. Das symmetrische Eigenwertproblem (SEP) IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Numerische Verfahren

Numerische Verfahren Numerische Verfahren Jens-Peter M. Zemke zemke@tu-harburg.de Institut für Numerische Simulation Technische Universität Hamburg-Harburg 03.06.2008 TUHH Jens-Peter M. Zemke Numerische Verfahren Lineare Ausgleichsprobleme

Mehr

D-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov. Serie 14

D-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov. Serie 14 D-INFK Lineare Algebra HS 2014 Marc Pollefeys Roman Glebov Serie 14 1. In dieser Aufgabe wollen wir die Singulärwertzerlegung der Matrix 1 / 2 0 1 / 2 A = 1 1 1 1 1 1 1 / 2 0 1 / 2 von Hand berechnen.

Mehr

Musterlösung Serie 21

Musterlösung Serie 21 D-MATH Lineare Algebra II FS 09 Prof. Richard Pink Musterlösung Serie Positiv-Definitheit und Singulärwertzerlegung. Welche der folgenden drei reellen symmetrischen Matrizen sind positiv definit? A : 6

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

Lineare Approximation

Lineare Approximation Lineare Approximation Yasemin Hafizogullari 9. Januar 2009 Yasemin Hafizogullari () Lineare Approximation 9. Januar 2009 1 / 49 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b])

Kapitel 3. Lineare Ausgleichsrechnung. Problem: Löse A x = b, A R m n, b R m, wobei. Rang(A) < Rang([A;b]) Kapitel 3. Lineare Ausgleichsrechnung Problem: Löse A x = b, A R m n, b R m, wobei Rang(A) < Rang([A;b]) zugelassen ist, d.h. Ax = b ist nur im weitesten Sinne lösbar. 3.1 Lineares Ausgleichsproblem: Zu

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

Mathematik I für MB/ME

Mathematik I für MB/ME Mathematik I für MB/ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 25/26 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Direkte Methoden für dünnbesetzte lineare Gleichungssysteme

Direkte Methoden für dünnbesetzte lineare Gleichungssysteme Direkte Methoden für dünnbesetzte lineare Gleichungssysteme Seminar, Wintersemester 2012/13 Hans Georg Bock Andreas Potschka Ruprecht-Karls-Universität Heidelberg 17. Oktober 2012 Direkte Methoden für

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Probeprüfung Lineare Algebra I/II für D-MAVT

Probeprüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Frühling 018 Probeprüfung Lineare Algebra I/II für D-MAVT Die Prüfung dauert 10 Minuten. Sie dient der Selbstevaluation. Die Musterlösungen folgen. Die Multiple Choice

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG. Winter 2016 Typ B

Lineare Algebra und Numerische Mathematik für D-BAUG. Winter 2016 Typ B R. Käppeli T. Welti F. Weber Herbstsemester 2015 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Winter 2016 Typ B Name a a Note Vorname Leginummer Datum 03.02.2017 1 2 3

Mehr

Pseudoinverse Matrizen

Pseudoinverse Matrizen Miniaturen zur Einführung in die Mathematik Vertiefungen, Ergänzungen und zusätzliche interessante Aspekte für Hörsaalanleitungen oder schlicht als Lektüreangebot 09 Pseudoinverse Matrizen Moore-Penrose-Inverse

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind.

Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind. 1 Lineare Algebra Wir rekapitulieren grundlegende Begriffe der linearen Algebra, die für die Analyse numerischer Methoden der linearen Algebra wichtig sind. 1.1 Vektorräume (VRe) Definition 1.1.1 Ein Vektorraum

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Mathematik I für MB und ME

Mathematik I für MB und ME Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden

Mehr

Lineare Algebra, Prüfung mit Lösungen

Lineare Algebra, Prüfung mit Lösungen Lineare Algebra, Prüfung mit Lösungen M. Gruber.Juli, 8:{:, R.8 (5), R.9 (5), R. (), R. (); Code. . Sei A eine Matrix, die durch die ublichen Zeilenoperationen in die Form gebracht werden kann. R = 5 a)

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017 Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block

Mehr

Klausurähnliche Aufgaben

Klausurähnliche Aufgaben Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2017 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Inhaltsverzeichnis. 1. Matrizen ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN

Inhaltsverzeichnis. 1. Matrizen ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN ZUSAMMENFASSUNG - LINEARE ALGEBRA 1 MATRIZEN Inhaltsverzeichnis 1 Matrizen 1 Matrizen 1 11 Spezielle Matrizen 1 1 Rechnen mit Matrizen 1 13 Symmetrische und Hermitesche Matrizen 14 Inverse einer Matrix

Mehr

Quadratische Formen. und. Symmetrische Matrizen

Quadratische Formen. und. Symmetrische Matrizen Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:

Mehr

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:

Mehr

Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen

Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen Matrix-Algorithmen Matrixmultiplikation Allgemeiner Matrizen 15.04.2011 Inhaltsverzeichnis Grundlagen 1 Grundlagen Matrizen Vektoren 2 Skalarprodukt und Saxpy Matrix-Vektor-Multiplikation Gaxpy Matrix-Matrix-Multiplikation

Mehr

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1. Stroppel Musterlösung 4..4, 8min Aufgabe 3 Punkte) Sei f n ) n N die Fibonacci-Folge, die durch f :=, f := und f n+ := f n +f n definiert ist. Beweisen Sie durch vollständige Induktion, dass für alle n

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

1. Referenzpunkt Transformation

1. Referenzpunkt Transformation 2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere

Mehr

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Lösungen Serie 5. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler

Lösungen Serie 5. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler D-MAVT Lineare Algebra II S 8 Prof. Dr. N. Hungerbühler Lösungen Serie 5. Die Abbildung V n R n, v [v] B, die jedem Vektor seinen Koordinatenvektor bezüglich einer Basis B zuordnet, ist linear. Sei B =

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Wirtschafts- und Finanzmathematik

Wirtschafts- und Finanzmathematik Prof Dr Stefan Etschberger HSA Wirtschafts- und Finanzmathematik für Betriebswirtschaft und International Management Wintersemester 2016/17 Determinanten: Vorüberlegung Permutationen und Inversionen

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 5. Dezember 2007 Definition : Tomographie (Fortsetzung) : Tomographie Definition: Ein lineares Gleichungssystem (LGS) ist ein System von n

Mehr

T2 Quantenmechanik Lösungen 7

T2 Quantenmechanik Lösungen 7 T2 Quantenmechanik Lösungen 7 LMU München, WS 7/8 7.. Lineare Algebra Prof. D. Lüst / Dr. A. Schmidt-May version: 28.. Gegeben sei ein komplexer Hilbert-Raum H der Dimension d. Sei { n } mit n,..., d eine

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Latent Semantic Indexing: Einführung und Experiment

Latent Semantic Indexing: Einführung und Experiment Latent Semantic Indexing: Einführung und Experiment Jonathan Geiger, Felix Hieber HS: Information Retrieval Dr. Haenelt 12.01.2009 WS 08/09 Motivation Grundsätzlich stecken zwei Ideen hinter, eine praktischer

Mehr

Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal ist

Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal ist Rückblick Probabilistisches IR bestimmt die Wahrscheinlichkeit, dass ein Dokument d zur Anfrage q relevant ist Probabilistic Ranking Principle besagt, dass Rangfolge gemäß dieser Wahrscheinlichkeiten optimal

Mehr

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur. Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Sommersemester 03 Klausur zur Mathematik II (Modul: Lineare Algebra II) 4.08.03 Sie haben 60 Minuten Zeit zum Bearbeiten

Mehr