Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Größe: px
Ab Seite anzeigen:

Download "Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!"

Transkript

1 Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen Kurven und Flächen Rendering und Visibilität Radiosity Mapping-Techniken Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.

2 5.2. Motivation Approximation Daten oft mit Toleranzen versehen Bei Modellierung großer Datenmengen, z.b. im Reverse Engineering durch Laserabtastung dreidimensionaler Objekte, liefert eine Interpolation zu komplexe Flächendarstellungen Approximation der Daten, basierend auf einer kleineren Menge von Basisfunktionen. Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.2

3 Gegeben: Punktmenge mit Stützstellen (p j, t j ), j =,,m Basisfunktionen φ i =,,n, für die Darstellung einer approximierenden Kurve oder Fläche. Gesucht: Approximierende Kurve f(t) (oder Fläche f(u,v)) n = i= f ( t) c ϕ ( t) i i Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.3

4 Der Fall m = n Die Koeffizienten c i können über das lineare Gleichungssystem der Interpolationsbedingungen bestimmt werden: n i= cϕ ( t ) = p i i j j j =,,m Kurz: Ac = p mit a ji = φ i (t i ) (3) Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.4

5 Der Fall m > n System (3) ist überbestimmt (mehr Bedingungen als Freiheitsgrade) Aus dem Interpolationsproblem wird daher ein Approximationsproblem, basierend auf der Minimierung eines Residuums: m r = f ( t j ) p j= 2 j (4) Das Residuum r hängt von den Koeffizienten c i ab: r 0 i =,..., n c i (5) r = c i 0 Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.5

6 Fortsetzung Daraus ergibt sich wiederum ein Gleichungssystem: Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.6

7 Fortsetzung Kurz: (Normalengleichung) A T Ac = A T p (6) Das System (6) hat für x, y und z je eine Komponente, die getrennt voneinander gelöst werden können, da auch das Residuum in drei Komponenten zerfällt: r = r + r + r x y z m = [( f ( t ) p ) + ( f ( t ) p ) + ( f ( t ) p ) ] j= x j xj y j yj z j zj Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.7

8 Fortsetzung Ist das System (6) regulär, so erfüllt die Lösung die Minimierungseigenschaft (4). Lösung des Systems (6) durch Gauß-Elimination? Die Matrix A T A ist quadratisch, symmetrisch und positiv-semidefinit. Das System kann singulär werden: z.b. wenn im Träger einer Basisfunktion φ i keine Stützstelle liegt. Verkleinerung der Basis liefert dann Abhilfe. Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.8

9 Lösung der Normalengleichung Sei M = A T A. Normalengleichung: Mc = A T p Lösung: c = M + (A T p) M + : Pseudoinverse (bzw. Inverse, wenn M regulär) Vorteil: kann numerisch stabil durch Singulärwertzerlegung (SVD) berechnet werden Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.9

10 Singulärwertzerlegung (SVD) M = UΣV T mit: r := Rang von M σ σ r >0 Singulärwerte Für Matrizen mit vollem Rang identisch zur Eigenwertzerlegung Pseudoinverse: + + M = VΣ U + ( Σ ) ij T σ falls i = j r i = 0 sonst Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.0

11 Der Fall m < n System (3) ist unterbestimmt (mehr Freiheitsgrade als Bedingungen) Für rank(a) = rank(a p) gibt es evtl. einen mehrdimensionalen Lösungsraum. Gesucht: Lösung c von (3), die zu gegebenem Vektor d (der (3) nicht erfüllt) minimalen Abstand hat: c d 2 min T Satz: c d 2 ist minimal für c = d + A t,wobei t Lösung von AA T t = p A t ist. Lösung: Singulärwertzerlegung Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.

12 5.2.3 Die Ausgleichsebene Ausgleichs- oder Regressionsebene Gegeben: Punkte p i = (x i,y i,z i ), i =,,m. Gesucht: Ebene E, die minimalen Abstanden zu den Punkten p i hat. Lösungen:. Regressionsebene (funktional): E ist gegeben durch z(x,y) = ax+by+c. Minimiere m 2 ( x j jb c z j ) min j= r = a x + mit der Methode der kleinsten Quadrate (Least Squares Fit). Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.2

13 5.2.3 Die Ausgleichsebene Lösungen 2. Regressionsebene (orthogonaler Abstand) E ist gegeben in Hesse-Normalform: Dabei ist n = ( a, b, c) T / a + b + c die normierte Normale und d der Abstand von E zum Ursprung Orthogonaler Abstand d i von p i zu E: d = n p + d Minimiere: r = m j= ( ax + by + cz + d) j j j ( a + b + c ) 2 min i i Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.3

14 5.2.3 Die Ausgleichsebene Lösungen 2. Regressionsebene (orthogonaler Abstand), Fortsetzung: r = 0 liefert: d m d = ( ax + by + cz ) mit x = x j, y, z analog Minimiere: r m = j= m j = ( a( x x) + b( y y) + c( z z )) j j j ( a + b + c ) 2 min Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.4

15 5.2.3 Die Ausgleichsebene Lösungen 2. Regressionsebene (orthogonaler Abstand), Fortsetzung r in Matrixform: r wird minimal für den Eigenvektor zum kleinsten Eigenwert von A = M T M. Lösung über Singulärwertzerlegung von M und A. Achtung! Kapitel ist relevant für Computergrafik 2! CG 5.2.5

Reduced-Rank Least Squares Modelle

Reduced-Rank Least Squares Modelle 16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,

Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Überbestimmte lineare Gleichungssysteme

Überbestimmte lineare Gleichungssysteme Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme

Mehr

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme)

Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Kapitel 6. Lösung linearer Gleichungssysteme II (nicht-reguläre Systeme) Inhalt: 6.1 Nicht-reguläre Systeme 6.2 Lösung mit der QR-Zerlegung 6.3 Lösung mit der Singulärwertzerlegung 6.4 Konditionierung

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Ergänzung Eigenwerte und Eigenvektoren Motivation Definitionen Beispiele im IR 2 Beispiele im IR 3 Eigenwerte und Eigenvektoren Motivation Lineare Abbildungen, Ausgangsvektor und Bildvektor Lineare Abbildungen

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Aufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1:

Aufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1: WS 99/99 Aufgabe : Bestimmen Sie Zahlen a b,, für die 6 b a und gleichzeitig a + b + gilt. Lösung zu Aufgabe : WS 99/99 Aufgabe : Ein Unernehmen stellt aus ohstoffen (,,, ) Zwischenprodukte ( Z, Z, Z )

Mehr

3. Übungsblatt Aufgaben mit Lösungen

3. Übungsblatt Aufgaben mit Lösungen . Übungsblatt Aufgaben mit Lösungen Aufgabe : Gegeben sind zwei Teilmengen von R : E := {x R : x x = }, und F ist eine Ebene durch die Punkte A = ( ), B = ( ) und C = ( ). (a) Stellen Sie diese Mengen

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Modellieren in der Angewandten Geologie II. Sebastian Bauer

Modellieren in der Angewandten Geologie II. Sebastian Bauer Modellieren in der Angewandten Geologie II Geohydromodellierung Institut für Geowissenschaften Christian-Albrechts-Universität zu Kiel CAU 3-1 Die Finite Elemente Method (FEM) ist eine sehr allgemeine

Mehr

Polynominterpolation

Polynominterpolation Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Lineare Algebra Zusammenfassung

Lineare Algebra Zusammenfassung Lineare Algebra Zusammenfassung Andreas Biri, D-ITET 2013 31.07.13 Lineares Gleichungssystem Gauss- Zerlegung Lösungsmenge: Menge aller Lösungen eines linearen Gleichungssystems (GS) Äquivalentes GS: 1)

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme 52 II Lineare Gleichungssysteme II Lineare Gleichungssysteme 10 Matrizen und Vektoren 52 11 Der Gaußsche Algorithmus 58 12 Basen, Dimension und Rang 62 13 Reguläre Matrizen 66 14 Determinanten 69 15 Skalarprodukte

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Numerische Mathematik II

Numerische Mathematik II u 0 x0 x1 x2 x3 x4 x5 x6 x7 x8 0 h 2h 3h Numerische Mathematik II Zuerst gehalten im Sommersemester 2000 Tomas Sauer Version 3.2 Letzte Änderung: 3.8.09 y2 x y1 b b-ax. y=ax A Statt einer Leerseite...

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 2013 Prof Dr Erich Walter Farkas Kapitel 7: Lineare Algebra 73 Ergänzungen Prof Dr Erich Walter Farkas Mathematik I+II, 73 Ergänzungen 1 / 17 1 Reguläre Matrizen Prof Dr

Mehr

Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten:

Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten: Fünfte Vorlesung, 18. März 2010, Inhalt Gleichungssysteme Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten: Matrizenrechnung Lineare Gleichungssysteme:

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

EINFÜHRUNG IN DIE ANALYTISCHE GEOMETRIE UND LINEARE ALGEBRA

EINFÜHRUNG IN DIE ANALYTISCHE GEOMETRIE UND LINEARE ALGEBRA EINFÜHRUNG IN DIE ANALYTISCHE GEOMETRIE UND LINEARE ALGEBRA VON SIEGFRIED BREHMER UND HORST BELKNER MIT 146 A B B I L D U N G E N VEB DEUTSCHER VERLAG DER WISSENSCHAFTEN BERLIN 1966 INHALTSVERZEICHNIS

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2 Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat

Mehr

Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie

Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie Regina Gellrich Carsten Gellrich Matrizen und Determinanten, Lineare Gleichungssysteme, Vektorrechnung, Analytische Geometrie Mit zahlreichen Abbildungen, Aufgaben mit Lösungen und durchgerechneten Beispielen

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

1 Rechnen mit 2 2 Matrizen

1 Rechnen mit 2 2 Matrizen 1 Rechnen mit 2 2 Matrizen 11 Produkt Wir berechnen das allgemeine Produkt von A = Für das Produkt gilt AB = a11 a 12 a 21 a 22 a11 b 11 + a 12 b 21 a 11 b 12 + a 12 b 22 a 21 b 11 + a 22 b 21 a 21 b 12

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lösung des Kleinste-Quadrate-Problems

Lösung des Kleinste-Quadrate-Problems Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung

Mehr

Anwendungen der Linearen Algebra

Anwendungen der Linearen Algebra Anwendungen der Linearen Algebra mit MATLAB Bearbeitet von Günter M. Gramlich 1. Auflage 4. Buch. 179 S. Hardcover ISBN 978 3 446 22655 5 Format (B x L): 14,5 x 21 cm Gewicht: 265 g Weitere Fachgebiete

Mehr

Kurze Geschichte der linearen Algebra

Kurze Geschichte der linearen Algebra Kurze Geschichte der linearen Algebra Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 20 Entwicklung Die Historische Entwicklung

Mehr

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya Inverse Matrix -E Ma Lubov Vassilevskaya Inverse Matrix Eine n-reihige, quadratische Matrix heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt. Anderenfalls heißt sie singulär.

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

Iterative Methods for Improving Mesh Parameterizations

Iterative Methods for Improving Mesh Parameterizations Iterative Methods for Improving Mesh Parameterizations Autoren: Shen Dong & Michael Garland, SMI 07 Nicola Sheldrick Seminar Computergrafik April 6, 2010 Nicola Sheldrick (Seminar Computergrafik)Iterative

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Texttechnologien: Latent Semantic Indexing

Texttechnologien: Latent Semantic Indexing Texttechnologien: Latent Semantic Indexing Inhaltsbasierte Suche in P2P-Netzen Texttechnologien 1 Inhaltsbasierte Suche in P2P-Netzen 1 Überblick Motivation Verfahren Eigenwertzerlegungen Singulärwertzerlegungen

Mehr

Stabilität von geschalteten DAEs

Stabilität von geschalteten DAEs Elgersburg Workshop 2011, 16.02.2011, 17:30-18:00 Einleitung Klassische DAEs Distributionelle Lösungen für geschaltetet DAEs Inhalt 1 Einleitung Systemklasse: Definition und Motivation Beispiele 2 Klassische

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Zusatzübung Wintersemester 2010/11 1

Zusatzübung Wintersemester 2010/11 1 Zusatzübung Wintersemester 2010/11 1 Aufgabe 1: (8 Punkte) Zeigen Sie durch vollständige Induktion die folgende Formel für die Potenzen der Matrix A: A = 1 1 0 1 1 1 n 0 : A n = 1 a n n a n n 1 n n (n

Mehr

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9 D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 9 Best Before: 24.5/25.5, in den Übungsgruppen (2 wochen) Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch

Mehr

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix. LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg WS 7/8 Institut für Numerische Simulation Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 7. März 8 Sie haben 9 Minuten Zeit zum Bearbeiten

Mehr

Mathematische Formeln für Wirtschaftswissenschaftler

Mathematische Formeln für Wirtschaftswissenschaftler Mathematische Formeln für Wirtschaftswissenschaftler Fred Böker Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Platz der Göttinger Sieben 5 D-37073 Göttingen Tel 0551-394604

Mehr