Hauptkomponentenanalyse. Principal Component Analysis (PCA)

Größe: px
Ab Seite anzeigen:

Download "Hauptkomponentenanalyse. Principal Component Analysis (PCA)"

Transkript

1 Hauptkomponentenanalyse Principal Component Analysis (PCA)

2 Principal Component Analysis (PCA) Welche Ziele verfolgt man bei der Verwendung einer PCA? Repräsentation multidimensionaler Daten mit einer geringeren Anzahl an Variablen (unter Beibehaltung der Hauptmuster des Datensatzes) Unvermeidlich: ein gewisser Verlust an Information (die jedoch nur noch Rauschen beschreiben soll) Projektion multidimensionaler Daten in einen niederdimensionalen Raum (unter bestmöglicher Beibehaltung der Variabilität der Daten); Interpretation und Visualisierung in einem niederdimensionalen Raum ist im Allgemeinen einfacher (insbesondere bei Reduktion auf 2 oder 3 Dimensionen) Identifikation versteckter Muster in einem Datensatz, und deren Klassifikation hinsichtlich der Frage, wie viel diese Muster in den Daten versteckte Information erklären (beschreiben) können Hauptkomponenten können wiederum als Input für weitere Analysen verwendet werden 2

3 Hauptkomponentenanalyse / Principal Component Analysis Zerlegung eines gemessenen Signals (d.h. üblicherweise einer Mischung vieler unterschiedlicher Signalkomponenten) in einen Satz zu Grunde liegender Variablen (in eine neue Basis) Identifizierung einiger (weniger) Haupt-Quellensignale aus einer großen Anzahl von vermischten Signalen Datenreduktion Das Ziel einer PCA liegt darin, einen verrauschten Datensatz in einer neuen Basis auszudrücken, in der Erwartung, dass diese neue Darstellung das Rauschen herausfiltert und in den Daten versteckte Strukturen zum Vorschein bringt. Was sind die wichtigen Dynamiken, die einem Datensatz zu Grunde liegen, und welche Dynamiken sind von geringerer Bedeutung? Wie lassen sich diese mittels einer PCA herausfiltern? 3

4 PCA Annahme Richtung mit größter Varianz beschreibt die interessierende Dynamik des Systems. PCA bedeutet die Suche nach einer neuen Basis, in der die ursprünglichen Daten maximale Varianz besitzen. y A x A Im Beispiel führt die Rotation der beiden Achsen zu einem optimalen Wert p*, bei dem die Varianz und das SNR maximal sind. Im 2D-Fall, SNR ist definiert als das Verhältnis der Varianz entlang p* und der Varianz senkrecht dazu. SNR Varianz entlang p 4 Winkel der Rotation

5 Schrittweise Durchführung einer PCA 2D Beispiel-Datensatz 3,0 2,5 2,0 Y 1,5 1,0 0,5 0,0 0,0 0,5 1,0 1,5 Problem: Wie findet man den Einheitsvektor mit maximaler Varianz? X 5 Lösung Eigenwertproblem: Berechne den größten Eigenwert λ und den entsprechenden Eigenvektor x zur Kovarianzmatrix C Cx = λx

6 Schritt 1: Subtraktion der Mittelwerte Subtraktion der Mittelwerte X µ,y µ (d.h. für jede Datendimension) erzeugt einen Datensatz, dessen Mittelwerte in allen Dimensionen null sind 1 n 1 n ( X ) = i= 1 i X µ n n i= 1 X i, corr = 0 Y corr 1,5 1,0 0,5 0,0-0,5-1,0 1 n 1 n ( Y ) = i= 1 i Yµ Y n n i= 1 i, corr = 0-1,5-1,5-1,0-0,5 0,0 0,5 1,0 1,5 X corr Im Beispiel: X µ = Y µ =

7 Schritt 2: Berechnung der Kovarianz-Matrix Berechnung der Kovarianz-Matrix (der Mittelwert-korrigierten Daten) n-dimensionaler Datensatz Kovarianz-Matrix besitzt n Reihen und n Spalten; quadratische Matrix Hauptdiagonale = Varianz symmetrische Matrix: cov(x,y) = cov(y,x) ( X i= 1 var ( X, X ) = n i X µ n 1 )( X i X µ ) ( X i= 1 cov ( X, Y ) = n i X µ n 1 )( Y i Y µ ) Für n = 2: var( x, x) C = cov( y, x) cov( x, y) var( y, y) 1,5 1,0 0,5 Im Beispiel: C = Y corr 0,0-0,5-1,0-1,5-1,5-1,0-0,5 0,0 0,5 1,0 1,5 7 X corr

8 Allgemeine Bemerkungen zu Eigenvektoren Eigenvektoren existieren nur zu quadratischen Matrizen, aber nicht jede quadratische Matrix besitzt Eigenvektoren. Besitzt eine n x n Matrix Eigenvektoren, dann besitzt sie n Eigenvektoren. Eigenvektoren sind zueinander orthogonal. Eigenvektoren werden üblicherweise auf die Länge Eins skaliert (normiert). Bestimmung der Eigenvektoren ist einfach für kleine Matrizen (bis zu n = 3); bei größeren Matrizen werden komplexe iterative Methoden eingesetzt. 8

9 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Was sind die Eigenwerte und die Eigenvektoren der Kovarianz-Matrix? C sei eine (n x n) - Matrix. Jeder Vektor x (x 0), für den mit einer geeigneten Zahl λ gilt: heißt Eigenvektor von C. Cx = λx λ heißt der zu diesem Eigenvektor gehörende Eigenwert von C. Cx = λx ist äquivalent zu ( C λe n ) x = 0 (= homogenes lineares Gleichungssystem, dessen nichttriviale Lösungen die gesuchten Eigenvektoren sind). E n = Einheitsmatrix. 9

10 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Was sind die Eigenwerte und die Eigenvektoren der Kovarianz-Matrix? ( n C λe ) x = 0 Triviale Lösung: x = 0 Nichttriviale Lösung: x 0, d.h. det ( C λe ) = n 0 Ein Vektor x 0 ist folglich genau dann ein Eigenvektor von C zum Eigenwert λ, wenn er eine Lösung des (obigen) homogenen Gleichungssystems ist. det ( C λe ) = 0 Es existieren unendlich viele Lösungen (wegen n ), d.h. die Menge der Eigenvektoren bildet einen Unterraum der reellen Zahlen (Eigenraum von C zum Eigenwert λ). 10

11 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Allgemeine Beschreibung des Problems Berechne die Eigenvektor-Matrix X, die die Kovarianz-Matrix C diagonalisiert: X 1 CX = wobei D die Diagonalmatrix der Eigenwerte von C ist. D Eine symmetrische Matrix (in unserem Fall ist das die Kovarianz-Matrix) ist durch eine Matrix ihrer orthonormalen Eigenvektoren diagonalisierbar. Dieses Theorem ist eine Erweiterung von Theorem 3. Es liefert eine Vorgehensweise, wie eine Matrix gefunden werden kann, die eine symmetrische Matrix diagonalisiert. Die diagonalisierende Matrix ist eine Matrix, die aus den Eigenvektoren der Ausgangsmatrix besteht. 11

12 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Allgemeine Beschreibung des Problems Berechne die Eigenvektor-Matrix X, die die Kovarianz-Matrix C diagonalisiert: X 1 CX = wobei D die Diagonalmatrix der Eigenwerte von C ist. Die Matrix D ist eine (m,m) Matrix, deren Hauptdiagonalelemente (p = q) durch den i-ten Eigenvektor der Kovarianz-Matrix C gegeben ist, und für deren Nicht-Hauptdiagonalelemente (p q) gilt: D D[ p, q] = λ m D[ p, q] = 0 12

13 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Im Beispiel: Eigenwerte der Kovarianz-Matrix λ det ( C λe) = 0 = λ Das charakteristische Polynom lautet: allgemein: a λ 2 + b λ + c = 0 im Beispiel: λ λ = 0 und hat die beiden Lösungen 13 allgemein: im Beispiel: λ 1/ 2 λ = ; 1 b ± = 2 b 4ac 2 λ = λ 1 und λ 2 sind die beiden Eigenwerte der Kovarianz-Matrix.

14 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Die zu den beiden Eigenwerten gehörenden Eigenvektoren ergeben sich aus der Lösung von ( C λe) x = 0 var( cov( x, x) y, x) cov( x, var( y, y) y) λ ,2 x = 0 0 Im Beispiel: λ 1,2 x 0 1 = 0 0 Eigenvektor zu λ 1 = : Eigenvektor zu λ 2 = : x 1 ( , ); x = 1 = 1 x 2 ( , ); x = 1 = 2 14

15 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Datensatz mit dem Eigenvektor zu λ 1 = : 1,5 1,0 x 1 = (0.3251, ) 0,5 Y corr 0,0-0,5-1,0-1,5-1,5-1,0-0,5 0,0 0,5 1,0 1,5 X corr 15

16 Schritt 3: Eigenwerte und Eigenvektoren der Kovarianz-Matrix Datensatz mit den Eigenvektoren zu λ 1 = : 1,5 1,0 x 1 = (0.3251, ) 0,5 und zu λ 2 = : Y corr 0,0-0,5 x 2 = ( , ) -1,0-1,5-1,5-1,0-0,5 0,0 0,5 1,0 1,5 X corr Die beiden Eigenvektoren bilden eine Orthonormalbasis (normiert und orthogonal) Skalarprodukt x 1 x 2 = 0 16

17 Schritt 4: Berechnung des neuen Datensatzes Berechnung des neuen Datensatzes Y (berechnet mit beiden Komponenten) Y = PX = p11 = p21 p11 x = p21 x p12 x p22 x + p x + p x Eigenvektoren x x L L p p L L x x 1n 1n x1n = x2 n + p12 x + p x 22 2 n 2 n Rotation des Koordinatensystems Kovarianz-Matrix des neuen (transformierten) Datensatzes: YY T 1,0 0,5 0,0-0,5-1, Im Beispiel: 17 T YY = d.h. die Kovarianz-Matrix des transformierten Datensatzes ist eine Diagonalmatrix mit den Eigenwerten in der Hauptdiagonalen!!

18 Schritt 4: Berechnung des neuen Datensatzes 1,0 0,5 Neuer Datensatz Y mit einer Komponente zwei Komponenten 0,0-0,5-1,

19 PCA Der Eigenvektor mit dem höchsten Eigenwert ist die Hauptkomponente (Principal Component) des Datensatzes. Er reflektiert die signifikanteste Beziehung zwischen den verschiedenen Dimensionen der Daten. Im Allgemeinen gilt: Nachdem die Eigenvektoren der Kovarianz-Matrix gefunden sind, werden sie vom höchsten Wert abwärts sortiert (Scree-Plot) Reihenfolge der Bedeutung/Signifikanz der Komponenten Je nach Anwendung kann man entscheiden, Komponenten mit geringerer Signifikanz zu ignorieren Dadurch geht zwar Information verloren (der endgültige Datensatz hat dann eine niedrigere Dimension als der ursprüngliche), aber wenn der Eigenwert klein ist, verliert man nicht viel an Information (die zudem meist Rauschen repräsentiert). 19

20 Verallgemeinerte PCA-Problemstellung Ausgangsdatensatz mit m Messungen zu n verschiedenen Zeitpunkten (z.b. m MEG Kanäle, n = Anzahl der Abtastpunkte (inverse Samplingrate)) x x X = : xm x x x : m :... x x x 1n 2n : mn Finde eine orthonormale Matrix P, für die gilt (X = Datensatz, P = Transformationsmatrix, Y = neue Repräsentation der Daten) Y = P T X unter der Bedingung, dass die Kovarianz-Matrix 1 C y = YY n 1 T eine Diagonalmatrix und P eine orthogonale Matrix (P - 1 = P T ) ist. 20

21 Wichtige Theoreme der linearen Algebra zur PCA 1. Die inverse Matrix einer orthogonalen Matrix ist ihre Transponierte. A orthogonal A -1 = 2. Sei A eine beliebige Matrix. Dann sind die Matrizen A T A und AA T symmetrisch. Wenn A eine m x n Matrix ist, dann ist A T eine n x m Matrix. Daraus folgt, dass A T A eine n x n und AA T eine m x m Matrix ist. T A 3. Eine Matrix A ist dann und nur dann symmetrisch (z.b. unsere Kovarianz-Matrix), wenn sie orthogonal diagonalisierbar ist. Orthogonal diagonalisierbar bedeutet: es existiert eine Matrix E, für die gilt: T A = EDE wobei D eine Diagonalmatrix ist. Berechnung von A T liefert: T T T A = ( EDE ) = E D E = EDE = TT d.h. falls A orthogonal diagonalisierbar ist, muss A symmetrisch sein. T T T A 21

22 Wichtige Theoreme der linearen Algebra zur PCA 4. Eine symmetrische Matrix (in unserem Fall ist das die Kovarianz-Matrix) ist durch eine Matrix ihrer orthonormalen Eigenvektoren diagonalisierbar. Dieses Theorem ist eine Erweiterung von Theorem 3. Es liefert eine Vorgehensweise, wie eine Matrix gefunden werden kann, die eine symmetrische Matrix diagonalisiert. Die diagonalisierende Matrix ist eine Matrix, die aus den Eigenvektoren der Ausgangsmatrix besteht. Lineare Unabhängigkeit zweier Vektoren: Zwei Vektoren sind orthogonal zueinander, wenn sie aufeinander senkrecht stehen. Derartige Vektoren sind im Falle a,b o linear unabhängig. Ebenso sind drei Vektoren, die paarweise orthogonal und o sind, linear unabhängig. 22

23 Qualitative Zusammenfassung der PCA Zusammenfassung der wichtigsten Annahmen und Grenzen einer PCA 1. Linearität des Problems: Datensatz ist eine Linearkombination einer bestimmten Basis Problemlösung mittels linearer Algebra (siehe auch 4.) 2. PCA verwendet die Eigenvektoren der Kovarianzmatrix und findet nur unabhängige Basisvektoren unter der Annahme einer Gaußschen Wahrscheinlichkeitsverteilung. 3. Annahme, dass große Varianzen wichtige Dynamik reflektieren. PCA führt im Wesentlichen nur eine Rotation des Koordinatensystems in die Richtung maximaler Varianz durch. Hauptkomponenten mit großer Varianz repräsentieren interessante Dynamik; Komponenten mit geringer Varianz repräsentiert Rauschen. Rolle des SNR (Signal-Rausch-Verhältnis) 4. Hauptkomponenten sind orthogonal. Vereinfachung, die PCA mit Mitteln der linearen Algebra lösbar macht. 23

24 Transformationen Allgemeine Bemerkungen zu Transformationen 24

25 Allgemeine Bemerkungen zu Transformationen Ziel einer Transformation Daten in eine andere Repräsentation überzuführen, die Vorteile für anschließende Operationen bringt (z.b. Filterung der Daten) Darstellung innerer Zusammenhänge oder verbesserte Robustheit gegenüber Störungen Grundprinzip Zerlegung eines Signals x(t) in eine Summe von Basisfunktionen mit dazugehörenden Koeffizienten a n(t) z.b.: Basisfunktionen von Fourier-Transformation: Sinus und Kosinus Wavelet-Transformation: Mother-Wavelet Adaptive Approximation (z.b. Matching Pursuit): z.b. Gabor-Funktion 25

26 Repräsentation im Amplituden-Zeit-Raum Amplitude [z.b. B, V] Zeit [s] 26

27 Spektrale Darstellung: Amplituden-Frequenz-Raum Fourier Amplitude Frequenz 27

28 28 Spektrale Darstellung: Amplituden-Frequenz-Raum

29 Repräsentation im Frequenz-Zeit-Raum Spectrogram (Short-Time Fourier- Transform, STFT) f (Hz) Frequenzbereich: 1 31 Hz Zeitbereich: s Scalogram (Continuous Wavelet- Transform, CWT) f (Hz) t (s) Frequenzbereich: 1 31 Hz Zeitbereich: s 29 t (s)

30 Das Sampling-Theorem Nyquist-Shannon sampling theorem Exact reconstruction of a continuous-time baseband signal from its samples is possible if the signal is bandlimited and the sampling frequency is greater than twice the signal bandwidth. Was bedeutet das in der Praxis? Die größtmögliche Frequenz, die man in einem abgetasteten Signal beobachten kann, ist gleich der halben Abtastrate (Samplingrate), mit der das Originalsignal abgetastet wurde. Es ist bei der Durchführung eines Experiments immer besser, eine Samplingrate zu verwenden, die klar größer ist als das Zweifache der höchsten Frequenz, die wir verarbeiten wollen (die für unsere Untersuchung von Interesse ist). 30

31 Nyquist-Frequenz / Aliasing Signalfrequenz: Sampling Rate: 10 Hz 22 Hz 1s Signalfrequenz: Sampling Rate: 10 Hz 14 Hz 1s 31 Aliasing: Effekt, der verursacht, dass verschiedene kontinuierliche Signale ununterscheidbar werden, wenn sie abgetastet werden.

32 Allgemeine Bemerkungen zu Transformationen Fourier-Transformation FT Short-time Fourier-Transformation STFT oder Windowed Fourier-Transformation WFT Wavelet-Transformation WT Kontinuierliche Wavelet-Transformation CWT Discrete wavelet transform DWT Adaptive Approximationen Matching pursuit Basis pursuit 32

33 Spektrum Elektromagnetisches Spektrum des sichtbaren Lichts Das sichtbare Licht setzt sich aus vielen Farben zusammen. Ihre Superposition (Summe) resultiert in weißem Licht. Wie können wir dieses Wissen in der Signalverarbeitung verwenden? 33

34 Spektrum Üblicherweise sehen wir dem zusammengesetzten Signal nicht dessen einzelne Komponenten an. 34 Eine Rechteck-Funktion kann sehr gut durch Sinusfunktionen beschrieben werden. Sind unendliche Sinus- und Kosinusfunktionen ausreichend, um jedes Signal darzustellen?

35 Stationäre Signale Beispiele Wenn ein Signal ein zeit-invariantes Spektrum besitzt, wird es stationär genannt, und es kann als eine gewichtete Summe von Sinus- und Kosinusfunktionen dargestellt werden. Ein stationärer Prozess ist ein Prozess, dessen Wahrscheinlichkeitsverteilung für alle Zeiten und Positionen gleich ist. Als Folge davon ändern sich Parameter wie Mittelwert oder Varianz nicht mit der Zeit oder Position. 35

36 Nicht-stationäre Signale Beispiele Wenn ein Signal ein zeitlich variierendes Spektrum besitzt, wird es nicht-stationär genannt, und es kann nicht wirklich gut als gewichtete Summe von zeitlich unbegrenzten Sinus- und Kosinusfunktionen beschrieben werden. Natürlich sind zeit-variant und zeitinvariant relative Begriffe, die von der Länge des Zeitfensters abhängen. 36

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Lösungen der Aufgaben zu Kapitel 11

Lösungen der Aufgaben zu Kapitel 11 Lösungen der Aufgaben zu Kapitel Vorbemerkung: Zur Bestimmung der Eigenwerte (bzw. des charakteristischen Polynoms) einer (, )-Matrix verwenden wir stets die Regel von Sarrus (Satz..) und zur Bestimmung

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik I+II Frühlingsemester 219 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 46 8. Lineare Algebra: 5. Eigenwerte und

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen Übungen zum Ferienkurs Lineare Algebra 5/6: Lösungen Darstellungsmatrizen. Bestimme die Darstellungsmatrix M B,B (f ) für die lineare Abbildung f : 3, die durch f (x, y, z) = (4x + y z, y + z) definiert

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Serie 8: Online-Test

Serie 8: Online-Test D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Berechnung der Determinante

Berechnung der Determinante Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von 1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Technische Universität Berlin Fakultät II Institut für Mathematik WS 03/04 Eppler, Richter, Scherfner, Seiler, Zorn 25.

Technische Universität Berlin Fakultät II Institut für Mathematik WS 03/04 Eppler, Richter, Scherfner, Seiler, Zorn 25. A Technische Universität Berlin Fakultät II Institut für Mathematik WS 3/4 Eppler, Richter, Scherfner, Seiler, Zorn 5. Februar 4 Februar Klausur (Rechenteil) Lösungen: Lineare Algebra für Ingenieure Name:.......................................

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

H. Stichtenoth WS 2005/06

H. Stichtenoth WS 2005/06 H. Stichtenoth WS 25/6 Lösungsvorschlag für das. Übungsblatt Aufgabe : Der gesuchte Unterraum U ist die lineare Hülle von v und v 2 (siehe Def. 5. und Bsp. 5.5b), d. h. U : Spanv,v 2 } v R : v λ v + λ

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)

Mehr

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 23): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag 3. Mit Hilfe elementarer Zeilenumformungen sowie der Tatsache, daß sich die Determinante

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Lineare Algebra für Ingenieure

Lineare Algebra für Ingenieure TECHNISCHE UNIVERSITÄT BERLIN SS 4 Fakultät II - Mathematik J Liesen/F Lutz/R Seiler Lineare Algebra für Ingenieure Lösungen zur Juli-Klausur Stand: 4 September 4 Rechenteil Aufgabe (8 Punkte Berechnen

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren KAPITEL Eigenwerte und Eigenvektoren. Berechnung von Eigenwerten...................... Eigenvektoren...............................3 Algebraische und geometrische Vielfachheit von Eigenwerten.. 4.4 Zusammenfassung

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( ) Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch

Mehr

5. Übung zur Linearen Algebra II -

5. Übung zur Linearen Algebra II - 5. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 2. Aufgabe 7 5 A := 2. 3 2 (i) Berechne die Eigenwerte und Eigenvektoren von A. (ii) Ist A diagonalisierbar?

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen)

L5.6 Symmetrische, hermitesche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) L5.6 Symmetrische, heresche, orthogonale und unitäre Matrizen (Abbildungen, die reelles bzw. komplexes Skalarprodukt invariant lassen) In diesem Kapitel kommen Matrizen in Zusammenhang Skalarprodukt vor.

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud. Dr. V. Gradinaru D. Devaud Herbstsemester 15 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 1 Aufgabe 1.1 1.1a) Sei A eine n n-matrix. Das Gleichungssystem Ax = b sei

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

5.2 Diagonalisierbarkeit und Trigonalisierung

5.2 Diagonalisierbarkeit und Trigonalisierung HINWEIS: Sie finden hier eine vorläufige Kurzfassung des Inhalts; es sind weder Beweise ausgeführt noch ausführliche Beispiele angegeben. Bitte informieren Sie sich in der Vorlesung. c M. Roczen und H.

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Musterlösungen für die Nachklausur in LinAlg vom

Musterlösungen für die Nachklausur in LinAlg vom Musterlösungen für die Nachklausur in LinAlg vom 10.10.16 1. Finden Sie mindestens ) zwei Dreh )Matrizen ) M R 2 2 mit der Eigenschaft 1 0 M = : M = ± 1 1 2 ±1 1 k k 1 k 2. Sei A R 3 3 die Matrix A = 0

Mehr

Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 9. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 9. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching November, 07 Erinnerung Ein Skalarprodukt ist eine Abbildung, : E n E n E, (v, w) v, w n k v kw k so dass:

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

Mathematik I für MB und ME

Mathematik I für MB und ME Mathematik I für MB und ME Fachbereich Grundlagenwissenschaften Prof Dr Viola Weiÿ Wintersemester 28/29 Übungsaufgaben Serie 4: Lineare Unabhängigkeit, Matrizen, Determinanten, LGS Prüfen Sie, ob die folgenden

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Motivierendes eispiel Lineare Abbildungen werden durch Matrizen dargestellt: Abbildung : Spiegelung A =. Abbildung A = : Verzerrung. ei der Spiegelung wird ~e auf sich selbst

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG Winter 2013 Prof. H.-R. Künsch. Regeln Multiple Choice:

Lineare Algebra und Numerische Mathematik D-BAUG Winter 2013 Prof. H.-R. Künsch. Regeln Multiple Choice: b Prüfung Lineare Algebra und Numerische Mathematik D-BAUG Winter 03 Prof. H.-R. Künsch c Alle Aufgaben haben das gleiche Gewicht. Die Lösungswege müssen, abgesehen von Aufgabe, nachvollziehbar dargestellt

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

Longitudinale und transversale Relaxationszeit

Longitudinale und transversale Relaxationszeit Longitudinale und transversale Relaxationszeit Longitudinale Relaxationszeit T 1 (Zeit, die das System benötigt, um nach dem rf- Puls zurück ins Gleichgewicht zu kommen) Transversale Relaxationszeit T

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

Für das Allgemeine lineare Gleichungssystem mit n linearen Gleichungen und n Unbekannten

Für das Allgemeine lineare Gleichungssystem mit n linearen Gleichungen und n Unbekannten Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 008 6. Januar.009 Kapitel 6 Leontieff Modell, Lineare

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

+ x 2 y 2 = f( x 1 ) + f( x 2 ), z 1 + z 2. z 1. a jj + n bjj = SpurA + SpurB ; j=1

+ x 2 y 2 = f( x 1 ) + f( x 2 ), z 1 + z 2. z 1. a jj + n bjj = SpurA + SpurB ; j=1 Höhere Mathematik für technische Studiengänge Vorbereitungsaufgaben für die Übungen Lineare Abbildungen, Eigenwerte Lösungen Lösungshinweise: a nicht linear, denn zb fα α, αy +, α + αz T α, αy +, α + z

Mehr