Multivariate Analysemethoden

Größe: px
Ab Seite anzeigen:

Download "Multivariate Analysemethoden"

Transkript

1 Multivariate Analysemethoden Günter Meinhardt Johannes Gutenberg Universität Mainz

2 (DFA) Discriminant Function Analysis (DFA) Klassifikation Ziele Maximale Trennung von Gruppen auf einem gegebenem Set von p Meßvariablen. Auffinden von latenten Diskriminanzfunktionen, die sukzessive maximale Gruppentrennung gewährleisten. In der Regel: Auffinden eines niedrig dimensionierten Diskriminanzraumes, in dem die Gruppen separierbar sind. Case-Classification in optimalen, niedrig dimensionierten Räumen. Bestimmung von Klassifikationsfunktionen für Case-Classification. Voraussetzung Gleiche (homogene) Varianz-Kovarianz Matrizen in allen Gruppen. Testungen der Gruppenunterschiede (Centroide), sowie der Homogenität der S j - Matrizen erfordern die Gültigkeit der multivariaten Normalverteilung.

3 (DFA) Klassifikation Ansatz Anwendung Nachteile Optimierung des Verhältnisses der Quadratsummen für between und within Group Varianz. Lösung über Eigenwertzerlegung einer aus B und W Komponenten zusammengesetzten Matrix. Diagnostische Trennung schwierig zu trennender Gruppen. Bestimmung kritischer diagnostischer Variablen / Reduktion auf relevante diagnostische Variablen in multivariaten Klassifikationen. Konstruktion von Algorithmen zur Mustertrennung (Pattern recognition machines) und Bildklassifikation (bildgebende Verf.). Qualitätskontrolle und Evaluation von Versuchs- und Kontrollgruppen in multivariaten Designs. Restriktion gleicher Varianz-Kovarianz Matrizen in allen Gruppen. Case-Classification: Klassifikation im Diskriminanzraum hat gegenüber MDC und Baysian Classifier keine wesentlichen Vorteile (außer Sparsamkeit) und läuft auf dasselbe hinaus.

4 Flügellänge: X Methoden der D Beispiel D-Beispiel Bestes Kriterium auf x Bestes Kriterium auf x Fühlerlänge: X1 Blindmücke Stechmücke Kriterium Problem Klassifiziere anhand von Fühlerlänge (X 1 ) und Flügellänge (X ) möglichst eindeutig in Stechmücke (c 1 ) und Blindmücke (c ). Das geht mit einem Kriteriumswert auf jeder einzelnen Variable X 1 und X offenbar nicht.

5 Flügellänge: X Methoden der D Beispiel D-Beispiel Kriteriumsfunktion Fühlerlänge: X1 Blindmücke Stechmücke Kriterium Lösung: Eine lineare Kriteriumsfunktion teilt den Variablenraum in Gebiete: Oberhalb Stechmücke (c 1 ), unterhalb Blindmücke (c ). x b ax 1 Somit folgt die Klassifikationsfunktion g x, x 1 c1, wenn x ax1 b c, wenn x ax1 b

6 D Beispiel Einfache Lösung: Zuerst die Daten im Nullpunkt zentrieren und dann um den optimalen Winkel a drehen! x x Zentrierung & Rotation a a x 1 x 1 Die Varianz zwischen den Gruppen wird auf der Achse x 1 maximiert, und x steht senkrecht x 1. Eine Parallele zu x liefert das optimale Trennkriterium.

7 D Beispiel z-standard standardisiert Koordinaten rotiert um a = 46 (clockwise) z 0.00 z' z1 z1' Diskriminanzfunktion Die neue x- Achse z 1 ist die Diskriminanzfunktion y. Auf ihr läßt sich ein Kriterium zur optimalen Trennung beider Gruppen finden. Da eine Drehoperation auf die Diskriminanzfunktion geführt hat, ist sie darstellbar als eine Linearkombination der alten Koordinaten: y b x b x 1 1

8 D Beispiel y: Linearkombination y (Diskriminanzfunktion) Kriterium y 0 cosa sina z1 z 1 sina cosa z z z cosa z sina z 1 1 z sina z cosa z 1 Da y z 1 gilt y b z b z 1 1 mit b1 cosa und b sina Koeffizienten von y Das Auffinden der Koeffizienten b 1 und b ist also identisch mit dem Problem, den optimalen Drehwinkel a zu bestimmen. Hierfür braucht man ein Kriterium der gewünschten maximalen Trennung, und die Lösung des dahinter stehenden Maximierungsproblems. [Excel-Beispiel]

9 D Beispiel Rotation zur y - Funktion z z 1 y (Diskriminanzfunktion) Kriterium y 0 y (Diskriminanzfunktion) Klassifikation Case-Classification durch einfachen Vergleich mit dem Kriterium y 0. Prüfung des Gruppenunterschieds mit einem einfachen t - Test auf y. Voraussetzung: homogene Varianz-Kovarianz Matrizen.

10 Güte-Kriterium Kriterium der Maximierung Maximiert wird das Verhältnis der Quadratsummen für die Variation auf y zwischen Gruppen QS B und der Variation innerhalb Gruppen QS w. b QSBetween erklärte Variation max QS nicht erklärte Variation Within (Wähle die Koeffizienten b so, daß (b) maximal wird) Quadratsummenzerlegung Wie in der Varianzanalyse gilt die Quadratsummenzerlegung QS QS QS Total Between Within l mit QS y y Total K l1 i1 QS n y y K Between l l l1 K n l QS y y Within il l l1 i1 n il K = Anzahl Gruppen n l = Umfang Gruppe l

11 Kennwerte Kenngrößen der Güte g: (Eigenwert der Maximierung) g erklärte Var nicht erklärte Var g QSB erklärte Var 1g QS QS Gesamt Var B W g erklärte Var c, c "Kanonische Korrelation" 1g Gesamt Var 1 nicht erklärte Var, "Wilk's Lambda" 1g Gesamt Var Offenbar gilt c QSB QSW 1 QS QS QS QS B W B W

12 Test & Normierung c - Test der Trennleistung c m K N 1ln K = Anzahl Gruppen N = Sn l = n 1 + n + n K m = Anzahl Variablen ist c verteilt mit m(k-1) Freiheitsgraden Die Trennleistung wird mit einem c Test auf Signifikanz getestet Gepoolte Varianz der y - Funktion Normierte y - Funktion Die Varianz innerhalb der Gruppen wird zu einer gepoolt: sˆ y QS n s l W () l l l QSW (1) QSW () QSW ( K ) l df n n n n l 1 K l l Damit wird die Varianz der Diskriminanzfunktion auf 1 normiert: y y s y y ˆy 1 sˆ y var var 1 sˆ ˆ y sy

13 B und W Matrix der x-variablen MANOVA Additivität der Variation Es gilt: Totale QS und Kreuzprodukte Within Group QS M B W Between Group QS und Kreuzprodukte und Kreuzprodukte Kompakte Darstellung x xx x n x xx x x x x x t t t il il l l l il l il l l i l l i Hierin sind die x Vektoren mit m Komponenten (Variablen): x il x x x il1 il ilm x l x x x l1 l lm x x x x 1 m Regel Die Matrizen B und W werden als inneres Produkt (Zeilen- mal Spalten) der Variablen-Vektoren aufgebaut und dann über Fälle und Gruppen summiert.

14 B und W Matrix der x-variablen B-Matrix (p= Vars) Treatment (Group) Quadratsummen & Kreuzprodukte x 1 x TQS1 TQS1 x 1 B TQS1 TQS x Komponenten TQS n x x n x x Group Var TQS n x x n x x 1 1 TQS n x x x x n x x x x

15 B und W Matrix der x-variablen W-Matrix (p= Vars) Komponenten W aus gepoolten S - Matrizen Within group Quadratsummen & Kreuzprodukte (gepoolt) n x 1 x WQS1 WQS1 W x 1 WQS 1 WQS x 1 n WQS x x x x 1 i11 11 i1 1 i1 i1 Group Var n1 n WQS x x x x i1 1 i i1 i1 n 1 WQS x x x x x x x x 1 i11 11 i1 1 i1 1 i i1 i1 W n1s 1 ns nksk n mit S l der Varianz-Kovarianz Matrix in Gruppe l.

16 Gang der Lösung (DFA) Max-Bedingung QS QS B W t v Bv t v Wv mit v b b 1 ist die Darstellung der Quadratsummen der Diskriminanzfunktion y über die quadratische Form mit dem Vektor der b - Koeffizienten Maximierung Eigenwertbedingung v ist Eigenvektor von A max führt auf v 0 v und dies auf B g W v 0 nach Vormultiplizieren mit -1 W B g I v 0 was eine Eigenwertbedingung für die Matrix -1 W auf -1 A W B ist. A ist eine m x m Matrix, also ist v allgemein m- stellig. Zu jedem Eigenwert g ungleich 0 existiert ein Eigenvektor v. Die Stellen des v Vektors sind die gesuchten Diskriminanzkoeffizienten jeder Diskriminanzfunktion.

17 Lösung (DFA) Eigenvektoren v Anzahl von v Normierung der Diskriminanzfunktion y Nicht standardisiert v t b b b v b b b t m1 m 1k k mk mit k min K 1, m Es gibt so viele Eigenvektoren v, und damit auch so viele Diskriminanzfunktionen, wie die kleinere Zahl aus der Anzahl der Gruppen-1 und der Anzahl der Variablen, m. Die gepoolte Varianz einer Diskriminanzfunktion erhält man direkt aus der quadratischen Form 1 sˆy N K t v Wv Damit kann y direkt nach der Bestimmung normiert werden, indem man v 1 sˆy v als Koeffizientenvektor der normierten Diskriminanzfunktion verwendet: y 1 sˆ y m j1 b x Sind die Variablen x nicht standardisiert worden, kommt eine additive Konstante hinzu: m m y b0 bjx j mit b0 bjxj j1 j1 j j

18 Diskriminanzraum Mehrere DFs (Diskriminanzraum) Sukzessive extrahierte Diskriminanzfunktionen klären absteigend geordnet Diskriminationsvarianz auf. Es gilt für die anteilige Varianzaufklärung durch Funktion y i QSBi i QS QS W B 1 i k Alle Diskriminanzfunktionen können auf signifikante Diskriminationsleistung getestet werden (s. z.b. Bortz, 005, S. 610) Alle sukzessiven Diskriminanzfunktionen sind orthogonal. Das Prinzip der Aufteilung der Diskriminationsvarianz auf sukzessiv nach Beitrag geordnete und orthogonale Diskriminanzfaktoren ist mit der PCA gut vergleichbar. Daraus ergibt sich auch ein vergleichbarer Anwendungszusammenhang (s.n.)

19 Diskriminanzraum Anwendung Ermittlung relevanter Diskriminationsvariablen. Wenn man an einer Reduktion der kritischen Varablen interessiert ist. Wenn der Vergleich / die Trennung von Populationen im Vordergrund steht: Benutzt man k -Diskriminanzfunktionen als Eingabedaten für MANOVA oder T Kontraste, wird eine maximale Trennschärfe erreicht, die größer ist als die der k einzelnen Variablen des Sets für k < m. Einzelfall- Klassifikation Kann im Diskriminanzraum mit denselben Verfahren (MDC, QCR, Baysian Classifier) wie üblich gemacht werden. Die Einzelfall-Klassifikation wird im vollständigen Diskriminanznicht besser als im Variablenraum mit allen Variablen. Vorteile ergeben sich nur, wenn weniger Variablen verwendet werden sollen. Die DFA gestattet die Herleitung einfacher Klassifikationsfunktionen mit denen die Fallklassifikation besonders ökonomisch ist.

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick

Mehr

11.8 Diskriminanzanalyse

11.8 Diskriminanzanalyse 11.8 Diskriminanzanalyse Die Diskriminanzanalyse bezieht sich auf dieselbe Erhebungssituation wie die einfaktorielle MANOVA und teilt deren Voraussetzungen (vgl. Abschn. 11.7.1): Beobachtungsobjekte aus

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Vorlesung: Multivariate Statistik für Psychologen

Vorlesung: Multivariate Statistik für Psychologen Vorlesung: Multivariate Statistik für Psychologen 11. Vorlesung: 18.0.200 Agenda. Multivariate Varianzanalyse i. Einführung in die multivariate Variananalyse ii. iii. iv. Uni- vs. multivariate Varianzanalyse

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

Drehung. Die orthogonale n n-matrix 1 0. c s. Zeile j. s c

Drehung. Die orthogonale n n-matrix 1 0. c s. Zeile j. s c Drehung Die orthogonale n n-matrix Q i,j... Zeile i c s... Zeile j s c... mit c = cos ϕ und s = sin ϕ beschreibt eine Drehung um den Winkel ϕ in der x i x j -Ebene des R n. Drehung - Drehung Die orthogonale

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Grundzüge der Faktorenanalyse

Grundzüge der Faktorenanalyse SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Evaluation & Forschungsmethoden (Multivariate Analyse) Hauptdiplom-Prüfungsklausur am 03.08.2007 (1.Termin)

Evaluation & Forschungsmethoden (Multivariate Analyse) Hauptdiplom-Prüfungsklausur am 03.08.2007 (1.Termin) Evaluation & Forschungsmethoden (Multivariate Analyse Hauptdiplom-Prüfungsklausur am 03.08.007 (1.Termin Name: Matrikel-Nr.: Aufgabe 1: (3 Punkte Es seien zwei Vektoren a und b (mit mehr als Koordinaten

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Orthonormalbasis. Orthogonalentwicklung

Orthonormalbasis. Orthogonalentwicklung Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Reression Zweck: Vorhersae Dimensionsreduktion Klassifizierun Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eienschaften: nicht-linear verteilunsfrei

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( ) Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen

Mehr

Zusammenfassung und Beispiellösungen. zur Linearen Algebra

Zusammenfassung und Beispiellösungen. zur Linearen Algebra Zusammenfassung und Beispiellösungen zur Linearen Algebra Inhaltsverzeichnis TI Taschenrechner Funktionen für Matrizen... n*m Matrix... Diagonal und Dreiecksmatrix... Transponierte der Matrix A (AT)...

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Singulärwert-Zerlegung

Singulärwert-Zerlegung Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH ) Grundlegende Bemerkungen : Der Begriff des Vektors wurde in den vergangenen Jahren im Geometrieunterricht eingeführt und das mathematische Modell des Vektors wurde vor allem auch im Physikunterricht schon

Mehr

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1 Hauptachsentransformation. Einleitung Schneidet man den geraden Kreiskegel mit der Gleichung = + und die Ebene ++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen +2 + +dx+ey+f = 0. Die

Mehr

Mathematischer Vorkurs Lösungen zum Übungsblatt 5

Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 c.v.meister@skmail.ikp.physik.tu-darmstadt.de Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Statistik-Quiz Sommersemester

Statistik-Quiz Sommersemester Statistik-Quiz Sommersemester Seite 1 von 8 Statistik-Quiz Sommersemester Die richtigen Lösungen sind mit gekennzeichnet. 1 In einer Gruppe von 337 Probandinnen und Probanden wurden verschiedene Merkmale

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Informationen zur KLAUSUR am

Informationen zur KLAUSUR am Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 12 a)

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 12 a) LÖSUNG 12 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 "Analysieren", "Klassifizieren", "Diskriminanzanalyse" öffnet die Dialogbox "Diskriminanzanalyse". Die Variable BESUCH (der

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Prüfungsliteratur: Rudolf & Müller S

Prüfungsliteratur: Rudolf & Müller S 1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

9.4 Lineare gewöhnliche DGL

9.4 Lineare gewöhnliche DGL 9.4 Lineare gewöhnliche DGL Allgemeinste Form einer gewöhnlichen DGL: Falls linear in ist, sprechen wir von einer "linearen" DGL: und eine Matrix zeitabhängigen Komponenten ein zeitabhängiger Vektor In

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen

Mehr

Hauptkomponentenanalyse PCA

Hauptkomponentenanalyse PCA Hauptkoponentenanalyse PCA Die Hauptkoponentenanalyse (Principal Coponent Analysis, PCA) ist eine Methode zur linearen Transforation der Variablen, so dass: öglichst wenige neue Variablen die relevante

Mehr

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend?

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? a) Die Faktorenanalyse hat ihren Ursprung in der theoretischen Intelligenzforschung.

Mehr

5.4 Hauptachsentransformation

5.4 Hauptachsentransformation . Hauptachsentransformation Sie dient u.a. einer möglichst einfachen Darstellung von Kegelschnitten und entsprechenden Gebilden höherer Dimension mittels einer geeigneten Drehung des Koordinatensystems.

Mehr

C A R L V O N O S S I E T Z K Y. Transformationen. Johannes Diemke. Übung im Modul OpenGL mit Java Wintersemester 2010/2011

C A R L V O N O S S I E T Z K Y. Transformationen. Johannes Diemke. Übung im Modul OpenGL mit Java Wintersemester 2010/2011 C A R L V O N O S S I E T Z K Y Transformationen Johannes Diemke Übung im Modul OpenGL mit Java Wintersemester 2010/2011 Motivation Transformationen Sind Grundlage vieler Verfahren der Computergrafik Model-

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

4 Lineare Abbildungen

4 Lineare Abbildungen 17. November 2008 34 4 Lineare Abbildungen 4.1 Lineare Abbildung: Eine Funktion f : R n R m heißt lineare Abbildung von R n nach R m, wenn für alle x 1, x 2 und alle α R gilt f(αx 1 ) = αf(x 1 ) f(x 1

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Lineare Gleichungssysteme: eine Ergänzung

Lineare Gleichungssysteme: eine Ergänzung Lineare Gleichungssysteme: eine Ergänzung Ein lineares Gleichungssystem, bei dem alle Einträge auf der rechten Seite gleich sind heiÿt homogenes lineares Gleichungssystem: a x + a 2 x 2 +... + a n x n

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

C7.3' Allgemeine Lösungstrategien für Differentialgleichungen 1. Ordnung. rechte Seite der DG ist unabhängig von x

C7.3' Allgemeine Lösungstrategien für Differentialgleichungen 1. Ordnung. rechte Seite der DG ist unabhängig von x C7.3' Allgemeine Lösungstrategien für Differentialgleichungen 1. Ordnung (a) Trivialfall: rechte Seite der DG ist unabhängig von x Integration: Substitution auf linker Seite: Lösung: Fazit: Das Lösen von

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

5. Wie bringt man einen Vektor auf eine gewünschte Länge? Zuerst bringt man ihn auf die Länge 1, dann multipliziert man mit der gewünschten Länge.

5. Wie bringt man einen Vektor auf eine gewünschte Länge? Zuerst bringt man ihn auf die Länge 1, dann multipliziert man mit der gewünschten Länge. 1. Definition von drei Vektoren sind l.u. 2. Wie überprüft man 3 Vektoren mit Hilfe eines LGS auf lineare Unabhängigkeit? 3. Definition von Basis?... wenn sich der Nullvektor nur als triviale LK darstellen

Mehr

Aufgaben zur Multivariaten Statistik

Aufgaben zur Multivariaten Statistik Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Universität Kassel Aufgaben zur Multivariaten Statistik Teil : Aufgaben zur Einleitung. Was versteht man unter einer univariaten, bivariaten

Mehr

Lagebeziehung von Ebenen

Lagebeziehung von Ebenen M8 ANALYSIS Lagebeziehung von Ebenen Es gibt Möglichkeiten für die Lagebeziehung zwischen zwei Ebenen. Die Ebenen sind identisch. Die Ebenen sind parallel. Die Ebenen schneiden sich in einer Geraden Um

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Analytische Geometrie - Schnittwinkel. u 1, u 2 Richtungsvektoren der Geraden

Analytische Geometrie - Schnittwinkel. u 1, u 2 Richtungsvektoren der Geraden Analytische Geometrie - Schnittwinkel. Möglichkeiten und Formeln Gerade / Gerade: cos( ) = u u 2 u u 2 Gerade / Ebene: sin( ) = n u n u Ebene / Ebene: cos( ) = n n 2 n n 2 u, u 2 Richtungsvektoren der

Mehr

Vorkurs Mathematik. Vektoren, lineare Gleichungssysteme und Matrizen

Vorkurs Mathematik. Vektoren, lineare Gleichungssysteme und Matrizen Dorfmeister, Boiger, Langwallner, Pfister, Schmid, Wurtz Vorkurs Mathematik TU München WS / Blatt Vektoren, lineare Gleichungssysteme und Matrizen. In einem kartesischen Koordinatensystem des R sei eine

Mehr

Quadratische Formen. und. Symmetrische Matrizen

Quadratische Formen. und. Symmetrische Matrizen Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x

Mehr

6. Übungsblatt zur Mathematik II für Inf, WInf

6. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

x y Kenner der Kegelschnitte werden hier eine Ellipse erkennen, deren Hauptachsen aber nicht mit der Richtung der Koordinatenachsen zusammenfallen.

x y Kenner der Kegelschnitte werden hier eine Ellipse erkennen, deren Hauptachsen aber nicht mit der Richtung der Koordinatenachsen zusammenfallen. Matrizen / ensoren - eil ensoren - zweidimensionales Beispiel um das Eigenwertproblem zu verdeutlichen hier als Beispiel ein zweidimensionales Problem die entsprechenden Matrizen und Determinanten haben

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

13. Klasse TOP 10 Grundwissen 13 Geradengleichungen 01

13. Klasse TOP 10 Grundwissen 13 Geradengleichungen 01 . Klasse TOP 0 Grundwissen Geradengleichungen 0 Punkt-Richtungs-Form Geraden sind gegeben durch einen Aufpunkt A (mit Ortsvektor a) auf der Geraden und einen Richtungsvektor u: x = a + λ u, λ IR. (Interpretation:

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

1 Varianzanalyse (ANOVA)

1 Varianzanalyse (ANOVA) 1 Varianzanalyse (ANOVA) Ziele: Erklärung einer Meßgröße durch ein additves Modell. Abschätzung der Wirkungsweise von Einflußfaktoren, ihres Zusammenwirkens und ihres anteiligen Beitrages an der Variation

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Aufgabenkomplex 4: Vektorfunktionen, Differenzialgleichungen, Eigenwertprobleme

Aufgabenkomplex 4: Vektorfunktionen, Differenzialgleichungen, Eigenwertprobleme Technische Universität Chemnitz 3. Mai Fakultät für Mathematik Höhere Mathematik I. Aufgabenkomple 4: Vektorfunktionen, Differenzialgleichungen, Eigenwertprobleme Letzter Abgabetermin:. Juni (in Übung

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.

Mehr

Klausur zur Mathematik I (Modul: Lineare Algebra I) : Lösungshinweise

Klausur zur Mathematik I (Modul: Lineare Algebra I) : Lösungshinweise Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Wintersemester 202/20 Klausur zur Mathematik I (Modul: Lineare Algebra I 07.02.20: Lösungshinweise Sie haben 60

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

6.3 Hauptachsentransformation

6.3 Hauptachsentransformation Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die

Mehr

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren Länge eines Vektors und Abstand von zwei Punkten Aufgabe Bestimme die Länge des Vektors x. Die Länge beträgt: x ( ) =. Skalarprodukt und Winkel zwischen Vektoren Aufgabe Es sind die Eckpunkte A(; ), B(

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

Ebenengleichungen und Umformungen

Ebenengleichungen und Umformungen Ebenengleichungen und Umformungen. Januar 7 Ebenendarstellungen. Parameterdarstellung Die Parameterdarstellung einer Ebene ist gegeben durch einen Stützvektor r, der einen Punkt auf der Ebene angibt und

Mehr

Vorkurs Mathematik B

Vorkurs Mathematik B Vorkurs Mathematik B Dr. Thorsten Camps Fakultät für Mathematik TU Dortmund 20. September 2011 Definition (R n ) Wir definieren: 1 Der R 2 sei die Menge aller Punkte in der Ebene. Jeder Punkt wird in ein

Mehr

1 Definitionen: 6 Punkte gesamt

1 Definitionen: 6 Punkte gesamt ANTWORTEN zum KOLLOQIUM zur Einführung in die Lineare Algebra Hans G. Feichtinger Sommersemester 2014 Fr., 25. Juli 2014, 10:00, Fakultät f. Mathematik Punktezahl: (1) 6 (2) 9 (3) 5 (4) 10 TOTAL (von 30):

Mehr