IT-Sicherheit Vertiefung
|
|
- Andrea Graf
- vor 6 Jahren
- Abrufe
Transkript
1 IT-Sicherheit Vertiefung Principal Component Analysis Anika Pflug, M.Sc. Sommersemester
2 Vertiefung PCA Wieso überhaupt so kompliziert? Ziel: Rüstzeug für das Praktikum Grundlagen Datenanalyse und Motivation Vektorräume und Transformationen Varianz und Covarianz Eigenvektoren und deren algebraische Bedeutung 2
3 Vertiefung PCA Wieso überhaupt so kompliziert? Curse of dimensionality: 3
4 Vertiefung PCA Wieso überhaupt so kompliziert? 6 Feature Vektoren von 6 Personen gemessen 4
5 %independant and seperated a = randi([1 5], 2, 20); b = randi([6 10], 2, 20); %linearly dependant c = a*3; d = (a+b)/2; Vertiefung PCA Wieso überhaupt so kompliziert? 6 Feature Vektoren von 6 Personen gemessen %redundant e = randi([2 6], 2, 10); f = randi([1 10], 2, 20); figure; hold on; plot(a(1, :), a(2, :), 'b*'); plot(b(1, :), b(2, :), 'r*'); plot(c(1, :), c(2, :), 'ks'); plot(d(1, :), d(2, :), 'kd'); plot(e(1, :), e(2, :), 'ko'); plot(f(1, :), f(2, :), 'k+'); hold off; 5
6 Vertiefung PCA Vektorräume Das Kartesische Koordinatensystem ist ein Vektorraum mit Basis Y-Achse (3, 2) x P = X-Achse 6
7 Vertiefung PCA Transformationen Durch Y-Achse (5, -2) x P 2 = (3, 2) x P 1 = X-Achse 7
8 Vertiefung PCA Vektorräume Schöne Basisvektoren sind. Linear unabhängig orthogonal normalisiert (länge von 1)
9 Misst Abhängigkeiten zwischen 2 Variablen: ( x, ҧ തy) Vertiefung PCA Kovarianz: Die Varianz der Varianzen Faustregel: Falls cov(x, y) = 0 nicht abhängig Je weiter weg von 0, desto eher sind die Variablen korreliert! Falls cov(x,y) > 0 Propotionalität Falls cov(x,y) < 0 Antiproportianalität 9
10 Vertiefung PCA Kovarianz: Die Varianz der Varianzen X und Y sind Wertepaare aus einer Messreihe Mathematiker: Informatiker: n cov x, y = 1 n i=1 x i xҧ y i തy double covariance(double[] x, double[] y) { double cov = 0; for(i=0; 1<n; i++) { sumx = x[i] + - mean(x); sumy = y[i] - mean(y); cov = cov + (sumx*sumy); } cov = cov/n; return cov; } 10
11 Vertiefung PCA Kovarianzmatrix Schätzung der paarweisen Abhängigkeit aller paare aus Zeilen und Spalten einer Matrix σ i,j Kovarianz von allen Werten aus Zeile i (x) und Spalte i (y) σ 1,1 σ n,1 σ 1,n σ n,n 11
12 Vertiefung PCA Eigenvektoren Eigenvektoren sind von null verschiedene Vektoren, die durch eine Abbildung L immer auf sich selbst abgebildet werden: Ԧa L = Ԧa λ Anders gesagt: Man nennt a einen Eigenvektor von L zum Eigenwert Lambda 12
13 Vertiefung PCA Eigenvektoren Nochmal anders gesagt: Eigenvektoren sind also Vektoren, die durch L in die eigene Richtung bewegt werden. Oder noch anders: Egal was wir in L machen, die Eigenvektoren zeigen immer in dieselbe Richtung. Tolle Eigenschaft wenn man gute Achsen für Koordinatensysteme sucht! 13
14 Vertiefung PCA Eigenvektoren Die Eigenvektoren der Kovarianzmatrix zeigen in die Richtung, in denen die Daten die größte Varianz aufweisen. λ 1 λ 2 σ 1,1 σ n,1 σ 1,n σ n,n 14
15 Vertiefung PCA Die Grundidee Wir wollen wissen, in welcher Richtung die Varianz der Messpunkte am größten ist Mittelwerte aller Attribute berechnen und Kovarianzmatrix bilden Eigenvektoren der Kovarianzmatrix berechnen Die ersten n Eigenvektoren auswählen Punkte transformieren 15
16 Vertiefung PCA Die Grundidee Wir wollen wissen, in welcher Richtung die Varianz der Messpunkte am größten ist Alle Bilder in einer Matrix speichern und das durchschnittliche Bild berechnen Korarianzmatrix aus der Gesamtatrix mit allen Bildern berechnen Eigenvektoren berechnen Die ersten n Eigenvektoren auswählen Bilder Vielfache der Eigenvektoren darstellen 16
17 Vertiefung PCA Ihre Aufgabe im Praktikum Lernziele: Machen Sie sich mit MATLAB als Werkzeug zur Algorithmen-Entwicklung vertraut Analysieren Sie Code zu PCA Reproduzieren Sie die einzelnen Schritte und vergleichen Sie diese mit den hier gezeigten theoretischen Hintergründen Nutzen Sie die praktischen Erfahrungen zur Vertiefung des Verständnisses 17
18 IT-Sicherheit Kapitel 8.6 Iriskennung Anika Pflug, M.Sc. Sommersemester
19 Einführung Was ist eine Iris? Iris oder Regenbogenhaut: Ein Muskel, der die Menge des Lichtes Reguliert, welches auf die Netzhaut trifft. 19
20 Erfassungsgeräte Irisscanner im Überblick Wellenlänge bei nm 20
21 Bewertung Zwischen Kosten und Nutzen Vorteile Hohe Individualität: Das Muster aus Gewebe bildet sich zufällig Hohe Stabilität: Geschützt unter der Hornhaut bliebt das Muster stabil bis zum Tod Schwer zu fälschen Nachteile Acceptability: Menschen haben negative Assoziationen Measurability: Augenzwinkern kann nicht kontrolliert werden. Mehrere Aufnahmen sind daher oft notwendig! Quelle: 20th Century Fox 21
22 Prominentes Beispiel Sharbat Gula 22
23 Iris Codes Feature Extraktion von Iris Bildern Lokalisation und Segmentierung Transformation zu Polarkoordinaten Phaseninformation von Gabor-Wavelets Maskierung (mind. 70% sollten sichtbar sein) Hamming-Distanz berechnen (eventuell Ausgleich von Rotationen) 23
24 Iris Codes Hamming Distannz Vergleich von Bit-Vektoren fixer Länge: Bits in iris-code sind annähernd zufällig gesetzt 30% Übereinstimmung reichen bereits aus Iris Codes werden maskiert, um Verdeskungen durch Augenlider auszugleichen HD( , ) =? Quelle: Wikipedia xor and sum( ) / length( ) =
25 Kontaktlinsen Kosmetische Linsen sind kein Problem 25
26 IT-Sicherheit Kapitel 8.7 Multi-Biometrie Anika Pflug, M.Sc. Sommersemester
27 Multi-Biometrie Mehr Performance? In der Praxis werden oft verschiedene Charakteristiken kombiniert: 27
28 Multi-Biometrie Mehr Performance? In der Praxis werden oft verschiedene Charakteristiken kombiniert: 28
29 Multi-Biometrie Mehr Performance? In der Praxis werden oft verschiedene Charakteristiken kombiniert: Mehr Sicherheit gegen Fälschungen Weniger Fehler bei Identifikation Mehr Universalität Zum Preis von Höhere Kosten für Sensorik Mehr Rechenaufwand Kompliziertere Systeme, weniger Usability 29
30 Multi-Biometrie Beispiele Verschiedene Charakteristiken Verschiedene Instanzen derselben Charakteristik oder Verschiedene Sensortypen Mehrere Aufnahmen derselben Charakteristik 30
31 Multi-Biometrie Beispiele Verfahren sollten auf verschiedenen Ansätzen basieren, damit sie sich ergänzen. Fusion im Feature Space als auch im Score Space realisierbar. + PCA Landmarken Verschiedene Algorithmen 31
32 Image Level Fusion Fusion von Textur- und Tiefenbildern 32
33 Feature Level Fusion Fusion von Feature-Vektoren 33
34 Score Level Fusion Fusion von Scores 34
35 Decision Level Fusion Fusion fertiger Ergebnisse 35
36 Beispiel: Score Level Fusion Äpfel mit Birnen vergleichen Wiederholung: Uni modales Verifikationssystem 36
37 Beispiel: Score Level Fusion Äpfel mit Birnen vergleichen Fusion durch AND Kleinere FMR 37
38 Beispiel: Score Level Fusion Äpfel mit Birnen vergleichen Fusion durch OR Größere FNMR 38
39 Beispiel: Score Level Fusion Äpfel mit Birnen vergleichen Neuer Threshold 39
40 Beispiel: Score Level Fusion Äpfel mit Birnen vergleichen Scores aus verschiedenen Quellen müssen normalisiert werden: Min-Max Scores müssen linear verteilt sein Z-Score Scores müssen normalverteilt und symmetrisch um den Mittelwert sein genuine und imposter-verteilungen sollten symmetrisch sein Median Absolute Deviation genuine und imposter-verteilungen sollten symmetrisch sein. 40
41 Performance Was bringt multi-modalität konkret? Wenn der beste Finger gewählt wird, sinkt die FRR auf 15% Wenn die 3 besten Finger gewählt werden, sinkt die FRR auf 9% 41
42 Zusammenfassung Biometrie Grundbegriffe und ISO-Vokabular Interpretation von Statistiken zur Erkennungsleistung Wie funktioniert Fingerabdruckerkennung Venenerkennung Gesichtserkennung Ohrerkennung Iriserkennung Wie funktioniert biometrische Fusion? 42
43 Ausblick Für Interessierte. Trisomie 21 Neue Carakteristiken 43
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrStreuungsmaße von Stichproben
Streuungsmaße von Stichproben S P A N N W E I T E, V A R I A N Z, S T A N D A R D A B W E I C H U N G, Q U A R T I L E, K O V A R I A N Z, K O R R E L A T I O N S K O E F F I Z I E N T Zentrale Methodenlehre,
MehrErster Akt: Begriffe und Beispiele
Eigenvektoren 1 Erster Akt: Begriffe und Beispiele 2 Sei L : A A eine lineare Abbildung von einem Vektorraum A in sich sich selbst. (Man denke an z. B. an A = R 2.) 3 Ein Vektor a A, a 0, heißt ein Eigenvektor
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse PHY31 Herbstsemester 016 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
MehrMustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht
Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
MehrSatz. Wie wirkt sich ein Basiswechsel auf die Darstellungsmatrix einer linearen Abbildung F : V n V n aus?
Wie wirkt sich ein Basiswechsel auf die Darstellungsmatrix einer linearen Abbildung F : V n V n aus? Seien [F] B und [F] B die Darstellungsmatrizen von F bezüglich zweier Basen B und B. Weiter sei T die
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrBerechnung der Determinante
Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
PHY3 Herbstsemester 04 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 90 CH-8057 Zürich olafs@physik.uzh.ch Büro: 36-J- Tel.: 044-635.57.63 Vorlesungsprogramm Einführung, Messunsicherheiten,
MehrD-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung = = V A =
D-INFK Lineare Algebra HS 26 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 2. a) χ A (λ) = det(a λi) = (5 λ)( 2 λ) + 2 = λ 2 3λ + 2 = (λ 2)(λ ) λ = 2: Der Eigenvektor v zum Eigenwert λ erfüllt Av =
MehrHauptkomponentenanalyse PCA
Hauptkoponentenanalyse PCA Die Hauptkoponentenanalyse (Principal Coponent Analysis, PCA) ist eine Methode zur linearen Transforation der Variablen, so dass: öglichst wenige neue Variablen die relevante
MehrLineares Gleichungssystem - Vertiefung
Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.
MehrGeometrische Deutung linearer Abbildungen
Geometrische Deutung linearer Abbildungen Betrachten f : R n R n, f(x) = Ax. Projektionen z.b. A = 1 0 0 0 1 0 0 0 0 die senkrechte Projektion auf die xy-ebene in R 3. Projektionen sind weder injektiv
MehrD-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys. Serie 13
D-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys Serie 13 1. Um einen Tisch sitzen 7 Zwerge. Vor jedem steht ein Becher mit Milch. Einer der Zwerge verteilt seine Milch gleichmässig auf alle
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 3 1 Inhalt der heutigen Übung Vorrechnen der Hausübung B.7 Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben C.1: Häufigkeitsverteilung C.2: Tukey
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr09. Lineare Abbildungen und Koordinatentransformationen
09. Lineare Abbildungen und Koordinatentransformationen Definition. Seien V und W Vektorräume. Unter einer linearen Abbildung versteht man eine Abbildung F : V W, v F v w mit folgender Eigenschaft: F λ
MehrKlausurvorbereitungsblatt Lineare Algebra
Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrC orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
Mehr6. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
MehrVektoren und Matrizen
Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.
Mehr1 Die Jordansche Normalform
Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
Mehr4 Orthogonale Endormorphismen
4 Orthogonale Endormorphismen Frage: Bei welchen Abbildungen R R bzw. R 3 R 3 bleibt der Abstand zwischen zwei Punkten erhalten? Für α R setzen wir cosα sin α D(α) = und S(α) := sin α cosα ( cos α sin
MehrSparse Hauptkomponentenanalyse
Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es
MehrGliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung
Using Spin Images for Efficient Object Recogition in Cluttered 3D Scenes (Effiziente Objekterkennung von ungeordneten 3D Szenen mithilfe von Spin Images) Gliederung: 1) Einleitung 2) Oberflächenvergleich
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrPrüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrEinleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7
Sonja Hunscha - Koordinatensysteme 1 Inhalt Einleitung 2 1 Koordinatensysteme 2 1.1 Kartesisches Koordinatensystem 2 1.2 Polarkoordinaten 3 1.3 Zusammenhang zwischen kartesischen und Polarkoordinaten 3
Mehr4.4 Eigenwerte und Eigenvektoren
4.4-1 4.4 Eigenwerte und Eigenvektoren 4.4.1 Die Eulersche Gleichung Der Drehimpulsvektor kann folgendermaßen geschrieben werden, (1) worin die e i o Einheitsvektoren in Richtung der Hauptachsen sind,
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrBiometrische Fingererkennung Fusion von Fingerabdruck, Fingervenen und Fingergelenkbild
Biometrische Fingererkennung Fusion von Fingerabdruck, Fingervenen und Fingergelenkbild Daniel Hartung 1, Christoph Busch 1,2 2 1 11. Mai, 2011 12. Deutscher IT Sicherheitskongress, Berlin Outline MoDvaDon
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrOrientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops
15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den
MehrAlle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-
1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,
Mehr2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen
4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrKlausur zur Mathematik I (Modul: Lineare Algebra I) : Lösungshinweise
Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Wintersemester 202/20 Klausur zur Mathematik I (Modul: Lineare Algebra I 07.02.20: Lösungshinweise Sie haben 60
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2
MehrFERNUNIVERSITÄT IN HAGEN WIRTSCHAFTSWISSENSCHAFT
FERNUNIVERSITÄT IN HAGEN FAKULTÄT WIRTSCHAFTSWISSENSCHAFT Lehrstuhl für Betriebswirtschaftslehre, insb. Quantitative Methoden und Wirtschaftsmathematik Univ.-Prof. Dr. A. Kleine Lehrstuhl für Angewandte
MehrLineare Algebra. 9. Übungsstunde. Steven Battilana.
Lineare Algebra 9. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 2, 26 Erinnerung Sei x, y 2 E n, 2 E, danngilt: hx, yi = kxkkyk cos( ). Ist m eine beliebige natürliche Zahl, apple i,
Mehr7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrAssoziation & Korrelation
Statistik 1 für SoziologInnen Assoziation & Korrelation Univ.Prof. Dr. Marcus Hudec Einleitung Bei Beobachtung von Merkmalen stellt sich die Frage, ob es Zusammenhänge oder Abhängigkeiten zwischen den
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrIdentifikation des Menschen durch Irisierkennung
Identifikation des Menschen durch Irisierkennung Wissenschaftliches Arbeiten und Präsentieren, WS 2015 Adem Pokvic Christian Kranabetter 29. Januar 2016 Kranabetter, Pokvic Identifikation des Menschen
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 60 Angewandte Multivariate Statistik Principal Components Analysis Standardisierte Linearkombination
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrÜbungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010
MehrStatistik Einführung // Stichprobenverteilung 6 p.2/26
Statistik Einführung Kapitel 6 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // 6 p.0/26 Lernziele 1. Beschreiben
MehrMusterlösung Donnerstag - Determinanten und Eigenwerte
Musterlösung Donnerstag - Determinanten und Eigenwerte 6. März Aufgabe : Zum Aufwärmen () Zeige, dass eine nilpotente Endomorphismus nur die Null als Eigenwert hat. Hinweis: Ein Endomorphismus heißt nilpotent,
MehrStatistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG Markus.Schumacher@physik.uni-freiburg.de
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrPrincipal Component Analysis (PCA) (aka Hauptkomponentenanalyse)
Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Seminar für Statistik Markus Kalisch 25.11.2014 1 Unsupervised Learning Supervised Learning: Erkläre Zielgrösse durch erklärende Variablen
MehrEigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung
Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch
MehrStochastik-Praktikum
Stochastik-Praktikum Deskriptive Statistik Peter Frentrup Humboldt-Universität zu Berlin 7. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 7. November 2017 1 / 27 Übersicht
MehrSkalarprodukt, Norm & Metrik
Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrStatistics, Data Analysis, and Simulation SS 2017
Mainz, 8. Mai 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
MehrZusammenhänge zwischen metrischen Merkmalen
Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrMathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer
Kalman Filter Stephan Meyer FWPF Ortsbezogene Anwendungen und Dienste Georg-Simon-Ohm-Hochschule Nürnberg 07.12.2007 Outline 1 Mathematische Grundlagen 2 Kalman Filter 3 Beispielprogramm Mathematische
Mehr12. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013
O. Alaya, S. Demirel M. Fetzer, B. Krinn M. Wied. Gruppenübung zur Vorlesung Höhere Mathematik Wintersemester / Dr. M. Künzer Prof. Dr. M. Stroppel Lösungshinweise zu den Hausaufgaben: Aufgabe H 4. Hauptachsentransformation
Mehr6.3 Hauptachsentransformation
Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die
Mehr