Technische Universität

Größe: px
Ab Seite anzeigen:

Download "Technische Universität"

Transkript

1 Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Face Recognition - Active Appearance Models Hauptseminar Mario Ullrich Betreuer: Dipl.Inf. Matthias Wimmer Abgabetermin: 18.Dezember 2003

2 Inhaltsverzeichnis 1 Einleitung / Motivation 2 2 Erstellen des Active Appearance Modells (AAM) Das Active Shape Modell Erweiterung mit Texturen Vereinigung von ASM und Texturen Modell Suche Korrektur der Modell Parameter Iterative Minimierung Beispiele Gesichtserkennung Mimikerkennung Sequenzen Sonstige Anwendungen Zusammenfassung 13 Literaturverzeichnis 14 1

3 Kapitel 1 Einleitung / Motivation Zur Verbesserung der Interaktion von Mensch und Computer ist es für den Rechner immer wichtiger menschliche Formen und Handlungen zu erkennen. Auch ist ein Erkennen von bestimmten Formen für die Wissenschaft, zum Beispiel im medizinischen Bereich von Bedeutung. Diese Arbeit behandelt eine Möglichkeit dieser Erkennung, die sogenannten Active Appearance Models. Im Vergleich zu anderen Konzepten setzt diese Methode auf ein photorealistisches Modell zur Erkennung von Formen und Strukturen. Es entsteht ein recht robustes System, welches in der Praxis zur Erkennung, und im Besonderen auch zur Verfolgung von vorher eintrainierten Objekten eingesetzt wird. Eine Stärke dabei ist die Verfolgung von deformierbaren Objekten in Sequenzen, wie zum Beispiel Gesichter. Entscheidend für den Erfolg einer solchen Verfolgung ist das Training für das Modell. Ein weiterer Anwendungspunkt ist die Objektsynthese oder Animation, wie sie zum Beispiel in Filmen benutzt wird. Im Folgenden soll die Idee der Gesichtserkennung anhand von Active Appearance Modellen erklärt werden. Hierbei wird sowohl der Algorithmus zur Erstellung des Modells beschrieben (Kapitel 2), die Suche mit vorhandenem Modell erklärt (Kapitel 3), als auch mit konkreten Beispielen zur Gesichtserkennung (Kapitel 3) gezeigt, wie wirksam dieses Konzept ist. Zuletzt sollen noch einige andere Anwendungsgebiete der Active Appearance Model Methode erwähnt werden. 2

4 Kapitel 2 Erstellen des Active Appearance Modells (AAM) Hier soll nun der Algorithmus zur Erstellung des Modells behandelt werden. Dieser läßt sich in drei große Einzelschritte gliedern: 1. Erstellung des Active Shape Modells 2. Erweiterung mit Texturen 3. Zusammenführung der beiden Der hier beschriebene Algorithmus ist aus [CET98] und [CT92] entnommen. 2.1 Das Active Shape Modell Bei dem Konzept der Active Appearance Models handelt es sich um eine direkte Erweiterung der Active Shape Model Methode. Diese betrachtet zur Erkennung und Verfolgung der Objekte lediglich deren Kanten und versuchet dann eine Art Durchschnittsform dem aktuell zu verfolgenden Objekts anzupassen. Der große Unterschied der hier behandelten Methode dazu ist nun die Erweiterung des erstellten Modells mit Texturen. Was den Algorithmus zwar komplizierter und den Rechenaufwand größer macht, jedoch die Suche und Verfolgung stabiler laufen lässt. Zu Beginn ist die Existenz eines sogenannten Trainigsets vorausgesetzt.dieses set enthält Bilder, die jeweils mit einer festen Anzahl ( in unserem Fall n) Markierungspunkte annotiert sind. Abbildung 2.1 zeigt ein solches Bild als Teil eines training sets. Diese Markierungspunkte müssen manuell gesetzt werden, was zuerst einmal einen beträchtlichen Arbeitsaufwand bedeutet. Inzwischen sind jedoch auch halbautomatische Verfahren bekannt, welche viel der manuellen Arbeit bei der Annotierung erleichtern. 3

5 KAPITEL 2. ERSTELLEN DES ACTIVE APPEARANCE MODELLS (AAM) 4 Abbildung 2.1: Beispiel für 122 gesetzte Markierungspunkte. Alle Markierungspunkte (x 1, y 1 ),..., (x n, y n ) werden nun zu einem einzigen Vektor zusammengefasst. Es entsteht der Vektor x = (x 1, y 1,..., x n, y n ). Dabei ist zu beachten, dass die Markierungspunkte auf allen Bildern des Trainingsets immer an der selben Stelle gesetzt sein müssen. Man erhält mit diesem Verfahren je nach Anzahl der Bilder im Set ( hier t ) t Vektoren x t. Das Ziel ist nun die vorhandenen Konturen, welche durch die Vektoren x t beschrieben werden, in eine gemeinsame Lage auszurichten. Da lediglich die Form der Konturen interessiert, kann diese beliebig rotiert, skaliert oder positioniert werden. Man verschiebt nun alle Konturen anhand ihres Schwerpunktes zum Ursprung. Danach wird ein beliebiger Vektor x so skaliert dass gilt: x = 1 Hiermit ist die erste Schätzung für x 0 gegeben. Die übrigen Vektoren werden zu dieser ersten Schätzung ausgerichtet und der Mean Shape ermittelt. Durch weitere Normierung und wiederholtes Anwenden des oben erläuterten Prozesses gelangt man zu dem Ziel, für alle Konturen soll gelten x = 1. Es entsteht eine Wolke von Punkten um den Koordinatenursprung. Im nächsten Schritt verwendet man eine sogenannte Hauptkomponentenanalyse oder Principal Component Analysis(PCA). Ziel dieser ist die Reduktion von 2n Vektoren auf eine deutlich kleinere Anzahl. Dabei sollen nun nur noch die Unterschiede der Konturen untereinander dargestellt werden, diese sind bei einem, wie hier vorhandenen, zueinander ausgerichteten Datensatz, durch die Streuung entlang ihrer Hauptachsen 2.2 beschrieben. Die Bestimmung der Hauptachsen erfolgt nun mit der Hauptkomponentenanalyse, dazu

6 KAPITEL 2. ERSTELLEN DES ACTIVE APPEARANCE MODELLS (AAM) 5 Abbildung 2.2: Hauptachsentransformation wird zunächst der Mittelwert der verschiedenen Konturen berechnet. x = 1 s si=1 x i Danach errechnet man die Kovarianzmatrix S = 1 si=1 (x s 1 i x)(x i x) T Durch Lösen des Eigenwertproblems für die Matrix S erhält man die Eigenwerte λ i und die passenden Eigenvektoren p i. Diese werden nach Größe des Eigenwertes in absteigender Reihenfolge sortiert. Jetzt kann man mit einer bestimmten Anzahl Eigenvektoren den vorhandenen Datensatz erklären. Und erhält das trainierte Modell x = x + P s b s Hierbei ist x der Mean Shape, P s, die zu einer Matrix zusammengefassten Eigenvektoren p i und mit dem Vektor b kann das Modell entlang der Hauptachsen verformt werden und eine neue Kontur x erzeugt werden. Damit ist die Erstellung eines sogenannten Active Shape Modells abgeschlossen. Mit den weiteren Schritten soll nun das Modell ausgeweitet werden. 2.2 Erweiterung mit Texturen Hier soll nun dem eben erstellten Kantenmodell eine Textur hinzugefügt werden. Zunächst beginnt man damit, jedes Beispielbild in das Active Shape Modell zu legen, um die Markierungspunkte mit dem Modell abzugleichen. Anschliessend sampelt man die Textur g im des Beispielbildes in der, von der Kontur des Active Shape Modells eingeschlossen Fläche.

7 KAPITEL 2. ERSTELLEN DES ACTIVE APPEARANCE MODELLS (AAM) 6 Die Beispielsamples werden im nächsten Schritt noch mittels Skalierung α und eines Offsets β normalisiert um den Effekt der sogenannten Global Lightning Variation, womit die Beleuchtungsunterschiede in den verschiedenen Bildern der gleichen Testperson gemeint sind, zu minimieren. Man kommt auf folgende Formel. g = (g im β1)/α Die Werte von α und β sind so zu wählen, dass der Vektor am besten dem normierten Durchschnitt angepasst wird. Sei ḡ der Durchschnitt der bisher bearbeiteten Daten, so folgt zur Normierung von g im für die Werte von α und β: α = g im ḡ β = (g im 1)/n Hierbei ist n die Anzahl der Elemente in den Vektoren. Bei ḡ handelt es sich um einen sich ständig verändernden Wert, deswegen empfiehlt sich folgendes Verfahren. Man betrachtet zuerst ein gegebenes Beispielbild als erste Schätzung des Durchschnitts, dann werden die anderen, mit den oben angegebenen Formeln, angeglichen. Anschliessend der Durchschnitt neu geschätzt und diese Prozedur wiederholt. Durch eine Hauptkomponentenanalyse auf den normierten Daten ergibt sich dieses lineare Modell: g = ḡ + P g b g Dabei ist ḡ der durchschnittliche Textur Vektor, P g wiederum die Eigenvektoren und b g die Textur Parameter. 2.3 Vereinigung von ASM und Texturen Wir haben nun zwei lineare Modelle: x = x + P s b s (Form) g = ḡ + P g b g (Textur) Mit b s und b g lässt sich also die Form und Textur von jedem Beispiel beschreiben. Da es nun zu Korrelation zwischen den Form- und Texturvariationen kommen kann wird eine weitere Hauptkomponentenanalyse auf den vorhandenen Daten ausgeführt. Für jedes Beispielbild wird dieser Vektor generiert ( ) ( Ws b b = s Ws P = T ) s (x x) P T = Qc g (g ḡ) b g Wobei W s eine Diagonalmatrix mit Gewichtung für jeden Form Parameter ist, diese wird zur Angleichung von den Koordinatenwerten in b x und den Werten in b g verwendet. Auf diesen Vektoren wird eine Hauptkomponentenanlyse, mit einem gegbenen Modell

8 KAPITEL 2. ERSTELLEN DES ACTIVE APPEARANCE MODELLS (AAM) 7 b = Qc durchgeführt. Q ist hier ein Eigenvektor und c ein Vektor zur Kontrolle von Form und Textur Modellen. Die Form und die Texturen können durch unten aufgeführte Gleichungen direkt als Funktionen von c aufgefasst werden. mit x = x + P s W s Q s c g = ḡ + P g Q g c Q = ( Qs So kann ein neues Beispielbild, für ein gegebenes c, angepasst werden indem nur die Texturen des Vektors g generiert werden und sie mit Hilfe der Kontrollpunkte, welche in x enthalten sind, eingebunden werden. Q g )

9 Kapitel 3 Modell Suche Nach erfolgreicher Erstellung des Modells(siehe Kapitel 2) gilt es nun das Problem zu lösen, ein dem System unbekanntes Bild mit Hilfe des Modells zu interpretieren. Diese Schwierigkeit kann als Optimierungsproblem angesehen werden. Der Lösungsweg ist dabei die Differenz zwischen dem echten Bild und dem Active Appearance Modell zu minimieren. Diese Differenz wird als δi = I i I m bezeichnet. I i ist der Textur Vektor des Bildes und I m der des Modells. Um nun das Bild mit dem Modell möglichst gut abzugleichen gilt es, die Größe von = δi 2,durch Variation von c, zu minimieren. Aufgrund der Größe von c, handelt es sich hier um ein hoch-dimensionales Problem. Dabei behilft man sich damit, dass jeder Versuch das Modell mit dem Bild abzugleichen, im Prinzip das gleiche optimierungs Problem darstellt. Mit der dabei entwickelten Methode, wie die Parameter angeglichen werden müssen erhält man einen effektiven Algorithmus für das Problem. Es bleiben die Schwierigkeiten, den Zusammenhang zwischen δi und die Änderung in den Modelparametern δc zu erkennen (Kapitel 3.1), sowie ein iteratives Verfahren zur Minimierung von zu finden (Kapitel 3.2). 3.1 Korrektur der Modell Parameter Ziel ist es nun, eine einfache lineare Gleichung zu finden, welche den vorher erwähnten Zusammenhang beschreibt. Diese Gleichung soll von der Form δc = AδI sein. Um A zu finden, wendet man multivariate lineare Regression auf eine bekannte Menge δc von Modellverschiebungen und den dazugehörigen δi an. Diese Verschiebungen können 8

10 KAPITEL 3. MODELL SUCHE 9 durch absichtliches stören der Parameter, der original Trainigset Bildern erzeugt werden. Oder man erzeugt andere Bilder mit dem Appearance Modell und stört diese dann. Entscheidend dabei ist, dass die originale Parameter dabei bekannt sind und so der Unterschied errechnet werden kann. Zusätzlich werden leichte Veränderungen in der Position, dem Maßstab und der Orientierung eingearbeitet. Der Einfachheit halber betrachtet man diese Veränderungen als zusätzliche Einträge im Vektor δc. Die Berechnung der Differenz erfolgt nun folgendermassen: Sei c 0 der Vektor der bekannten appearance Parametern in dem aktuellen Bild. Diese Parameter verändert man nun um ein bekanntes δc um einen neuen Vektor c = δc + c 0 zu erhalten. Zu diesem c kann nun mit Hilfe der in Kapitel 2.3 definierten Funktionen eine Kontur x und eine normalisierte Textur g m berechnen. Man erhält ein normalisiertes Muster, g s, durch sampeln von g m auf x. Der Fehler hier ist dann δg = g s g m. Das Training besteht dann darin, zufällig die Parameter in jedem Trainigsbild zu verändern und δc und δg aufzuzeichnen. Nach multi-variater Regression erhält man die Beziehung δc = Aδg Idealerweise will man mit dieser linearen Beziehung eine Fehlerabweichung δg so groß wie möglich abdecken. Jedoch hat man schon herausgefunden, dass diese lineare Beziehung nur eine beschränkte Auswahl an Werten abdeckt. Welche im Allgemeinen aber ausreichend sind. 3.2 Iterative Minimierung Hat man eine Methode gefunden, um vorausschauend die Modellparameter zu verändern, kann nun ein iteratives Verfahren angeben um zu minimieren. Gegeben ist eine Schätzung von Modell Parametern c 0, sowie die normalisierte Bildvorlage zur aktuellen Schätzung g s. Das Verfahren sieht nun folgendermaßen aus: δg 0 = g s g m (Fehlervektor) E 0 = δg 0 2 ( aktueller Fehler) δc = Aδg 0 (erwartete Entfernung) berechnen k = 1 c 1 = c 0 kδc setzen

11 KAPITEL 3. MODELL SUCHE 10 das Bild an diese neue Schätzung anpassen und einen neuen Fehlervektor δg 1 ausrechnen falls δg 1 2 < E 0 die neue Schätzung c 1 akzeptieren ansonsten mit k = 1.5, k = 0.5,... probieren Dieses Verfahren wird nun wiederholt bis es in dem Fehlervektor δg 2 keine Verbesserung mehr gibt 3.1. Abbildung 3.1: Hier jeweils nach x Iterationen und nach gegebenem Startpunkt.

12 Kapitel 4 Beispiele In diesem Kapitel folgt eine kurze Behandlung von Beispielen, in denen Active Appearance Modells zum Einsatz kamen. Es werden einige konkrete Zahlen genannt und die Vielfältigkeit der Methode gezeigt. 4.1 Gesichtserkennung Hier wird nun ein Beispiel erwähnt wie es an der Technical University of Denmark durchgeführt wurde.[ste00] Das Training Set bestand hier aus 35 Bildern von 35 verschiedenen Personen, jedes Bild hatte eine Auflösung von 640x480 Pixeln und war mit 35 Markierungspunkten manuell annotiert worden. Das daraus entstandene Modell bestand aus ca Pixeln und der Vektor c aus 26 Parametern, welche 95 Prozent der Variation beschreiben. Die Suche und Angleichung des Modells an ein vorher unbekanntes Bild dauerte auf einem Athlon mit 1.2 GHz etwa 400 ms, und die durchschnittliche Abweichung entsprach 1.01 Pixeln. Würde hier nicht nur mit Schwarz Weiß Bildern, sondern mit farbigen Bildern modelliert werden, so hätte das Modell anstatt der 7600 Pixel etwa Pixel. Über die Fehlerrate wurde keine Aussage gemacht, jedoch wird in [ECT98] ein ähnliches Experiment vorgestellt, bei dem die Wiedererkennungsrate von Gesichtern in einem unbekannten Bild bei 88 Prozent lag. 4.2 Mimikerkennung Um zu testen, wie gut ein Active Appearance Modell Mimiken erkennen, wurde eine Versuchsreihe mit 25 menschlichen Testpersonen, einem Active Appearance Model mit einem training set von 200 Bildern, sowie 200 ungesehenen Bildern gestartet. Den Testpersonen wurden die selben 200 Bilder gezeigt und jede musste dem Bild eine Emotion, wie Glück, Ärger, oder Angst, zuordnen. Genauso wurde das Modell angeglichen auf die selben

13 KAPITEL 4. BEISPIELE 12 unbekannten Bilder und zusätzlich den 200 Bildern jeweils per Zufall eine Emotion zugeordnet. Das Ergebnis zeigte einen deutlichen Unterschied zwischen den zufällig gewählten Emotionen und den anderen Methoden, das Modell erreichte nicht ganz den Wiedererkennungswert, welchen die Testpersonen hatten, waren aber deutlich erfolgreicher als der Wert der zufälligen Suche. Dieses Ergebnis ließe sich noch verbessern, würde man mit einem besseren und grösseren Trainingset arbeiten. [ECT98] 4.3 Sequenzen Um die Echtzeit Fähigkeit von Active Appearance Models zu testen, ist es interessant ein Objekt in einer Sequenz zu verfolgen. Ein Problem beim Verfolgen eines Objekts in einer Sequenz ist oft die Tatsache, dass es sich um deformierbare Objekte handelt (z.b. ein Gesicht). Das Active Appearance Modell erzielt hier recht gute Ergebnisse, es behilft sich dabei der Tatsache, dass es nicht für jedes neue Bild der Sequenz einen neuen Initialisierungspunkt finden muss. Das heißt, es geht davon aus, dass in dem folgenden Bild der Sequenz, das Zielobjekt wieder etwa an der gleichen Stelle zu finden sein muss. Und die Angleichung wird durch diese Erkenntnis deutlich schneller. 4.4 Sonstige Anwendungen Weitere Versuche sind zum Beispiel im Bereich der Medizin zu finden 4.1. Hier anhand eines Knies. Abbildung 4.1: Knieerkennung in einem Querschnitt. Wichtig ist bei diesen Anwendungen wiederum ein gutes Trainingset, wurde die Struktur des Knies vorher durch genügend Beispiele in einem Modell beschrieben, so ist die Wiedererkennungsrate, auf einem Bild wie 4.1 recht hoch und auch schnell, hier bereits nach 11 Iterationen.

14 Kapitel 5 Zusammenfassung Es wurde in den letzten Kapiteln gezeigt, wie Objekterkennung/ Verfolgung, hier im Speziellen von Gesichtern, mit Active Appearance Models(AAM) funktioniert. Diese Methode kann grob in eine Traings- und in eine Suchphase aufgeteilt werden. Man beginnt mit der Erstellung eines Modells, ausgehend von einer bestimmten Anzahl, mit Markierungspunkten an den Kanten, annotierten Beispielbildern. Es entstand ein Mean Shape, der sozusagen die Durchschnittsform dieser Beispielbilder beschreibt. Diesen fasst man dann mit den Texturen dieser Bilder zu einem fertigen Modell zusammen, indem zuerst die Texturen jedes Bildes auf den Mean Shape gelegt, normiert und später mit dem ASM vereinigt werden.(kapitel 2.3) Anschliessend erfolgte die Beschreibung der Suche und Erkennung auf zuvor nicht bekannten Bildern. Hierzu bedarf es einer Angleichung des Modells an das Bild, was mit einem iterativen Verfahren realisiert wurde. Sukzessive wird die Abweichung von Modell zu dem Bild verringert bis der Fehler annehmbar klein ist und somit das Modell dem Bild angeglichen wurde.(kapitel 3.2) Zuletzt wurden noch einige Beispiele und konkrete Zahlen genannt. (Kapitel 4) Die AAM bilden eine direkte Erweiterung des Konzepts der Active Shape Models(ASM), die im Vortrag von Andreas Hofhauser am behandelt wurden. Ein Vergleich der beiden Methoden ergibt, dass ASM zwar in der Suche schneller, jedoch AAMs verlässlicher sind. Was leicht damit erklärt werden kann, dass das AAM Konzept die ganze Gesichtsinformation verarbeitet und nicht nur, wie ASM, die Konturen. Viel hängt bei AAM von der Auswahl und Bearbeitung des Training Sets ab, liegt ein sehr gutes und großes set vor, so ist der Algorithmus äusserst stabil. Weniger stabil sind AAM bei großen Differenzen zwischen Start und Zielpunkten, das heißt wenn die erste Initialisierung schlecht gewählt ist. 13

15 Literaturverzeichnis [CET98] T. F. Cootes, G. J. Edwards, and C. J. Taylor. Active appearance models. Lecture Notes in Computer Science, 1407:484??, [CT92] T. Cootes and C. Taylor. Active shape models- - smart snakes, [ECT98] G. J. Edwards, T. F. Cootes, and C. J. Taylor. Face recognition using active appearance models. Lecture Notes in Computer Science, 1407:581??, [SEL03] M. B. Stegmann, B. K. Ersbøll, and R. Larsen. FAME - a flexible appearance modelling environment. IEEE Transactions on Medical Imaging, 22(10): , may [Ste00] M. B. Stegmann. Active appearance models: Theory, extensions and cases. Master s thesis, Informatics and Mathematical Modelling, Technical University of Denmark, DTU, Richard Petersens Plads, Building 321, DK-2800 Kgs. Lyngby, aug

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Morphing. von Tim Sternberg. Im Rahmen des Seminars Manipulation und Verarbeitung digitaler Bilder

Morphing. von Tim Sternberg. Im Rahmen des Seminars Manipulation und Verarbeitung digitaler Bilder von Tim Sternberg Im Rahmen des Seminars Manipulation und Verarbeitung digitaler Bilder Einleitung Mit Morphing wird der fließende Übergang eines Bildes in ein anderes bezeichnet. Zwei digitale Bilder

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Transformation - Homogene Koordinaten. y + b )

Transformation - Homogene Koordinaten. y + b ) Transformation - Homogene Koordinaten In der "üblichen" Behandlung werden für die Verschiebung (Translation) und die Drehung (Rotation) verschiedene Rechenvorschriften benutzt - einmal Addition von Vektoren

Mehr

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems Transformation - 1 1. Allgemeines 2. Zwei durch eine Translation verknüpfte gleichartige Basissysteme 3. Zwei durch eine Translation verknüpfte verschiedenartige Basissysteme (noch gleiche Orientierung)

Mehr

BMI. Der P300-Speller. Alexander Schulz Der P300-Speller. Übersicht. Einleitung. Verarbeitung & Klassifikation. Experiment 1.

BMI. Der P300-Speller. Alexander Schulz Der P300-Speller. Übersicht. Einleitung. Verarbeitung & Klassifikation. Experiment 1. 16.12.09 1 2 3 4 5 P300 Grundlagen Versuchsaufbau Wiederholung Evoziertes Potential (Event-related potential oder ERP) P300 Grundlagen Versuchsaufbau Wiederholung Evoziertes Potential (Event-related potential

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

D-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys. Serie 13

D-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys. Serie 13 D-INFK Lineare Algebra HS 2014 Roman Glebov Marc Pollefeys Serie 13 1. Um einen Tisch sitzen 7 Zwerge. Vor jedem steht ein Becher mit Milch. Einer der Zwerge verteilt seine Milch gleichmässig auf alle

Mehr

Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse

Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse Hochschule RheinMain Master Informatik Digitale Bildanalyse bei Prof. Dr. U. Schwanecke Projektdokumentation Gesichtserkennung per Eigengesichtsanalyse von Florian Feuerstein (florian feuerstein@web.de)

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

PCA based feature fusion

PCA based feature fusion PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05 Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2 Motivation: PCA

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr.

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Physikalisches Grundpraktikum I Versuchsprotokoll Versuch O10: Linsensysteme Arbeitsplatz Nr. 1 0. Inhaltsverzeichnis 1. Einleitung 2.

Mehr

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection P. Belhumeur, J. Hespanha, D. Kriegman IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7, July

Mehr

Latent Semantic Indexing: Einführung und Experiment

Latent Semantic Indexing: Einführung und Experiment Latent Semantic Indexing: Einführung und Experiment Jonathan Geiger, Felix Hieber HS: Information Retrieval Dr. Haenelt 12.01.2009 WS 08/09 Motivation Grundsätzlich stecken zwei Ideen hinter, eine praktischer

Mehr

Vom Leichtesten zum Schwersten Sortieralgorithmen

Vom Leichtesten zum Schwersten Sortieralgorithmen Aktivität 7 Vom Leichtesten zum Schwersten Sortieralgorithmen Zusammenfassung Häufig verwendet man Computer dazu Listen von Elementen in eine bestimmte Ordnung zu bringen. So kann man beispielsweise Namen

Mehr

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales.

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales. Kreis - Tangente 1. Allgemeines 2. Satz des Thales 3. Tangente an einem Punkt auf dem Kreis 4. Tangente über Analysis (an einem Punkt eines Ursprungkreises) 5. Tangente von einem Punkt (Pol) an den Kreis

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Übungsaufgaben zur Vektorrechnung

Übungsaufgaben zur Vektorrechnung Übungsaufgaben zur Vektorrechnung Wolfgang Kippels. Oktober 8 Inhaltsverzeichnis Vorwort Einleitung Einfache Aufgaben. Aufgabe..................................... Aufgabe a................................

Mehr

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

Gliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung

Gliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung Using Spin Images for Efficient Object Recogition in Cluttered 3D Scenes (Effiziente Objekterkennung von ungeordneten 3D Szenen mithilfe von Spin Images) Gliederung: 1) Einleitung 2) Oberflächenvergleich

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2018 Steven Köhler Wintersemester 2018/19 Inhaltsverzeichnis Teil 1 Teil

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Analytische Geometrie Seite 1 von 6. Die Addition von Vektoren kann veranschaulicht werden durch das Aneinanderhängen von Pfeilen.

Analytische Geometrie Seite 1 von 6. Die Addition von Vektoren kann veranschaulicht werden durch das Aneinanderhängen von Pfeilen. Analytische Geometrie Seite 1 von 6 1. Wichtige Formeln AB bezeichnet den Vektor, der die Verschiebung beschreibt, durch die der Punkt A auf den Punkt B verschoben wird. Der Vektor, durch den die Verschiebung

Mehr

Aufgabe 1 - Tricks mit linearen Gleichungen

Aufgabe 1 - Tricks mit linearen Gleichungen Institut für Informatik Visual Computing Prof. Dr. Michael Wand & M.Sc. Sebastian Brodehl Sommersemester 2018 Modellierung I Übungsblatt 4: LGS, Vektorräume und Inverse Probleme Letzte Änderung: 10:20

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Lineare Algebra - Übungen 7 WS 2017/18

Lineare Algebra - Übungen 7 WS 2017/18 Prof. Dr. A. Maas Institut für Physik N A W I G R A Z Lineare Algebra - Übungen 7 WS 017/18 Aufgabe P0: Paulimatrizen Präsenzaufgaben 14. Dezember 017 Berechnen Sie für die Paulimatrizen σ 1 = ( ) 0 1,

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 018/19 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de c 018 Steven Köhler Wintersemester 018/19 Inhaltsverzeichnis Teil 1 Teil Teil

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Lehrskript Mathematik Q12 Analytische Geometrie

Lehrskript Mathematik Q12 Analytische Geometrie Lehrskript Mathematik Q1 Analytische Geometrie Repetitorium der analytischen Geometrie Eine Zusammenfassung der analytischen Geometrie an bayerischen Gymnasien von Markus Baur, StR Werdenfels-Gymnasium

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

1 Fraktale Eigenschaften der Koch-Kurve

1 Fraktale Eigenschaften der Koch-Kurve Anhang Inhaltsverzeichnis Fraktale Eigenschaften der Koch-Kurve iii. Einführung.................................. iii.2 Defintion.................................... iii.3 Gesamtlänge der Koch-Kurve........................

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dr.-Ing. Markus Kowarschik Numerisches Programmieren,

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Lösung II Veröffentlicht:

Lösung II Veröffentlicht: 1 Momentane Bewegung I Die Position eines Teilchens auf der x-achse, ist gegeben durch x = 3m 30(m/s)t + 2(m/s 3 )t 3, wobei x in Metern und t in Sekunden angeben wird (a) Die Position des Teilchens bei

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I) Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,

Mehr

OPT Optimierende Clusteranalyse

OPT Optimierende Clusteranalyse Universität Augsburg Fakultät für angewandte Informatik Lehrstuhl für Physische Geographie und Quantitative Methoden Übung zum Projektseminar: Wetterlagen und Feinstaub Leitung: Dr. Christoph Beck Referentin:

Mehr

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

Proseminar Aufgabenstellungen der Bildanalyse und Mustererkennung Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009

Mehr

WS 2012/2013. Hinweise

WS 2012/2013. Hinweise Lehrstuhl C für Mathematik (Analysis Prof. Dr. Y. Guo Aachen, den.. Trainingsklausur zur Höheren Mathematik I WS / Hinweise Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind handschriftliche Aufzeichnungen

Mehr

Lineare Schieberegisterfolgen

Lineare Schieberegisterfolgen Lineare Schieberegisterfolgen Sei K ein endlicher Körper. Man nehme zwei Vektoren x 0 a0 x n 1, a n 1 K n n 1 x n := a i x i und betrachte die lineare Abbildung : K n K n, die durch i=0, berechne x 0 x

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Fachhochschule München Fachbereich 03 FA WS 2006/07. Diplomvorprüfung in Mathematik I (Lineare Algebra) Fahrzeugtechnik

Fachhochschule München Fachbereich 03 FA WS 2006/07. Diplomvorprüfung in Mathematik I (Lineare Algebra) Fahrzeugtechnik 1 Fachhochschule München Fachbereich 03 FA WS 006/07 Diplomvorprüfung in Mathematik I (Lineare Algebra) Fahrzeugtechnik Arbeitszeit: Hilfsmittel: Aufgabensteller: 90 Minuten Formelsammlung, Skripten, Bücher,

Mehr

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen Übungen zum Ferienkurs Lineare Algebra 5/6: Lösungen Darstellungsmatrizen. Bestimme die Darstellungsmatrix M B,B (f ) für die lineare Abbildung f : 3, die durch f (x, y, z) = (4x + y z, y + z) definiert

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Bildverarbeitung Herbstsemester. Mustererkennung

Bildverarbeitung Herbstsemester. Mustererkennung Bildverarbeitung Herbstsemester Herbstsemester 2009 2012 Mustererkennung 1 Inhalt Einführung Mustererkennung in Grauwertbildern Ähnlichkeitsmasse Normalisierte Korrelation Korrelationskoeffizient Mustererkennung

Mehr

Singular Value Decomposition

Singular Value Decomposition Singular Value Decomposition (Singulärwertzerlegung) Seminar Robust Design Vitali Müller 2 Inhalt Was ist die SVD? Interpretationen Anwendungsmöglichkeiten Berechnung 3 Datenmatrix Experiment mit n Objekten

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/_statgen 6. Juli 2010 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen

Mehr

Segmentierung von Aortenaneurysmen in CTA-Bildern mit dem statistischen Verfahren der Active Appearance Models

Segmentierung von Aortenaneurysmen in CTA-Bildern mit dem statistischen Verfahren der Active Appearance Models Segmentierung von Aortenaneurysmen in CTA-Bildern mit dem statistischen Verfahren der Active Appearance Models Katharina Greiner 1,3, Jan Egger 2,3, Stefan Großkopf 3, Jens N. Kaftan 3,4, Ralf Dörner 1,

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011 Hier eine kurze Erklärung zu der. Als Grundlage diente teilweise eine Beschreibung von Markus Göhl vom Sommersemester 00. Quadriken Definition. Eine Quadrik ist die Nullstellenmenge eines quadratischen

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Vektorrechnung. 10. August Inhaltsverzeichnis. 1 Vektoren 2. 2 Grundlegende Rechenoperationen mit Vektoren 3. 3 Geometrie der Vektoren 5

Vektorrechnung. 10. August Inhaltsverzeichnis. 1 Vektoren 2. 2 Grundlegende Rechenoperationen mit Vektoren 3. 3 Geometrie der Vektoren 5 Vektorrechnung 0. August 07 Inhaltsverzeichnis Vektoren Grundlegende Rechenoperationen mit Vektoren 3 3 Geometrie der Vektoren 5 4 Das Kreuzprodukt 9 Vektoren Die reellen Zahlen R können wir uns als eine

Mehr

Stochastische Approximation des Value at Risk

Stochastische Approximation des Value at Risk Stochastische Approximation des Value at Risk Annemarie Bitter Motivation Eines der wichtigsten Projekte der Versicherungswirtschaft ist derzeit die sogenannte Solvency-II-Richtlinie der Versicherungsaufsicht.

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

2.3.4 Drehungen in drei Dimensionen

2.3.4 Drehungen in drei Dimensionen 2.3.4 Drehungen in drei Dimensionen Wir verallgemeinern die bisherigen Betrachtungen nun auf den dreidimensionalen Fall. Für Drehungen des Koordinatensystems um die Koordinatenachsen ergibt sich 1 x 1

Mehr

Stochastische Approximation des Value at Risk

Stochastische Approximation des Value at Risk Stochastische Approximation des Value at Risk Zusammenfassung der Masterarbeit an der Universität Ulm Annemarie Bitter Motivation Eines der wichtigsten Projekte der Versicherungswirtschaft ist derzeit

Mehr

Multimedia-Metadaten und ihre Anwendung

Multimedia-Metadaten und ihre Anwendung Multimedia-Metadaten und ihre Anwendung 14.02.2006 Automatische Gesichtserkennung Dominikus Baur Gesichtserkennung in MPEG-7 MPEG-7 bietet Face Descriptor zur Beschreibung von Gesichtern Im Folgenden:

Mehr

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7 Sonja Hunscha - Koordinatensysteme 1 Inhalt Einleitung 2 1 Koordinatensysteme 2 1.1 Kartesisches Koordinatensystem 2 1.2 Polarkoordinaten 3 1.3 Zusammenhang zwischen kartesischen und Polarkoordinaten 3

Mehr

Aufgaben. zu Inhalten der 5. Klasse

Aufgaben. zu Inhalten der 5. Klasse Aufgaben zu Inhalten der 5. Klasse Universität Klagenfurt, Institut für Didaktik der Mathematik (AECC-M) September 2010 Zahlbereiche Es gibt Gleichungen, die (1) in Z, nicht aber in N, (2) in Q, nicht

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection Peter N. Belhumeur, João P. Hespanha, David J. Kriegman IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Technische Universität München Christoph Niehoff Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 009/00 Die beiden Hauptthemen von diesem Teil des Ferienkurses sind Lineare Gleichungssysteme

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr