Sensorische Informationsverarbeitung und Haupkomponentenanalyse
|
|
- Bernt Graf
- vor 7 Jahren
- Abrufe
Transkript
1 Sensorische Informationsverarbeitung und Hauptkomponentenanalyse 5 deg 5 deg 5 deg Rezeptive Felder von Neuronen im primären visuellen Korte (DeAngelis, Ohzawa, Freeman, 1995) I-NNG.d, , W. Senn Sensorische Informationsverarbeitung und Haupkomponentenanalyse Inhalt Prinzipien der kortikalen Bildverarbeitung und Synaptische Plastizität Bildung von rezeptiven Feldern Hebb sche Regel und Haupkomponentenanalyse Anwendung 1: Bildkompression Anwendung 2: Gesichtserkennung Anwendung 3: Anatomische Messungen Hauptkomponenten und Kovarianzmatri Faktoranalyse und internes Modell Biologie Statistik
2 Elemente der kortikalen Bildverarbeitung 120 Mio Stäbchen 1 Mio Ganglionzellen alles verteilt und parallel!! Datenkompression durch Merkmals-Etraktion Klassifikation mittels Merkmals-Karten und Feedback Etraktion der Hauptkomponenten durch Hebb sche Lernen Dekorrelation durch laterale Inhibition Einfügen in internes Modell durch Feedback-Loops Biochemische Grundlage des Hebb schen Lernens: Long-Term Potentiation (LTP) normale Übertragung Induktion von LTP Epression von LTP 1 Aktionspotential K + Glutamat K + Mg 2+ K + Mg 2+ Na + Ca 2+ Na + Na + Ca2+ CaMKII Einbau zusätzlicher Kanäle postsynaptisches Potential LTP verlangt starke prä- und post-synaptische Aktivität!
3 Bildung von orientierungselektiven rezeptiven Feldern Eingangsschicht (zb. Ganglionzellen) Ausgangsschicht (V1-Zellen) laterale Inhibition Merkmalskarte: Zellen mit ähnlichen Orientierungs- Präferenzen sind benachbart Hebb sches Lernen RFr entstehen durch Hebb sches Lernen und laterale Inhibition.....und entsprechen den Hauptkomponenten natürlicher Bilder!! Rezeptive Felder der V1-Neuronen Olshausen & Field,1996 Windrad (mehrere Orientierungen in einem Punkt) Swindale, NJ, 1992 Hebb sches Lernen etrahiert Hauptkomponenten Eingangsschicht Beispiel: n=2, Mittelwerte =0 Ausgangsneuron w y n w n w=hauptkomonente Aktivität Ausgangsneuron: n y i w w i i1 Hebb sches Lernen: w( t 1) w(t) y Hauptkomponente (w) = Richtung mit grösster Varianz der Daten, (=1,..,p), d.h. p Einheitsvektor w, der 1 T w ( ) maimiert. p 1 2
4 Beweis der Hauptkomponenten-Etraktion Aktivität Ausgangsneuron: n y i wi w i1 Hebb sches Lernen: w( t 1) w(t) y Fall y>0: Fall y<0: W(t+1) y W(t+1) y W(t) W(t) W(t) wird mit jedem Lernschritt in Richtung + oder gezogen, je nachdem ob y positiv oder negativ ist. Insgesamt wird W(t) in die Haupausdehnungsrichtung der Daten gezogen. Oja s Lernregel normalisiert den Gewichtsvektor Oja s Regel = Hebb+Normalisation des Gewichtsvektors: w( t 1) w(t) [ yw(t)]y Aktivität Ausgangsneuron: y w Fall w 1: yw(t) Fall w 1: yw(t) W(t+1) W(t) W(t+1) W(t) ( w) w y = Projektion von auf w
5 Etraktion von Hauptkomponenten höherer Ordnung Adaptive Principal Component Etraction (APEX-Algorithmus) Eingangsschicht Ausgangsschicht 1 y 1 2 a Adaptation gemäss: a(t 1) a(t) [y 1 y2a(t)] y2 Führt zu asymmetrischer lateraler Inhibition (und imitiert Gram-Schmitt Orthogonalisierungsverfahren) n w n1 w n2 y 2 Adaptation gemäss Oja: w( t 1) w(t) [ yw(t)]y y 2 y 1 Idee: Subtrahiere Projektion auf erste Hauptkomponente und bestimme die Hauptkomponente vom Rest. Ergebnis: APEX projiziert Daten auf Hauptkomponenten! w 8 Anwendung 1: Bildkompression mit Principal Components Original: grey level piels Zum Vergleich: JPEG: Quality Level 0.5 (=Aufteilung in 88 Piel, separate Kodierung)
6 Anwendung 1: Bildkompression mit PCA Kodierung: Aufteilung in Blöcke von 88 Piel. Etraktion der ersten 3 Hauptkomponenten,, w 3. Approimiere einen Block durch: y 1 + y 2 +y 3 w 3 Für jeden Block sind nur die 3 Koeffizienten y 1, y 2, y s zu speichern (und die Vektoren,, w 3 nur einmal). w 3 Komprimiertes Bild: Jeder Block ist durch y 1 + y 2 +y 3 w 3 ersetzt. Kompressionsrate = 3/(88) 0.05 Anwendung 1: Bildkompression mit PCA Verrauschtes Bild: = Original + Gauss sches Rauschen. PCA: Rekonstruktion des Bildes basierend auf verrauschtem Bild. Mit ersten 8 Hauptkomponenten (s. unten), Kompressionsrate = 8/(88) = 0.125
7 Anwendung 2: Gesichtserkennung mit PCA FaceIt Gesichtserkennung Datenfluss von FaceIt Funktionalität: - Screen lock (Identifzierung) - Überwachung - Video Search See Joe Atick, Visionics Statistik Modul: Etraktion der Hauptkomponenten der Gesichter ( Eigenheads ) Datenbank: Für jedes Gesicht Speicherung der 40 Hauptkoeffizienten Identifikation: Vergleich der Hauptkoeffizienten des aktuellen Gesichts mit den gespeicherten Anwendung 2: etrahierte Eigenheads w 3 Mittlerer Eigenhead (oben links) mit 15 signifikantesten Eigenheads (von insgesamt 40) in der Datenbank Atick et al.
8 Anwendung 3: Anatomische Messungen Erste 3 Haupkomponenten (PC) der 7 Variablen, zb mit APEX von zentrierten Daten etrahiert X 1 = w 3 X 7 = y 1 y 2 y 3 Women Men Interpretation: PC 1 = allgemeine Körpergrösse PC 2 = Schlankheit (Umfang des Handgelenks ist antikorreliert mit Länge des Arms) Jolliffe (1986), PCA Hauptkomponenten sind Eigenvektoren der Kovarianzmatri Zentrierte Daten: Vorderarmlänge (zentriert) X Umfang Handgelenk (zent.) Person 1 Person Kovarianzmatri von X: 1 T 4.1 C XX P Zerlegung von C mittels Eigenvektoren: T T 1.0 C 1w1 2w2w Zentrierte Daten von P=100 Personen mit Vektoren und. ( und sind orthonormale (!) Eigenvektoren von C; und ihre Eigenwerte.) Varianz von X in Richtung : T 1 T T T var( w 1X) w1 XX w1 w1cw1, da w 1 1 und orthonormal. P Somit: Varianz der Daten in Richtung des ersten Eigenvektors maimal! Kumulative Varianz = Varianz in Richtung + Varianz in Richtung
9 Hauptkomponentenanalyse transformiert Daten......und macht versteckte Faktoren sichtbar Eigenvektoren bilden Drehmatri: W, w Transformierte Daten: Y W T X Körpergrösse (zentriert) Schlankheit (zentriert) y 2 Äquivalentes Netzwerk: y y 1 versteckter Faktor 1 1 w22 y 2 versteckter Faktor 2 (Bem: Bei stark unterschiedlichen Mittelwerten wird PCA auf den standartisierten Daten durchgeführt) Faktoranalyse erklärt Entstehung der Daten Hauptkomponentenanalyse: Netzwerk, das versteckten Faktor (y) aus Daten () erkennt: T y w 2 1 w w 1 2 y versteckter Faktor Faktoranalyse: Netzwerk, das Daten () aus verstecktem Faktor (y) generiert: g 1 g 2 y versteckter Faktor 1 g1 1 gy ; y, 2 g2 2 mit Gauss ches Rauschen 1 und 1 Faktoranalyse: Suche Faktor g und Faktorladungen y, so dass die Daten durch gy approimiert werden. am besten Lösung: g = Hauptkomponente w, Faktorladungen y = Projektionen von auf g. Beweis: w w T =1, und somit gy = gw T = ww T =. Beispiel: X... ; g w ; gy X y wx (Gemäss vorhergehende Seite ist: X WY ) ;
10 Versteckter Faktor als internes Modell Erkennungs-Netzwerk und Generations-Netzwerk interagieren im Erkennungsprozess g 1 y y=versteckter Faktor = w internes Modell für 2 Bottom-Up g 2 g y erwarteter Vektor Top-Down Wach-Schlaf-Algorithmus zum Lernen des Erkennungs- und Generations-Netzwerks: Wach-Phase: Präsentation von, Berechnung von y=w T, Anpassen von g gemäss: g( t 1) g(t) ( gy)y Schlaf-Phase: Wahl von y, Berechnung von =gy, Anpassen von w gemäss: w ( t 1) w(t) (y w) Vorteil gegenüber Oja s Regel: Benützt nur Delta-Regel, biologisch plausibler, erklärt topdown gesteuerte Erwartungshaltung und Wahrnehmungsillusionen. Sensorische Informationsverarbeitung: Zusammenfassung Rezeptives Feld (RF) Ganglionzelle (Retina) Sensorisches Areal Frontallappen Datenkompression durch Merkmals-Etraktion (mit geeigneten RF ern=lokale Kanten verschiedener Orientierungen) Hebb sches Lernen Merkmale = Hauptkomponenten = RF laterale Inhibition Dekorrelation Hauptkomponenten höherer Ordnung Merkmalskarten, Klassifikation internes Modell (versteckte Faktoren)
Visuelles System Von der retinalen Aktivität zum visuellen Eindruck
Visuelles System Von der retinalen Aktivität zum visuellen Eindruck INNG.d, 17. 9. 2002, W. Senn http://www.cns.unibe.ch/~wsenn/#teaching Prinzipien der visuellen Wahrnehmung topdown Projektionen Frontallappen:
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
MehrLineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen
Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die
MehrVorlesung 11. Unüberwachtes Lernen II
Vorlesung 11 Unüberwachtes Lernen II Martin Giese Martin.giese@uni-tuebingen.de Übersicht Diskriminanzanalse Lernen spärlicher Repräsentationen Nichtnegative Matrifaktorisierung (NMF I. Diskriminanzanalse
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrPrincipal Component Analysis (PCA) (aka Hauptkomponentenanalyse)
Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Seminar für Statistik Markus Kalisch 25.11.2014 1 Unsupervised Learning Supervised Learning: Erkläre Zielgrösse durch erklärende Variablen
MehrEntstehung rezeptiver Felder
Entstehung rezeptiver Felder 30.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche Struktur von
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrParallelverarbeitung von Farbe, Bewegung, Form und Tiefe
Grundlagen der Allgemeinen Psychologie: Wahrnehmungspsychologie Herbstsemester 2011 10.10.2011 (aktualisiert) Prof. Dr. Adrian Schwaninger Überblick Wahrnehmung: Sinnesorgane Prozesse und Grundprinzipien
MehrAufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9
Aufrechterhaltung der Retinotopie Bear 10.14; Kandel 27-9 Antwortcharakteristik einer Simple cell Rezeptives Feld: On off Bear 10.21 Bevorzugte Antwort auf Lichtbalken Bestimmter Orientierung Simple cell
MehrSeminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex
Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum
MehrMustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht
Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale
MehrInhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger
Einleitung WS 2001/2002 Adrian Schwaninger Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle Diskussion Gesichterwahrnehmung
MehrNeuronale Codierung und Mustererkennung
Neuronale Codierung und Mustererkennung Frühe vs. späte Stadien der neuronalen Objekterkennung Bottom-up (stimulusgesteuerte) vs. Top-down (konzeptuell beeinflusste) Prozesse Ein Beispiel für Top-down
MehrAllgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Allgemeine Psychologie I Vorlesung 4 Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg 1 Björn Rasch, Vorlesung Allgemeine Psychologie Uni FR Spezifität von Nervenzellen
MehrEFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1
EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:
MehrHauptkomponentenanalyse. Principal Component Analysis (PCA)
Hauptkomponentenanalyse Principal Component Analysis (PCA) Principal Component Analysis (PCA) Welche Ziele verfolgt man bei der Verwendung einer PCA? Repräsentation multidimensionaler Daten mit einer geringeren
MehrTopologische Objektrepräsentationen und zeitliche Korrelation
Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation
MehrLossy Bildkompression: Techniken und Bildqualität
Lossy Bildkompression: Techniken und Bildqualität Brigitte Forster Zentrum Mathematik, Technische Universität München, und Institut für Biomathematik und Biometrie, Helmholtz-Zentrum München Konsensuskonferenz:
Mehr6 Neuronale Modellierung: Der STAA-Ansatz
Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und
MehrMETHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009
METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen
MehrMittelfristige Tide- und Seegangsmodellierung für das Einzugsgebiet des Norderneyer Seegats
Mittelfristige Tide- und Seegangsmodellierung für das Einzugsgebiet des Norderneyer Seegats Ralf Kaiser, Agnieszka Herman & Hanz D. Niemeyer Niedersächsischer Landesbetrieb für Wasserwirtschaft, Küsten-
MehrKapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67
Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal
MehrSpektralanalyse physiologischer Signale
Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 11 Aktionspotential zeigt Membranpotential in der Zellmembran, doch was sieht man ausserhalb? einzelne Synapse Summe von synaptischen
MehrComputergraphik II. Level-of-Detail. Oliver Deussen Level-of-Detail 1
Level-of-Detail Oliver Deussen Level-of-Detail 1 Motivation: Scanner und andere Meßgeräte liefern b-reps mit hohen Auflösungen Beispiel: 3D-Abtastung einer Karosserie ergibt 30 Mio Dreiecke Probleme: ineffizient
MehrSparse Hauptkomponentenanalyse
Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es
MehrEigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection
Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection P. Belhumeur, J. Hespanha, D. Kriegman IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7, July
MehrEarth Magnetic Field. Climate. Sediments. endogene processes (e.g. bio-activity) magnetization. exogene processes (e.g.
Independent Component Analysis (ICA) und ihre Möglichkeiten in den Geowissenschaften Norbert Marwan Arbeitsgruppe Nichtlineare Dynamik Universität Potsdam Inhalt 1. Motivation 2. Independent Component
MehrFarbwahrnehmung. } Unterscheidung von Licht verschiedener Wellenlängen. Björn Rasch Vorlesung Allg. Psychologie Uni FR
Farbwahrnehmung } Unterscheidung von Licht verschiedener Wellenlängen } primär durch die 3 Zapfentypen mit max. Empfindlichkeit für verschiedene Wellenlängen } K-Zapfen: kurzwelliges Licht (ca. 420 nm,
Mehr7. Unüberwachte Lernverfahren
7. Unüberwachte Lernverfahren 1. Neuronale Merkmalskarten 2. Explorative Datenanalyse 3. Methoden zur Datenreduktion der Datenpunkte 4. Methoden zur Merkmalsreduktion der Merkmale Schwenker NI1 141 7.1
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrNeuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg
Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 60 Angewandte Multivariate Statistik Principal Components Analysis Standardisierte Linearkombination
MehrDynamische Systeme in der Biologie: Beispiel Neurobiologie
Dynamische Systeme in der Biologie: Beispiel Neurobiologie Caroline Geisler geisler@lmu.de April 18, 2018 Elektrische Ersatzschaltkreise und Messmethoden Wiederholung: Membranpotential Exkursion in die
MehrDas visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!
Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle
MehrMartin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr
Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 12. Juli 2011 Gesichtserkennung Begriffsunterscheidung: Lokalisation eines Gesichts im Bild Zuordnung des Gesichts zu einer bestimmten Person Technische
MehrSelbstorganisierende Merkmalskarten
Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:
MehrUniversität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen
Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale
Mehr3.7 Eigenwerte und Eigenvektoren
3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrHauptkomponenten-basierte Klassifikationsverfahren (PCA)
Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Projektseminar: Wetterlagen und Feinstaub - Übung Dozent: Claudia Weitnauer Referent: Esther Oßwald, Julian Dare Datum: 30.05.2011 Übersicht 1 Einleitung
MehrExkurs: Eigenwertproblem
1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor
MehrVisuelle Wahrnehmung I
Visuelle Wahrnehmung I Licht: physikalische Grundlagen Licht = elektromagnetische Strahlung Nur ein kleiner Teil des gesamten Spektrums Sichtbares Licht: 400700 nm Licht erst sichtbar, wenn es gebrochen
MehrPCA based feature fusion
PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05 Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2 Motivation: PCA
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
MehrEinführung in die Hauptkomponentenanalyse
Einführung in die Hauptkomponentenanalyse Florian Steinke 6. Juni 009 Vorbereitung: Einige Aspekte der multivariaten Gaußverteilung Definition.. Die -D Gaußverteilung für x R ist ( p(x exp (x µ σ. ( Notation:
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrSensorische Erregung und Wahrnehmung II: Photorezeption und Sehsystem
Sensorische Erregung und Wahrnehmung II: Photorezeption und Sehsystem Inhalt: 1. Sehvorgang und Auge 2. Informationsverarbeitung in der Retina 3. Sehbahn zum visuellen Kortex 4. Regulation von Augenbewegungen
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrSEMINAR AUTOMATISCHE GESICHTSERKENNUNG
SEMINAR AUTOMATISCHE GESICHTSERKENNUNG OBERSEMINAR AUTOMATISCHE ANALYSE VON GESICHTSAUSDRÜCKEN Organisation, Überblick, Themen Überblick heutige Veranstaltung 1. Organisatorisches 2. Überblick über beide
MehrVL.4 Prüfungsfragen:
VL.4 Prüfungsfragen: 1. Skizzieren Sie eine chemische Synapse mit allen wesentlichen Elementen. 2. Skizzieren Sie eine elektrische Synapse mit allen wesentlichen Elementen. 3. Welche Art der Kommunikation
MehrAllgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Allgemeine Psychologie I Vorlesung 4 Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg 1 Allgemeine Psychologie I Woche Datum Thema 1 FQ 20.2.13 Einführung, Verteilung der
MehrEiner Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.
Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrGliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung
Using Spin Images for Efficient Object Recogition in Cluttered 3D Scenes (Effiziente Objekterkennung von ungeordneten 3D Szenen mithilfe von Spin Images) Gliederung: 1) Einleitung 2) Oberflächenvergleich
MehrAllgemeine Psychologie: Sinnesphysiologie. Sommersemester 2008. Thomas Schmidt
Allgemeine Psychologie: Sinnesphysiologie Sommersemester 2008 Thomas Schmidt Folien: http://www.allpsych.uni-giessen.de/thomas Literatur Rosenzweig et al. (2005), Ch. 8-10 Sinnesphysiologie Prinzipien
MehrSelbstständiges Lernen
Kapitel 5 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrNeuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )
Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.
MehrUnüberwachtes Lernen
Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht
MehrProf. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010
Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010 Datum: 23.02.2010 Vorname: Name: Matrikelnummer: Geburtsdatum: Studiengang: Als BSc bearbeiten Sie bitte
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrMessen optischer Größen, Messen aus Bildern Übersicht Optische Strahlung, Sensorik Geometrie, Photogrammetrie Kamerakalibrierung Stereo
Messen optischer Größen, Messen aus Bildern Übersicht Optische Strahlung, Sensorik Geometrie, Photogrammetrie Kamerakalibrierung Stereo Menschliche Wahrnehmung Neurophysiologie Kognitive Psychologie Digitale
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrProtokoll. Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster
Protokoll Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster 1. Einleitung: Die Linsenaugen des Menschen können als eine Art Verlängerung
Mehr6. Faktorenanalyse (FA) von Tests
6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung
MehrKapitel 5 : Eigenwerte und Eigenvektoren
Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,
MehrPhysiologie des Auges
Grundlagen der Allgemeinen Psychologie: Wahrnehmungspsychologie Herbstsemester 2009 28.09.2009 (aktualisiert) Prof. Dr. Adrian Schwaninger Überblick Wahrnehmung: Sinnesorgane Prozesse und Grundprinzipien
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R. Käppeli L. Herrmann W. Wu Herbstsemester 16 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Name a a Note Vorname Leginummer Datum 18.8.17 1 3 4 Total 1P 1P 1P 1P 1P P
MehrNeuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,
Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie
MehrBiologische Psychologie I
Biologische Psychologie I Kapitel 7 Mechanismen der Wahrnehmung, des Bewusstseins und der Aufmerksamkeit Organisationsprinzipien eines sensorischen Systems: Primärer und sekundärer sensorischer Kortex
MehrLineare Algebra II 3. Übungsblatt
Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome
MehrEinführung in SPSS. Sitzung 5: Faktoranalyse und Mittelwertsvergleiche. Knut Wenzig. 22. Januar 2007
Sitzung 5: Faktoranalyse und Mittelwertsvergleiche 22. Januar 2007 Verschiedene Tests Anwendungsfall und Voraussetzungen Anwendungsfall Mehrere Variablen, die Gemeinsamkeiten haben, werden gebündelt. (Datenreduktion)
MehrJPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin
Referat KIM Alex Titze Angewandte Informatik FHTW-Berlin 76900504811 Einleitung JPEG Geschichte & Überblick Komprimierungsablauf Farbformat DCT (Diskrete Cosinus Transformation) Quantisierung Koeffizientenkodierung
MehrAbb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( )
Abb. 5.0: Funktion und Tangentialebene im Punkt Aus der totalen Differenzierbarkeit folgt sowohl die partielle Differenzierbarkeit als auch die Stetigkeit von : Satz 5.2: Folgerungen der totalen Differenzierbarkeit
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrLösung zu Kapitel 11: Beispiel 2
Lösung zu Kapitel 11: Beispiel 2 Die Daten beziehen sich auf 48 Bewerbungen um eine Position in einem Unternehmen. Diese Bewerbungen wurden anhand von 15 Variablen bewertet (Datenfile: bewerbung.csv).
MehrP.H.Lindsay D.A.Norman. Psychologie. Informationsaufnahme und -Verarbeitung beim Menschen
P.H.Lindsay D.A.Norman Einführung in die Psychologie Informationsaufnahme und -Verarbeitung beim Menschen Übersetzt von H.-D. Dumpert F. Schmidt M. Schuster M. Steeger Mit 309 Abbildungen Springer-Verlag
MehrÜbungen zur Linearen Algebra II, Sommersemester Test, , Gruppe A: Lösung
Aufgabe. (5 Punkte) Matrix A C 3 3 : Übungen zur Linearen Algebra II, Sommersemester 0. Test, 9.5.0, Gruppe A: Lösung Bestimmen Sie alle Eigenwerte und Eigenräume der folgenden 8 A 9 6 3 9 Lösung: Charakteristisches
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
MehrHopfield-Netze. Rudolf Kruse Neuronale Netze 192
Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrEin selbstmodellierendes System für die Wasserwirtschaft
Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrBiopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS
1 1 25.10.06 Biopsychologie als Neurowissenschaft 2 8.11.06 Evolutionäre Grundlagen 3 15.11.06 Genetische Grundlagen 4 22.11.06 Mikroanatomie des NS 5 29.11.06 Makroanatomie des NS: 6 06.12.06 Erregungsleitung
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrWas versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es?
Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Nennen Sie zwei genetische Faktoren, die zu einer Hirnschädigung führen können. Geben Sie je ein Beispiel
MehrVom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?
Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den
Mehr