Sensorische Informationsverarbeitung und Haupkomponentenanalyse

Größe: px
Ab Seite anzeigen:

Download "Sensorische Informationsverarbeitung und Haupkomponentenanalyse"

Transkript

1 Sensorische Informationsverarbeitung und Hauptkomponentenanalyse 5 deg 5 deg 5 deg Rezeptive Felder von Neuronen im primären visuellen Korte (DeAngelis, Ohzawa, Freeman, 1995) I-NNG.d, , W. Senn Sensorische Informationsverarbeitung und Haupkomponentenanalyse Inhalt Prinzipien der kortikalen Bildverarbeitung und Synaptische Plastizität Bildung von rezeptiven Feldern Hebb sche Regel und Haupkomponentenanalyse Anwendung 1: Bildkompression Anwendung 2: Gesichtserkennung Anwendung 3: Anatomische Messungen Hauptkomponenten und Kovarianzmatri Faktoranalyse und internes Modell Biologie Statistik

2 Elemente der kortikalen Bildverarbeitung 120 Mio Stäbchen 1 Mio Ganglionzellen alles verteilt und parallel!! Datenkompression durch Merkmals-Etraktion Klassifikation mittels Merkmals-Karten und Feedback Etraktion der Hauptkomponenten durch Hebb sche Lernen Dekorrelation durch laterale Inhibition Einfügen in internes Modell durch Feedback-Loops Biochemische Grundlage des Hebb schen Lernens: Long-Term Potentiation (LTP) normale Übertragung Induktion von LTP Epression von LTP 1 Aktionspotential K + Glutamat K + Mg 2+ K + Mg 2+ Na + Ca 2+ Na + Na + Ca2+ CaMKII Einbau zusätzlicher Kanäle postsynaptisches Potential LTP verlangt starke prä- und post-synaptische Aktivität!

3 Bildung von orientierungselektiven rezeptiven Feldern Eingangsschicht (zb. Ganglionzellen) Ausgangsschicht (V1-Zellen) laterale Inhibition Merkmalskarte: Zellen mit ähnlichen Orientierungs- Präferenzen sind benachbart Hebb sches Lernen RFr entstehen durch Hebb sches Lernen und laterale Inhibition.....und entsprechen den Hauptkomponenten natürlicher Bilder!! Rezeptive Felder der V1-Neuronen Olshausen & Field,1996 Windrad (mehrere Orientierungen in einem Punkt) Swindale, NJ, 1992 Hebb sches Lernen etrahiert Hauptkomponenten Eingangsschicht Beispiel: n=2, Mittelwerte =0 Ausgangsneuron w y n w n w=hauptkomonente Aktivität Ausgangsneuron: n y i w w i i1 Hebb sches Lernen: w( t 1) w(t) y Hauptkomponente (w) = Richtung mit grösster Varianz der Daten, (=1,..,p), d.h. p Einheitsvektor w, der 1 T w ( ) maimiert. p 1 2

4 Beweis der Hauptkomponenten-Etraktion Aktivität Ausgangsneuron: n y i wi w i1 Hebb sches Lernen: w( t 1) w(t) y Fall y>0: Fall y<0: W(t+1) y W(t+1) y W(t) W(t) W(t) wird mit jedem Lernschritt in Richtung + oder gezogen, je nachdem ob y positiv oder negativ ist. Insgesamt wird W(t) in die Haupausdehnungsrichtung der Daten gezogen. Oja s Lernregel normalisiert den Gewichtsvektor Oja s Regel = Hebb+Normalisation des Gewichtsvektors: w( t 1) w(t) [ yw(t)]y Aktivität Ausgangsneuron: y w Fall w 1: yw(t) Fall w 1: yw(t) W(t+1) W(t) W(t+1) W(t) ( w) w y = Projektion von auf w

5 Etraktion von Hauptkomponenten höherer Ordnung Adaptive Principal Component Etraction (APEX-Algorithmus) Eingangsschicht Ausgangsschicht 1 y 1 2 a Adaptation gemäss: a(t 1) a(t) [y 1 y2a(t)] y2 Führt zu asymmetrischer lateraler Inhibition (und imitiert Gram-Schmitt Orthogonalisierungsverfahren) n w n1 w n2 y 2 Adaptation gemäss Oja: w( t 1) w(t) [ yw(t)]y y 2 y 1 Idee: Subtrahiere Projektion auf erste Hauptkomponente und bestimme die Hauptkomponente vom Rest. Ergebnis: APEX projiziert Daten auf Hauptkomponenten! w 8 Anwendung 1: Bildkompression mit Principal Components Original: grey level piels Zum Vergleich: JPEG: Quality Level 0.5 (=Aufteilung in 88 Piel, separate Kodierung)

6 Anwendung 1: Bildkompression mit PCA Kodierung: Aufteilung in Blöcke von 88 Piel. Etraktion der ersten 3 Hauptkomponenten,, w 3. Approimiere einen Block durch: y 1 + y 2 +y 3 w 3 Für jeden Block sind nur die 3 Koeffizienten y 1, y 2, y s zu speichern (und die Vektoren,, w 3 nur einmal). w 3 Komprimiertes Bild: Jeder Block ist durch y 1 + y 2 +y 3 w 3 ersetzt. Kompressionsrate = 3/(88) 0.05 Anwendung 1: Bildkompression mit PCA Verrauschtes Bild: = Original + Gauss sches Rauschen. PCA: Rekonstruktion des Bildes basierend auf verrauschtem Bild. Mit ersten 8 Hauptkomponenten (s. unten), Kompressionsrate = 8/(88) = 0.125

7 Anwendung 2: Gesichtserkennung mit PCA FaceIt Gesichtserkennung Datenfluss von FaceIt Funktionalität: - Screen lock (Identifzierung) - Überwachung - Video Search See Joe Atick, Visionics Statistik Modul: Etraktion der Hauptkomponenten der Gesichter ( Eigenheads ) Datenbank: Für jedes Gesicht Speicherung der 40 Hauptkoeffizienten Identifikation: Vergleich der Hauptkoeffizienten des aktuellen Gesichts mit den gespeicherten Anwendung 2: etrahierte Eigenheads w 3 Mittlerer Eigenhead (oben links) mit 15 signifikantesten Eigenheads (von insgesamt 40) in der Datenbank Atick et al.

8 Anwendung 3: Anatomische Messungen Erste 3 Haupkomponenten (PC) der 7 Variablen, zb mit APEX von zentrierten Daten etrahiert X 1 = w 3 X 7 = y 1 y 2 y 3 Women Men Interpretation: PC 1 = allgemeine Körpergrösse PC 2 = Schlankheit (Umfang des Handgelenks ist antikorreliert mit Länge des Arms) Jolliffe (1986), PCA Hauptkomponenten sind Eigenvektoren der Kovarianzmatri Zentrierte Daten: Vorderarmlänge (zentriert) X Umfang Handgelenk (zent.) Person 1 Person Kovarianzmatri von X: 1 T 4.1 C XX P Zerlegung von C mittels Eigenvektoren: T T 1.0 C 1w1 2w2w Zentrierte Daten von P=100 Personen mit Vektoren und. ( und sind orthonormale (!) Eigenvektoren von C; und ihre Eigenwerte.) Varianz von X in Richtung : T 1 T T T var( w 1X) w1 XX w1 w1cw1, da w 1 1 und orthonormal. P Somit: Varianz der Daten in Richtung des ersten Eigenvektors maimal! Kumulative Varianz = Varianz in Richtung + Varianz in Richtung

9 Hauptkomponentenanalyse transformiert Daten......und macht versteckte Faktoren sichtbar Eigenvektoren bilden Drehmatri: W, w Transformierte Daten: Y W T X Körpergrösse (zentriert) Schlankheit (zentriert) y 2 Äquivalentes Netzwerk: y y 1 versteckter Faktor 1 1 w22 y 2 versteckter Faktor 2 (Bem: Bei stark unterschiedlichen Mittelwerten wird PCA auf den standartisierten Daten durchgeführt) Faktoranalyse erklärt Entstehung der Daten Hauptkomponentenanalyse: Netzwerk, das versteckten Faktor (y) aus Daten () erkennt: T y w 2 1 w w 1 2 y versteckter Faktor Faktoranalyse: Netzwerk, das Daten () aus verstecktem Faktor (y) generiert: g 1 g 2 y versteckter Faktor 1 g1 1 gy ; y, 2 g2 2 mit Gauss ches Rauschen 1 und 1 Faktoranalyse: Suche Faktor g und Faktorladungen y, so dass die Daten durch gy approimiert werden. am besten Lösung: g = Hauptkomponente w, Faktorladungen y = Projektionen von auf g. Beweis: w w T =1, und somit gy = gw T = ww T =. Beispiel: X... ; g w ; gy X y wx (Gemäss vorhergehende Seite ist: X WY ) ;

10 Versteckter Faktor als internes Modell Erkennungs-Netzwerk und Generations-Netzwerk interagieren im Erkennungsprozess g 1 y y=versteckter Faktor = w internes Modell für 2 Bottom-Up g 2 g y erwarteter Vektor Top-Down Wach-Schlaf-Algorithmus zum Lernen des Erkennungs- und Generations-Netzwerks: Wach-Phase: Präsentation von, Berechnung von y=w T, Anpassen von g gemäss: g( t 1) g(t) ( gy)y Schlaf-Phase: Wahl von y, Berechnung von =gy, Anpassen von w gemäss: w ( t 1) w(t) (y w) Vorteil gegenüber Oja s Regel: Benützt nur Delta-Regel, biologisch plausibler, erklärt topdown gesteuerte Erwartungshaltung und Wahrnehmungsillusionen. Sensorische Informationsverarbeitung: Zusammenfassung Rezeptives Feld (RF) Ganglionzelle (Retina) Sensorisches Areal Frontallappen Datenkompression durch Merkmals-Etraktion (mit geeigneten RF ern=lokale Kanten verschiedener Orientierungen) Hebb sches Lernen Merkmale = Hauptkomponenten = RF laterale Inhibition Dekorrelation Hauptkomponenten höherer Ordnung Merkmalskarten, Klassifikation internes Modell (versteckte Faktoren)

Visuelles System Von der retinalen Aktivität zum visuellen Eindruck

Visuelles System Von der retinalen Aktivität zum visuellen Eindruck Visuelles System Von der retinalen Aktivität zum visuellen Eindruck INNG.d, 17. 9. 2002, W. Senn http://www.cns.unibe.ch/~wsenn/#teaching Prinzipien der visuellen Wahrnehmung topdown Projektionen Frontallappen:

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen

Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die

Mehr

Vorlesung 11. Unüberwachtes Lernen II

Vorlesung 11. Unüberwachtes Lernen II Vorlesung 11 Unüberwachtes Lernen II Martin Giese Martin.giese@uni-tuebingen.de Übersicht Diskriminanzanalse Lernen spärlicher Repräsentationen Nichtnegative Matrifaktorisierung (NMF I. Diskriminanzanalse

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse)

Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Principal Component Analysis (PCA) (aka Hauptkomponentenanalyse) Seminar für Statistik Markus Kalisch 25.11.2014 1 Unsupervised Learning Supervised Learning: Erkläre Zielgrösse durch erklärende Variablen

Mehr

Entstehung rezeptiver Felder

Entstehung rezeptiver Felder Entstehung rezeptiver Felder 30.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche Struktur von

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

Parallelverarbeitung von Farbe, Bewegung, Form und Tiefe

Parallelverarbeitung von Farbe, Bewegung, Form und Tiefe Grundlagen der Allgemeinen Psychologie: Wahrnehmungspsychologie Herbstsemester 2011 10.10.2011 (aktualisiert) Prof. Dr. Adrian Schwaninger Überblick Wahrnehmung: Sinnesorgane Prozesse und Grundprinzipien

Mehr

Aufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9

Aufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9 Aufrechterhaltung der Retinotopie Bear 10.14; Kandel 27-9 Antwortcharakteristik einer Simple cell Rezeptives Feld: On off Bear 10.21 Bevorzugte Antwort auf Lichtbalken Bestimmter Orientierung Simple cell

Mehr

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum

Mehr

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale

Mehr

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger Einleitung WS 2001/2002 Adrian Schwaninger Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle Diskussion Gesichterwahrnehmung

Mehr

Neuronale Codierung und Mustererkennung

Neuronale Codierung und Mustererkennung Neuronale Codierung und Mustererkennung Frühe vs. späte Stadien der neuronalen Objekterkennung Bottom-up (stimulusgesteuerte) vs. Top-down (konzeptuell beeinflusste) Prozesse Ein Beispiel für Top-down

Mehr

Allgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Allgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Allgemeine Psychologie I Vorlesung 4 Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg 1 Björn Rasch, Vorlesung Allgemeine Psychologie Uni FR Spezifität von Nervenzellen

Mehr

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1 EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:

Mehr

Hauptkomponentenanalyse. Principal Component Analysis (PCA)

Hauptkomponentenanalyse. Principal Component Analysis (PCA) Hauptkomponentenanalyse Principal Component Analysis (PCA) Principal Component Analysis (PCA) Welche Ziele verfolgt man bei der Verwendung einer PCA? Repräsentation multidimensionaler Daten mit einer geringeren

Mehr

Topologische Objektrepräsentationen und zeitliche Korrelation

Topologische Objektrepräsentationen und zeitliche Korrelation Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation

Mehr

Lossy Bildkompression: Techniken und Bildqualität

Lossy Bildkompression: Techniken und Bildqualität Lossy Bildkompression: Techniken und Bildqualität Brigitte Forster Zentrum Mathematik, Technische Universität München, und Institut für Biomathematik und Biometrie, Helmholtz-Zentrum München Konsensuskonferenz:

Mehr

6 Neuronale Modellierung: Der STAA-Ansatz

6 Neuronale Modellierung: Der STAA-Ansatz Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und

Mehr

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen

Mehr

Mittelfristige Tide- und Seegangsmodellierung für das Einzugsgebiet des Norderneyer Seegats

Mittelfristige Tide- und Seegangsmodellierung für das Einzugsgebiet des Norderneyer Seegats Mittelfristige Tide- und Seegangsmodellierung für das Einzugsgebiet des Norderneyer Seegats Ralf Kaiser, Agnieszka Herman & Hanz D. Niemeyer Niedersächsischer Landesbetrieb für Wasserwirtschaft, Küsten-

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

Spektralanalyse physiologischer Signale

Spektralanalyse physiologischer Signale Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 11 Aktionspotential zeigt Membranpotential in der Zellmembran, doch was sieht man ausserhalb? einzelne Synapse Summe von synaptischen

Mehr

Computergraphik II. Level-of-Detail. Oliver Deussen Level-of-Detail 1

Computergraphik II. Level-of-Detail. Oliver Deussen Level-of-Detail 1 Level-of-Detail Oliver Deussen Level-of-Detail 1 Motivation: Scanner und andere Meßgeräte liefern b-reps mit hohen Auflösungen Beispiel: 3D-Abtastung einer Karosserie ergibt 30 Mio Dreiecke Probleme: ineffizient

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection

Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection P. Belhumeur, J. Hespanha, D. Kriegman IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7, July

Mehr

Earth Magnetic Field. Climate. Sediments. endogene processes (e.g. bio-activity) magnetization. exogene processes (e.g.

Earth Magnetic Field. Climate. Sediments. endogene processes (e.g. bio-activity) magnetization. exogene processes (e.g. Independent Component Analysis (ICA) und ihre Möglichkeiten in den Geowissenschaften Norbert Marwan Arbeitsgruppe Nichtlineare Dynamik Universität Potsdam Inhalt 1. Motivation 2. Independent Component

Mehr

Farbwahrnehmung. } Unterscheidung von Licht verschiedener Wellenlängen. Björn Rasch Vorlesung Allg. Psychologie Uni FR

Farbwahrnehmung. } Unterscheidung von Licht verschiedener Wellenlängen. Björn Rasch Vorlesung Allg. Psychologie Uni FR Farbwahrnehmung } Unterscheidung von Licht verschiedener Wellenlängen } primär durch die 3 Zapfentypen mit max. Empfindlichkeit für verschiedene Wellenlängen } K-Zapfen: kurzwelliges Licht (ca. 420 nm,

Mehr

7. Unüberwachte Lernverfahren

7. Unüberwachte Lernverfahren 7. Unüberwachte Lernverfahren 1. Neuronale Merkmalskarten 2. Explorative Datenanalyse 3. Methoden zur Datenreduktion der Datenpunkte 4. Methoden zur Merkmalsreduktion der Merkmale Schwenker NI1 141 7.1

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 60 Angewandte Multivariate Statistik Principal Components Analysis Standardisierte Linearkombination

Mehr

Dynamische Systeme in der Biologie: Beispiel Neurobiologie

Dynamische Systeme in der Biologie: Beispiel Neurobiologie Dynamische Systeme in der Biologie: Beispiel Neurobiologie Caroline Geisler geisler@lmu.de April 18, 2018 Elektrische Ersatzschaltkreise und Messmethoden Wiederholung: Membranpotential Exkursion in die

Mehr

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle

Mehr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 12. Juli 2011 Gesichtserkennung Begriffsunterscheidung: Lokalisation eines Gesichts im Bild Zuordnung des Gesichts zu einer bestimmten Person Technische

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:

Mehr

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale

Mehr

3.7 Eigenwerte und Eigenvektoren

3.7 Eigenwerte und Eigenvektoren 3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Hauptkomponenten-basierte Klassifikationsverfahren (PCA)

Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Hauptkomponenten-basierte Klassifikationsverfahren (PCA) Projektseminar: Wetterlagen und Feinstaub - Übung Dozent: Claudia Weitnauer Referent: Esther Oßwald, Julian Dare Datum: 30.05.2011 Übersicht 1 Einleitung

Mehr

Exkurs: Eigenwertproblem

Exkurs: Eigenwertproblem 1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor

Mehr

Visuelle Wahrnehmung I

Visuelle Wahrnehmung I Visuelle Wahrnehmung I Licht: physikalische Grundlagen Licht = elektromagnetische Strahlung Nur ein kleiner Teil des gesamten Spektrums Sichtbares Licht: 400700 nm Licht erst sichtbar, wenn es gebrochen

Mehr

PCA based feature fusion

PCA based feature fusion PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05 Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2 Motivation: PCA

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:

Mehr

Einführung in die Hauptkomponentenanalyse

Einführung in die Hauptkomponentenanalyse Einführung in die Hauptkomponentenanalyse Florian Steinke 6. Juni 009 Vorbereitung: Einige Aspekte der multivariaten Gaußverteilung Definition.. Die -D Gaußverteilung für x R ist ( p(x exp (x µ σ. ( Notation:

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Sensorische Erregung und Wahrnehmung II: Photorezeption und Sehsystem

Sensorische Erregung und Wahrnehmung II: Photorezeption und Sehsystem Sensorische Erregung und Wahrnehmung II: Photorezeption und Sehsystem Inhalt: 1. Sehvorgang und Auge 2. Informationsverarbeitung in der Retina 3. Sehbahn zum visuellen Kortex 4. Regulation von Augenbewegungen

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG SEMINAR AUTOMATISCHE GESICHTSERKENNUNG OBERSEMINAR AUTOMATISCHE ANALYSE VON GESICHTSAUSDRÜCKEN Organisation, Überblick, Themen Überblick heutige Veranstaltung 1. Organisatorisches 2. Überblick über beide

Mehr

VL.4 Prüfungsfragen:

VL.4 Prüfungsfragen: VL.4 Prüfungsfragen: 1. Skizzieren Sie eine chemische Synapse mit allen wesentlichen Elementen. 2. Skizzieren Sie eine elektrische Synapse mit allen wesentlichen Elementen. 3. Welche Art der Kommunikation

Mehr

Allgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Allgemeine Psychologie I. Vorlesung 4. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Allgemeine Psychologie I Vorlesung 4 Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg 1 Allgemeine Psychologie I Woche Datum Thema 1 FQ 20.2.13 Einführung, Verteilung der

Mehr

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln. Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Gliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung

Gliederung: 1) Einleitung 2) Oberflächenvergleich 3) Objekterkennung Using Spin Images for Efficient Object Recogition in Cluttered 3D Scenes (Effiziente Objekterkennung von ungeordneten 3D Szenen mithilfe von Spin Images) Gliederung: 1) Einleitung 2) Oberflächenvergleich

Mehr

Allgemeine Psychologie: Sinnesphysiologie. Sommersemester 2008. Thomas Schmidt

Allgemeine Psychologie: Sinnesphysiologie. Sommersemester 2008. Thomas Schmidt Allgemeine Psychologie: Sinnesphysiologie Sommersemester 2008 Thomas Schmidt Folien: http://www.allpsych.uni-giessen.de/thomas Literatur Rosenzweig et al. (2005), Ch. 8-10 Sinnesphysiologie Prinzipien

Mehr

Selbstständiges Lernen

Selbstständiges Lernen Kapitel 5 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010

Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010 Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010 Datum: 23.02.2010 Vorname: Name: Matrikelnummer: Geburtsdatum: Studiengang: Als BSc bearbeiten Sie bitte

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Messen optischer Größen, Messen aus Bildern Übersicht Optische Strahlung, Sensorik Geometrie, Photogrammetrie Kamerakalibrierung Stereo

Messen optischer Größen, Messen aus Bildern Übersicht Optische Strahlung, Sensorik Geometrie, Photogrammetrie Kamerakalibrierung Stereo Messen optischer Größen, Messen aus Bildern Übersicht Optische Strahlung, Sensorik Geometrie, Photogrammetrie Kamerakalibrierung Stereo Menschliche Wahrnehmung Neurophysiologie Kognitive Psychologie Digitale

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Protokoll. Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster

Protokoll. Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster Protokoll Messung des Visuellen Auflösungsvermögens durch Bestimmung der Modulationsübertragungsfunktion (MÜF) mit dem Campbell Muster 1. Einleitung: Die Linsenaugen des Menschen können als eine Art Verlängerung

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

Physiologie des Auges

Physiologie des Auges Grundlagen der Allgemeinen Psychologie: Wahrnehmungspsychologie Herbstsemester 2009 28.09.2009 (aktualisiert) Prof. Dr. Adrian Schwaninger Überblick Wahrnehmung: Sinnesorgane Prozesse und Grundprinzipien

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R. Käppeli L. Herrmann W. Wu Herbstsemester 16 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Prüfung Name a a Note Vorname Leginummer Datum 18.8.17 1 3 4 Total 1P 1P 1P 1P 1P P

Mehr

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg, Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie

Mehr

Biologische Psychologie I

Biologische Psychologie I Biologische Psychologie I Kapitel 7 Mechanismen der Wahrnehmung, des Bewusstseins und der Aufmerksamkeit Organisationsprinzipien eines sensorischen Systems: Primärer und sekundärer sensorischer Kortex

Mehr

Lineare Algebra II 3. Übungsblatt

Lineare Algebra II 3. Übungsblatt Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome

Mehr

Einführung in SPSS. Sitzung 5: Faktoranalyse und Mittelwertsvergleiche. Knut Wenzig. 22. Januar 2007

Einführung in SPSS. Sitzung 5: Faktoranalyse und Mittelwertsvergleiche. Knut Wenzig. 22. Januar 2007 Sitzung 5: Faktoranalyse und Mittelwertsvergleiche 22. Januar 2007 Verschiedene Tests Anwendungsfall und Voraussetzungen Anwendungsfall Mehrere Variablen, die Gemeinsamkeiten haben, werden gebündelt. (Datenreduktion)

Mehr

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin

JPEG, MPEG & Co. Alex Titze Angewandte Informatik FHTW-Berlin Referat KIM Alex Titze Angewandte Informatik FHTW-Berlin 76900504811 Einleitung JPEG Geschichte & Überblick Komprimierungsablauf Farbformat DCT (Diskrete Cosinus Transformation) Quantisierung Koeffizientenkodierung

Mehr

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( )

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( ) Abb. 5.0: Funktion und Tangentialebene im Punkt Aus der totalen Differenzierbarkeit folgt sowohl die partielle Differenzierbarkeit als auch die Stetigkeit von : Satz 5.2: Folgerungen der totalen Differenzierbarkeit

Mehr

9. Vorlesung Lineare Algebra, SVD und LSI

9. Vorlesung Lineare Algebra, SVD und LSI 9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lösung zu Kapitel 11: Beispiel 2

Lösung zu Kapitel 11: Beispiel 2 Lösung zu Kapitel 11: Beispiel 2 Die Daten beziehen sich auf 48 Bewerbungen um eine Position in einem Unternehmen. Diese Bewerbungen wurden anhand von 15 Variablen bewertet (Datenfile: bewerbung.csv).

Mehr

P.H.Lindsay D.A.Norman. Psychologie. Informationsaufnahme und -Verarbeitung beim Menschen

P.H.Lindsay D.A.Norman. Psychologie. Informationsaufnahme und -Verarbeitung beim Menschen P.H.Lindsay D.A.Norman Einführung in die Psychologie Informationsaufnahme und -Verarbeitung beim Menschen Übersetzt von H.-D. Dumpert F. Schmidt M. Schuster M. Steeger Mit 309 Abbildungen Springer-Verlag

Mehr

Übungen zur Linearen Algebra II, Sommersemester Test, , Gruppe A: Lösung

Übungen zur Linearen Algebra II, Sommersemester Test, , Gruppe A: Lösung Aufgabe. (5 Punkte) Matrix A C 3 3 : Übungen zur Linearen Algebra II, Sommersemester 0. Test, 9.5.0, Gruppe A: Lösung Bestimmen Sie alle Eigenwerte und Eigenräume der folgenden 8 A 9 6 3 9 Lösung: Charakteristisches

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Biopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS

Biopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS 1 1 25.10.06 Biopsychologie als Neurowissenschaft 2 8.11.06 Evolutionäre Grundlagen 3 15.11.06 Genetische Grundlagen 4 22.11.06 Mikroanatomie des NS 5 29.11.06 Makroanatomie des NS: 6 06.12.06 Erregungsleitung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es?

Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Nennen Sie zwei genetische Faktoren, die zu einer Hirnschädigung führen können. Geben Sie je ein Beispiel

Mehr

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den

Mehr