Neuroinformatik II. Günther Palm und Friedhelm Schwenker Institut für Neuroinformatik
|
|
- Curt Keller
- vor 6 Jahren
- Abrufe
Transkript
1 Neuroinformatik II Günther Palm und Friedhelm Schwenker Institut für Neuroinformatik Vorlesung (3h) Übungen (1h): Di, Fr Uhr H21 (1.Übung: ) Schein: 50% der Punkte (6 übungsblätter) + aktive Übungsteilnahme; Bonusregel gilt! Kernfächer/-module: Mathematische und theoretische Methoden der Informatik, Praktische Informatik Vertiefungsfach/-module: Neuroinformatik, Mustererkennung Projektmodul: Neuroinformatik
2 Inhalt der Vorlesung 1. Biologische Grundlagen; Kanalmodell und Linearisierung 2. Stabilität in Neuronalen Netzen 3. Lernen in Einschichtnetzen: Perzeptron, Assoziativspeicher, Pseudoinverse, Supportvektor-Lernen, PCA 4. Lernen in Mehrschichtnetzen: MLP, RBF-Interpolation, nichtlineare SVM 5. Darstellung mit NN: Satz von Cover, Satz von Cybenko bzw. Hornik 6. Komplexität der Netze und des Lernens: neuronale Schaltungen, NP- Vollständigkeit 7. Robustheit, Generalisierung und Bias-Varianz-Zerlegung
3 Modellierung neuronaler Netze 1. Biologische Grundlagen 2. Allgemeines Kanalmodells 3. Vereinfachte Neuronenmodelle 4. Linearisierung
4 Der Kortex des menschlichen Gehirns mit seinen Arealen.
5 Hauptbestandteile eines typischen Neurons sind: Dendriten bzw. Dendritenbaum Zellkörper (Soma) Nervenfaser (Axon) mit dem axonalen Baum Dendriten(baum) Axonhügel Zellkörper mit Zellkern axonale Endknöpfchen mit Synapsen Axon Synapse mit der prä- und postsynaptischen Membran.
6 Ausschüttung der Neurotransmittermoleküle in den synaptischen Spalt. ankommendes Aktionspotential Axonendigung Vesikel mit Transmittermolekülen Transmittermolekül präsynaptische Membran postsynaptische Membran mit Rezeptoren für die Transmittermoleküle
7 Zellmembran - offene und verschließbare Ionenkanäle sind gezeigt Ionen offener Kanal geschlossener Kanal Außenseite der Zellmembran Zellmembran Innenseite der Zellmembran Typische Ionenkonzentrationen (für (Tintenfisch-)Axon in Millimol/Liter) Typ innen außen K Cl Na
8 Aktionspotential mv t Schwelle Ruhepotential außen Membran innen Na + K + außen Membran innen
9 Räumlich/zeitliche Summation auf dem Dendritenbaum 4 3 hemmende Synapse 0 1 erregende Synapsen 2 mv räumliche Summation -60 EPSP IPSP (jeweils Nummern der Synapsen) zeitliche Summation (nur eine Synapse z. B. Nr. 1 beteiligt) mv Schwelle Ruhepotential Zeit -60 Schwelle -70 Ruhepotential Zeit Zeitpunkte der Spikes
10 Dynamik der neuronalen Verarbeitung Summation am Zellkörper Aktionspotentiale der vorgeschalteten Neuronen führen zu Potentialveränderungen am Dendritenbaum/Zellkörper. Räumlich/zeitliche Summation findet statt. Auslösung eines Aktionspotentials Ändert sich das Membranpotential am Zellkörper nur schwach, wird kein Aktionspotential ausgelöst (unterschwelligen Erregung). Bei hinreichend starker Depolarisation der Membran wird im Bereich des Axonhügels ein Aktionspotential ausgelöst. Ausbreitung des Aktionspotentials Das Aktionspotential breitet über das Axonsbis in den axonalen Baum aus (mit konstanter Amplitude). Synaptische Übertragung Das Aktionspotential führt in den axonalen Endknöpfchen zu einer Ausschüttung von Neurotransmittern, welche auf der postsynaptischen Membran zu einer Änderung des Membranpotentials führen.
11 Computer Neuronale Netze kaum fehlertolerant fehlertolerant, robust gegenüber verrauschten oder widersprüchlichen Daten Hardwarestörungen bzw. -ausfall führen zum Totalausfall des Gesamtsystems explizite Programmierung wenige, aber komplexe Prozessoren (typischerweise 10 0 ) niedriger Vernetzungsgrad (Verbindungen 10 2 am Prozessor) Schaltzeiten der Prozessoren sind kurz (heute im 10 8 Hz-Bereich) Störung an einzelnen Neuronen oder der Ausfall von Neuronen bedeutet kein Totalausfall, das Gesamtsystem funktioniert mit eingeschränkter Funktionalität weiter Lernen durch Beispiele sehr viele einfache Neuronen (im menschlichen Gehirn ca ) hoher Vernetzungsgrad (bis zu 10 4 Synapsen pro Neuron) Schalt und Laufzeiten der Neuronen sind lang (im 10 2 Hz-Bereich)
12 Modellvoraussetzungen I = {1,...,N} die Menge der Neuronen. Jedes Neuron j ist von einem bestimmten (Membran-)Typ l und einem bestimmten (Übertragungs-)Kanaltyp k. τ l > 0 Zeitkonstante und ϑ l : R + R + die Schwellenfunktion für den Membrantyp l. r k : R + R + die Responsefunktion und U k Umkehrpotentiale für den Übertragungskanaltyp k. C = (c ij ) synaptische Kopplungsmatrix und D = (d ij ) Matrix der Delays.
13 Neuronenmodelle (1) Dendritisches Potential u j des Neurons j vom Membrantyp l τ l u j (t) = u j (t) + k a k j(t)(u k u j (t)) + x j (t) (V) Variante: u j wird nach Spike von j auf Ruhepotential U 0 gesetzt. (2) Gesamtinputaktivität a k j im Übertragungskanal k des Neurons j a k j(t) = i I k a ij (t) I k Neuronen vom Kanaltyp k Übertragene Aktivität a ij vom Neuron i zum Neuron j im Kanal k a ij (t) = s T i t r k (t (s + d ij ))c ij = s<t r k (t (s + d ij ))y i (s)c ij
14 (3) Outputaktivität y j des Neurons j y j (t) = 1 [uj (t) θ j (t)] (4) Schwellenfunktion θ j und Spikezeitpunkte T j t von Neuron j (vom Membrantyp l) θ j (t) = max s T j t ϑ l (t s) T j t = {s < t y j (s) = 1} (5) Diskretisierung von (1) mit l := t τ l und l (0,1] u j (t + t) = (1 l) u j (t) + l a k j(u k u j (t)) + lx j (t) k
15 Vereinfachungen a) Response Funktion durch Gesamtwirkung w ij beschreiben: (2 ) a k j(t) = i I k w ij y i (t d ij ) b) U k u ersetzen durch U k (unterhalb der Schwelle ist u klein): (1 ) τ l u j (t) = u j (t) + k a k j(t)u k + x j (t) Mit (2 ) folgt: (1 ) τ l u j (t) = u j (t) + i w ij y i (t d ij ) + x j (t) c) Einfache zweiwertige Schwellenfunktion ϑ(t) {ϑ ref, ϑ rest }.
16 d) Schwellenmechanismus (mit ϑ l ) durch Ratenfunktion f l ersetzen: e) Alle Delays = 1; alle Delays = 0. (3 ) y j (t) = f l (u j (t))
17 Bezeichnungen Kanalmodell: Gleichungen 1, 2, 3 und 4 Spike-Response-Modell: 1, 2, 3 und 4 Dynamic-Threshold-Modell: 1, 2,3 und 4 Integrate-and-Fire-Modell: 1 Schwelle (d) mit Variante (V), 3, 4 und mit einfacher Ratenmodell: 1,2 und 3 Grundmodell: 1 und 3 Lineares Modell: 1, 3 und mit linearer Ratenfunktion f Einfaches lineares Modell: 1, 3, Delays alle = 0 und mit linearer Ratenfunktion f
18 Suche nach quasi-stationäre Lösungen 1. Ratenfunktion f l (u) aus Schwellenfunktion ϑ l (t) bestimmen. y j = f l (u j ) = 1 ϑ 1 l (u j ) für j vom Membrantyp l 2. Gesamtwirkung ˆr k := r k (t)dt aus der Responsefunktion r k (t). Diese beiden Vereinfachungen ergeben das Grundmodell mit: a k j = i I k ˆr k y i c ij = i I k ˆr k f li (u i ) c ij l i Membrantyp des Neurons i.
19 3. Berechnung der Fixpunkte mit dem Ansatz 0 u j 0 τ k u j = u j + k a k j (U k u j ) + x j u j x j + k ak j U k 1 + k ak j 4. Linearisierung ergibt ein homogenes einfaches lineares Modell DGL des dendritischen Potentials lautet mit den Vereinfachungen: τ l u j = u j + X X (U k u j )ˆr k f li (u i )c ij + x j (1) k i I k Betrachten nun DGL für u j = u j + e j : τ l ( u j + ė j ) = (u j + e j ) + X X (U k (u j + e j ))ˆr k f li (u i + e i )c ij + x j (2) k i I k Nun setzen wir ein f li (u i + e i ) f li (u i ) + e i f l (u i ) i τ l ( u j + ė j ) = (u j + e j ) + x j + X X (U k (u j + e j ))ˆr k (f li (u i ) + e i f l (u i ))c ij i k i I k
20 τ l ( u j + ė j ) = (u j + e j ) + x j + X X (U k u j )ˆr k f li (u i )c ij k i I k + X X (U k u j )ˆr k e i f l (u i )c ij i k i I k X X X X e jˆr k f li (u i )c ij e jˆr k e i f l (u i )c ij i k i I k i I k k Die Summanden P k ˆr P k i I e j e i f k l (u i )c ij sind quadratisch in den Störungstermen e j i und können bei der Linearisierung vernachlässigt werden: τ l ė j = e j + X k (U k u j )ˆr k X i I k e i f l i (u i )c ij e j X X ˆr k k i I k f li (u i )c ij Mit C ij = ˆr k f li (u i )c ij und Ĉij = (U k u j )ˆr k f l i (u i )c ij folgt die lineare DGL: X X X X τ l ė j = e j e j C ij + Ĉ ij e i i I k i I k k k
21 Insgesamt erhält man ein homogenes lineares System von DGl 1. Ordnung der Form ė = Ae mit e = (e 1,...e n ) T, ė = (ė 1,...ė n ) T und mit der reellen n n Matrix A = (a ij ) definiert durch a jj = 1 τ l (1 + k i I k C ij ) und a ji = 1 τ l k i I k Ĉ ij, i j Stabilität dieses Systems ist zu untersuchen. Wir betrachten dafür einfache lineare neuronale Netze.
22 Lineare neuronale Netze Wir untersuchen das System von n linearen Modellneuronen: τ u j = u j + x j + n c ij u i i=1 j = 1,...,n Für Modelle ohne externen Input, also x j = 0, erhalten wir ein homogenes DGL-System τ u = u + uc = u(c Id) mit Einheitsmatrix Id. Also u = Au mit A = 1 τ (CT Id).
23 Lösungsansatz für komplexe Lösungen lautet: u(t) = ve λt mit λ C und v C n. Hierfür muss gelten Au = Ave λt = u = vλe λt also muss Av = λv gelten, d.h. λ C Eigenwert mit zugehörigem Eigenvektor v C n der reellen n n Matrix A Für eine n n Matrix A sind die Nullstellen des charakteristischen Polynoms p A (λ) = det(a λid) Für Eigenwert λ von A bestimmt man zugehörige Eigenvektoren v durch Lösen des LGS: (A λid)v = 0 Es gelten
24 Falls u Lösung von u = Au, dann ist auch ū Lösung denn: ū = u = Au = Aū da A eine reelle Matrix ist. Falls u 1,u 2 Lösung von u = Au und a 1,a 2 C dann ist auch a 1 u 1 + a 2 u 2 Lösung denn: (a 1 u 1 + a 2 u 2 ) = a 1 u 1 + a 2 u 2 = a 1 Au 1 + a 2 Au 2 = A(a 1 u 1 + a 2 u 2 ) Falls u Lösung von u = Au, dann sind auch Re(u) und Im(u) Lösungen, denn Re(u) = 1 2 (u + ū) und Im(u) = 1 (u ū) 2i Explizite Darstellung von Real- und Imaginärteil sind: Re(u) = e ut (a cos(νt) b sin(νt))
25 und Im(u) = e ut (a sin(νt) + b cos(νt)) hierbei sei λ = µ + iν und v = a + ib mit µ, ν R und a, b R n. Das System u = Au ist stabil bei t genau dann wenn für alle Eigenwerte λ C negative Realteile besitzen.
26 Diskretes lineares Modell Wir betrachten nun das zeitlich diskretisierte Modell für j = 1,...,n, t > 0 τ u j(t + t) u j (t) n = u j (t) + x j (t) + c ij u i (t) t Also mit = t/τ i=1 u j (t + t) = (1 )u j (t) + x j (t) + n c ij u i (t) i=1 in Matrixnotation erhalten wir u(t + t) = (1 )u(t) + x(t) + u(t)c mit F = (1 )Id + C folgt: u(t + t) = u(t)f + x(t)
27 Hieraus folgt: u(0) = u 0 u( t) = u 0 F + x(0) u(2 t) = u 0 F 2 + x(0)f + x(1) u(3 t) = u 0 F 3 + x(0)f 2 + x(1)f + x(2) Induktiv folgt für k > 0: u(k t) = u 0 F k + k 1 x(i)f k (i+1) i=1
28 Falls x(t) = 0 für alle t so folgt: u(k t) = u 0 F k Falls der Input konstant ist, also x(t) = x R n für alle t so folgt: u(k t) = u 0 F k + x k 1 i=1 F k (i+1) Falls für alle Eigenwerte λ von F gilt λ < 1 so gilt u(n t) 0 bei t.
Neuroinformatik I. Günther Palm Friedhelm Schwenker Abteilung Neuroinformatik
Neuroinformatik I Günther Palm Friedhelm Schwenker Abteilung Neuroinformatik Vorlesung: Do 10-12 Uhr Raum H21 / Übung: Fr 12-14 Raum 121 und 122 Übungsaufgaben sind schriftlich zu bearbeiten (Schein bei
MehrTheorie neuronaler Netze
Theorie neuronaler Netze Friedhelm Schwenker October 16, 2012 Organisation Vorlesung (3h) mit Übung (1h) Mi 12-14 H21 und Fr 10-12 Uhr 123 MatLab: 19.10.2012 1. Übung: 9.11.2012 Schein: 50% der Punkte
MehrC1/4 - Modellierung und Simulation von Neuronen
C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation
MehrExzitatorische (erregende) Synapsen
Exzitatorische (erregende) Synapsen Exzitatorische Neurotransmitter z.b. Glutamat Öffnung von Na+/K+ Kanälen Membran- Potential (mv) -70 Graduierte Depolarisation der subsynaptischen Membran = Erregendes
MehrErregungsübertragung an Synapsen. 1. Einleitung. 2. Schnelle synaptische Erregung. Biopsychologie WiSe Erregungsübertragung an Synapsen
Erregungsübertragung an Synapsen 1. Einleitung 2. Schnelle synaptische Übertragung 3. Schnelle synaptische Hemmung chemische 4. Desaktivierung der synaptischen Übertragung Synapsen 5. Rezeptoren 6. Langsame
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrVorlesung Einführung in die Biopsychologie. Kapitel 4: Nervenleitung und synaptische Übertragung
Vorlesung Einführung in die Biopsychologie Kapitel 4: Nervenleitung und synaptische Übertragung Prof. Dr. Udo Rudolph SoSe 2018 Technische Universität Chemnitz Grundlage bisher: Dieser Teil nun: Struktur
Mehrabiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung
abiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung Bau Nervenzelle Neuron (Nervenzelle) Dentrit Zellkörper Axon Synapse Gliazelle (Isolierung) Bau Nervenzelle Bau Nervenzelle Neurobiologie
MehrBK07_Vorlesung Physiologie. 05. November 2012
BK07_Vorlesung Physiologie 05. November 2012 Stichpunkte zur Vorlesung 1 Aktionspotenziale = Spikes Im erregbaren Gewebe werden Informationen in Form von Aktions-potenzialen (Spikes) übertragen Aktionspotenziale
MehrPassive und aktive elektrische Membraneigenschaften
Aktionspotential Passive und aktive elektrische Membraneigenschaften V m (mv) 20 Overshoot Aktionspotential (Spike) V m Membran potential 0-20 -40 Anstiegsphase (Depolarisation) aktive Antwort t (ms) Repolarisation
MehrBiopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS
1 1 25.10.06 Biopsychologie als Neurowissenschaft 2 8.11.06 Evolutionäre Grundlagen 3 15.11.06 Genetische Grundlagen 4 22.11.06 Mikroanatomie des NS 5 29.11.06 Makroanatomie des NS: 6 06.12.06 Erregungsleitung
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrÜbertragung zwischen einzelnen Nervenzellen: Synapsen
Übertragung zwischen einzelnen Nervenzellen: Synapsen Kontaktpunkt zwischen zwei Nervenzellen oder zwischen Nervenzelle und Zielzelle (z.b. Muskelfaser) Synapse besteht aus präsynaptischen Anteil (sendendes
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform
MehrPostsynaptische Potenziale
Postsynaptisches Potenzial Arbeitsblatt Nr 1 Postsynaptische Potenziale Links ist eine Versuchsanordnung zur Messung der Membranpotenziale an verschiedenen Stellen abgebildet. Das Axon links oben wurde
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrNeuronale Signalverarbeitung
neuronale Signalverarbeitung Institut für Angewandte Mathematik WWU Münster Abschlusspräsentation am 08.07.2008 Übersicht Aufbau einer Nervenzelle Funktionsprinzip einer Nervenzelle Empfang einer Erregung
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Mehr3. Neuronenmodelle. 1. Einleitung zur Modellierung. 2. Hodgkin-Huxley-Modell. 3. Grundmodell in kontinuierlicher und diskreter Zeit
3. Neuronenmodelle 1. Einleitung zur Modellierung 2. Hodgkin-Huxley-Modell 3. Grundmodell in kontinuierlicher und diskreter Zeit 4. Transferfunktionen (Kennlinien) für Neuronen 5. Neuronenmodelle in Anwendungen
MehrÜbung 6 Vorlesung Bio-Engineering Sommersemester Nervenzellen: Kapitel 4. 1
Bitte schreiben Sie Ihre Antworten direkt auf das Übungsblatt. Falls Sie mehr Platz brauchen verweisen Sie auf Zusatzblätter. Vergessen Sie Ihren Namen nicht! Abgabe der Übung bis spätestens 21. 04. 08-16:30
MehrMathematische Methoden in der Systembiologie Universität Heidelberg, Sommer 2017
Mathematische Methoden in der Systembiologie Universität Heidelberg, Sommer 2017 Dozent: Dr. M. V. Barbarossa (barbarossa@uni-heidelberg.de) Vorlesung+ Übung: Mo/Mi/Fr. 8:15-9:45Uhr, SR 1, INF 205 Termin
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
Mehr8. Übungsblatt Aufgaben mit Lösungen
8 Übungsblatt Aufgaben mit Lösungen Aufgabe 6: Matrix Bestimmen Sie die allgemeine reelle Lösung des Differentialgleichungssystems u x = Aux für die A =, 9 indem Sie das System auf eine einzelne gewöhnliche
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrLineare Differenzialgleichungen n-ter Ordnung mit konstanten Koeffizienten
Lineare Differenzialgleichungen n-ter Ordnung mit konstanten Koeffizienten Wir betrachten nun Lu = u (n) + a n 1 u (n 1) +... + a 1 u + a 0 u = b(t) wobei a 0, a 1,..., a n 1 R. Um ein FS für die homogene
MehrAbbildungen Schandry, 2006 Quelle: www.ich-bin-einradfahrer.de Abbildungen Schandry, 2006 Informationsvermittlung im Körper Pioniere der Neurowissenschaften: Santiago Ramón y Cajal (1852-1934) Camillo
MehrInstitut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie
Institut für Elektrotechnik und Informationstechnik Aufgabensammlung zur Systemtheorie Prof. Dr. techn. F. Gausch Dipl.-Ing. C. Balewski Dipl.-Ing. R. Besrat 05.04.2013 Übungsaufgaben zur Systemtheorie
Mehr4 Eigenwerte und Eigenvektoren
4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ
MehrAufbau und Funktionweise der Nervenzelle - Wiederholung Vorlesung -
Aufbau und Funktionweise der Nervenzelle - Wiederholung Vorlesung - Fragen zur Vorlesung: Welche Zellen können im Nervensystem unterschieden werden? Aus welchen Teilstrukturen bestehen Neuronen? Welche
MehrSynaptische Verschaltung
Synaptische Verschaltung 16.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ 15246.html Vorläufiges Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche
Mehr1 Bau von Nervenzellen
Neurophysiologie 1 Bau von Nervenzellen Die funktionelle Einheit des Nervensystems bezeichnet man als Nervenzelle. Dendrit Zellkörper = Soma Zelllkern Axon Ranvier scher Schnürring Schwann sche Hüllzelle
MehrLineare Differenzengleichungen
Lineare Differenzengleichungen Die Fibonacci-Zahlen F n sind definiert durch F 0 = 0 F 1 = 1 F n = F n 1 +F n 2 für n >= 2 Die letzte Zeile ist ein Beispiel für eine homogene lineare Differenzengleichung
MehrUnterschied zwischen aktiver und passiver Signalleitung:
Unterschied zwischen aktiver und passiver Signalleitung: Passiv: Ein kurzer Stromimpuls wird ohne Zutun der Zellmembran weitergeleitet Nachteil: Signalstärke nimmt schnell ab Aktiv: Die Zellmembran leitet
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von
1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
Mehr1. Kommunikation Informationsweiterleitung und -verarbeitung
1. Kommunikation Informationsweiterleitung und -verarbeitung Sinnesorgane, Nervenzellen, Rückenmark, Gehirn, Muskeln und Drüsen schaffen die Grundlage um Informationen aus der Umgebung aufnehmen, weiterleiten,
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrDifferentialgleichungen für Ingenieure WS 06/07
Differentialgleichungen für Ingenieure WS 06/07 6. Vorlesung Michael Karow Themen heute: 1. Die geschlossene Lösungsformel für lineare DGL mit konstanten Koeffizienten. 2. Die Matrixexponentialfunktion
MehrAnleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Differentialgleichungssysteme Marco Boßle Jörg Hörner Mathematik Online Frühjahr 20 PV-Kurs HM 3 DGlSysteme - Zusammenfassung Allgemeine Differentialgleichungssysteme.Ordnung
MehrKapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
MehrJordan-Form. Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform. = Q 1 AQ 0 J k J =
Jordan-Form Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform J 1 0 J =... = Q 1 AQ 0 J k transformieren. Jordan-Form 1-1 Jordan-Form Eine komplexe
MehrLineare Algebra II 6. Übungsblatt
Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
Mehr7.1. Die Rückenmarknerven (Die Spinalnerven): Siehe Bild Nervenbahnen
7. Das periphere Nervensystem: 7.1. Die Rückenmarknerven (Die Spinalnerven): Siehe Bild Nervenbahnen 7.2. Die Hirnnerven: Sie stammen aus verschiedenen Zentren im Gehirn. I - XII (Parasympathikus: 3,7,9,10)
MehrDas Wichtigste: 3 Grundlagen der Erregungs- und Neurophysiologie. - Erregungsausbreitung -
Das Wichtigste Das Wichtigste: 3 Grundlagen der Erregungs- und Neurophysiologie - Erregungsausbreitung - Das Wichtigste: 3.4 Erregungsleitung 3.4 Erregungsleitung Elektrotonus Die Erregungsausbreitung
MehrErgebnis: Allg. Lösung der homogenen DGL ist Summe über alle Eigenlösungen: mit
Zusammenfassung: Lineare DGL mit konstanten Koeffizienten (i) Suche Lösung für homogene DGL per Exponential-Ansatz: e-ansatz: Zeitabhängigkeit nur im Exponenten! zeitunabhängiger Vektor, Ergebnis: Allg.
MehrHöhere Mathematik II (Analysis) für die Fachrichtung Informatik - Lösungen
Karlsruher Institut für Technologie (KIT) Institut für Analysis Priv.-Doz. Dr. Gerd Herzog Dipl.-Math. Carlos Hauser SoSe 7 7.7.7 Höhere Mathematik II (Analysis) für die Fachrichtung Informatik - Lösungen.
MehrNeuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011
Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer
MehrOutline. 1 Anwendungen. 2 Trennung der Variablen. 3 Variation der Konstanten. 4 Differentialgleichungssysteme
Outline 1 Anwendungen 2 Trennung der Variablen 3 Variation der Konstanten 4 Differentialgleichungssysteme 5 Lösungsansatz vom Typ der rechten Seite Roman Wienands (Universität zu Köln) Mathematik II für
MehrReizleitung in Nervenzellen. Nervenzelle unter einem Rasterelektronenmikroskop
Reizleitung in Nervenzellen Nervenzelle unter einem Rasterelektronenmikroskop Gliederung: 1. Aufbau von Nervenzellen 2. Das Ruhepotential 3. Das Aktionspotential 4. Das Membranpotential 5. Reizweiterleitung
Mehry hom (x) = C e p(x) dx
Gewöhnliche Differentialgleichungen F (x, y, y,..., y n ) = 0 Gleichung, die die Veränderliche x sowie die Funktion y = y(x) und ihre Ableitungen y,..., y n beinhaltet. Klassifiaktion: implizit F (...)
MehrKapitel 11 Eigenwerte und Eigenvektoren
Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare
MehrKleine Schwingungen vieler Freiheitsgrade
Kleine Schwingungen vieler Freiheitsgrade Betrachte System mit f Freiheitsgraden: (z.b. N Teilchen in 3 Dim.: ) Koordinaten: Geschwindigkeiten: Kinetische Energie: "Massenmatrix" Nebenbemerkung: Bei fortgeschrittenen
MehrLineare Systeme 1. Ordnung mit konstanten Koeffizienten
Lineare Systeme. Ordnung mit konstanten Koeffizienten Wir betrachten ẋ = Ax + b(t) () mit A R n n und b( ) C (I, R n ) und die dazugehörige homogene Gleichung Ansatz: ẋ = Ax. () x(t) = ce λt mit c C n,
MehrDas Ruhemembranpotential eines Neurons
Das Ruhemembranpotential eines Neurons An diesem Ungleichgewicht sind 4 Arten von Ionen maßgeblich beteiligt: - Natriumionen (Na + ) (außen viel) - Kaliumionen (K + ) (innen viel) - Chloridionen (Cl -
MehrVom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?
Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
Mehr9 Lineare Differentialgleichungen
Mathematik für Ingenieure III, WS 29/2 Mittwoch.2 $Id: linear.tex,v.4 2/2/ :7:45 hk Exp hk $ 9 Lineare Differentialgleichungen 9.3 Differentialgleichungen mionstanten Koeffizienten Während sich allgemeine
MehrEigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008
Eigenwerttheorie Martin Gubisch Lineare Algebra I WS 27/28 Motivation Gegeben seien ein K-Vektorraum V der Dimension n < und eine K-lineare Abbildung f : V V Wir suchen eine Basis V = v 1,, v n von V,
MehrModulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie. Klausur zur Vorlesung: Theoretische Neurowissenschaften.
Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie Klausur zur Vorlesung: Theoretische Neurowissenschaften. SoSe 2010 Name Vorname Matrikelnummer Anmerkungen: Sie müssen die Prüfung ohne
MehrZentrales Nervensystem
Zentrales Nervensystem Funktionelle Neuroanatomie (Struktur und Aufbau des Nervensystems) Neurophysiologie (Ruhe- und Aktionspotenial, synaptische Übertragung) Fakten und Zahlen (funktionelle Auswirkungen)
MehrNervengewebe. Neurone. Gliazellen. - eigentliche Nervenzellen - Sinneszellen. -ZNS-Glia -PNS-Glia
Nervengewebe Neurone Gliazellen - eigentliche Nervenzellen - Sinneszellen -ZNS-Glia -PNS-Glia Neurone: Formen und Vorkommen apolar: Sinneszellen - Innenohr, Geschmacksknospen unipolar: Sinneszellen - Retina,
MehrForschungsmodul: Komplexe Systeme
Forschungsmodul: Komplexe Systeme Bericht zur Vorlesung vom 25. Oktober 2007 von Jan-Philip Gehrcke Anatomie des Nervensystems Bei der Maus, beim Wolf und auch beim Menschen zeigt sich, dass der anatomische
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrNaCl. Die Originallinolschnitte, gedruckt von Marc Berger im V.E.B. Schwarzdruck Berlin, liegen als separate Auflage in Form einer Graphikmappe vor.
NaCl Künstlerische Konzeption: Xenia Leizinger Repros: Roman Willhelm technische Betreuung und Druck: Frank Robrecht Schrift: Futura condensed, Bernhard Modern Papier: Igepa Design Offset naturweiß 120
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrEinfache Modelle der Neurodynamik.
Vorlesung Einfache Modelle der Neurodynamik. Anregbarkeit und canards. Wintersemester 2015/16 12.01.2016 M. Zaks Aufbau eines Neurons: Gesamtbild 2 / 16 neuron Aufbau eines Neurons: Axon und Dendriten
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)
WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 18. Januar 2012 ZÜ DS ZÜ XII
Mehr8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
MehrLineare Algebra II 3. Übungsblatt
Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrAdaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1
Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
MehrAussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrBeide bei Thieme ebook
Beide bei Thieme ebook Neurophysiologie 1) Funktionelle Anatomie 2) Entstehung nervaler Potentiale 3) Erregungsfortleitung 4) Synaptische Übertragung 5) Transmitter und Reflexe 6) Vegetatives Nervensystem
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrVorlesung #2. Elektrische Eigenschaften von Neuronen, Aktionspotentiale und deren Ursprung. Alexander Gottschalk, JuProf. Universität Frankfurt
Vorlesung #2 Elektrische Eigenschaften von Neuronen, Aktionspotentiale und deren Ursprung Alexander Gottschalk, JuProf Universität Frankfurt SS 2010 Elektrische Eigenschaften von Neuronen Elektrische Eigenschaften
MehrBiologische Grundlagen der Elektrogenese
Proseminar: Elektrophysiologie kognitiver Prozesse WS 2008/2009 Dozentin: Dr. Nicola Ferdinand Referent: Michael Weigl Biologische Grundlagen der Elektrogenese Ein Überblick Zum Einstieg Die Gliederung
MehrDidaktische FWU-DVD. Das Nervensystem des Menschen. Neuronale Informationsübermittlung. Klasse Klasse Trailer ansehen
46 11267 Didaktische FWU-DVD Das Nervensystem des Menschen Neuronale Informationsübermittlung Biologie Chemie Klasse 10 13 Klasse 10 13 Trailer ansehen Schlagwörter Adenosintriphosphat; Aktionspotential;
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
MehrBerechnung der Determinante
Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,
Mehry = A(x) y + b(x). (1) y = A(x) y (2)
73 5.2 Lineare Systeme Sei weiterhin IK = C oder IK = IR. Seien = I IR ein offenes Intervall, x 0 I, y 0 IK n, A: I IK n n und b: I IK n stetige matrix- bzw vektorwertige Funktionen. Wir betrachten komplexe
MehrWir wollen Systeme von linearen Differentialgleichungen 1. Ordnung über einem offenen Intervall I R untersuchen:
23 23 Lineare Systeme Wir wollen Systeme von linearen Differentialgleichungen Ordnung über einem offenen Intervall I R untersuchen: y = y A(t + b(t, mit stetigen Abbildungen A : I M n,n (R und b : I R
Mehr1 Einstimmung 2. 2 Allgemeine Eigenwertprobleme Berechnung von Eigenwerten und Eigenvektoren Wichtige Eigenschaften...
Wirtschaftswissenschaftliches Zentrum 4 Universität Basel Mathematik 2 Dr Thomas Zehrt Eigenwerte und Eigenvektoren Inhaltsverzeichnis Einstimmung 2 2 Allgemeine Eigenwertprobleme 5 2 Berechnung von Eigenwerten
MehrLineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag
MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr E Schörner WS / Blatt 6 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag Wir verwenden das Unterraumkriterium,
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrLösungsvorschläge zum 4. Übungsblatt, WS 2012/2013 Höhere Mathematik III für die Fachrichtung Physik
Lösungsvorschläge zum 4. Übungsblatt, WS 202/203 Höhere Mathematik III für die Fachrichtung Physik Aufgabe 6 Bei allen Aufgabenteilen handelt es sich um (homogene bzw. inhomogene) lineare Differentialgleichungen
MehrSynaptische Übertragung und Neurotransmitter
Proseminar Chemie der Psyche Synaptische Übertragung und Neurotransmitter Referent: Daniel Richter 1 Überblick Synapsen: - Typen / Arten - Struktur / Aufbau - Grundprinzipien / Prozesse Neurotransmitter:
MehrDie neuronale Synapse
Die neuronale Synapse AB 1-1, S. 1 Arbeitsweise der neuronalen Synapse Wenn am synaptischen Endknöpfchen ein Aktionspotenzial ankommt, öffnen sich spannungsgesteuerte Calciumkanäle. Da im Zellaußenmedium
Mehr