6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
|
|
- Eike Sachs
- vor 6 Jahren
- Abrufe
Transkript
1 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1 MLPs: x(t) z 1 x(t) x(t 1) z 1 x(t 2) x(t+1) z 1 x(t m) MLP Schwenker NI1 114
2 Training und Prognose von ˆx = f(x(t 1),..., x(t m)): x(t) z 1 z 1 x(t 1) x(t 2) x(t) Σ + x(t) z 1 z 1 Schalter x(t 1) x(t 2) x(t) z 1 x(t m) NN z 1 x(t m) trainiertes NN Probleme: m ist fester Architekturparameter, zwei gleiche Teilfolgen bewirken unabhängig vom Kontext immer die gleiche Ausgabe Schwenker NI1 115
3 Architekturen partiell rekurrenter Netze Jordan Netzwerk [Jordan 1986]: y(t) x(t) s(t) Schwenker NI1 116
4 Elman Netzwerk [Elman 1990]: y(t) c ij s(t+1) x(t) w ki v ki s(t) Vorteile des Elman-Netzwerks: interne Repräsentation einer Sequenz ist unabhängig von der Ausgabe y, Zahl der Kontextzellen ist unabhängig von der Ausgabedimension! Schwenker NI1 117
5 Training eines partiell rekurrenten Netzes Möglichkeit A: Modifikation eines Lernverfahrens für nichtrekurrente Netze (z.b. Error Backpropagation, RPROP, Quickprop) Algorithmus (für Elman-Netzwerk): Seien w ki und v ki die Gewichte von Eingabeknoten u k bzw. Kontextknoten s k zum verdeckten Neuron i und c ij die Gewichte der zweiten Netzwerkschicht 1) Setze t = t 0, initialisiere Kontextzellen s(t 0 ) = 0 2) Berechne w ki (t), v ki (t) und c ij (t) gemäß Lernregel für eine Eingabe x(t) mit Sollwert T(t) ohne Beachtung rekurrenter Verbindungen 3) Setze t = t + 1, aktualisiere die Ausgabe s(t) der Kontextzellen und gehe zu 2) Eigenschaften: Fehler von y(t) = f(x(t)) wird minimiert, keine Klassifikation von Sequenzen möglich. Schwenker NI1 118
6 Möglichkeit B: Verwendung eines Lernverfahrens für rekurrente Netze (z.b. BPTT [Rumelhart 86], RTRL [Willliams 89]) Idee von BPTT ( Backpropagation Through Time ): Entfaltung des Netzwerks in der Zeit! Gradientenabstieg zur Minimierung von E = t max t=t 0 E(t) mit E(t) = { T(t) y(t) falls T(t) zum Zeitpunkt t vorliegt 0 sonst Eigenschaften: Fehler von y(t max ) = f(x(t 0 ),..., x(t max )) wird minimiert, auch Klassifikation von Sequenzen variabler Länge möglich! Schwenker NI1 119
7 BPTT Algorithmus für Elman Netzwerk Gegeben sei ein (m + h) h n Elman Netzwerk mit: w ki : Gewichte von Eingabeknoten u k zum verdeckten Neuron i v ki : Gewichte von Kontextknoten s k zum verdeckten Neuron i c ij : Gewichte vom verdeckten Neuron i zum Ausgabeneuron j : Fehler am Ausgabeneuron j δ (y) j δ (s) i : Fehler am verdeckten Neuron i Lineare Ausgabeneuronen j = 1,..., n : Annahme: für t = t max gilt: für t < t max gilt: E(t) = 0 für t t max δ (y) j (t) = T j (t) y j (t) c ij = s i (t + 1) δ (y) j (t) δ (y) j (t) = 0 c ij = 0 Schwenker NI1 120
8 Sigmoide verdeckte Neuronen i = 1,..., h : n für t = t max δ (s) i (t) = c ij δ (y) j (t) s i(t + 1) für t 0 t < t max j=1 v ki (t) = s k (t) δ (s) i (t) w ki (t) = x k (t) δ (s) i (t) δ (s) i (t) = h k=1 v ki (t) = s k (t) δ (s) i (t) w ki (t) = x k (t) δ (s) i (t) v ki δ (s) k (t + 1) s i(t + 1) Resultierende Lernregeln: t max t max c ij = c ij + η 1 c ij, w ki = w ki + η 2 w ki (t), v ki = v ki + η 2 v ki (t) t=t 0 t=t 0 Schwenker NI1 121
9 6.5 Radiale Basisfunktionen Motivation: Es wird eine Lösung für das folgende Interpolationsproblem gesucht: Gegeben sei eine Menge M = {(x µ, T µ ) : µ = 1,..., p} mit x µ R m und T µ R n. Gibt es eine Funktion g : R m R n mit g(x µ ) = T µ µ = 1,..., p? Idee: Annäherung von g durch eine Linearkombination von p Funktionen h ν (x) = h( x ν x ) mit (beliebig oft differenzierbarer) radialsymmetrischer Funktion h : R + R + Das Interpolationsproblem hat (hier für n = 1) die Form p p g(x µ ) = w ν h ν (x µ ) = w ν h( x ν x µ ) µ = 1,..., p ν=1 ν=1 Schwenker NI1 122
10 w ν können analytisch bestimmen werden: p g(x µ ) = w ν h( x ν x µ ) = T µ, µ = 1,..., p. ν=1 In Matrixnotation gilt: Hw = T mit H := (H µν ) und H µν := h µ (x ν ) Falls H invertierbar ist, so gilt: w = H 1 T, mit den Vektoren w = (w 1,... w p ) t und T = (T 1,..., t p ) t. einige radialsymmetrische Basisfunktionen (mit r = x x µ ): Gauss-Funktion: h(r) = exp( r2 2σ2) mit σ 0 Inverse multiquadratische Funktionen: 1 h(r) = mit c 0 und α > 0 (r 2 + c 2 ) α Multiquadratische Funktionen: h(r) = (r 2 + c 2 ) β mit c 0 und 0 < β 1 Schwenker NI1 123
11 Radiales Basisfunktionen-Netzwerk (RBF) Aufbau eines m-h-n RBF-Netzwerks: m Eingabeknoten h RBF-Neuronen n lineare Neuronen C x c ki Berechnung der Netzausgabe z: m u i = (x k c ki ) 2 = x c i k=1 u y W w ij y i = h(u i ) h z j = y i w ij [ + bias j ] z i=1 Schwenker NI1 124
12 Herleitung der Lernregel für RBF-Netzwerk Es soll eine auf Gradientenabstieg basierende Lernregel für das RBF- Netzwerk hergeleitet werden. Für die Gewichte w ij der Ausgabeschicht gilt: E µ w ij = = w ij T z 2 (T j z j ) 2 w ij = 2(T j z j ) j = 2 y i δ j w ij ĩ yĩwĩj wobei δ j = (T j z j ) den Fehler von Neuron j der Ausgabeschicht für ein Muster bezeichnet Schwenker NI1 125
13 resultierende Lernregeln für Gewichte w ij der Ausgabeschicht: im Online-Modus: w ij = w ij η 1 E µ w ij = w ij + η 1 y i δ j [bias j = bias j η 1 E µ w ij = bias j + η 1 δ j ] im Batch-Modus: w ij = w ij η 1 [bias j = bias j η 1 E = w ij + η 1 w ij µ y µ i δµ j E = bias j + η 1 w ij µ δ µ j ] Schwenker NI1 126
14 Für Gewichte c ki der Eingabeschicht gilt: E µ c ki = E µ y i = 2 j = 2 j = 2 j y i c ki (T j z j ) y i (T j z j ) w ij h (u i ) ĩ yĩ wĩj c ki h(u i ) c ki (x k c ki ) 2 (T j z j ) w ij h (u i ) 1 2u i ( 2) (x k c ki ) k = 2 j δ j w ij h (u i ) 1 u i (x k c ki ) Speziell für h(u) = e u2 /2σ 2 = e u2s ergibt sich: E µ c ki = 2 j = 4 j (T j z j ) w ij e u2 i s 2s(x k c ki ) δ j w ij y i s (x k c ki ) Schwenker NI1 127
15 resultierende Lernregeln für Gewichte c ki der Eingabeschicht bei Verwendung der radialen Basisfunktion h(u) = e u2 /2σ 2 = e u2s : im Online-Modus: c ki = c ki η 2 E µ c ki = c ki + η 2 (x k c ki ) y i s j δ j w ij im Batch-Modus: E c ki = c ki η 2 = c ki + η 2 (x µ k c c ki) y µ i s ki µ j δ µ j w ij Schwenker NI1 128
16 Lernalgorithmus (online) für RBF-Netzwerk Gegeben: m-h-n RBF-Netzwerk verwendete radiale Basisfunktion: y = h(u) = e u2 /2σ 2 := e u2 s Menge von p gelabelten Mustern (x µ, T µ ) R m R n Schritt 1: Initialisierung Setze w ij für i = 1,..., h, j = 1,..., n auf kleine Zufallswerte und wähle c ki für k = 1,..., m, i = 1,..., h derart, dass die Daten im Eingaberaum überdecken Schritt 2: Berechnung der Netzausgabe z Wähle nächstes gelabeltes Musterpaar (x, T) und berechne: u 2 i = m (x k c ki ) 2 für i = 1,..., h k=1 Schwenker NI1 129
17 y i = e u2 i /2σ2 = e u2 i s für i = 1,..., h h z j = y i w ij für j = 1,..., n i=1 Schritt 3: Bestimmung des Fehlers am Netzausgang Berechne δ j = (T j z j ) für j = 1,..., n Schritt 4: Lernen Adaptiere Gewichte: w ij = w ij + η 1 y i δ j c ki = c ki + η 2 (x k c ki ) y i s für k = 1,..., m, i = 1,..., h, j = 1,..., n n δ j w ij j=1 Schritt 5: Ende Falls Endekriterium nicht erfüllt, gehe zurück zu 2 Schwenker NI1 130
18 Bemerkungen zum RBF-Netzwerk Anzahl der RBF-Neuronen ist kleiner als Anzahl Trainingsmuster Vektor c i wird auch als Prototyp bzw. Zentrum bezeichnet Initialisierung der Gewichte c ki z.b. durch äquidistante Verteilung in einem Intervall [min,max] m durch Clusteranalyse (vgl. Kapitel 8) Verhalten des RBF-Netzwerks stark abhängig von der Wahl eines guten Wertes für σ bzw. s z.b.: σ [d min, 2 d min ] (mit d min = kleinster Abstand zwischen zwei Zentren) Parameter σ i bzw. s i kann auch für jedes RBF-Neuron i individuell gewählt und adaptiert werden ( Übung) Adaption von c ki, w ij und σ i bzw. s i ist simultan oder sequentiell möglich! Schwenker NI1 131
19 Approximation einer verrauschten Funktion mit RBF-Netz: (mit 5 RBF-Neuronen bei σ = 10, mit σ = 0.4, σ = 0.08) Schwenker NI1 132
20 Unterschiede MLP und RBF bei Klassifikation: MLP: Trennung durch Hyperebenen RBF: Hyperkugeln umfassen Punkte einer Klasse bei MLP ist Repräsentation in verdeckter Schicht verteilt, bei RBF lokal Initialisierung der Gewichte bei MLP zufällig, bei RBF datenabhängig MLP und RBF können Funktionen beliebig genau approximieren i.a. schnellere Konvergenz mit RBF bei guter Initialisierung Schwenker NI1 133
21 6.6 Konstruktive Lernverfahren Problem: In allen bisherigen neuronalen Netzmodellen wird die Architektur vor Start des Lernverfahrens festgelegt während des Trainings ist keine Anpassung der Architektur an das zu lernende Problem möglich. Idee: Man startet mit einem kleinen neuronalen Netzwerk und fügt während des Trainings bei Bedarf noch weitere Neuronen oder Neuronenschichten hinzu. Beispiele: 1. Upstart Algorithmus (konstruiert Binärbaum aus Perzeptronen) 2. Cascade Correlation (konstruiert pyramidenartige Architektur aus sigmoiden Neuronen) Schwenker NI1 134
22 Upstart Algorithmus [Frean 1990] rekursiver Algorithmus zum Erlernen beliebiger binärer Abbildungen mit Schwellwertneuronen: upstart(t 0, T 1 ) { trainiere ein Perzeptron Z mit T 0 T 1 wenn mind. 1 Muster aus T 0 falsch klassifiziert wird: bilde T0 T 0 generiere neues Perzeptron X trainiere X mit upstart(t 1, T0 ) wenn mind. 1 Muster aus T 1 falsch klassifiziert wird: bilde T1 T 1 generiere neues Perzeptron Y trainiere Y mit upstart(t 0, T1 ) berechne MAX= max µ i w iu (µ) i von Z verbinde X mit Z durch w < MAX und Y mit Z durch w > MAX } mit: T 0, T 1 Trainingsmenge für Ausgabe 0 bzw. 1 T0 1 Menge falsch klassifizierter Muster aus T 0 bzw. T 1 Schwenker NI1 135
23 Cascade Correlation Motivation : bei großem Fehler am Ausgang für ein Muster A werden alle Gewichte adaptiert aufgrund fehlender Absprache zwischen den Neuronen der verdeckten Schicht kann Fehler für ein Muster B wachsen ( moving target problem ) Idee : Gewichte v ij eines jedes verdeckten Neurons j werden separat trainiert, indem die Korrelation zwischen der Ausgabe des Neurons und dem Fehler maximiert wird anschließend werden die Gewichte v ij von Neuron j eingefroren Hinzufügen weiterer verdeckter Neuronen (als Kandidatenzellen bezeichnet), bis Fehler am Ausgang ausreichend klein ist automatische Bestimmung einer guten Topologie! Schwenker NI1 136
24 Cascade Correlation Architektur [Fahlman 90]: n sigmoide oder lineare Neuronen (enthalten θ ) k z sigmoide Neuronen (Kandidatenzellen, enthalten θ j ) j y j m Eingabe knoten 1 2 V W x Ziel: Maximierung der Korrelation S j = k p (y pj y j )(δ pk δ k ) mit y pj Ausgabe der Kandidatenzelle j für Muster p y j mittlere Ausgabe der Kandidatenzelle j δ pk Fehler der Ausgangszelle k für Muster p mittlerer Fehler der Ausgangszelle k δ k Schwenker NI1 137
25 Für Eingangsgewichte v ij der j-ten Kandidatenzelle gilt: S j v ij = k = k = k = k = k (y pj y j )(δ pk δ k ) v ij p σ k (y pj y j )(δ pk δ k ) v p ij σ k y pj (δ pk δ k ) v p ij σ k f( I pi v ij )(δ pk δ k ) v p ij i σ k f (x pj )I pi (δ pk δ k ) p mit σ k = sgn( p (y pj y j )(δ pk δ k )) I pi = { upi für externen Eingang i für Kandidatenzelle i < j y pi Schwenker NI1 138
26 Lernalgorithmus für Cascade Correlation Schritt 1: Trainiere die Gewichte w ik und θ k der Ausgangsknoten mit einem geeigneten Algorithmus: - Perzeptron-Lernalgorithmus oder - Delta-Lernregel: w ik = u i (T k y k )f (x k ) - Quickprop-Verfahren bis Fehler E am Netzausgang nicht weiter sinkt Schritt 2: - Stop, wenn Fehler E ausreichend klein - Ansonsten generiere eine neue Kandidatenzelle j und initialisiere v ij zufällig Schwenker NI1 139
27 Schritt 3: Bestimme Gewichte v ij und θ j der Kandidatenzelle j derart, daß Korrelation S j maximiert wird. Adaptiere hierzu v ij und θ j durch Gradientenaufstieg gemäß v ij = v ij + η σ k f (x pj )I pi (δ pk δ k ) k p θ j = θ j + η σ k f (x pj )(δ pk δ k ) k p bis Korrelation S j nicht weiter steigt Schritt 4: Friere alle Gewichte v ij und θ j der Kandidatenzelle j ein Schritt 5: Gehe nach (1) Schwenker NI1 140
Thema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
Mehr1. Computer und neuronale Netze
1. Computer und neuronale Netze 1. Was ist die Neuroinformatik? 2. Aufgaben für neuronale Systeme 3. Computer vs. neuronale Netze NI1 1 Neuroinformatik ist die Wissenschaft, die sich mit der Informationsverarbeitung
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrNeuronale Netze. Volker Tresp
Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrHochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrNeuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrTheorie neuronaler Netze
Theorie neuronaler Netze Friedhelm Schwenker October 16, 2012 Organisation Vorlesung (3h) mit Übung (1h) Mi 12-14 H21 und Fr 10-12 Uhr 123 MatLab: 19.10.2012 1. Übung: 9.11.2012 Schein: 50% der Punkte
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrHierarchische neuronale Netze zur Klassifikation von 3D-Objekten
Hierarchische neuronale Netze zur Klassifikation von D-Objekten Masterarbeit an der Universität Ulm Fakultät für Informatik vorgelegt von: Rebecca Fay. Gutachter: Prof. Dr. Günther Palm. Gutachter: Dr.
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrEinführung in die Neuroinformatik (vormals Neuroinformatik I) WiSe 10/11
Einführung in die Neuroinformatik (vormals Neuroinformatik I) WiSe 10/11 Günther Palm und Friedhelm Schwenker Institut für Neuroinformatik Universität Ulm Organisation im WS 10/11 Vorlesung: Mi 12-14 Uhr
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrKünstliche Intelligenz. Neuronale Netze
Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4
MehrSpline-Interpolation
Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrRekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227
Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrNeuronale Netze. Volker Tresp
Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Klassifikatoren Klassifikation ist die zentrale Aufgabe in der Mustererkennung Sensoren liefern mir Informationen über ein Objekt Zu welcher Klasse gehört das Objekt:
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Mehr1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ...
1. XOR: Mit folgender Architektur geht es x 1 x 2 2. n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen x 1 x 2... x 2 Loading-Problem: Für eine endliche Liste binärer Trainingspaare (x(1),d(1)),l,(x(k)d(k))
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrBasisfunktionen. und Neuronale Netze. Volker Tresp
Basisfunktionen und Neuronale Netze Volker Tresp 1 I am an AI optimist. We ve got a lot of work in machine learning, which is sort of the polite term for AI nowadays because it got so broad that it s not
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Die BVG will besser auf Ausfälle im S-Bahn-Verkehr eingestellt sein. Sie geht dabei von folgenden Annahmen aus: An 20% der Tage ist es besonders
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrAuch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:
Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,
MehrBackpropagation. feedforward Netze
Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrModellbildung und Simulation
Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:
Mehrweitere Modelle und Methoden
weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion
Mehr10. Neuronale Netze 1
10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrTeil VIII. Künstliche Neuronale Netze MUSTERERKENNUNG. Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause
MUSTERERKENNUNG Vorlesung im Sommersemester 207 Teil VIII Künstliche Neuronale Netze Prof. E.G. Schukat-Talamazzini Stand: 7. März 207 Modellneuronen und ihre Verschaltung Das menschliche Zentralnervensystem
MehrSpline-Räume - B-Spline-Basen
Spline-Räume - B-Spline-Basen René Janssens 4. November 2009 René Janssens () Spline-Räume - B-Spline-Basen 4. November 2009 1 / 56 Übersicht 1 Erster Abschnitt: Räume von Splinefunktionen Grundlegende
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008
MehrKlassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik
Hauptseminar WS 2011/2012 Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck t.keck@online.de Karlsruher Institut für Technologie, 09.12.2011
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrAdaptive Behavior from Fixed Weight Networks
Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
MehrLernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
MehrUniversität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften
Universität Hamburg Fachbereich Wirtschaftswissenschaften Institut für Wirtschaftsinformatik Hausarbeit zum Thema 0 Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen Prof. Dr. D. B. Preßmar
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrVon schwachen zu starken Lernern
Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrSeminar über Neuronale Netze und Maschinelles Lernen WS 06/07
Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrHopfield-Netze. Rudolf Kruse Neuronale Netze 192
Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrVektorräume und lineare Abbildungen
Kapitel 11. Vektorräume und lineare Abbildungen 1 11.1 Vektorräume Sei K ein Körper. Definition. Ein Vektorraum über K (K-Vektorraum) ist eine Menge V zusammen mit einer binären Operation + einem ausgezeichneten
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
Mehr