Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS
|
|
- Walther Axel Meinhardt
- vor 6 Jahren
- Abrufe
Transkript
1 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten Holger Arndt WS 3/4, 2 SWS :3 - Uhr
2 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten. Motivation i Ziel: Schaffe leistungsfähigen neuronalen Algorithmus durch Nachahmung einiger Eigenschaften des Gehirns. Einige Eigenschaften des Lernens höherer Säugetiere i Entdeckendes Finden von Korrelationen (Koinzidenzen) in der Umwelt. Anm: Auch Lernen mit einem menschlichen Lehrer ist im Sinne der Neuronalen Netzwerke entdeckend (unsupervised); man findet Korrelationen zwischen verschiedenen Sachverhalten (z.b. durch Wiederholung), korreliert Schwätzen mit Strafe, usw. i Extraktion wichtiger Eigenschaften aus den Eingangssignalen i Erstellen interner Repräsentationen von Sachverhalten (z.b. Vorstellung)
3 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten. Topografische Merkmalskarten Struktur interner Repräsentationen: i Merkmale der Umwelt, z.b. eines sensorischen Signals, werden durch den Ort der stärksten Aktivierung in der Großhirnrinde kodiert. i Diese Kodierung ist stetig, d.h. benachbarte kortikale Orte kodieren für ähnliche Reizmerkmale. Retinotopie: Retinaler Ort wird durch den kortikalen Ort kodiert Orientierungspräferenz-Karte: Orientierung des Reizes wird durch den Ort kortikaler Erregung kodiert
4 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten.2 Beispiele i Auditorische Karten (Tonhöhe und -Richtung werden kodiert) i Somatosensorische Karten (Kodierung des Reizortes auf der Haut) i Motorische Karten (Bestimmte Bewegungen werden kodiert) Eigenschaften eines Modells für topographische Merkmalskarten: i Netzwerkarchitektur ähnlich wie kortikale Module (z.b. frühe Sehbahn) i Entdeckendes Lernen i Kontinuierliche Neuronenaktivitäten
5 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2. Das Kohonen-Modell Self-Organizing (Feature) Maps = SOM (SOFM) Architektur des Kohonenmodells: d Eingabeneuronen senden Fasern zu allen Neuronen im zweidimensionalen Gitter der Ausgabeschicht. Die Ausgabeneuronen sind durch eine laterale Wechselwirkung I miteinander verbunden Gemischte Netzwerkarchitektur: Feedforward-Teil und rekurrenter Teil
6 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2. Wechselwirkung Mexican-Hat-förmige, zeitunabhängige laterale Wechselwirkung Im Gegensatz zum Hopfieldnetz sind die lateralen Verbindungen I(r,r ) im Ortsraum festgelegt. Biologisch motiviert: Mexican-Hat- Struktur ( Umfeldhemmung ).
7 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.2 Dynamik Qualitativ: i Die Inputneuronen initialisieren ein Aktivitätsmuster in der Ausgabeschicht i Dieses wird durch die rückgekoppelte Netzwerkdynamik verändert, läuft in einen Attraktor Dynamische Gleichung: f ( r) = g wl ( r) vl + dr I( r r ) f ( r ) θ l= Schwierig zu lösen: d i Iterative, rückgekoppelte Gleichung i Nichtlineare Gleichung
8 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.3 Winner-take-all Satz : Laterale Wechselwirkungen vom Mexican-Hat-Typ mit genügend starker Inhibition führen immer zur Ausbildung lokalisierter Aktivitäts- Blobs Mechanismus: Im Laufe der Iterationen inhibiert das anfangs am stärksten aktivierte Neuron seine Nachbarn am stärksten, vermindert damit deren inhibitorische Wirkung, kann so immer stärker aktiv werden, u.s.w... Winner-take-all (WTA)
9 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.4 Näherung von Kohonen i Bestimme das anfangs am stärksten aktivierte Neuron aus den Afferenzen alleine i Führe den Relaxationsprozess in der Ausgabeschicht nicht explizit durch sondern verwende gleich einen lokalisierten Aktivitätsblob: f ( r) = h( r, r ), mit g w ( ) = ( ) l r vl max g wl r vl r l l Die Funktion der Aktivierung ist monoton fallend und lokalisiert, z.b. eine Gaußfunktion: h ( r, r ) ( r r ) = exp 2σ 2 2
10 2.5 Such nach dem Gewinner i Betrachte jetzt d-dimensionale Inputvektoren Synapsenvektoren v = ( v, Kv d ) ) = ( w ( r), Kw ( )) w( r r d i Dann gilt mit streng monoton steigender Transferfunktion g: g ( w( r ) v) = max( g( w( r) v) ) w( r ) v = max( w( r ) v) r r i Bei konstantgehaltener Norm aller Synapsenvektoren w ( r) v = w( r) + v 2w( r) v = w + v 2w( r) v also: w ( v ) ( r ) v = max( w( r) v) w( r ) v = min w( r) r r w 2 ( r) w r gilt: Es feuert das Ausgabeneuron r, dessen normierter Synapsenvektor dem Inputvektor am nächsten ist.
11 2.6 Merkmalskarten Merkmal Merkmalsrepräsentation in der Ausgabeschicht: Vektor v im d-dimensionalen Inputraum (Beispiel: verschlüsselte Ortsposition eines Schallsignals). Position des Aktivitätsblobs bei Präsentation des Merkmals v, also s mit w(s) - v = min r w(r) - v. Merkmalskarte = Abbildung: φ w : v φ s w ( v) = w( s) v = min w( r) v r i Die Merkmalskarte wird durch die Gesamtheit aller Synapsenvektoren bestimmt. Formal kann eine Merkmalskarte auch mit nicht normierten Gewichten implementiert werden. i Rezeptives Feld: Bereich des Inputraumes, der ein geg. Neuron reizt. RF { ( v )} ( s) = v V w( s) v = min w( r) r
12 2.7 Rezeptives Feld Darstellung von Merkmalskarten für nicht normierte Synapsenvektoren: i Male den Synapsenvektor jedes Neurons in den Inputraum V. Seine unmittelbare Umgebung aktiviert das Neuron maximal. Grafische Darstellung einer Merkmalskarte sowie des rezeptiven Feldes eines Neurons für einen zweidimensionalen Inputraum. i Ziel: Führe eine Lernregel ein, die zur Selbstorganisation einer stetigen Merkmalskarte führt.
13 2.8 Die Kohonen-Lernregel i Präsentiere ein Signal v i Ermittle den Gewinner der Kompetition in der Ausgabeschicht, also s mit w(s) - v = min r w(r) - v und damit die Lokalisierung des kortikalen Aktivitätsblobs. i Lernschritt: Nähere den Synapsenvektor des Gewinners dem Signal an: neu alt w ( r) = w ( r) + w( r) mit w( r) = η f ( r) ( v w( r) ) = ηh( r, s) ( v w( r) ) i Normiere (eventuell) die neuen Synapsenvektoren i Nächstes Muster
14 2.9 Eigenschaften i Die Kohonen-Lernregel ist vom Hebb-Typ, denn: w ( r) =η f ( r) v η f ( r) w ( r) l l (Postsynaptische Aktivität) x (Präsynaptische Aktivität) Decayterm i Benachbarte Neuronen der Ausgabeschicht erfahren immer ähnliche Modifikationen ihrer Synapsenvektoren: Ordnung der Synapsenvektoren im Raum der Inputsignale Erzeugung einer stetigen Merkmalskarte l i Oft präsentierte Musterbereiche werden stärker repräsentiert
15 2. Konvergenz Zu Beginn des Trainings Nach dem Training i Üblicherweise werden die Breite s der Nachbarschaftsfunktion und die Lernschrittweite h im Lauf der Zeit verringert: s = s(t), h = h(t). i Konvergenzbeweise gegen einen statistisch beschreibbaren Gleichgewichtszustand existieren für: η ( ) = α t ηt, < α ( t) lim σ = t
16 3. Anwendungsmöglichkeiten 3. Vektorquantisierung i Vektorquantisierung = Verfahren zur Datenkompression i Folge von Datenvektoren v(t), t =,..., sollen durch eine feste Anzahl von Referenzvektoren w s approximiert werden i Kompression: Speicherung des Index s(v) mit minimalem w s(v) - v für jedes v(t) i Restauration: v(t) := w s(v(t)), t =,... (Es gibt einen Restaurationsfehler!) i Ziel: Finde optimale Verteilung der Referenzvektoren, die den 2 Restaurationsfehler minimiert: E P( v) ws ( v) v dv = also: η E w r r r w 2 ( t + ) = w ( t) = w ( t) + η ( v w ( t) ) P( v) dv r RF ( r) r
17 3. Vektorquantisierung i Präsentiert man einzelne Vektoren v gemäß der Verteilung P(v), so erhält man asymptoisch für kleine Lernschrittweiten dasselbe Ergebnis mit: w s t + = w t + η ( v w ) ( v)( ) s( v)( ) s( v) Kohonenregel ohne Nachbarschaftsterm i Mit Nachbarschaftsfunktion: Kleine Quantisierungsfehler werden zusätzlich unterdrückt Vektorquantisierung eines geclusterten und einer in einem L-förmigen Gebiet gleichverteilten Inputensembles. Dicke Punkte: Gewichtsvektoren
18 3.2 Optimierungsprobleme i Kombinatorische Optimierungsprobleme: Lösungsaufwand für ein System mit L Komponenten steigt wie exp(l) bzw. L! i Beispiel: Handlungsreisenden-Problem: i Finde die kürzeste Route, die L gegebene Städte berührt. i Ansatz: Wähle eindimensionalen Neuronenring mit N L Neuronen (N > L empfohlen) und zweidimensionalen Gewichtsvektoren. Die Inputsignale kodieren x- und y-positionen der Städte.
19 3.2 Optimierungsprobleme Netzwerkarchitektur für das Handlungsreisenden- Problem. Die Inputs kodieren die xy-position, die Ausgabeneuronen implementieren eine Ringnachbarschaft. i Präsentiere die Städtepositionen als Inputmuster und trainiere mit w( r, t) = η( t) h( s( v), r, t) ( v w( r, t) ) i Die Nachbarschaftsfunktion h(r,r ) versucht, die Repräsentation des Rings im Ortsraum möglichst kurz zu halten ( kurzer Weg -Forderung) i Unter dieser Bedingung werden die Städtepositionen sukzessive approximiert
20 2 3.2 Optimierungsprobleme imulationsablauf (nach Durbin nd Willshaw 987): = 3 = 8 =.8 (t) = 5.2 (t/tmax) max = erlauf einer Simulation mit 3 tädten es werden die ewichtsvektoren im weidimensionalen Inputraum ezeigt nach, 5, 7 und Lernschritten
21 2 3.3 Dichteschätzung i Aufgabe: Schätzen einer Wahrscheinlichkeitsdichte, die den Daten zugrunde liegt i Die Merkmalskarte wird mit Vektoren trainiert, die der zu schätzenden Wahrscheinlichkeitsdichtefunktion gehorchen Häufig auftretende Merkmale werden von der SOM durch mehr Neuronen repräsentiert i Beispiel: Merkmalskarte mit 5x5 Neuronen
22 Holger Arndt, Siemens AG 2 Selbstorganisierende Merkmalskarten 3.4 Clustering und Visualisierung i Problem: Hochdimensionaler Datenraum i Aufgabe: Finde Korrelationen in den Daten i Lösung mit dem Kohonenalgorithmus: Merkmale, die im Inputraum nahe beieinanderliegen, werden auf benachbarte Gebiete der SOM abgebildet Kuh Zebra Pferd Löwe Tiger Katze Wolf Hund Fuchs Adler Falke Eule Gans Ente Henne Taube schwimmt fliegt rennt jagt Federn Mähne Hufe Haare 4 Beine 2 Beine groß mittel klein
23 2 3.4 Clustering und Visualisierung i Die Merkmale werden ihrer Ähnlichkeit entsprechend auf der SOM angeordnet Topologieerhaltende Abbildung des Hochdimensionalen Inputraumes auf die zweidimensionale Kartenfläche Huftiere Raubtiere Vögel
24 2 3.5 Dimensionsreduktion i Geg: i Ges: Signale mit vielen Freiheitsgraden (hohe Dimensionalität). Bestmögliche Repräsentation in einer niedrigdimensionalen Neuronenstruktur (typisch: bis 2-dimensional). i Der Kohonenalgorithmus führt zu einer optimalen Abdeckung des höherdimensionalen Raumes gemäß der Wahrscheinlichkeitsverteilung der präsentierten Inputmuster i Beispiel: Eindimensionale Neuronenkette wird mit zweidimensionalen Vektoren aus dem Einheitsquadrat trainiert i Zeitabhängige Breite der Nachbarschaftsfunktion: σ 5 t ( t) = (.) i bewirkt sukzessive Ausbildung immer feinerer Strukturen
25 2 3.5 Dimensionsreduktion Zuordnung: zu Beginn, nach 2, nach 5, nach Schritten
26 2 4. Anwendungsbeispiele aus Informatik und Robotik Positionskodierung einer Schallquelle Experimenteller Aufbau Anfangsbelegung der Gewichte
27 2 4. Positionskodierung einer Schallquelle Ausgangspunkt: i Schallsignale einheitlicher Lautstärke ertönen in beliebigen Positionen innerhalb eines krummlinig begrenzten Gebietes i Die Signale werden von zwei Mikrofonen aufgenommen, deren Ausgangsintensität den Abstand der Schallquelle kodiert i Mit der Verstärkerkennlinie f(x) werden die Signale zu: v v = f [ 2 2 ( x a) + ] y = f [ 2 2 ( x + a) + ] 2 y Anmerkung: i Die beiden Pegel v und v 2 stellen eine hochgradig nichtlineare Kodierung des Merkmales Schallposition dar.
28 2 4. Positionskodierung einer Schallquelle Karte nach Lernschritten Karte nach 4 Lernschritten Es sind die Gewichtsvektoren und damit die Positionen höchster Sensitivität für ein Gitter von 4x4 Neuronen dargestellt. Nach dem Training kodiert jedes Neuron einen Teil bereich des betrachteten Gebietes. Das Netzwerk hat die der Positionskodierung innewohnende nichtlineare Transformation invertiert.
29 2 4. Positionskodierung einer Schallquelle i Die Repräsentation passt sich der Wahrscheinlichkeitsverteilung der Inputsignale an, d.h. häufig präsentierte Muster werden durch mehr Kohonen-Neuronen kodiert (siehe frühe Sehbahn, siehe Vektorquantisierung). Im zentralen Kreis wurde die Signalhäufigkeit gegenüber außen um einen Faktor 3 erhöht. Jedes Muster hat eine anziehende Wirkung auf die im Inputraum benachbarten Gewichtsvektoren: Kumulation bei Peaks der Wahrscheinlichkeitsverteilung. (s. a. Vektorquantisierung). Denselben Effekt kann man durch lokale Erhöhung der Netzwerkelastizität (Erhöhung von h) erreichen
30 3 5. Literatur i S. Haykin Neural Networks - A Comprehensive Foundation MacMillan College Publishing Company, Ontario (994) i H. Ritter, T. Martinetz, and K. Schulten Neural Computation and Self-Organizing Maps - An Introduction Addison-Wesley, New York (992) i T. Kohonen Self-Organizing Maps, 3rd edition Springer Series in Information Sciences, Springer Verlag (2)
Selbstorganisierende Merkmalskarten
Selbstorganisierende Merkmalskarten Motivation (Gehirn) Netzwerk-Architektur Topographische Merkmalskarten (Früher: Kohonen-Karten ) Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele
MehrSelbstorganisierende Merkmalskarten
Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
MehrKapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining
Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Marten Jäger 6. August 2007 Zusammenfassung Selbstorganisierte Karten (SOM ) sind ein unüberwachtes Lernverfahren mit dem Ziel eine topologische Darstellung des Eingaberaums
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrOutline. SOMs und verwandte Verfahren. Self-Organizing Map. Outline... Self-Organizing Map. Self-Organizing Map. Architektur:
SOMs und verwandte Verfahren VU Selbst-Organisierende Systeme SOMs und verwandte Verfahren Andreas Rauber http://wwwifstuwienacat/~andi (SOM) (SOM) Physiologische Grundlagen Architekturen Trainingsprozess
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Mehr2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht
2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrNeuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011
Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrAnwenderdokumentation Beleg Neuronale Netze
Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrSeminar Unterwasserbildverarbeitung
Seminar Unterwasserbildverarbeitung Thema: Seabed Classification Ausarbeitung von : Daniel Nagel (NWI) Sven Pohl (NWI) Datum des Vortrags : 25.06.2002 Inhalt Aufbau S. 3 1. Was ist Seebettklassifikation?
MehrStatistische Methoden der Datenanalyse
Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2008 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit............................
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrKlassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten
Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrDas visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!
Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle
MehrComputational Neuroscience
Computational Neuroscience Vorlesung WS 2005/2006 Josef Ammermüller Jutta Kretzberg http://www.uni-oldenburg.de/sinnesphysiologie/ 14508.html Begriffsdefinitionen Computational Neuroscience Churchland
MehrMethoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen
MehrGrowing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012
Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrMulti-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrHopfield Netze. Neuronale Netze WS 2016/17
Hopfield Netze Neuronale Netze WS 2016/17 Rekursive Netze Definition: Ein rekursives Netz enthält mindestens eine Feedback-Schleife Gegensatz: Feedforward-Netze Beispiel: Hopfield-Netze, Boltzmann-Maschinen
MehrKapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp
Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
Mehr1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.
Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale
MehrNatürliche und künstliche neuronale Netze
Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrVL Wahrnehmung und Aufmerksamkeit: visuelle Wahrnehmung II
VL Wahrnehmung und Aufmerksamkeit: visuelle Wahrnehmung II Rückblick visuelle Wahrnehmung I Licht wurde von Rezeptoren in neuronales Signale umgewandelt retinale Verarbeitung über Sehnerv aus dem Auge
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrAufmerksamkeit II Bewusstsein
Aufmerksamkeit II Bewusstsein VL Wahrnehmung und Aufmerksamkeit, Dipl.-Psych. S. Raisig, Humboldt Universität Berlin, WS 2008/2009 Wozu dient selektive Aufmerksamkeit? 1. Binding Problem Objekt wird von
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrCortikale Architektur
Cortikale Architektur horizontales Einführen der Elektrode vertikales Einführen der Elektrode Ergebnis: Zellen, die selektiv auf bestimmte Reize reagieren sind nicht willkürlich, sondern systematisch angeordnet
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein
MehrAbbildung 10.1: Das Bild zu Beispiel 10.1
Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrStatistische Methoden der Datenanalyse
Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2002 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit..................................
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrVisualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher
Hauptseminar SS11 Inhalt Einführung zu hochdimensionalen Daten Visualisierungsmöglichkeiten dimensionale Teilmengen dimensionale Schachtelung Achsenumgestaltung Algorithmen zur Dimensionsreduktion Zusammenfassung
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
Mehr1.3. DAS COULOMBSCHE GESETZ, ELEKTROSTATISCHES FELD 9
8 KAPITEL. ELEKTROSTATIK.3 Das Coulombsche Gesetz, elektrostatisches Feld Zur Einführung verschiedener Grundbegriffe betrachten wir zunächst einmal die Kraft, die zwischen zwei Ladungen q an der Position
MehrEntwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei Selbstorganisierenden Karten
Diplomarbeit zum Thema Entwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei Selbstorganisierenden Karten zur Erlangung des akademischen Grades Diplom-Informatiker (FH)
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrModellbildung und Simulation
Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:
Mehrauch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrFortgeschrittene Mathematik Raum und Funktionen
Fortgeschrittene Mathematik Raum und Funktionen Thomas Zehrt Universität Basel WWZ Thomas Zehrt (Universität Basel WWZ) R n und Funktionen 1 / 33 Outline 1 Der n-dimensionale Raum 2 R 2 und die komplexen
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrCentral pattern generators für die zwei- und vierbeinige Fortbewegung
Central pattern generators für die zwei- und vierbeinige Fortbewegung Merit Kasch 18. Januar 2013 Central pattern generator (CPG) (zu Deutsch: Zentraler Muster- oder Rhythmusgenerator) ist ein Begri aus
MehrSynaptische Verschaltung
Synaptische Verschaltung 16.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ 15246.html Vorläufiges Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrWas versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es?
Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Nennen Sie zwei genetische Faktoren, die zu einer Hirnschädigung führen können. Geben Sie je ein Beispiel
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrSeminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex
Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip
Mehr