Slow feature analysis
|
|
- Berndt Adenauer
- vor 6 Jahren
- Abrufe
Transkript
1 Slow feature analysis Welf Walter Zusammenfassung Die sogenannte Slow Feature Analysis ist eine neue Idee, aus zeitabhängigen Daten die wichtigen Komponenten herauszufinden und die redundanten Informationen zu vernachlässigen. Der Grundgedanke dabei ist, dass die Welt sich langsam verändert, während Sensoren ständig wechselnde Daten liefern. Inhaltsverzeichnis 1 Motivation 2 2 Definition des Problems 4 3 Lösung durch slow feature analysis 5 4 Neuronale Implementierung 7 5 Beispiel 1: Komplexzellen des visuellen Systems 8 6 Beispiel 2: Ein hierarchisches SFA-Netzwerk 10 7 Ergebnisse 12 8 Fazit 13 Literatur 14 address: welf.walter@informatik.uni-ulm.de (Welf Walter). 27. Juni 2005
2 1 Motivation Was für uns Menschen wie eine simple Aufgabe erscheint, ist für Computer oft ein hartes Problem. Dies trifft vor allem bei vielen Aufgaben der Mustererkennung, wie zum Beispiel der visuellen Objekterkennung, zu. Betrachten wir folgendes Beispiel, in dem vor einer photosensiblen Fläche mehrere Buchstaben bewegt werden. Abbildung 1. Beispiel einer einfachen(?) Mustererkennungsaufgabe Es werden nacheinander die Buchstaben,,S,,,F und,,a auf dem in Abbildung 1 erkennbaren Weg durch das visuelle Feld bewegt. An den Stellen x 1, x 2 und x 3 werden exemplarisch die direkten visuellen Stimuli betrachtet. Ob es sich hierbei um direkte Abbildung der Grauwerte oder die Ableitung dieser handelt, ist nicht sehr entscheidend. Hier wurde die Grauwertabbildung gewählt. Diese ergeben ein primäres visuelles Signal, wie in Abbildung 2 beispielhaft dargestellt ist. Offensichtlich kann man aus den erhaltenen Daten nicht viel erkennen. Es ist weder ersichtlich, welcher Buchstabe die Reizung hervorruft, noch, wie er sich bewegt. Es ist lediglich erkennbar, dass sich an der Stelle x i irgendetwas tut. Auch zu erkennen ist, dass sich der Wert der Funktionen sehr schnell ändert, obwohl sich die Buchstaben an und für sich nur langsam fortbewegen. Was nun ein wünschenswertes Ziel ist - und wie auch ein unverbildeter Mensch 2
3 Abbildung 2. Das direkt vom Rezeptor abgefangene Signal den Vorgang beschreiben würde - wären zwei zeitabhängige Variablen. Die erste gibt an, welcher Buchstabe zu sehen ist, und die zweite (vektorwertig) an welcher Position der Buchstabe ist. Somit wünschen wir uns ein Ergebnis in etwa wie in Abbildung 3 erkennbar. Diese Funktionen ändern sich auch vergleichsweise wenig im Lauf der Zeit, was auch der langsamen Bewegung der Buchstaben entspricht. Abbildung 3. So wünschen wir uns das Ergebnis Wir suchen also eine Funktion g : R n n R 3 die als Eingabe die Stimuli der Photorezeptoren (n n Stück) bekommt und uns als Ausgabe Art und Lage der Buchstaben liefert. Dass es nötig ist, nicht nur lokale Informationen zu verarbeiten, ist verständlich, da selbst wir als Menschen aus den Diagrammen von x i nicht viel herauslesen können. Es muss daher schon das große Ganze 3
4 betrachtet werden. Nun gibt es offenbar sehr viele Funktionen die den hochdimensionalen Eingaberaum auf wenige Dimensionen projezieren, aber nur wenige, die dabei langsam sind. Diese gilt es nun herauszufinden. So gesehen ist die Wo-Information und die Was-Information gar nicht so unvergleichbar, da beide das entscheidende Merkmal der Langsamkeit besitzen. 2 Definition des Problems In diesem Abschnitt soll das Problem eine mathematische Grundlage erhalten: Gegeben: Ein Eingabesignal x : R R I x(t) = [x 1 (t), x 2 (t),..., x I (t)] mit der Zeit t [t 0, t 1 ] Gesucht: Eine Eingabe-Ausgabe-Funktion g : R I R J g(x) = [g 1 (x), g 2 (x),..., g J (x)] derart, dass für das Ausgabesignal y(t) = [y 1 (t), y 2 (t),..., y J (t)] mit y j (t) := g j (x(t)) gilt: j := (y j ) := ẏ 2 j min (1) Dabei sind folgende Nebenbedingungen zu beachten: y j = 0 (Mittelwertfreiheit) (2) y 2 j = 1 (Standardabweichung) (3) j < j : y j y j = 0 (Dekorrelation) (4) Wobei die spitzen Klammern für zeitliche Mittelung stehen, das heißt: f := 1 t 1 f(t)dt t 1 t 0 t 0 Alle diese Formeln haben eine sehr anschauliche Bedeutung und sind daher leicht verständlich: Gleichung 1 bedeutet, dass die Ableitung, also die Veränderung der Funktionswerte, (quadratisch) über die Zeit gemittelt, minimal sein soll, was ja eben der erwünschten Langsamkeit entspricht. Die Formeln 2 und 3 sollen die Triviallösung y j (t) = const verhindern. 1 Die Formel 4 garantiert, 1 Gleichung 2 ist nur vorhanden, um,,schöne und eindeutige Ergebnisse zu erhalten. Ohne diese würde Gleichung 3 lauten: (y j y j ) 2 = 1 4
5 dass verschiedene Ausgabesignale auch verschiedene Information tragen. Außerdem führt es eine Ordnung auf den Ausgabesignalen ein, so dass y 1 ein besseres, also langsameres Ergebnis ist als y 2, da dieses weitere Nebenbedingungen zu erfüllen hat. Dieses Problem ist ein Optimierungsproblem der Variationsrechnung und somit im Allgemeinen schwer zu lösen. Es gibt zwei Arten, das Problem zu vereinfachen: (1) In [Wiskott 2003] wird die Abhängigkeit von der Eingabefunktion vernachlässigt und somit eine obere Schranke des Resultates definiert. (2) Wenn wir die Menge der zugelassenen Funktionen g j auf Linearkombinationen einer endlichen Menge von nichtlinearen Funktionen beschränken, wird das Problem erheblich vereinfacht. Einen Algorithmus für die Lösung dieses eingeschränkten Optimierungsproblems (2) liefert das folgende Kapitel. 3 Lösung durch slow feature analysis Gegeben ist das I-dimensionale Eingabesignal x(t), gesucht diejenigen Funktionen g j (x) = K k=1 w jk h k (x), also die Linearkombination von K nichtlinearen Funktionen h k (x), die im Sinne von Abschnitt 2 optimal sind. Für K gilt meist K > max(i, J). Wir führen eine Funktion z : R I R K, z(t) := [h 1 (x(t)), h 2 (x(t)),..., h K (x(t))] ein, so dass wir nach dieser nichtlinearen Expansion das Problem als linear in den Komponenten von z betrachten können. Dies ist eine gebräuchliche Technik, die z.b. auch bei Support-Vektor-Maschinen verwendet wird, um jegliche Daten linear behandeln zu können (vgl. Abbildung 4). Überlicherweise verwendet man hierfür lediglich die Monome vom Grad eins, also h(x) = x für die lineare SFA, auch als SFA 1 bezeichnet, oder die Monome vom Grad 1 und 2 und die gemischten Terme wie x 1 x 2 für die quadratische SFA oder SFA 2. In diesem Fall ist h(x) := [x 1, x 2,..., x I, x 2 1, x 2 2,..., x 2 I, x 1 x 2, x 1 x 3,..., x 1 x I, x 2 x 3, x 2 x 4,... x I 1 x I ] 5
6 Abbildung 4. Nichtlineare Daten werden expandiert [Schölkopf, S. 17] Somit ist K = I + I + I (5) 2 Nun kann das Ausgabesignal y j als y j (t) = w T j z(t) dargestellt werden und es müssen nur noch die Gewichtsvektoren w j gelernt werden. Somit ändert sich die Minimierungsaufgabe (Gleichung 1) zu: (y j ) = y 2 j = wj T żż T w j min (6) O.B.d.A. können wir davon ausgehen, dass die Funktionen h k derart gewählt sind, dass z(t) mittelwertfrei und unkorreliert sind. Dies kann durch Subtraktion des Mittelwertes und anschließende Hauptachsentransformation (PCA) erreicht werden. Die Berechnung des Mittelwertes und die Hauptachsentransformation werden jedoch lediglich für die Trainingsdaten berechnet, daher sind die Testdaten nicht wirklich standardisiert, aber doch wenigstens ein Stück in die richtige Richtung gebracht. Dann ist die Nebenbedingungen der Mittelwertfreiheit von alleine erfüllt und da die Gleichungen yj 2 = wj T zz T w j = wj T w j = 1 }{{} =I j < j : y j y j = wj T zzt w j = wj T }{{} w j = 0 =I 6
7 genau dann erfüllt sind, wenn die Gewichtsvektoren w j eine Orthonormalbasis bilden, wird ein solcher Satz an Vektoren gesucht. Somit suchen wir denjenigen Eigenvektor der Länge eins der Matrix żż T, der zum kleinsten Eigenwert gehört. Der Eigenvektor zum nächsthöheren Eigenwert liefert g 2 (t)... 4 Neuronale Implementierung Was wäre ein Lernalgorithmus, der sich nicht durch Neuronale Netze implementieren ließe? Auch wenn die Slow Feature Analysis normalerweise in einem One- Shot-Verfahren lernt, kann man sie dennoch auch durch ein Neuronales Netz implementieren. (vgl. Abbildung 5). Abbildung 5. Die SFA als Neuronales Netz Die Eingabesignale x(t) werden durch nichtlineare Neurone h auf der ersten Schicht transformiert und gelangen über trainierbare Gewichte w zu den linearen Neuronen g. Somit ist g j (x) = w j0 + w T j h(x) + J 1 k=1 v kj g k (x) 7
8 Die Neurone g sind untereinander verschaltet, um über Anti-Hebb sches Lernen die Ausgabe zu dekorrelieren. Dieses Lernen geht nach der Oja schen Lernregel: v kj v kj ηg j g k Jedes dieser Netzwerke ist eine funktionstüchtige Einheit der Slow Feature Analysis. Diese werden wir später kombinieren, dann heißt jede dieser Einheiten SFA Modul. 5 Beispiel 1: Komplexzellen des visuellen Systems Die Performanz des Algorithmus soll nun an einem Beispiel überprüft werden. Hierzu versuchen wir die Komplexzellen des visuellen Systems zu simulieren. Das visuelle System des Menschen besteht in vorderster Front aus Simpel- und Komplexzellen, wobei die Simpelzellen eine Garborfilterung des retinalen Bildes durchführen und die Komplexzellen das Ergebnis mehrerer Simpelzellen beider Polaritäten (Sinus und Cosinus), die in einer Umgebung liegen, kombinieren und somit die Energie berechnen. Dies wird vereinfacht dargestellt in Abbildung 6. Abbildung 6. Komplexzellen kombinieren zusammengehörige Simpelzellen [CV-II Skript, Kap. 2, Seite 42] Die Simpelzellen sind wie in Abbildung 7 angeordnet und sind so zu verstehen: x 1 ist ein Störsignal, weil es mit den beiden anderen nichts zu tun hat und sollte von der Slow Feature Analysis ignoriert werden. x 2 und x 3 liefern durch eine Phasenverschiebung um 45 die Möglichkeit, die Energie an dieser Stelle zu berechnen. Eine Verschiebung um 90 wäre rechentechnisch vorteilhafter, aber wir wollen es der Slow Feature Analysis ja nicht zu leicht machen. 8
9 Abbildung 7. Rezeptive Felder der Simpelzellen Die Ausgabesignale der Simpelzellen in diesem Experiment werden durch folgende Formeln simuliert: x 1 (t) := (4 + a 0 (t))sin(t + 4φ 0 (t)) (7) x 2 (t) := (4 + a 1 (t))sin(t + 4φ 1 (t)) (8) x 3 (t) := (4 + a 1 (t))sin(t + 4φ 1 (t) + π 4 ) (9) Die Funktionen a 0, a 1, φ 0 und φ 1 sind tiefpassgefiltertes weißes Rauschen zwischen -1 und 1, das hier einfach als gegebenes Eingabesignal angesehen wird. Die Amplituden sind konstant erhöht, um sicherzustellen, dass sie sich im positiven Bereich befinden. Die Phaseninformation wird zusätzlich mit 4 multipliziert, um sicherzustellen, dass sie sich schneller ändert als die Amplitude. Abbildung 8. Die Ausgaben der Simpelzellen Die Ausgabesignale im Experiment sind in Abbildung 8 ersichtlich. Im x 1 -x 2 - Plot ist kein Zusammenhang ersichtlich, was aus den Formeln auch klar ist. Der x 2 -x 3 -Plot dagegen liefert einen elliptischen Zusammenhang der beiden Signale, der aus der 45 -Verschiebung hervorgeht. Das einzige,,langsame Feature, das mehrfach vorkommt, ist offensichtlich a 1, denn a 0 kommt nur einfach vor und φ 0 und φ 1 oszillieren schnell. Ob dieses 9
10 von der Slow Feature Analysis auch extrahiert wird, soll nun überprüft werden: Abbildung 9. Das Ergebnis der Slow Feature Analysis Wie in Abbildung 9 ersichtlich, sind die gegebene Funktion a 1 und die von der Slow Feature Analysis extrahierte Funktion y 1 schon auf den ersten Blick sehr ähnlich, ein a 1 -y 1 -Plot liefert Gewissheit: Die Korrelation zwischen den beiden Funktionen beträgt 99%. Somit kann man das Experiment als erfolgreich bezeichnen. In weiteren ähnlichen Beispielen wurde gezeigt, dass neben der Amplitude auch die Disparität, φ1 (t) und jede Kombinationen davon extrahiert werden können. Die Disparität ist der horizontale Versatz zwischen den retinalen Bildern der beide Augen und liefert Hinweise auf die Tiefe der gesehenen Objekte. Sie ist somit für das Stereosehen unabkömmlich. φ1 (t) ist die Ableitung der Phase und damit stark verknüpft mit der Geschwindigkeit der Simulusbewegung. 6 Beispiel 2: Ein hierarchisches SFA-Netzwerk Mit der bisherigen Methode können nur Merkmale extrahiert werden, die einen linearen oder quadratischen Zusammenhang haben. Natürlich könnte man auch eine SFA 3, eine SFA 4,... verwenden, jedoch wächst nach Gleichung 5 die Anzahl der benötigten nichtlinearen Funktionen h k exponentiell. Daher bietet es sich an, mehrere SFA-Module hintereinanderzuschalten und nur die ersten (und somit langsamsten) Ausgaben an die nächste Ebene weiterzuleiten. Dadurch kann man den Aufwand geringer halten, da nicht soviele unnötige Berechnungen durchzuführen sind. 10
11 In diesem Beispiel wird eine pyramidenartige Hierarchiestruktur von SFA- Modulen erstellt, Abbildung 10 verdeutlicht dies. Abbildung 10. Hierarchischer Netzwerkaufbau von SFA-Modulen Das Eingabefeld besteht aus 65 Eingabemodulen, die das (eindimensionale) visuelle Feld darstellen. Jeder Layer ist in zwei separate Module geteilt, um einerseits den Rechenaufwand gering zu halten und andererseits eine klare Funktionstrennung zu verdeutlichen. Die a-schichten (linear) kombinieren lediglich die Ergebnisse der tieferen Schichten, die b-schichten (quadratisch) verarbeiten dann diese vorverarbeiteten Ergebnisse. Als Zwischenschritt müssen die Werte jedoch in einem festen Bereich gehalten werden, da sonst ein extrem schlechtes Ergebnis das Gesamtergebnis verderben kann. Dieses Netzwerk lernt vollständig unüberwacht und ohne Backpropagation! Die Eingaben sind bewegte Muster, das wiederum tiefpassgefiltertes weißes Rauschen ist. Diese werden langsam über das visuelle Feld bewegt. Die Er- Abbildung 11. Das Ergebnis als Animation (durch Klicken starten) gebnisse kann man sich auch auf der Website der Slow Feature Analysis [Wiskotthomepage] als MPEG-Dateien anschauen. Die Translationsinvarianz wird ziemlich gut erreicht. Die drei gezeigten,,objekte werden gut unterschieden: Unten ist die Eingabe sichtbar: Drei verschiedene Objekte laufen von links nach rechts. Am Rand ist farblich markiert (rot-gelb-blau), welches Objekt 11
12 gerade sichtbar ist. In der oberen Zeile sind die Ausgaben der Slow Feature Analysis zu sehen. Die meisten davon sind einigermaßen invariant gegenüber der Position des Objektes, nicht jedoch gegenüber dem Objekt selbst. Als Ergebnisse dieses Experimentes sieht man, dass sowohl die Objekterkennung (Ausgaben 3 und 5) als auch die Erkennung der Position (Ausgabe 2), vom Objekt unabhängig, möglich sind. Warum diese beiden Informationen auch von der Slow Feature Analysis so getrennt behandelt werden, ist nicht ganz klar, passt aber gut zur Strukturierung des menschlichen Gehirns, das einen where- und einen what-pfad besitzt (siehe Abbildung 12). Abbildung 12. Auch das Gehirn trennt Objekterkennung(grün) und Positionserkennung(rot) [CV-II Skript, Kapitel II, S. 49] 7 Ergebnisse Im Folgenden sollen stichpunktartig noch weitere Ergebnisse über die Slow Feature Analysis erwähnt werden: Es werden nicht nur sich langsam ändernde, sondern auch sich selten ändernde Features extrahiert. Die Slow Feature Analysis ist ziemlich robust gegenüber Rauschen. Die Objekterkennung wird zwar über bewegte Muster erlernt, wenn der Lernprozess jedoch vorbei ist, werden die Objekte auch ohne Bewegung erkannt. Die Testergebnisse sind nicht erheblich schlechter als die Trainingsergebnisse. Es findet also kein Overfitting wie bei herkömmlichen Künstlichen Neuronalen Netzen statt. 12
13 Neben der Translationsinvarianz(3) sind auch die Rotationsinvarianz(4), die Skalierungsinvarianz(1), die Kontrastinvarianz(2) und die Beleuchtungswinkelinvarianz(5) möglich, wobei kleinere Zahlen in Klammern bessere Qualität bedeuten. Wenn mehrere Invarianzen gleichzeitig gelernt werden sollen, sinkt die Performanz deutlich. Im Gegensatz zu vielen ähnlichen Ansätzen, zum Beispiel von Földiáks Ansatz über die klassische Konditionierung [Foeldiák], wird bei der Slow Feature Analysis nicht nur eine eindimensionale Ausgabe erzeugt, sondern ein geordneter Vektor von Funktionen. Bei hochdimensionalen Eingaberäumen ist die Gefahr von numerischen Instabilitäten gegeben, die sich jedoch durch ein hierarchisches Netzwerk vermeiden lässt. Offene Fragen: Ist gleichzeitiges Lernen mehrerer Invarianzen ein inhärentes Problem oder kann man es durch komlexere Netzwerke oder mehr Training ermöglichen? Oft geben mehrere Ausgaben erst zusammen ein Feature wieder. Offensichtlich reicht Gleichung 4 nicht zur Dekorrelation der Ergebnisse aus. Hilft hier eine Hauptachsentransformation, um wirklich unabhängige Ergebnisse zu liefern? Ist die Methode überhaupt für Real-World-Anwendungen einsetzbar, z.b. in der Computer Vision? 8 Fazit Die Slow Feature Analysis ist ein unüberwachtes one-shot-lernverfahren und findet dadurch sie garantiert die optimale Lösung - im Gegensatz zu online-lernverfahren, die oft nur suboptimale lokale Fehlerminima liefern. Durch hierarchische Anordnung kann die algorithmische Komplexität auch bei hochdimensionalen Eingaberäumen gering gehalten werden, so dass vielfältige Anwendungsmöglichkeiten denkbar sind. Sicherlich ist klar, dass die Slow Feature Analysis nur eine Komponente in einem komplexen selbstorganisierendem Modell sein kann, um hochkomplexe Aufgaben lösen zu können. 13
14 Literatur [Wiskott 2002] Laurenz Wiskott, Terrence J. Sejnowski:,,Slow Feature Analysis, Neural Computation 14, (2002) [Wiskotthomepage] Laurenz Wiskott: wiskott/projects/learninginvariances.html, Stand [Wiskott 2003] Laurenz Wiskott:,,Slow Feature Analysis: A Theoretical Analysis of Optimal Free Responses, Neural Computation 15, , (2003) [Schölkopf] Bernhard Schölkopf:,,SVM and Kernel Methods, (2001) [CV-II Skript] Heiko Neumann:,,Computer Vision II Skript, (2004/05) [Foeldiák] P. Földiák:,,Learning invariance from transformation sequences, Neural Computation, 3, , (1991) 14
Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrEinführung in die linearen Funktionen. Autor: Benedikt Menne
Einführung in die linearen Funktionen Autor: Benedikt Menne Inhaltsverzeichnis Vorwort... 3 Allgemeine Definition... 3 3 Bestimmung der Steigung einer linearen Funktion... 4 3. Bestimmung der Steigung
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrPolynome und ihre Nullstellen
Polynome und ihre Nullstellen 29. Juli 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Explizite Berechnung der Nullstellen 2.1 Polynome vom Grad 0............................. 2.2 Polynome vom Grad 1.............................
MehrErster Akt: Begriffe und Beispiele
Eigenvektoren 1 Erster Akt: Begriffe und Beispiele 2 Sei L : A A eine lineare Abbildung von einem Vektorraum A in sich sich selbst. (Man denke an z. B. an A = R 2.) 3 Ein Vektor a A, a 0, heißt ein Eigenvektor
MehrNumerisches Programmieren, Übungen
Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrLina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen
Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrSeminar über Neuronale Netze und Maschinelles Lernen WS 06/07
Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrBlockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :
Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
MehrPartielle Ableitungen
Partielle Ableitungen Gymnasium Immensee Vertiefungskurs Mathematik Bettina Bieri 24. Juli 2011 Inhaltsverzeichnis 1 Funktionen von zwei Variablen 1 1.1 Aufbau solcher Funktionen.................... 1
Mehr18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
Mehr2. Quadratische Lagrangefunktionen und Fourierreihe.
0. Einführung Wir haben gerade das klassische Wirkungsprinzip betrachtet, nachdem wir wissen, dass der dynamische Verlauf eines Teilchens in dem Diagramm die Kurve darstellen soll, die die minimale Wirkung
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrHochschule Düsseldorf University of Applied Sciences. 27. Oktober 2016 HSD. Physik. Vektoren Bewegung in drei Dimensionen
Physik Vektoren Bewegung in drei Dimensionen y (px) ~x x (px) Spiele-Copyright: http://www.andreasilliger.com/index.php Richtung a b b ~x = a Einheiten in Richtung x, b Einheiten in Richtung y y (px) ~x
MehrÜbungen zu Splines Lösungen zu Übung 20
Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrÜbungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010
Mehr2.3 Logikoptimierung. Überblick digitale Synthese. Logikoptimierung
2.3 Logikoptimierung Logikoptimierung Überblick digitale Synthese Logikoptimierung Begriffe Mehrstufige Logik Zweistufige Logik:..Exakte Verfahen..Heuristische Verfahren..Expansion/ Reduktion..Streichen
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrVorbereitung für die Prüfung Mathematik II für Informatiker
Technische Universität Ilmenau SS 2010 Institut für Mathematik Inf Prof. Dr. Michael Stiebitz Vorbereitung für die Prüfung Mathematik II für Informatiker 1 Lineare Algebra Aufgabe 1 Schauen Sie sich die
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
Mehr- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.
- 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel
Mehr6. Vorlesung. Rechnen mit Matrizen.
6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt
MehrSkript EXCEL Matrizenrechnung/Lineare Gleichungssysteme
Skript EXCEL 2010 Matrizenrechnung/Lineare Gleichungssysteme 1. Einleitung Eine Matrixformel kann mehrere Berechnungen durchführen und dann entweder ein einzelnes Ergebnis oder mehrere Ergebnisse liefern.
MehrRepetitorium A: Matrizen, Reihenentwicklungen
Fakultät für Physik R: Rechenmethoden für Physiker, WiSe 5/6 Dozent: Jan von Delft Übungen: Benedikt Bruognolo, Dennis Schimmel, Frauke Schwarz, Lukas Weidinger http://homepages.physik.uni-muenchen.de/~vondelft/lehre/5r/
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrAnalytische Lösung algebraischer Gleichungen dritten und vierten Grades
Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Inhaltsverzeichnis 1 Einführung 1 2 Gleichungen dritten Grades 3 3 Gleichungen vierten Grades 7 1 Einführung In diesem Skript werden
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
Mehr1.6 Implizite Funktionen
1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrOptimierung unter Nebenbedingungen
Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung
MehrMathematischer Vorkurs für Physiker WS 2012/13
TU München Prof. P. Vogl Mathematischer Vorkurs für Physiker WS 2012/13 Übungsblatt 2 Wichtige Formeln aus der Vorlesung: Basisaufgaben Beispiel 1: 1 () grad () = 2 (). () () = ( 0 ) + grad ( 0 ) ( 0 )+
MehrMathematik: Mag. Schmid Wolfgang Arbeitsblatt Semester ARBEITSBLATT 11 GLEICHUNGEN UND ÄQUIVALENZUMFORMUNGEN
ARBEITSBLATT 11 GLEICHUNGEN UND ÄQUIVALENZUMFORMUNGEN Mathematische Gleichungen ergeben sich normalerweise aus einem textlichen Problem heraus. Hier folgt nun ein zugegebenermaßen etwas künstliches Problem:
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrMATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer
MehrTEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm
TEIL I: KINEMATIK Unter Kinematik versteht man die pure Beschreibung der Bewegung eines Körpers (oder eines Systems aus mehreren Körpern), ohne nach den Ursachen dieser Bewegung zu fragen. Letzteres wird
Mehr1 Die drei Bewegungsgleichungen
1 Die drei Bewegungsgleichungen Unbeschleunigte Bewegung, a = 0: Hier gibt es nur eine Formel, nämlich die für den Weg, s. (i) s = s 0 + v t s ist der zurückgelegte Weg, s 0 der Ort, an dem sich der Körper
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrDas isoperimetrische Problem
Das isoperimetrische Problem Thomas Peters Thomas Mathe-Seiten www.mathe-seiten.de 18. Oktober 3 Das isoperimetrische Problem, auch bekannt als das Problem der Dido, ist es, unter allen geschlossenen ebenen
Mehr7.11. Extrema unter Nebenbedingungen
7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes
MehrKontinuierliche Fourier-Transformation. Laplace-Transformation
Kontinuierliche Fourier-Transformation. Laplace-Transformation Jörn Loviscach Versionsstand: 16. Juni 2010, 17:56 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu:
Mehr4.3 Anwendungen auf Differentialgleichungen
7 4.3 Anwendungen auf Differentialgleichungen Die Laplace-Transformation wird gerne benutzt, um lineare Differentialgleichungen mit konstanten Koeffizienten y n + a n y n +... + a y + a 0 y ft zu lösen,
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrWir erinnern zunächst an die verschiedenen Arten von Funktionen, die uns bisher begegnet sind: V : r 0 3 V ( r) 0 3
3 1. Mathematische Grundlagen Zur Vorbereitung fassen wir in diesem ersten Kapitel die wichtigsten mathematischen Konzepte zusammen, mit denen wir in der Elektrodynamik immer wieder umgehen werden. 1.1.
Mehr5. Vorlesung Wintersemester
5. Vorlesung Wintersemester 1 Bewegung mit Stokes scher Reibung Ein dritter Weg, die Bewegungsgleichung bei Stokes scher Reibung zu lösen, ist die 1.1 Separation der Variablen m v = αv (1) Diese Methode
MehrEigenwerte und Eigenvektoren
Vortrag Gmnasium Birkenfeld Von der mathematischen Spielerei zur technischen Anwendung Vortrag Gmnasium Birkenfeld. Vektoren und Matrizen Wir betrachten einen Punkt P (, ) in der Ebene eines rechtwinklig
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrLineare Gleichungssystem
Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen
MehrProbestudium der Physik 2011/12
Probestudium der Physik 2011/12 1 Schwingungen und Wellen: Einführung in die mathematischen Grundlagen 1.1 Die Sinus- und die Kosinusfunktion Die Sinusfunktion lässt sich genauso wie die Kosinusfunktion
MehrMathematik für Biologen mathematische Ergänzungen und Beispiele Teil I
Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I 1. Mengen und Abbildungen In der Mathematik beschäftigt man sich immer -direkt oder indirekt- mit Mengen. Wir benötigen den Mengenbegriff
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
Mehr3. Kinematik und Schwingungen
3. Kinematik und Schwingungen 1 3.1. Kinematik Als Nächstes wollen wir Bewegungen beschreiben z.b. die einer Cataglyphis 2 Zuallererst brauchen wir ein Koordinatensystem um die Positionen überhaupt zu
MehrKapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrDifferentialgleichungen 2. Ordnung
Differentialgleichungen 2. Ordnung 1-E1 1-E2 Einführendes Beispiel Freier Fall Viele Geschichten ranken sich um den schiefen Turm von Pisa: Der Legende nach hat der aus Pisa stammende Galileo Galilei bei
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
Mehr2.2 Kollineare und koplanare Vektoren
. Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,
Mehr6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung
6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback
MehrT2 Quantenmechanik Lösungen 4
T2 Quantenmechanik Lösungen 4 LMU München, WS 17/18 4.1. Lösungen der Schrödinger-Gleichung Beweisen Sie die folgenden Aussagen. Prof. D. Lüst / Dr. A. Schmi-May version: 06. 11. a) Die Separationskonstante
MehrTP2: Elektrodynamik WS Arbeitsblatt 10 21/ Dipole und Multipole in stationären Feldern
TP2: Elektrodynamik WS 2017-2018 Arbeitsblatt 10 21/22.12. 2017 Dipole und Multipole in stationären Feldern Die Multipolentwicklung ist eine hilfreiche Näherung zur Lösung der Poisson Gleichung, wenn eine
MehrMathematische Erfrischungen III - Vektoren und Matrizen
Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
Mehrauf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a
x LINEARE ABBILDUNGEN Denition: Seien V; V Vektorraume Eine Abbildung f heit linear, falls (i) (ii) f(x + y) f(x) + f(y) (x; y V ) f(x) f(x) ( R; x V ) Bemerkungen: I (i) und (ii) oben sind aquivalent
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Mehr6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation
6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische
Mehr