Slow feature analysis

Größe: px
Ab Seite anzeigen:

Download "Slow feature analysis"

Transkript

1 Slow feature analysis Welf Walter Zusammenfassung Die sogenannte Slow Feature Analysis ist eine neue Idee, aus zeitabhängigen Daten die wichtigen Komponenten herauszufinden und die redundanten Informationen zu vernachlässigen. Der Grundgedanke dabei ist, dass die Welt sich langsam verändert, während Sensoren ständig wechselnde Daten liefern. Inhaltsverzeichnis 1 Motivation 2 2 Definition des Problems 4 3 Lösung durch slow feature analysis 5 4 Neuronale Implementierung 7 5 Beispiel 1: Komplexzellen des visuellen Systems 8 6 Beispiel 2: Ein hierarchisches SFA-Netzwerk 10 7 Ergebnisse 12 8 Fazit 13 Literatur 14 address: welf.walter@informatik.uni-ulm.de (Welf Walter). 27. Juni 2005

2 1 Motivation Was für uns Menschen wie eine simple Aufgabe erscheint, ist für Computer oft ein hartes Problem. Dies trifft vor allem bei vielen Aufgaben der Mustererkennung, wie zum Beispiel der visuellen Objekterkennung, zu. Betrachten wir folgendes Beispiel, in dem vor einer photosensiblen Fläche mehrere Buchstaben bewegt werden. Abbildung 1. Beispiel einer einfachen(?) Mustererkennungsaufgabe Es werden nacheinander die Buchstaben,,S,,,F und,,a auf dem in Abbildung 1 erkennbaren Weg durch das visuelle Feld bewegt. An den Stellen x 1, x 2 und x 3 werden exemplarisch die direkten visuellen Stimuli betrachtet. Ob es sich hierbei um direkte Abbildung der Grauwerte oder die Ableitung dieser handelt, ist nicht sehr entscheidend. Hier wurde die Grauwertabbildung gewählt. Diese ergeben ein primäres visuelles Signal, wie in Abbildung 2 beispielhaft dargestellt ist. Offensichtlich kann man aus den erhaltenen Daten nicht viel erkennen. Es ist weder ersichtlich, welcher Buchstabe die Reizung hervorruft, noch, wie er sich bewegt. Es ist lediglich erkennbar, dass sich an der Stelle x i irgendetwas tut. Auch zu erkennen ist, dass sich der Wert der Funktionen sehr schnell ändert, obwohl sich die Buchstaben an und für sich nur langsam fortbewegen. Was nun ein wünschenswertes Ziel ist - und wie auch ein unverbildeter Mensch 2

3 Abbildung 2. Das direkt vom Rezeptor abgefangene Signal den Vorgang beschreiben würde - wären zwei zeitabhängige Variablen. Die erste gibt an, welcher Buchstabe zu sehen ist, und die zweite (vektorwertig) an welcher Position der Buchstabe ist. Somit wünschen wir uns ein Ergebnis in etwa wie in Abbildung 3 erkennbar. Diese Funktionen ändern sich auch vergleichsweise wenig im Lauf der Zeit, was auch der langsamen Bewegung der Buchstaben entspricht. Abbildung 3. So wünschen wir uns das Ergebnis Wir suchen also eine Funktion g : R n n R 3 die als Eingabe die Stimuli der Photorezeptoren (n n Stück) bekommt und uns als Ausgabe Art und Lage der Buchstaben liefert. Dass es nötig ist, nicht nur lokale Informationen zu verarbeiten, ist verständlich, da selbst wir als Menschen aus den Diagrammen von x i nicht viel herauslesen können. Es muss daher schon das große Ganze 3

4 betrachtet werden. Nun gibt es offenbar sehr viele Funktionen die den hochdimensionalen Eingaberaum auf wenige Dimensionen projezieren, aber nur wenige, die dabei langsam sind. Diese gilt es nun herauszufinden. So gesehen ist die Wo-Information und die Was-Information gar nicht so unvergleichbar, da beide das entscheidende Merkmal der Langsamkeit besitzen. 2 Definition des Problems In diesem Abschnitt soll das Problem eine mathematische Grundlage erhalten: Gegeben: Ein Eingabesignal x : R R I x(t) = [x 1 (t), x 2 (t),..., x I (t)] mit der Zeit t [t 0, t 1 ] Gesucht: Eine Eingabe-Ausgabe-Funktion g : R I R J g(x) = [g 1 (x), g 2 (x),..., g J (x)] derart, dass für das Ausgabesignal y(t) = [y 1 (t), y 2 (t),..., y J (t)] mit y j (t) := g j (x(t)) gilt: j := (y j ) := ẏ 2 j min (1) Dabei sind folgende Nebenbedingungen zu beachten: y j = 0 (Mittelwertfreiheit) (2) y 2 j = 1 (Standardabweichung) (3) j < j : y j y j = 0 (Dekorrelation) (4) Wobei die spitzen Klammern für zeitliche Mittelung stehen, das heißt: f := 1 t 1 f(t)dt t 1 t 0 t 0 Alle diese Formeln haben eine sehr anschauliche Bedeutung und sind daher leicht verständlich: Gleichung 1 bedeutet, dass die Ableitung, also die Veränderung der Funktionswerte, (quadratisch) über die Zeit gemittelt, minimal sein soll, was ja eben der erwünschten Langsamkeit entspricht. Die Formeln 2 und 3 sollen die Triviallösung y j (t) = const verhindern. 1 Die Formel 4 garantiert, 1 Gleichung 2 ist nur vorhanden, um,,schöne und eindeutige Ergebnisse zu erhalten. Ohne diese würde Gleichung 3 lauten: (y j y j ) 2 = 1 4

5 dass verschiedene Ausgabesignale auch verschiedene Information tragen. Außerdem führt es eine Ordnung auf den Ausgabesignalen ein, so dass y 1 ein besseres, also langsameres Ergebnis ist als y 2, da dieses weitere Nebenbedingungen zu erfüllen hat. Dieses Problem ist ein Optimierungsproblem der Variationsrechnung und somit im Allgemeinen schwer zu lösen. Es gibt zwei Arten, das Problem zu vereinfachen: (1) In [Wiskott 2003] wird die Abhängigkeit von der Eingabefunktion vernachlässigt und somit eine obere Schranke des Resultates definiert. (2) Wenn wir die Menge der zugelassenen Funktionen g j auf Linearkombinationen einer endlichen Menge von nichtlinearen Funktionen beschränken, wird das Problem erheblich vereinfacht. Einen Algorithmus für die Lösung dieses eingeschränkten Optimierungsproblems (2) liefert das folgende Kapitel. 3 Lösung durch slow feature analysis Gegeben ist das I-dimensionale Eingabesignal x(t), gesucht diejenigen Funktionen g j (x) = K k=1 w jk h k (x), also die Linearkombination von K nichtlinearen Funktionen h k (x), die im Sinne von Abschnitt 2 optimal sind. Für K gilt meist K > max(i, J). Wir führen eine Funktion z : R I R K, z(t) := [h 1 (x(t)), h 2 (x(t)),..., h K (x(t))] ein, so dass wir nach dieser nichtlinearen Expansion das Problem als linear in den Komponenten von z betrachten können. Dies ist eine gebräuchliche Technik, die z.b. auch bei Support-Vektor-Maschinen verwendet wird, um jegliche Daten linear behandeln zu können (vgl. Abbildung 4). Überlicherweise verwendet man hierfür lediglich die Monome vom Grad eins, also h(x) = x für die lineare SFA, auch als SFA 1 bezeichnet, oder die Monome vom Grad 1 und 2 und die gemischten Terme wie x 1 x 2 für die quadratische SFA oder SFA 2. In diesem Fall ist h(x) := [x 1, x 2,..., x I, x 2 1, x 2 2,..., x 2 I, x 1 x 2, x 1 x 3,..., x 1 x I, x 2 x 3, x 2 x 4,... x I 1 x I ] 5

6 Abbildung 4. Nichtlineare Daten werden expandiert [Schölkopf, S. 17] Somit ist K = I + I + I (5) 2 Nun kann das Ausgabesignal y j als y j (t) = w T j z(t) dargestellt werden und es müssen nur noch die Gewichtsvektoren w j gelernt werden. Somit ändert sich die Minimierungsaufgabe (Gleichung 1) zu: (y j ) = y 2 j = wj T żż T w j min (6) O.B.d.A. können wir davon ausgehen, dass die Funktionen h k derart gewählt sind, dass z(t) mittelwertfrei und unkorreliert sind. Dies kann durch Subtraktion des Mittelwertes und anschließende Hauptachsentransformation (PCA) erreicht werden. Die Berechnung des Mittelwertes und die Hauptachsentransformation werden jedoch lediglich für die Trainingsdaten berechnet, daher sind die Testdaten nicht wirklich standardisiert, aber doch wenigstens ein Stück in die richtige Richtung gebracht. Dann ist die Nebenbedingungen der Mittelwertfreiheit von alleine erfüllt und da die Gleichungen yj 2 = wj T zz T w j = wj T w j = 1 }{{} =I j < j : y j y j = wj T zzt w j = wj T }{{} w j = 0 =I 6

7 genau dann erfüllt sind, wenn die Gewichtsvektoren w j eine Orthonormalbasis bilden, wird ein solcher Satz an Vektoren gesucht. Somit suchen wir denjenigen Eigenvektor der Länge eins der Matrix żż T, der zum kleinsten Eigenwert gehört. Der Eigenvektor zum nächsthöheren Eigenwert liefert g 2 (t)... 4 Neuronale Implementierung Was wäre ein Lernalgorithmus, der sich nicht durch Neuronale Netze implementieren ließe? Auch wenn die Slow Feature Analysis normalerweise in einem One- Shot-Verfahren lernt, kann man sie dennoch auch durch ein Neuronales Netz implementieren. (vgl. Abbildung 5). Abbildung 5. Die SFA als Neuronales Netz Die Eingabesignale x(t) werden durch nichtlineare Neurone h auf der ersten Schicht transformiert und gelangen über trainierbare Gewichte w zu den linearen Neuronen g. Somit ist g j (x) = w j0 + w T j h(x) + J 1 k=1 v kj g k (x) 7

8 Die Neurone g sind untereinander verschaltet, um über Anti-Hebb sches Lernen die Ausgabe zu dekorrelieren. Dieses Lernen geht nach der Oja schen Lernregel: v kj v kj ηg j g k Jedes dieser Netzwerke ist eine funktionstüchtige Einheit der Slow Feature Analysis. Diese werden wir später kombinieren, dann heißt jede dieser Einheiten SFA Modul. 5 Beispiel 1: Komplexzellen des visuellen Systems Die Performanz des Algorithmus soll nun an einem Beispiel überprüft werden. Hierzu versuchen wir die Komplexzellen des visuellen Systems zu simulieren. Das visuelle System des Menschen besteht in vorderster Front aus Simpel- und Komplexzellen, wobei die Simpelzellen eine Garborfilterung des retinalen Bildes durchführen und die Komplexzellen das Ergebnis mehrerer Simpelzellen beider Polaritäten (Sinus und Cosinus), die in einer Umgebung liegen, kombinieren und somit die Energie berechnen. Dies wird vereinfacht dargestellt in Abbildung 6. Abbildung 6. Komplexzellen kombinieren zusammengehörige Simpelzellen [CV-II Skript, Kap. 2, Seite 42] Die Simpelzellen sind wie in Abbildung 7 angeordnet und sind so zu verstehen: x 1 ist ein Störsignal, weil es mit den beiden anderen nichts zu tun hat und sollte von der Slow Feature Analysis ignoriert werden. x 2 und x 3 liefern durch eine Phasenverschiebung um 45 die Möglichkeit, die Energie an dieser Stelle zu berechnen. Eine Verschiebung um 90 wäre rechentechnisch vorteilhafter, aber wir wollen es der Slow Feature Analysis ja nicht zu leicht machen. 8

9 Abbildung 7. Rezeptive Felder der Simpelzellen Die Ausgabesignale der Simpelzellen in diesem Experiment werden durch folgende Formeln simuliert: x 1 (t) := (4 + a 0 (t))sin(t + 4φ 0 (t)) (7) x 2 (t) := (4 + a 1 (t))sin(t + 4φ 1 (t)) (8) x 3 (t) := (4 + a 1 (t))sin(t + 4φ 1 (t) + π 4 ) (9) Die Funktionen a 0, a 1, φ 0 und φ 1 sind tiefpassgefiltertes weißes Rauschen zwischen -1 und 1, das hier einfach als gegebenes Eingabesignal angesehen wird. Die Amplituden sind konstant erhöht, um sicherzustellen, dass sie sich im positiven Bereich befinden. Die Phaseninformation wird zusätzlich mit 4 multipliziert, um sicherzustellen, dass sie sich schneller ändert als die Amplitude. Abbildung 8. Die Ausgaben der Simpelzellen Die Ausgabesignale im Experiment sind in Abbildung 8 ersichtlich. Im x 1 -x 2 - Plot ist kein Zusammenhang ersichtlich, was aus den Formeln auch klar ist. Der x 2 -x 3 -Plot dagegen liefert einen elliptischen Zusammenhang der beiden Signale, der aus der 45 -Verschiebung hervorgeht. Das einzige,,langsame Feature, das mehrfach vorkommt, ist offensichtlich a 1, denn a 0 kommt nur einfach vor und φ 0 und φ 1 oszillieren schnell. Ob dieses 9

10 von der Slow Feature Analysis auch extrahiert wird, soll nun überprüft werden: Abbildung 9. Das Ergebnis der Slow Feature Analysis Wie in Abbildung 9 ersichtlich, sind die gegebene Funktion a 1 und die von der Slow Feature Analysis extrahierte Funktion y 1 schon auf den ersten Blick sehr ähnlich, ein a 1 -y 1 -Plot liefert Gewissheit: Die Korrelation zwischen den beiden Funktionen beträgt 99%. Somit kann man das Experiment als erfolgreich bezeichnen. In weiteren ähnlichen Beispielen wurde gezeigt, dass neben der Amplitude auch die Disparität, φ1 (t) und jede Kombinationen davon extrahiert werden können. Die Disparität ist der horizontale Versatz zwischen den retinalen Bildern der beide Augen und liefert Hinweise auf die Tiefe der gesehenen Objekte. Sie ist somit für das Stereosehen unabkömmlich. φ1 (t) ist die Ableitung der Phase und damit stark verknüpft mit der Geschwindigkeit der Simulusbewegung. 6 Beispiel 2: Ein hierarchisches SFA-Netzwerk Mit der bisherigen Methode können nur Merkmale extrahiert werden, die einen linearen oder quadratischen Zusammenhang haben. Natürlich könnte man auch eine SFA 3, eine SFA 4,... verwenden, jedoch wächst nach Gleichung 5 die Anzahl der benötigten nichtlinearen Funktionen h k exponentiell. Daher bietet es sich an, mehrere SFA-Module hintereinanderzuschalten und nur die ersten (und somit langsamsten) Ausgaben an die nächste Ebene weiterzuleiten. Dadurch kann man den Aufwand geringer halten, da nicht soviele unnötige Berechnungen durchzuführen sind. 10

11 In diesem Beispiel wird eine pyramidenartige Hierarchiestruktur von SFA- Modulen erstellt, Abbildung 10 verdeutlicht dies. Abbildung 10. Hierarchischer Netzwerkaufbau von SFA-Modulen Das Eingabefeld besteht aus 65 Eingabemodulen, die das (eindimensionale) visuelle Feld darstellen. Jeder Layer ist in zwei separate Module geteilt, um einerseits den Rechenaufwand gering zu halten und andererseits eine klare Funktionstrennung zu verdeutlichen. Die a-schichten (linear) kombinieren lediglich die Ergebnisse der tieferen Schichten, die b-schichten (quadratisch) verarbeiten dann diese vorverarbeiteten Ergebnisse. Als Zwischenschritt müssen die Werte jedoch in einem festen Bereich gehalten werden, da sonst ein extrem schlechtes Ergebnis das Gesamtergebnis verderben kann. Dieses Netzwerk lernt vollständig unüberwacht und ohne Backpropagation! Die Eingaben sind bewegte Muster, das wiederum tiefpassgefiltertes weißes Rauschen ist. Diese werden langsam über das visuelle Feld bewegt. Die Er- Abbildung 11. Das Ergebnis als Animation (durch Klicken starten) gebnisse kann man sich auch auf der Website der Slow Feature Analysis [Wiskotthomepage] als MPEG-Dateien anschauen. Die Translationsinvarianz wird ziemlich gut erreicht. Die drei gezeigten,,objekte werden gut unterschieden: Unten ist die Eingabe sichtbar: Drei verschiedene Objekte laufen von links nach rechts. Am Rand ist farblich markiert (rot-gelb-blau), welches Objekt 11

12 gerade sichtbar ist. In der oberen Zeile sind die Ausgaben der Slow Feature Analysis zu sehen. Die meisten davon sind einigermaßen invariant gegenüber der Position des Objektes, nicht jedoch gegenüber dem Objekt selbst. Als Ergebnisse dieses Experimentes sieht man, dass sowohl die Objekterkennung (Ausgaben 3 und 5) als auch die Erkennung der Position (Ausgabe 2), vom Objekt unabhängig, möglich sind. Warum diese beiden Informationen auch von der Slow Feature Analysis so getrennt behandelt werden, ist nicht ganz klar, passt aber gut zur Strukturierung des menschlichen Gehirns, das einen where- und einen what-pfad besitzt (siehe Abbildung 12). Abbildung 12. Auch das Gehirn trennt Objekterkennung(grün) und Positionserkennung(rot) [CV-II Skript, Kapitel II, S. 49] 7 Ergebnisse Im Folgenden sollen stichpunktartig noch weitere Ergebnisse über die Slow Feature Analysis erwähnt werden: Es werden nicht nur sich langsam ändernde, sondern auch sich selten ändernde Features extrahiert. Die Slow Feature Analysis ist ziemlich robust gegenüber Rauschen. Die Objekterkennung wird zwar über bewegte Muster erlernt, wenn der Lernprozess jedoch vorbei ist, werden die Objekte auch ohne Bewegung erkannt. Die Testergebnisse sind nicht erheblich schlechter als die Trainingsergebnisse. Es findet also kein Overfitting wie bei herkömmlichen Künstlichen Neuronalen Netzen statt. 12

13 Neben der Translationsinvarianz(3) sind auch die Rotationsinvarianz(4), die Skalierungsinvarianz(1), die Kontrastinvarianz(2) und die Beleuchtungswinkelinvarianz(5) möglich, wobei kleinere Zahlen in Klammern bessere Qualität bedeuten. Wenn mehrere Invarianzen gleichzeitig gelernt werden sollen, sinkt die Performanz deutlich. Im Gegensatz zu vielen ähnlichen Ansätzen, zum Beispiel von Földiáks Ansatz über die klassische Konditionierung [Foeldiák], wird bei der Slow Feature Analysis nicht nur eine eindimensionale Ausgabe erzeugt, sondern ein geordneter Vektor von Funktionen. Bei hochdimensionalen Eingaberäumen ist die Gefahr von numerischen Instabilitäten gegeben, die sich jedoch durch ein hierarchisches Netzwerk vermeiden lässt. Offene Fragen: Ist gleichzeitiges Lernen mehrerer Invarianzen ein inhärentes Problem oder kann man es durch komlexere Netzwerke oder mehr Training ermöglichen? Oft geben mehrere Ausgaben erst zusammen ein Feature wieder. Offensichtlich reicht Gleichung 4 nicht zur Dekorrelation der Ergebnisse aus. Hilft hier eine Hauptachsentransformation, um wirklich unabhängige Ergebnisse zu liefern? Ist die Methode überhaupt für Real-World-Anwendungen einsetzbar, z.b. in der Computer Vision? 8 Fazit Die Slow Feature Analysis ist ein unüberwachtes one-shot-lernverfahren und findet dadurch sie garantiert die optimale Lösung - im Gegensatz zu online-lernverfahren, die oft nur suboptimale lokale Fehlerminima liefern. Durch hierarchische Anordnung kann die algorithmische Komplexität auch bei hochdimensionalen Eingaberäumen gering gehalten werden, so dass vielfältige Anwendungsmöglichkeiten denkbar sind. Sicherlich ist klar, dass die Slow Feature Analysis nur eine Komponente in einem komplexen selbstorganisierendem Modell sein kann, um hochkomplexe Aufgaben lösen zu können. 13

14 Literatur [Wiskott 2002] Laurenz Wiskott, Terrence J. Sejnowski:,,Slow Feature Analysis, Neural Computation 14, (2002) [Wiskotthomepage] Laurenz Wiskott: wiskott/projects/learninginvariances.html, Stand [Wiskott 2003] Laurenz Wiskott:,,Slow Feature Analysis: A Theoretical Analysis of Optimal Free Responses, Neural Computation 15, , (2003) [Schölkopf] Bernhard Schölkopf:,,SVM and Kernel Methods, (2001) [CV-II Skript] Heiko Neumann:,,Computer Vision II Skript, (2004/05) [Foeldiák] P. Földiák:,,Learning invariance from transformation sequences, Neural Computation, 3, , (1991) 14

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Einführung in die linearen Funktionen. Autor: Benedikt Menne

Einführung in die linearen Funktionen. Autor: Benedikt Menne Einführung in die linearen Funktionen Autor: Benedikt Menne Inhaltsverzeichnis Vorwort... 3 Allgemeine Definition... 3 3 Bestimmung der Steigung einer linearen Funktion... 4 3. Bestimmung der Steigung

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Polynome und ihre Nullstellen

Polynome und ihre Nullstellen Polynome und ihre Nullstellen 29. Juli 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Explizite Berechnung der Nullstellen 2.1 Polynome vom Grad 0............................. 2.2 Polynome vom Grad 1.............................

Mehr

Erster Akt: Begriffe und Beispiele

Erster Akt: Begriffe und Beispiele Eigenvektoren 1 Erster Akt: Begriffe und Beispiele 2 Sei L : A A eine lineare Abbildung von einem Vektorraum A in sich sich selbst. (Man denke an z. B. an A = R 2.) 3 Ein Vektor a A, a 0, heißt ein Eigenvektor

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Partielle Ableitungen

Partielle Ableitungen Partielle Ableitungen Gymnasium Immensee Vertiefungskurs Mathematik Bettina Bieri 24. Juli 2011 Inhaltsverzeichnis 1 Funktionen von zwei Variablen 1 1.1 Aufbau solcher Funktionen.................... 1

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

2. Quadratische Lagrangefunktionen und Fourierreihe.

2. Quadratische Lagrangefunktionen und Fourierreihe. 0. Einführung Wir haben gerade das klassische Wirkungsprinzip betrachtet, nachdem wir wissen, dass der dynamische Verlauf eines Teilchens in dem Diagramm die Kurve darstellen soll, die die minimale Wirkung

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Hochschule Düsseldorf University of Applied Sciences. 27. Oktober 2016 HSD. Physik. Vektoren Bewegung in drei Dimensionen

Hochschule Düsseldorf University of Applied Sciences. 27. Oktober 2016 HSD. Physik. Vektoren Bewegung in drei Dimensionen Physik Vektoren Bewegung in drei Dimensionen y (px) ~x x (px) Spiele-Copyright: http://www.andreasilliger.com/index.php Richtung a b b ~x = a Einheiten in Richtung x, b Einheiten in Richtung y y (px) ~x

Mehr

Übungen zu Splines Lösungen zu Übung 20

Übungen zu Splines Lösungen zu Übung 20 Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010

Mehr

2.3 Logikoptimierung. Überblick digitale Synthese. Logikoptimierung

2.3 Logikoptimierung. Überblick digitale Synthese. Logikoptimierung 2.3 Logikoptimierung Logikoptimierung Überblick digitale Synthese Logikoptimierung Begriffe Mehrstufige Logik Zweistufige Logik:..Exakte Verfahen..Heuristische Verfahren..Expansion/ Reduktion..Streichen

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Vorbereitung für die Prüfung Mathematik II für Informatiker

Vorbereitung für die Prüfung Mathematik II für Informatiker Technische Universität Ilmenau SS 2010 Institut für Mathematik Inf Prof. Dr. Michael Stiebitz Vorbereitung für die Prüfung Mathematik II für Informatiker 1 Lineare Algebra Aufgabe 1 Schauen Sie sich die

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2. - 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

Skript EXCEL Matrizenrechnung/Lineare Gleichungssysteme

Skript EXCEL Matrizenrechnung/Lineare Gleichungssysteme Skript EXCEL 2010 Matrizenrechnung/Lineare Gleichungssysteme 1. Einleitung Eine Matrixformel kann mehrere Berechnungen durchführen und dann entweder ein einzelnes Ergebnis oder mehrere Ergebnisse liefern.

Mehr

Repetitorium A: Matrizen, Reihenentwicklungen

Repetitorium A: Matrizen, Reihenentwicklungen Fakultät für Physik R: Rechenmethoden für Physiker, WiSe 5/6 Dozent: Jan von Delft Übungen: Benedikt Bruognolo, Dennis Schimmel, Frauke Schwarz, Lukas Weidinger http://homepages.physik.uni-muenchen.de/~vondelft/lehre/5r/

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades

Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Analytische Lösung algebraischer Gleichungen dritten und vierten Grades Inhaltsverzeichnis 1 Einführung 1 2 Gleichungen dritten Grades 3 3 Gleichungen vierten Grades 7 1 Einführung In diesem Skript werden

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Optimierung unter Nebenbedingungen

Optimierung unter Nebenbedingungen Optimierung unter Nebenbedingungen Kapitel 7: Optimierung unter Nebenbedingungen Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 1. Juli 2009 1 / 18 7.1 Bemerkung

Mehr

Mathematischer Vorkurs für Physiker WS 2012/13

Mathematischer Vorkurs für Physiker WS 2012/13 TU München Prof. P. Vogl Mathematischer Vorkurs für Physiker WS 2012/13 Übungsblatt 2 Wichtige Formeln aus der Vorlesung: Basisaufgaben Beispiel 1: 1 () grad () = 2 (). () () = ( 0 ) + grad ( 0 ) ( 0 )+

Mehr

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt Semester ARBEITSBLATT 11 GLEICHUNGEN UND ÄQUIVALENZUMFORMUNGEN

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt Semester ARBEITSBLATT 11 GLEICHUNGEN UND ÄQUIVALENZUMFORMUNGEN ARBEITSBLATT 11 GLEICHUNGEN UND ÄQUIVALENZUMFORMUNGEN Mathematische Gleichungen ergeben sich normalerweise aus einem textlichen Problem heraus. Hier folgt nun ein zugegebenermaßen etwas künstliches Problem:

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

TEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm

TEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm TEIL I: KINEMATIK Unter Kinematik versteht man die pure Beschreibung der Bewegung eines Körpers (oder eines Systems aus mehreren Körpern), ohne nach den Ursachen dieser Bewegung zu fragen. Letzteres wird

Mehr

1 Die drei Bewegungsgleichungen

1 Die drei Bewegungsgleichungen 1 Die drei Bewegungsgleichungen Unbeschleunigte Bewegung, a = 0: Hier gibt es nur eine Formel, nämlich die für den Weg, s. (i) s = s 0 + v t s ist der zurückgelegte Weg, s 0 der Ort, an dem sich der Körper

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Das isoperimetrische Problem

Das isoperimetrische Problem Das isoperimetrische Problem Thomas Peters Thomas Mathe-Seiten www.mathe-seiten.de 18. Oktober 3 Das isoperimetrische Problem, auch bekannt als das Problem der Dido, ist es, unter allen geschlossenen ebenen

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

Kontinuierliche Fourier-Transformation. Laplace-Transformation

Kontinuierliche Fourier-Transformation. Laplace-Transformation Kontinuierliche Fourier-Transformation. Laplace-Transformation Jörn Loviscach Versionsstand: 16. Juni 2010, 17:56 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu:

Mehr

4.3 Anwendungen auf Differentialgleichungen

4.3 Anwendungen auf Differentialgleichungen 7 4.3 Anwendungen auf Differentialgleichungen Die Laplace-Transformation wird gerne benutzt, um lineare Differentialgleichungen mit konstanten Koeffizienten y n + a n y n +... + a y + a 0 y ft zu lösen,

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Wir erinnern zunächst an die verschiedenen Arten von Funktionen, die uns bisher begegnet sind: V : r 0 3 V ( r) 0 3

Wir erinnern zunächst an die verschiedenen Arten von Funktionen, die uns bisher begegnet sind: V : r 0 3 V ( r) 0 3 3 1. Mathematische Grundlagen Zur Vorbereitung fassen wir in diesem ersten Kapitel die wichtigsten mathematischen Konzepte zusammen, mit denen wir in der Elektrodynamik immer wieder umgehen werden. 1.1.

Mehr

5. Vorlesung Wintersemester

5. Vorlesung Wintersemester 5. Vorlesung Wintersemester 1 Bewegung mit Stokes scher Reibung Ein dritter Weg, die Bewegungsgleichung bei Stokes scher Reibung zu lösen, ist die 1.1 Separation der Variablen m v = αv (1) Diese Methode

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Vortrag Gmnasium Birkenfeld Von der mathematischen Spielerei zur technischen Anwendung Vortrag Gmnasium Birkenfeld. Vektoren und Matrizen Wir betrachten einen Punkt P (, ) in der Ebene eines rechtwinklig

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

Probestudium der Physik 2011/12

Probestudium der Physik 2011/12 Probestudium der Physik 2011/12 1 Schwingungen und Wellen: Einführung in die mathematischen Grundlagen 1.1 Die Sinus- und die Kosinusfunktion Die Sinusfunktion lässt sich genauso wie die Kosinusfunktion

Mehr

Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I

Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I Mathematik für Biologen mathematische Ergänzungen und Beispiele Teil I 1. Mengen und Abbildungen In der Mathematik beschäftigt man sich immer -direkt oder indirekt- mit Mengen. Wir benötigen den Mengenbegriff

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

3. Kinematik und Schwingungen

3. Kinematik und Schwingungen 3. Kinematik und Schwingungen 1 3.1. Kinematik Als Nächstes wollen wir Bewegungen beschreiben z.b. die einer Cataglyphis 2 Zuallererst brauchen wir ein Koordinatensystem um die Positionen überhaupt zu

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Differentialgleichungen 2. Ordnung

Differentialgleichungen 2. Ordnung Differentialgleichungen 2. Ordnung 1-E1 1-E2 Einführendes Beispiel Freier Fall Viele Geschichten ranken sich um den schiefen Turm von Pisa: Der Legende nach hat der aus Pisa stammende Galileo Galilei bei

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

2.2 Kollineare und koplanare Vektoren

2.2 Kollineare und koplanare Vektoren . Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,

Mehr

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung 6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback

Mehr

T2 Quantenmechanik Lösungen 4

T2 Quantenmechanik Lösungen 4 T2 Quantenmechanik Lösungen 4 LMU München, WS 17/18 4.1. Lösungen der Schrödinger-Gleichung Beweisen Sie die folgenden Aussagen. Prof. D. Lüst / Dr. A. Schmi-May version: 06. 11. a) Die Separationskonstante

Mehr

TP2: Elektrodynamik WS Arbeitsblatt 10 21/ Dipole und Multipole in stationären Feldern

TP2: Elektrodynamik WS Arbeitsblatt 10 21/ Dipole und Multipole in stationären Feldern TP2: Elektrodynamik WS 2017-2018 Arbeitsblatt 10 21/22.12. 2017 Dipole und Multipole in stationären Feldern Die Multipolentwicklung ist eine hilfreiche Näherung zur Lösung der Poisson Gleichung, wenn eine

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a

auf C[; ] sind linear III Formale Dierentiation und Integration: Die Abbildungen und a + a t + + a n t n a + a t + + na n t n a + a t + + a n t n an a x LINEARE ABBILDUNGEN Denition: Seien V; V Vektorraume Eine Abbildung f heit linear, falls (i) (ii) f(x + y) f(x) + f(y) (x; y V ) f(x) f(x) ( R; x V ) Bemerkungen: I (i) und (ii) oben sind aquivalent

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation 6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische

Mehr