Linear nichtseparable Probleme
|
|
|
- Leon Grosse
- vor 7 Jahren
- Abrufe
Transkript
1 Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No M. O. Franz falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.
2 Übersicht 1 Linear nicht trennbare Probleme 2 Kleinste Quadrate 3 Widrow-Hoff-Methode
3 Übersicht 1 Linear nicht trennbare Probleme 2 Kleinste Quadrate 3 Widrow-Hoff-Methode
4 Linear nicht trennbare Probleme Die bisher betrachteten linearen Methoden basieren auf der Korrektur von Fehlern: Der Gewichtsvektor wird nur dann verändert, wenn ein Fehler auftritt. In der Praxis sind auf der linearen Trennbarkeit beruhende Methoden nur einsetzbar, wenn die Fehlerrate der optimalen linearen Diskrimimantenfunktion sehr niedrig ist. Bei nicht linear trennbaren Problemen wird der Fehler nie Null fehlerkorrekturbasierte Methoden laufen unendlich weiter.
5 Lineare Trennbarkeit in höheren Dimensionen Bei d-dimensionalen Daten sind weniger als 2d Datenpunkte fast immer linear trennbar. Selbst wenn die Trainingsdaten linear trennbar sind, folgt daraus nicht, dass der resultierende Klassifikator gut auf unabhängigen Testdaten funktioniert. Man sollte also ein Mehrfaches von 2d an Trainingsdaten haben, um den Klassifikator zu überbestimmen und sicherzustellen, daß Trainings- und Testdaten ähnlich genug sind. Lineare Trennbarkeit wird um so unwahrscheinlicher, je größer die Trainingsmengen werden.
6 Lineare Trennbarkeit in höheren Dimensionen Bei d-dimensionalen Daten sind weniger als 2d Datenpunkte fast immer linear trennbar. Selbst wenn die Trainingsdaten linear trennbar sind, folgt daraus nicht, dass der resultierende Klassifikator gut auf unabhängigen Testdaten funktioniert. Man sollte also ein Mehrfaches von 2d an Trainingsdaten haben, um den Klassifikator zu überbestimmen und sicherzustellen, daß Trainings- und Testdaten ähnlich genug sind. Lineare Trennbarkeit wird um so unwahrscheinlicher, je größer die Trainingsmengen werden.
7 Lineare Trennbarkeit in höheren Dimensionen Bei d-dimensionalen Daten sind weniger als 2d Datenpunkte fast immer linear trennbar. Selbst wenn die Trainingsdaten linear trennbar sind, folgt daraus nicht, dass der resultierende Klassifikator gut auf unabhängigen Testdaten funktioniert. Man sollte also ein Mehrfaches von 2d an Trainingsdaten haben, um den Klassifikator zu überbestimmen und sicherzustellen, daß Trainings- und Testdaten ähnlich genug sind. Lineare Trennbarkeit wird um so unwahrscheinlicher, je größer die Trainingsmengen werden.
8 Verhalten von Fehlerkorrekturmethoden bei nicht linear trennbaren Problemen Bei nicht linear trennbaren Problemen hört die Fehlerkorrektur nie auf. Beispiel Perzeptron mit Einzelbeispielkorrektur: a a + y k Gewichtsvektor oszilliert zwischen 2 Werten hin und her.
9 Heuristiken für nichtseparable Probleme Ziel: Erträgliche Leistung in nichtseparablen Problemen unter Beibehaltung der Fähigkeit, trennbare Problem zu separieren. Detektion des Gleichgewichtszustandes durch Überwachung der Länge des Gewichtsvektors Um nicht zufällig im schlechtesten Endzustand stehenzubleiben, wird über alle Endzustände gemittelt. Häufig wird die Lernrate nicht fest gewählt, sondern über die Zeit abnehmend. damit wird eine Konvergenz auch im nichtseparablen Fall erzwungen. Problem: Wahl der richtigen Abnahmegeschwindigkeit (oft abhängig von Lernleistung).
10 Übersicht 1 Linear nicht trennbare Probleme 2 Kleinste Quadrate 3 Widrow-Hoff-Methode
11 Methode der kleinsten Quadrate Vorgehensweise: Das Ziel, einen separierenden Gewichtsvektor zu finden, wird aufgegeben. Stattdessen wird eine gute Klassifikationsleistung bei trennbaren und nicht trennbaren Problemen angestrebt. Statt Fokussierung auf falsch klassifizierte Beispiele wie bisher werden jetzt alle Beispiele in der Fehlerfunktion berücksichtigt. Bisher wurde ein Gewichtsvektor a gesucht, der alle Skalarprodukte a y i positiv macht. Jetzt suchen wir ein a, das die Gleichung a y i = b i erfüllt (b i sind frei wählbare positive Konstanten). Statt einer Lösung für eine Menge von linearen Ungleichungen wird jetzt eine Lösung für ein lineares Gleichungssystem a y i = b i gesucht.
12 Was heißt a y i = b i? Wir erinnern uns: Abstand zur Trennebene r = g(x) w = a y i w d.h. a y i = r w beschreibt den Abstand, skaliert durch den Betrag des Gewichtsvektors. Durch Wahl einer positiven Konstante b i in der Gleichung a y i = b i verlangen wir, daß Beispiel y i den skalierten Abstand b i von der Entscheidungsebene (engl. margin) haben soll.
13 Klassifikation als Lösung eines linearen Gleichungssystems Aufgabe: Finde einen Gewichtsvektor a, so daß die zugehörige Entscheidungsebene zu jedem Datenpunkt y i den skalierten Abstand b i hat. Mathematisch gesprochen, muß a bei n Datenpunkten ein System von n linearen Gleichungen der Form a y i = b i erfüllen. Matrixschreibweise: y 10 y y 1d b 0 y 20 y y 2d a 0... a 1 b 1. =.... a d. y n0 y n1... y nd b n oder Ya = b.
14 Methode der kleinsten Quadrate Da wir ein Mehrfaches von 2d Datenpunkten zur Überbestimmung der Entscheidungsebene brauchen und wir von nicht linear trennbaren Problemen ausgehen, ist das Gleichungssystem Ya = b nicht exakt lösbar. Bei einem überbestimmten Gleichungssystem haben wir mehr Gleichungen als Unbekannte Die Matrix Y ist nichtquadratisch, somit existiert i.a. die formale Lösung a = Y 1 b nicht. Ansatz: Suche eine Näherungslösung durch Minimierung des quadratischen Fehlers (Methode der kleinsten Quadrate). Fehlervektor: e = Ya b Quadratischer Fehler: J z (a) = e 2 = Ya b 2 = n i=1 (a y i b i ) 2
15 Pseudoinverse Am Minimum muß die Ableitung des quadratischen Fehlers J z (a) = n i=1 (a y i b i ) 2 nach a gleich 0 sein, d.h. J z = n 2(a y i b i )y i = 2Y (Ya b) = 0 i=1 Umstellung führt auf Normalengleichung: Y Ya = Y b, d.h zur Minimierung des quadratischen Fehlers muß nicht mehr die Gleichung Ya = b gelöst werden, sondern Y Ya = Y b. Da Y Y immer quadratisch ist, existiert eine Inverse, solange Y Y nicht singulär ist: a = (Y Y) 1 Y b = Y b mit der Pseudoinversen Y = (Y Y) 1 Y.
16 Aufgabe 10.1: Konstruktion eines linearen Klassifikators mit der Pseudoinversen Geg. 2 Punkte aus Klasse ω 1 : (1,2) uns (2,0) und aus Klasse ω 2 : (3,1) und (2,3). Finden Sie die Kleinste-Quadrate-Lösung für den Marginvektor b = (1, 1, 1, 1).
17 Kleinste Quadrate und Bayes-Klassifikator Man kann zeigen (s. Duda, S.243): Die durch kleinste Quadrate gefundene Lösung ist die beste lineare Näherung für die Bayes-Diskriminantenfunktion g 0 (x) = p(ω 1 x) p(ω 2 x) Näherung ist dort am besten, wo viele Datenpunkte sind, p(x) groß ist.
18 Übersicht 1 Linear nicht trennbare Probleme 2 Kleinste Quadrate 3 Widrow-Hoff-Methode
19 Widrow-Hoff- oder LMS-Methode (1) Statt direkt den quadratischen Fehler J z (a) = Ya b 2 zu minimieren, kann man auch hier (wie beim Perzeptron) einen Gradientenabstieg durchführen. Vorteil 1: keine Probleme, wenn Y Y singulär wird. Vorteil 2: bei sehr hochdimensionalen Problemen muß keine vollständige d d-matrix Y Y im Speicher gehalten werden. Vorteil 3: robuster bei numerischen Problemen. Nachteil: häufig sehr lange Laufzeit. Gradient des quadratischen Fehlers: J z = n 2(a y i b i )y i = 2Y (Ya b) i=1
20 Widrow-Hoff- oder LMS-Methode (2) Offensichtliche Lernregel: a neu = a alt η k J z = a alt η k Y (Ya b) Man kann zeigen: Konvergenz für η k = η 1 /k, auch bei singulärem Y Y Speicherbedarf wird verringert, wenn a für jeden Datenpunkt einzeln angepaßt wird: a neu = a alt + η k (b k a k y k )y k Algorithmus: Widrow-Hoff begin initialize a, b, η k, Schwellwert θ, k = 0 do k (k + 1) mod n a a + η k (b k a k y k)y k until η k (b k a k y k)y k < θ return a end
21 Kleinste Quadrate und separierende Entscheidungsebene Die Kleinste-Quadrate-Lösung (Pseudoinverse oder Widrow-Hoff) ist normalerweise keine separierende Entscheidungsebene, auch wenn eine solche existiert.
Nichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Lineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
k-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Überbestimmte lineare Gleichungssysteme
Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme
Lineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Support Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
Support Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
Signalentdeckungstheorie, Dichteschätzung
Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz 15.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.
Klassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
Überbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
Verarbeitung von Messdaten
HTL Steyr Verarbeitung von Messdaten Seite von 8 Bernhard Nietrost, HTL Steyr Verarbeitung von Messdaten Mathematische / Fachliche Inhalte in Stichworten: Regression, Polynominterpolation, Extremwertberechnung,
Lineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana [email protected] November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Das Perzeptron. Volker Tresp
Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von
Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,
Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige
Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
Ausgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
Nichtlineare Ausgleichsrechnung
10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.
Thema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
3. Lineare Ausgleichsrechnung
3 Lineare Ausgleichsrechnung 1 Ausgleichsrechnung (1) Definition 31 (Ausgleichsproblem) Gegeben sind n Wertepaare (x i,y i ), i = 1,,n mit x i x j für i j Gesucht ist eine stetige Funktion f, die in einem
Kapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
Optimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt
Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt Übersicht Partielle Differentialgleichungen, Approximation der Lösung Finite Elemente, lineare und höhere Ansatzfunktionen Dünn
Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
Übungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
Klausur Mathematik II
Technische Universität Dresden. Juli 8 Institut für Numerische Mathematik Prof. Dr. G. Matthies, Dr. M. Herrich Klausur Mathematik II Modul Dierentialgleichungen und Dierentialrechnung für Funktionen mehrerer
Datenmodelle, Regression
Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
Mathematischer Vorkurs Lösungen zum Übungsblatt 5
Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 [email protected] Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und
Rückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Überbestimmte Systeme, Datenmodelle, Polynomiale Regression
Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,
Gleichungsbasierte Modellierung
1 Gleichungsbasierte Modellierung Die Benutzung von Gleichungen zur Geometrischen Modellierung wurde bereits von Sutherland eingeführt. Fortgeführt wurde sie durch die Arbeiten von Light und Gossard. Wie
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,
Lineare Gleichungssysteme
Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,
Kapitel 9: Lineare Gleichungssysteme
Kapitel 9: Lineare Gleichungssysteme Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika (KO) Kapitel 9: Lineare Gleichungssysteme 1 / 15 Gliederung 1 Grundbegriffe
18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus
18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus Conrad Donau 8. Oktober 2010 Conrad Donau 18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus 8. Oktober 2010 1 / 7 18.1 Wiederholung: Ebenen in R 3
Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
Lineare Gleichungssysteme
Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten
Lineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
Überbestimmte Systeme, Approximation
Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:
Lineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Lineare Gleichungssysteme. 1-E Ma 1 Lubov Vassilevskaya
Lineare Gleichungssysteme 1-E Ma 1 Lubov Vassilevskaya Systeme linearer Funktionen und Gleichungen y = a 1 a 2... a n lineare Funktion Funktion ersten Grades,,..., unabhängige Variablen y abhängige Variable
18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
Der CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Nichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
Matrixzerlegungen. Überbestimmte Systeme
Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung
6 Gleichungen und Gleichungssysteme
03.05.0 6 Gleichungen und Gleichungssysteme Äquivalente Gleichungsumformungen ( ohne Änderung der Lösungsmenge ).) a = b a c = b c Addition eines beliebigen Summanden c.) a = b a - c = b - c Subtraktion
HM II Tutorium 5. Lucas Kunz. 22. Mai 2018
HM II Tutorium 5 Lucas Kunz 22. Mai 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Wiederholung Lineare Gleichungsysteme................... 2 1.2 Wiederholung: Kern einer Abbildung..................... 3 1.3
Das inhomogene System. A x = b
Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Grundlegende Definitionen aus HM I
Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen
Anhang B. Regression
Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
1 Geometrie - Lösungen von linearen Gleichungen
Übungsmaterial Geometrie - Lösungen von linearen Gleichungen Lineare Gleichungen sind von der Form y = f(x) = 3x + oder y = g(x) = x + 3. Zwei oder mehr Gleichungen bilden ein Gleichungssystem. Ein Gleichungssystem
Mathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 12 8. Juni 2010 Kapitel 10. Lineare Gleichungssysteme (Fortsetzung) Umformung auf obere Dreiecksgestalt Determinantenberechnung mit dem Gauß-Verfahren
Über- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)
Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren
Problem lokaler Minima
Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit
