und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 1

Größe: px
Ab Seite anzeigen:

Download "und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 1"

Transkript

1 Kapitel 9 Polynomklassifikator und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

2 Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf eines Klassifikators:. Statistische parametrische Modellierung der Klassenverteilungen, dann MAP. Lösung eines Abbildungsproblems durch Funktionsapproximation (nichtlineare Regression) { fx y } min E ( ) X Merkmalsraum Y Entscheidungsraum H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

3 Zu.) Die zuerst beschriebene Vorgehensweise beim Entwurf eines Klassifikators beruht darauf, dass man die klassenspezifischen Verteilungsdichten p(x ω) ( ) parametrisch durch statistische Modelle annähert (durch Schätzung der Parameter, z.bsp. Einer Gauß-Verteilung) und durch eine Maximumselektion zu einer Entscheidung kommt. Lernen bedeutet hierbei: Verbesserung des Parameter-Fitting. Zu.) Es gibt nun eine zweite Möglichkeit der Herangehensweise, welche auf die Auswertung der a-posteriori-wahrscheinlichkeitsdichte p(ω x) aufbaut und durch ein Problem der Funktionsapproximation beschrieben werden kann. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 3

4 Diese Funktionsapproximation kann z.b. durch eine nichtlineare Regression mit Polynomen oder auch mit Hilfe eines künstlichen Neuronalen Netzwerkes (NN) durchgeführt werden. Im Rahmen dieser Veranstaltung sollen die Grundlagen für beide Vorgehensweisen behandelt werden. Grundsätzlich ist die Suche nach einer besten Näherungsfunktion ein Variationsproblem, welches durch die Wahl von Basisfunktionen auf ein parametrisches Optimierungsproblem zurückgeführt werden kann. Lernen bedeutet dann auch hier: Parameterfitting. Die Gleichwertigkeit der beiden genannten Vorgehensweisen ergibt sich aus dem Bayes-heorem: p( ω x) = i p( x ωi) P( ωi) p( x) unabhängig ggvon ω Die Gleichwertigkeit ergibt sich daraus, dass der Nenner unabhängig gvon ω ist. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 4

5 Im folgenden soll nun die Überführung in ein Funktionsapproximations-problem durch eine Reihe begründet werden. Bei bekannter a-posteriori-w. p(ω x) würde für jedes kontinuierliche x bestmöglich ein ω zugeordnet werden (funktionale Zuordnung f: x ω). Gegeben sind jedoch nur Stichproben und man sucht nach einer Funktion f, welche bestmöglich die Einzelexperimente fittet und damit eine Abbildung realisert: f : Merkmalsraum Bedeutungsraum x ω Diese Aufgabenstellung kann mit Hilfe der Variationsrechnung gelöst werden. Wählt man als Gütekriterium das minimale Fehlerquadrat, so geht es um die Minimierung von: J = min E{ fx ( ) y } f ( x ) ω f (x i, ω k k) x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 5

6 Dabei entstehen die Zielvektoren {y i } im Entscheidungsraum Y durch einfache Abbildung der skalaren Bedeutungswerte {ω i } Ω : = {,,, } ω ω ω K Y : {,,, } mit: y i = y y y K 0 0 = i-ter Einheitsvektor 0 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 6

7 Zwei-Klassen-Problem mit Gaußverteilungsdichte p( x) = p( x ω ) P( ω ) K k k P( ω x) p( x) = p( x, ω ) = p( x ω ) P( ω ) k k k k p ( x ω ) P ( ω ) p( x ω ) P( ω ) p( x ω ) P( ω ) p ( x ω ) P ( ω ) 0 μ x x μ x x Merkmalsraum Entscheidungsfunktion für Klasse H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 7

8 Lösung des Variationsproblems Die Lösung des Variationsproblems erhält man über die Annahme, dass man eine optimale Funktion f*(x) bereits kennt. Dann muss jede Variation zu einer Verschlechterung des Gütekriteriums führen: J( f + δ f ) > J( f ) für δ f 0 f f*(x) J () f f*(x)+δf J ( f ) f δf f x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 8

9 Mit Hilfe der Definitionsgleichung gergibt sich: { } { + + } J ( f + δf) = E f + δf y = E ( f y) δf,( f y) δf { } { ( ) } { } f y δf f y δf = E + E + E { f } J ( f ) = E y (für δf = 0) Eingesetzt in die Ungleichung J ( f + δf ) J ( f ) > 0 ergibt: { f } E{ f } E δf + δ f ( y ) > 0 δ f 0 Dies wird erfüllt, wenn der zweite erm verschwindet, da der erste erm positiv definit itist t( (siehe ih nächste äht Foli Fli!) e. Daraus resultiert eine notwendige Optimalitätsbedingung: { f f y } E δ ( ) = 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 9

10 Zwischenrechnung: Mit { δf } { δf f y } a : = E f und b:= E f ( y) ergibt sich unter der Annahme einer Variation in eine beliebige bi Raumrichtung von δ f : δf λδf a λ + b λ > 0 λ λ( aλ + b) > 0 λ b a Ist b 0, so gilt für alle λ ( b a,0) : λ( aλ + b) < 0 b muss Null sein, dann lautet die Parabel: λ aλ > 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 0

11 Der Erwartungswert kann mit der Verbundverteilungsdichte ausformuliert werden zu: E δf ( f y) = δf ( f y) p( x, y) { } x y = δf ( f y) p( y x) p( x) = 0 x y Dieser Ausdruck verschwindet, falls der erm in der eckigen Klammer Null wird. Daraus resultiert die folgende Optimalitätsbedingung: ( f y) p( y x) = f p( y x) y p( y x) y y y = f y p( y x) = 0 y Die optimale Schätzfunktion ist die sogenannte Regressionsfunktion: = { } f ( x) = y p( y x) = E y x) y H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

12 Polynomiale Regression Wahl von Polynomen als Basisfunktionen für die Funktionsapproximation. Zunächst für eine skalare Funktion mit einem vektoriellen Argument x: f ( x ) = a0 + a x + a x + + an xn + a x + a x x + a x x + N+ N+ N a x + a x x + a x x + mit: N = dim( x) Dieses verallgemeinertes Polynom enthält eine Konstante a 0, gefolgt von N linearen ermen, N(N+)/ quadratischen ermen usw. Ein Polynom vom Grade G und der Dimension N des Argumentvektors x hat L N + G ( N + G)! = = G GN!! polynomiale erme, welche als Basisfunktionen f i (x), i=,,...,l einer Funktions- entwicklung betrachtet werden können. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

13 Obiges Polynom kann kompakt durch Einführung einer vektoriellen Abbildung eines N- dimensionalen Vektors x auf einen L-dimensionalen Vektor p beschrieben werden: 3 = x x xn x xx xx 3 x xx xx 3 px ( ) Wir führen einen Koeffizientenvektor a ein und erhalten für das skalare Polynom: L f( x) = a p( x) = a p ( x) mit: L= dim( p) i=0= 0 i i Für die Musterklassifikation benötigen wir für jede Klasse eine Polynomfunktion f k ( x ) = a k p ( x ) verantwortlich tli für die Klassen k =,,, K Kombiniert man die klassenspezifischen Koeffizientenvektoren a k zu einer Matrix [ ] A= a a a K so erhält man für die vektorielle Polynomfunktion: fx ( ) = Apx ( ) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 3

14 Optimale Anpassung der Matrix A Es gilt nun, die Koeffizientenmatrix A während der Optimierungsprozedur bestmöglich anzupassen. Dabei kann das Approximationsproblem direkt auf die Messungen oder aber auf die Merkmale eines Unterraumes (z.b. nach einer KL) angewendet werden. Adaption der Koeffizientenmatrix A: J = { } { } f x y E A p x y A min E ( ) min ( ) f( x) Das Variationsproblem mit der Suche nach einer unbekannten Funktion wird durch die Wahl polynomialer Basisfunktionen auf ein Parameteroptimierungsproblem reduziert! Das Gütekriterium J minimiert die Varianz des Residuums, nämlich den Fehler zwischen y und der Approximation A p(x). Die Lösung wird bestimmt unter Ausnutzung des Variationsansatzes, was zu einer notwendigen Bedingung führt: J ( A + δ A ) J ( A ) f ür δ A 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 4

15 Es gilt nun, die Koeffizientenmatrix A durch eine Optimierungsprozedur bestmöglich anzupassen. Adaption der Koeffizientenmatrix A: Wegen { A p x y } = E{ } p y p y J ( A ) = E ( ) y A p y A p y und ab = Spur( ba ) Skalarprodukt dyad. Produkt sowie Spur( PQ) = Spur( QP) erhält man: { } J( A) = E Spur Ap y Ap y { yy } A { py } A { pp } = Spur E Spur E + Spur E { } Spur { } Spur { } = E y E + E A py A pp A A H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 5

16 Wie zuvor angenommen, kann der Zielvektor y o.b.d.a. als Einheitsvektor formuliert sein und damit gilt: { } A E { } J ( A ) = S p u r A E py + Spur pp A Mit dem Variationsansatz ergibt sich: E{ } + δ E{ pp } + δ A E{ py } Spur δ A E{ py } E{ pp } Spur δ E{ pp } A E{ pp } δ A J ( A + δa) = Spur ( A + δa) py + Spur ( A A) ( A A) = Spur + Spur + A A A A + Spur δ Eingesetzt in die Ungleichung der notwendigen Bedingung für ein Optimum ergibt: { pp } A A { py } { pp } Spur Spur ( δ E δ δ E E ) A A 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 6

17 Da der erste erm positiv ist (wegen der Positiv-Definitheit von der Momentenmatrix E{pp }), muss der zweite erm verschwinden: { } { } Spur δ ( E E ) A py pp A = 0 δ A und daraus schließlich das in A* lineare Gleichungssystem für den optimalen Polynomklassifikator: E { } { pp A = E py } A = E{ pp } E{ py } R pp R py = diese Gleichung garantiert ein minimales Residuum des Fehlervektors: Δ fx ( ) = fx ( ) y= A px ( ) y Die Lösung des Problems führt auf die Aufgabe, die beiden Momentenmatrizen E{pp } und E{py } aus dem rainingsdatensatz zu schätzen und eine lineare Matrizengleichung zu lösen. Der verbleibende Fehlervektor berechnet sich zu: { pp } J ( A ) = Spur A E A H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 7

18 Orthogonalität des Schätzfehlervektors Interpretation der Lösungsgleichung auf der Folie zuvor: Die Bestapproximation fordert nach dem Projektionssatz, dass der Fehlervektor Δf senkrecht steht auf den Unterraum, welcher durch die polynomialen Basisfunkionen in p(x) aufgespannt wird. In statistischer Notation bedeutet das, dass die Momentenmatrix, welche aus p und Δf aufgespannt wird, eine Nullmatrix sein muss: { } { } { = } { } ( ) E pδ f = E p A p y E pp A E py = 0 Diese Eigenschaft wird auch von p auf f vererbt, da f aus Linearkombinationen der Basisfunktionen in p(x) aufgebaut wird. { Δ } { Δ } { f f f = A pδ f } E Δ = E A pδ E Δ = 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 8

19 Erwartungstreue der Approximationsfunktion Die Schätzfunktion ist erwartungstreu (unbiased). Der Schätzfehler (Residuum) hat den Erwartungswert 0. E Δf = E f ( x ) y = 0 { } { } Daraus aus folgt, dass f(x) ( ) eine e erwartungstreue eue Schätzung von y ist: E fx ( ) = E y { } { } H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 9

20 Rekursive Lernregel für den Polynomklassifikator (falls neue Werte in dem Experiment dazukommen können) Für den auf das minimale Fehlerquadrat aufbauende Klassifikator ergibt sich die folgende rekursive Lernstrategie für die Koeffizientenmatrix A: n n = n α i i n n n n i= A A pp p A p y G Diese Lernregel beinhaltet folgende Schritte: - Wahl eines Startwerts für [ xy] - Die momentante Stichprobe, wird abgebildet A [ py] mit Hilfe der Polynombasis px ( ) auf das Paar, - Berechne die Schätzung f auf der Basis der gegebenen Beobachtung p und der momentanten Koeffizientenmatrix A: f = A p - Berechne das Residuum: Δ f = f y - Korrigiere A auf der Grundlage obiger Rekursion n A = A αg p Δf n n n H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 0

21 Die Gewichtsmatrix G = E{pp } ist dabei die Momentenmatrix auf der Basis der n zur Verfügung stehenden Stichproben. Eine strikte Beachtung obiger Rekursion, würde sogar noch eine weitere Rekursion für die Inverse der Gewichtsmatrix erfordern gemäß: G G p p G n n n n n = α G n α α pn G n p n ( ) + G oder die echte zusätzliche Iteration ändern fast nichts am Ergebnis. G kann sogar noch vereinfacht werden zu: { } { } E [ diag( i ) ] G = E pp p I n n i i n pp [ diag( )] n pi i= i== ohne dass sich dabei die Konvergenzeigenschaften verschlechtern (Schürmann S. 74). H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

22 Herleitung der rekursiven Lernregel E { pp } A = E { py } opt. Lösung des Polynomkl. Einführung von Schätzwerten: n n n pp i i An = n py i i i= i= G n H n G = ( α) G + αp p n n n n n n = Hn und Hn = ( α) Hn + αpnyn GA GA = ( α) H + αpy n n n n n = ( α ) G A + α py ( α ) n n n n = G p p A + αp y n n n n n n = GA α p ( pa y ) n n n n n n A = A αg p A p y n n n n n n n H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9

23 Polynomklassifikator für das XOR-Problem Wir wählen als Regressionsfunktion ein Polynom mit ermen zweiten Grades in der Hoffnung, dass damit eine Lösung erreicht werden kann (eine lineare Lösung existiert nicht!): f ( x ) = a x+ a x+ a3 x x= a p ( x ) = ai p i ( x ) mit: p [ x, x, x x ] und a [ a, a, a ] = = 3 L i= 0 x (0,) (,) (0,0) x (,0) Die Eckpunkte des Quadrats im zweidimensionalen Ursprungsraum X werden auf die Ecken eines (Hyper-) Würfels fl eines dreidimensionalend Merkmalraums P abgebildet und dieser schließlich auf den eindimensionalen Bedeutungsraum Y : X P Y X x 0 0 x 0 0 p 0 0 p 0 0 p y 0 0 X -Raum 0 p 00 0 P p 3 0 Y P -Raum p H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 3

24 Die optimalen Parameter der Regressionsfunktion a* ergeben sich aus: { } { } p a E bzw: a = pp E p = py R R R pp R py py mit: { } 4 pp = E 4 i i i= R pp pp = = und: 4 4 py = E{ y} 4 i yi = 4 yi i i= i= R p p p 0 0 = = Parameter a, a, a 3 und 4 Beobachtungen => R pp ist regulär! H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 4

25 Daraus folgt: 0 a = Rpp Rpy = 0 = 3 0 und damit eine Regressionsfunktion f ( x) = a, p = ax+ ax + axx = x+ x xx 3 welche lh an den 4Funktionswerten t genau die Werte der Zielfunktion annimmt und ansonsten interpoliert! H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 5

26 Regressionsfunktion f ( x) = x + x x x x x Matlab-Demo: XOR_poly.bat H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 6

27 rennflächen für die beiden Klassen Die rennfläche für die beiden Bedeutungsklassen verläuft dort, wo die Regressionsfunktion f(x) den arithmetischen Mittelwert der Zielfunktion, nämlich c=(0+)/=0,5 annimmt. Das nichtlinear separierbare XOR- Problem kann in dem dreidimensionalen Merkmalsraum durch eine lineare (Hyper-)Ebene separiert werden, was auch leicht geometrisch an dem dreidimensionalen Kubus nachvollziehbar ist: f( x) p p p 0,5), 0,5 > 0 x A = + 3 = a p < 0 x Gleichung für lineare rennfläche mit Normalenvktor a B 0 p 00 0 p 3 0 Nichtlineare rennfunktion im Originalraum: (Kegelschnitt, nämlich zwei Geraden) > 0 x A f( x) = x+ x xx 0,5 < 0 x B x + x x x 0,5 = ( x 0,5)( x 0,5) = 0 ( ) gilt für: x = 0,5 x beliebig Euklidisch ideale x P -Raum x = 0,5 x beliebig rennlinien x X -Raum H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 7 p

28 Ortskurven konstanter Wertigkeit im Originalraum (Hyperbeln) für unterschiedliche Schwellwerte c f ( x ) = x + x x x = c x rennkurven: Kegelschnitte Beim Übergang c 0,5 entarten die Hyperbeln in zwei Geraden y = y = 0 y = y = c = x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 8

29 rennflächen für die beiden Klassen Wir erhalten einen linearen Klassifikator im p-raum und einen nichtlinearen Klassifikator im x-raum H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 9

30 Polynomklassifikator für komplexere Beispiele i N N N f ( x) = a+ ax+ a xx +... = Px ( ) Px ( ) Px ( ) 0 i i im i m N i= i= m= i+ kartesisches Produkt der eindimensionalen Polynome mit: dim( x) = N und Grad des Polynoms: G d.h. der N-dimensionale Originalraum wird in einen L-dimensionalen Merkmalsraum abgebildet. Dieser enthält erme der Art: k k k x x x N mit: k + k + + k G N N Für ein Polynom vom Grade G und ein Merkmalsvektor der Dimension N ergibt sich eine Dimension des Ausgangsraums L von: L N + G ( N + G)! = = G GN!! H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 30

31 Demo mit MALAB (Klassifikationgui.m) Polynomklassifikator für XOR-Problem zuerst setmypath.m m aufrufen, dann C:\Home\ppt\Lehre\ME_00\matlab\KlassifikatorEntwurf- WinXX\Klassifikationgui Datensatz: samples/xor_test_exakt.mat laden Polynomklassifikator vom Grad anwenden L Zweiklassenproblem mit Bananenshape Datensatz: samples/banana_train_samples.mat laden Versuch mit Polynomklassifikator vom Grad und Grad 3 um genügend unabhängige Stichproben für das Polynom zu haben: Man benötigt mindestens: N + G ( N + G)! + = = = = 6 G GN!! unabhängige Beobachtungen. Start der Matlab-Demo matlab-klassifikation_gui.bat Man benötigt mindestens: N + G ( N + G)! + L = = = = 6 G GN!! unabhängige Beobachtungen. Man benötigt mindestens: N + G + 3 L = = = 0 G 3 unabhängige Beobachtungen. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 3

32 Eigenschaften des Polynomklassifikators: Vorteile: Lineare Entwurfsgleichungen mit expliziter Lösung für ein globales Minimum des Approximationsfehlers Nachteile: Die Entwicklung nach den global wirkenden Polynombasen zeigen eine schlechte Konvergenz. Lokale Besonderheiten von Merkmalsclustern können nur sehr schlecht approximiert werden, ohne dabei gleichzeitig nicht zu viel an Qualität bei der Generalisierungsfähigkeit zu verlieren. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 3

33 Funktionsapproximation mit einem Radiale- Basis-Funktionen-Netzwerk (RBFN) Anstatt Polynome für die Regressionsaufgabe zu verwenden, kann man auch eine lineare Entwicklung Et ikl in Radiale Rdil Basisfunktionen if (RBF) in Erwägung ziehen. Damit erhält man zwar wiederum ein nichtlineares Parameterschätzproblem (wie bei NN), welches typischerweise nur iterativ gelöst werden kann, aber es ergeben sich bessere Konvergenzeigenschaften. RBFs als Interpolationsfunktionen sind Funktionen der Form: p ( x c ) D.h. im Argument einer jeden RBF steht die Euklidsche Distanz zwischen dem Eingangsvektor x und einem Klassen-Zentrum c i (daraus erklärt sich der Name). Die RBFs wirken nur in lokalen Umgebungen (im Gegensatz zu Polynomen). i H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 33

34 Bi Beispiele il für Radiale-Basis-Funktionen Rdil i (RBFN) p( ( x) = exp x c (Gauss-RBFs) i σ i σ i p ( x ) = σ + x c i i Man kann nun zeigen, dass mit der folgenden Summe jede Funktion f(x) für hinreichend große L beliebig genau approximiert werden kann: L f( x) = a p( x) = a0 + aipi( x, ci, σ i) { ai},{ ci},{ σ i} linear in Unbekannt sind die Parameter: { ai} { ci} nichtlinear in { σ i } (Radius) i= nichtlinear in (ranslation) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 34

35 RBF-Netzwerk als verallgemeinerter linearer Klassifikator x x p a a p f ( x ) f( x) = a p( x) = aipi( x, ci, σ i) L i= 0 x N p L a a 0 L Beim Perceptron wird der Originalraum in Hyperebenen aufgeteilt. RBF-Netzwerk: Der in den neuen Variablen p i lineare Klassifikator unterteilt den Originalraum in Hypersphären, da die p i (x) nichtlineare Funktionen von x-c i sind. Der Polynomklassifikator läßt sich in der gleichen Art charakterisieren, nur mit dem Unterschied, dass er ebenfalls in x nichtlinear, aber in den unbekannten Parametern linear ist! H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 35

36 Lösung des XOR-Problems mit einem Gauss-RBFN Wir wählen als Regressionsfunktion Gauss-RBFNs der Dimension L=, welche auf die Stichproben zentriert sind: Mit c = = L 0 + i= f( x) a p( x) a a p ( x) = a 0 L + ai exp x c i= σ i L i i = a0 + ai exp i= σ i L = i i i ( x c ) ( x c ), den beiden Zentren [ ] sowie c [ 0 0 ] = = sowie σ = ergibt sich: i ( x c ) exp px ( ) = exp( x c ) x (0,) (,) (0,0) X P x (,0) X -Raum x 0 0 x 0 0 p e 0.35 e e p e e e 0.35 f ( p) f ( p ) = p + p H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 36

37 Lösung des XOR-Problems mit einem Gauss-RBFN 0 e Die Vektoren x = und werden auf den gleichen Punkt abgebildet. x= 0 p= e p (0,0) x (0,) (,) (,0) (0,) (,) ) p (0,0) x (,0) P -Raum X -Raum Im P-Raum sind die beiden Klassen nun offensichtlich linear separierbar: renngerade im P -Raum: f ( p ) = p + p = 0 rennkurve im X -Raum: ( x c ) ( ) x c f ( x ) = exp + exp = 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 37

38 Vorteile: Eigenschaften von RBFNs: Im Unterschied zur Verwendung von Polynomen (aylorreihen) können lokale Besonderheiten von Merkmalsclustern sehr gut approximiert werden, ohne Qualitätsverlust bei der Generalisierungsfähigkeit, e e g e d.h.. man hat ein sehr gutes Konvergenzverhalten (falls optim. Lösung gefunden wird). Nachteile: Es handelt sich um einen in den Parametern nichtlinearen Entwurf, welcher nur iterativ gelöst werden kann mit all den negativen Begleiterscheinungen g evtl. langsamer Konvergenz der Iterationen und der Gefahr nur Nebenminima und damit nur suboptimale Lösungen zu finden. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 38

39 Demo mit MALAB Funktionsapproximation mit RBFNs: (Demo/oolboxes/Neural Network/Radial Basis Networks) Gute Wahl der σ i (generalisierfähig) (Radial basis approximation, demorb.m) Wahl der σ i zu klein (overfitting, d.h. neu hinzukommende Punkte werden nicht erreicht) (Radial basis underlapping neurons, demorb3.m) Wahl der σ i zu groß; die Basisfunktionen spannen den Raum nur sehr schlecht auf, da sie nahezu linaer abhängig voneinander sind. (Radial basis overlapping neurons, demorb4.m) Klassifikationsbeispiel mit RBFNs (PNN classification, demopnn.m). Start der Matlab-Demo matlab-rbfns-n.bat (Batch-Mode, weiter mit Space-aste) Start der Matlab-Demo matlab-rbfns.bat (Interaktive-Mode, weiter mit Next-aste) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 39

Kapitel 8. Neuronale Netze

Kapitel 8. Neuronale Netze Kapitel 8 Neuronale Netze Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf eines Klassifikators:. Statistische parametrische Modellierung der Klassenverteilungen,

Mehr

Neuronale Netze. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 1

Neuronale Netze. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 1 Kapitel 8 Neuronale Netze H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif 14 Oktober 2008 1 Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof Dr Ulrich Reif Inhalt: 1 Vektorrechnung 2 Lineare Gleichungssysteme 3 Matrizenrechnung 4 Lineare Abbildungen 5 Eigenwerte

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

Fehler- und Ausgleichsrechnung

Fehler- und Ausgleichsrechnung Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Interpolation und Approximation von Funktionen

Interpolation und Approximation von Funktionen Kapitel 6 Interpolation und Approximation von Funktionen Bei ökonomischen Anwendungen tritt oft das Problem auf, dass eine analytisch nicht verwendbare (oder auch unbekannte) Funktion f durch eine numerisch

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Im Unterschied zu den bisher behandelten NNs mit Schwellwertfunktionen sind die NNe mit stetig differenzierbaren nichtlinearen Aktivierungsfunktionen

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Datenmodelle, Regression

Datenmodelle, Regression Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ.

eine vom Nullvektor verschiedene Lösung hat. r heisst in diesem Fall Eigenvektor der Matrix A zum Eigenwert λ. Eigenwert, Eigenvektor In der Regel hat bei einer linearen Abbildung das Bild eines Vektors eine andere Richtung als das Original r. Bei der Untersuchung der geometrischen Eigenschaften von linearen Abbildungen

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2 D-MAVT NUMERISCHE MATHEMATIK FS 4 K Nipp, A Hiltebrand Lösung vom Test Sei A ( 3 3 ) a) Bestimmen Sie κ(a), die Kondition von A (in der -Norm): κ(a) b) Berechnen Sie den Spektralradius von A: ρ(a) 4 c)

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017 Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block

Mehr

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z); 5 Vektorräume Was wir in den vorangegangenen Kapiteln an Matrizen und Vektoren gesehen haben, wollen wir nun mathematisch abstrahieren. Das führt auf den Begriff des Vektorraumes, den zentralen Begriff

Mehr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr TUM Ferienkurs Lineare Algebra WiSe 8/9 Dipl.-Math. Konrad Waldherr Musterlösung Relationen Aufgabe Auf R sei die Relation σ gegeben durch (a, b)σ(c, d) : a + b c + d. Ist σ reflexiv, symmetrisch, transitiv,

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

Gleichungsbasierte Modellierung

Gleichungsbasierte Modellierung 1 Gleichungsbasierte Modellierung Die Benutzung von Gleichungen zur Geometrischen Modellierung wurde bereits von Sutherland eingeführt. Fortgeführt wurde sie durch die Arbeiten von Light und Gossard. Wie

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Kapitel 6 Differential- und Integralrechnung in mehreren Variablen Inhaltsverzeichnis FUNKTIONEN IN MEHREREN VARIABLEN... 3 BEISPIELE UND DARSTELLUNGEN... 3 GRENZWERT UND STETIGKEIT (ABSTANDSBEGRIFF)...

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A. Dr V Gradinaru D Devaud A Hiltebrand Herbstsemester 2014 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 91 91a) Sei A eine n n-matrix Das Gleichungssystem Ax

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Richie Gottschalk Lineare Algebra I Seite 1. a) Welche der folgenden Ringe sind kommutativ? Es gibt genau einen Unterraum W von V mit dim(w ) = n.

Richie Gottschalk Lineare Algebra I Seite 1. a) Welche der folgenden Ringe sind kommutativ? Es gibt genau einen Unterraum W von V mit dim(w ) = n. Richie Gottschalk Lineare Algebra I Seite Aufgabe Im Folgenden sind K immer ein Körper und V ein K-Vektorraum. a) Welche der folgenden Ringe sind kommutativ? K[x] K[x] ist per se ein kommutativer Polynomring.

Mehr

12. R n als EUKLIDISCHER VEKTORRAUM

12. R n als EUKLIDISCHER VEKTORRAUM 12. R n als EUKLIDISCHER VEKTORRAUM 1 Orthogonalität in der Ebene. Die Vektoren in der Ebene, die (im üblichen Sinne) senkrecht zu einem Vektor x = (x 1, x 2 ) T stehen, lassen sich leicht angeben. Sie

Mehr

Tutorium: Analysis und Lineare Algebra. Vorbereitung der Bonusklausur am (Teil 1, Lösungen)

Tutorium: Analysis und Lineare Algebra. Vorbereitung der Bonusklausur am (Teil 1, Lösungen) Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 22.5.217 (Teil 1, Lösungen) 1. Mai 217 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 217 Steven Köhler 1. Mai 217

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Klassifikation durch direkten Vergleich (Matching)

Klassifikation durch direkten Vergleich (Matching) Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008 Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression 1 Einführung Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression Datenauswertung In einem naturwissenschaftlichen Experiment werden Sie meist

Mehr

Lineare Abbildungen und Orthonormalsysteme

Lineare Abbildungen und Orthonormalsysteme KAPITEL Lineare Abbildungen und Orthonormalsysteme. Lineare Abbildungen und Koordinatendarstellungen.. Lineare Abbildungen und ihre Basisdarstellung. Seien V, W Vektorraume uber R. Mit einer Abbildung

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform: 1. Aufgabe (9 Punkte) In dieser Aufgabe müssen Sie Ihre Antwort nicht begründen. Es zählt nur das Ergebnis. Tragen Sie nur das Ergebnis auf diesem Blatt im jeweiligen Feld ein. 0 1 3 a) Berechnen Sie die

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr