Neuronale Netze. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 1

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 1"

Transkript

1 Kapitel 8 Neuronale Netze H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

2 Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf eines Klassifikators:. Statistische parametrische Modellierung der Klassenverteilungen, dann MAP-Entscheidung (generativer Ansatz). Lösung eines Abbildungsproblems durch Funktionsapproximation (nichtlineare Regression) der a- posteriori-wahrscheinlichkeiten (diskriminativer Ansatz) min E f ( x) y Merkmalsraum Entscheidungsraum H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

3 Zu.) Die bisher beschriebene Vorgehensweise beim Entwurf eines Klassifikators beruht darauf, dass man die klassenspezifischen Verteilungsdichten p(x i)p( i) parametrisch durch statistische Modelle annähert (durch Schätzung der Parameter, z.bsp. Einer Gauß-Verteilung) und durch eine Maximumselektion zu einer Entscheidung kommt. Lernen bedeutet hierbei: Verbesserung des Parameter-Fitting. Zu.) Es gibt nun eine zweite Möglichkeit der Herangehensweise, welche auf die Auswertung der a-posteriori-wahrscheinlichkeitsdichte P( i x) aufbaut und durch ein Problem der Funktionsapproximation beschrieben werden kann. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 3

4 Die zwei Ansätze zum Klassifikatorentwurf p( x ) P( ) P( x) P( x) p( x ) P( ) Modellierung der Klassenverteilungsdichten Direkte Modellierung der A-posteriori-Verteilungsdichten P( x) p( x ) P( ) P( x) i i i i H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 4

5 Zur Gleichwertigkeit der beiden Ansätze Allgemeiner Fall: matlab-map.bat H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 5

6 Diese Funktionsapproximation kann z.bsp. durch eine nichtlineare Regression mit Polynomen oder auch mit Hilfe eines künstlichen Neuronalen Netzwerkes (NN) durchgeführt werden. Im Rahmen dieser Veranstaltung sollen die Grundlagen für beide Vorgehensweisen behandelt werden. Grundsätzlich ist die Suche nach einer besten Näherungsfunktion ein Variationsproblem, welches durch die Wahl von Basisfunktionen auf ein parametrisches Optimierungsproblem zurückgeführt werden kann. Lernen bedeutet dann auch hier: Parameterfitting. Die Gleichwertigkeit der beiden genannten Vorgehensweisen ergibt sich aus dem Bayes-Theorem: P( x) i p( x ) P( ) i p( x) i unabhängig von Die Gleichwertigkeit ergibt sich daraus, dass der Nenner unabhängig von ist. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 6

7 Im folgenden soll nun die Überführung in ein Funktionsapproximationsproblem begründet werden. Bei bekannter a-posteriori-w. P( x) würde für jedes kontinuierliche x bestmöglich ein zugeordnet werde (funktionale Zuordnung f:x ). Gegeben sind jedoch nur Stichproben und man sucht nach einer Funktion f, welche bestmöglich die Einzelexperimente fittet und damit eine Abbildung realisert: f : Merkmalsraum Bedeutungsraum x Diese Aufgabenstellung kann mit Hilfe der Variationsrechnung gelöst werden. Wählt man als Gütekriterium das minimale Fehlerquadrat, so geht es um die Minimierung von: J min E{ f ( x) y } f( x) f (x i, k) x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 7

8 Dabei entstehen die Zielvektoren {y i } im Entscheidungsraum durch einfache Abbildung der skalaren Bedeutungswerte { i } : {,,, } K : { y, y,, y } mit: 0 0 y i K i-ter Einheitsvektor 0 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 8

9 Zwei-Klassen-Problem mit Gaußverteilungsdichte p( x) p( x ) P( ) K k k P( x) p( x) p( x, ) p( x ) P( ) k k k k P( x) p( x) p( x ) P( ) P( x) p( x) p( x ) P( ) 0 x x x x Merkmalsraum Entscheidungsfunktion H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 9

10 Regression mit Hilfe künstlicher Neuronaler Netze Verwendung eines mehrschichtigen Perceptrons zur Funktionsapproximation (multilayer perceptron) Motivation: Anlehnung an menschliche Vorgehensweise (?) Parallele Auswertung mit NN-Rechner (Hardware) Menschliches Gehirn: 0 Neuronen mit bis zu 0 4 Verbindungen pro Neuron H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 0

11 Modell eines Neurons (McCulloch & Pitts, 943) Synapsen x 0 x w 0 w Interne Zustandsvariable x w s + f (s) y y f ( wx, b) b Axon x N w N Die neuronale Aktivität wird durch ein Skalaprodukt zwischen dem Gewichtsvektor w und den Eingangskanälen x i mit einer sich anschließenden nichtlinearen Aktivierungsfunktion f(s) beschrieben. Dabei können die Erregungen x i verstärkend oder hemmend wirken, was zu positiven oder negativen Gewichtswerten w i korrespondiert. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

12 Das Multilagen-Perceptron mit 3 Schichten (Rosenblatt 958) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

13 Symbolische Darstellung eines Perceptrons mit 3 Schichten erste Schicht zweite Schicht dritte Schicht x N W S N + s S f y S W S S + s S f y S W 3 S 3 S + s 3 S 3 f y 3 S 3 b b b 3 N S S S S S 3 S 3 y =f (W x+b ) y =f (W y +b ) y 3 =f 3 (W 3 y +b 3 ) y f ( W f ( W f ( W x b ) b ) b ) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 3

14 Das Perceptron mit einem Neuron und zwei Eingängen (Rosenblatt, 958) In den Anfangsjahren der NN-Forschung benutzte man vorzugsweise Schwellwertlogiken. D.h. der Eingangsvektor war zweiwertig und als Aktivierungsfunktion wurde die Sprungfunktion (f(s)= (s)= für s 0 und (s)=0 für s<0). Da jede Boole sche Funktion als disjunktive oder konjunktive Normalform geschrieben werden kann, ist es möglich, mit einem zweischichtigen Perceptron jede logische Funktion zu realisieren. x w 0 + s y x y= x x w 0 b Schwellwert y=0 y ( w, x b) ( g( x)) w x Funktionsweise bei rellwertigen Eingängen H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 4

15 Zur Funktionsweise des Perceptrons Das Neuron unterteilt den Eingansraum von x mit einer Hyperebene (hier: Gerade) in zwei Hälften. Die Hyperebene ist der geometrische Ort, auf dem alle Vektoren liegen, deren Projektion auf w konstant ist: g( x) w, x b 0 Orthogonale Projektion: wx, w x cos? b w x g(x)>0 Für zwei Punkte auf der Trennfläche gilt: x 0 w, x b w, x b g(x)<0 x w,( x x ) 0 w w ( x x ) x d b w H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 5

16 Nichtlinearer Klassifikatorentwurf - das XOR-Problem Es ist offensichtlich, dass sich die Booleschen Funktionen AND und OR durch einen linearen Klassifikator und damit mit einem einschichtigen Perceptron lösen lassen: x (0,) AND (,) y x x AND Klasse OR Klasse y OR w 0 0 x w 0 + x w 0 (0,0) (,0) b Schwellwert x y w oder auch vereinfacht: AND 3 OR AND: g( x) x x 0 OR: g( x) x x 0 b b H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 6

17 Lösung des XOR-Problems mit einem Zwei- Lagen-Perceptron Das Exklusiv-Oder-Problem lässt sich hingegen im Gegensatz zu AND und OR durch einen linearen Klassifikator offensichtlich nicht lösen. x (0,) (,) (0,0) (,0) x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 7

18 Lösung des XOR-Problems mit einem Zwei- Lagen-Perceptron Das Exklusiv-Oder-Problem lässt sich hingegen im Gegensatz zu AND und OR nicht durch einen linearen Klassifikator lösen. Eine Lösung ergibt sich jedoch durch Kombination zweier Trennlinien. Dies führt auf ein zweilagiges Perceptron! OR NAND x + x - - -/ + + y y -3/ z XOR +3/ erste Schicht zweite Schicht x x y y XOR Klasse z ( x x) ( x x) y y XOR Nach der Abbildung der ersten Schicht ergibt sich ein linear trennbares Problem!! y y ( x x ) OR H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 8 y y ( x x ) NAND 3 3 z ( y y ) AND

19 Funktionsweise der ersten Schicht: Abbildung des reellwertigen Eingangsraums auf die Eckpunkte eines Hyperwürfels In der ersten Schicht eines Perceptrons reagiert ein Neuron mit 0 oder, in Abhängigkeit davon, in welcher Hälfte der von der Hyperfläche erzeugten beiden Halbräume sich der Eingangsvektor befindet. Jedes weitere Neuron erzeugt eine zusätzliche Trennebene. Die erste Schicht eines Perceptrons bildet somit den reellwertigen Eingangsraum auf die Eckpunkte eines Hyperwürfels ab. Die sich schneidenden Trennebenen bilden linear begrenzte (konvexe) Gebiete, sogenannte Polyeder. Jedes Gebiet korrespondiert zu einem Eckpunkt des Hyperwürfels. Nachfolgend ist eine Grafik zu sehen für 3 Neuronen und einen zweidimensionalen Eingangsraum x: x x (y,y,y 3 ) = g 3 (x) 00 g (x) g (x) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 9

20 Netz für Beispiel auf den Vorseiten x x w, x + w, w 3, w, w, b + b x + y 3 y w, y w, w,3 + b z y 3 y w 3, y b 3 matlab-nn.bat H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 0

21 Funktionsweise der zweiten Schicht: Abtrennung eines Eckpunktes des Hyperwürfels In der zweiten Schicht kann durch Abtrennung eines Eckpunktes des Hyperwürfels mit einer neuen Trennfläche ein eindeutiges Merkmal für ein konvexes Gebiet erzeugt werden: 0 konvexes Gebiet Eckpunkte eines Hyperwürfels H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

22 Trennt man mehrere benachbarte Punkte mit einer Ebene ab, so kann man auch nichtkonvexe Gebiete realisieren Durch das Abtrennen von mehreren Punkten mit einer Ebene, wird die Vereinigungsmenge der Elementargebiete gebildet (ODER): 0,, g, g, g g 3 3,, g 0 0,0,,0, 0 0 g g 3 0,0,0 0,0, g 0,,0,,0 0,,0 0,0,0,0,0 g 0,, Trennt man nur zwei benachbarte Punkte ab (Änderung in einer Bitstelle), so erhält man hier nur konvexe Gebiete, wie z.b.:,0,0,0, konvexes Gebiet mit benachbarten Punkten:,, 0,,,,0 konvexes Gebiet mit benachbarten Punkten:,,,, 0,, H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a

23 Trennt man mehrere benachbarte Punkte mit einer Ebene ab, so kann man auch nichtkonvexe Gebiete realisieren Durch das Abtrennen von mehreren Punkten mit einer Ebene, wird die Vereinigungsmenge der Elementargebiete gebildet (ODER): 0,, g, g, g g 3 3,, g 0 0,0,,0, 0 0 g g 3 0,0,0 0,0, g 0,,0,,0 0,,0 0,0,0,0,0 g 0,, Mit mehr als Punkten erhält man auch nichtkonvexe Gebiete:,0,0,0, Nichtkonvexes Gebiet mit 3 benachbarten Punkten:,, 0,, 0,, 0,,0 Nichtkonvexes Gebiet mit 3 benachbarten Punkten:,, 0,,,, 0,, H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 3

24 Optimale Trennebene zur Abtrennung eines Eckpunktes von einem Hyperwürfel Wird als nichtlineare Funktion im Neuron die Signum-Funktion verwendet, so liegt der daraus resultierende Hyperwürfel zentriert im Ursprung. Die optimale Trennebene liegt in der Mitte zwischen einem Eckpunkt und einer Ebene die von den nächsten Nachbarn aufgespannt wird. Ohne Einschränkung der Allgemeinheit, können wir den Eckpunkt entlang der ersten Raumdiagonale u betrachten. Dafür gilt: N= x T (-,) (,) u mit: dim( x) e u u u u N N (-,-) (,-) x Eigentlich genügt es, die Trennebene in einem Abstand d=n / - mit einem hinreichend kleinen Abstand zu platzieren. Problem: über in Abhängigkeit von N kann keine genaue Aussage gemacht werden. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 4

25 Die Trennebene liegt genau zwischen u und der orthogonalen Projektion eines der Nachbarecken u auf u: T N u T u u, u eu u N N N N und damit der Fußpunkt der Trennebene bei: u u u u N N N ( ) u ( ) u u e N N N N d u z. Bsp. N 3 u 3 Trennebene N 4 3 4u N 00 0,99u u e u d Ein zu u benachbarter Eckpunkt des Würfels produziert im Skalarprodukt <u,u> genau den Wert (N-)! Die Gleichung der Trennebene ergibt sich zu: w Koordinaten des Eckpunkts xe, u xu, N d N N N u, x ( N ) 0 w b N Neuron zur Abtrennung eines Eckpunkts H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 5

26 Das 3-Lagen-Perceptron mit Schwellwertfunktion Mit einem 3-L-S-MLPC lassen sich beliebige linear begrenzte Cluster in Merkmalsräumen klassifizieren!!. Schicht: Der gesamte kontinuierliche Merkmalsraum wird durch Neuronen in unterschiedliche Halbräume aufgeteilt. 0. Schicht: Sich schneidende Hyperebenen bilden konvexe Polyeder. Diese werden auf die Eckpunkte eines Hyperwürfels abgebildet. Durch abtrennen von Eckpunkten des Hyperwürfels durch Neuronen der. Schicht werden konvexe Polyeder (Schnittmengenbildung von Halbräumen) selektiert (AND) Schicht: beliebige Polyeder (linear begrenzte Gebiete) entstehen durch Vereinigung von konvexen Gebieten (OR). H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 6

27 Perceptron mit 3 Lagen zur Realisierung eines Klassifikators für beliebig linear begrenzte Gebiete (Polyeder) Erste Schicht: Der Merkmalsraum wird durch Neuronen in unterschiedliche Halbräume aufgeteilt. Zweite Schicht: Schnittmengen von Halbräumen (Polyeder) werden Booleschen Vektoren zugeordnet (AND) Dritte Schicht Vereinigung von konvexen Gebieten (OR) x N W S N + s S f y S W S S + s S f y S W 3 S 3 S + s 3 S 3 f y 3 S 3 b b b 3 N S S S S S 3 S 3 y =f (W x+b ) y =f (W y +b ) y 3 =f 3 (W 3 y +b 3 ) y f ( W f ( W f ( W x b ) b ) b ) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 7

28 Beispiel: Selektion eines nichtkonvexen Gebietes mit einem dreilagigen Perceptron mit f (s)=sign(s) y f ( W f ( W f ( W x b ) b ) b ) Aufgabe: Entwurf der ersten Schicht: Definition der Trenngeraden x g g g x - g 4 g 5 g 6 W w w 0 g,, w w 0 g,, w w 0 g 4 b w 0 w g 4 3, 3, 3 4, 4, 4 w 0 w g 5, 5, 5 w 0 w g 6, 6, 6 z.bsp.: g : w, x b 0 mit: w b 0 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 8

29 Entwurf der zweiten Schicht: Aufgabe: x g g g x - g 4 g 5 g 6 Entwurf der zweiten Schicht: Abtrennen von Eckpunkten des Hyperwürfels der Dimension N=6 Kennzeichnung der Gebiete: g g g g g g W g g g 3 g 4 g 5 g 6 5 b Die Zeilenvektoren von W zeigen genau auf die abzutrennenden Eckpunkte; der Schwellwert hat den Wert b = (-N) = -5 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 9

30 Entwurf der dritten Schicht: In der dritten Schicht ist die Vereinigungsmenge der Gebiete zu realisieren. Dies geschieht einfach mit einer OR-Verknüpfung. Das bedeutet, dass der Eckpunkt [ ] abgetrennt werden muss. Dies wiederum geschieht mit Hilfe von: W b ( N) 3 3 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 30

31 Vereinfachter Entwurf der zweiten und dritten Schicht (Vereinigung nichtchtdisjunkter Gebiete): Aufgabe: x g g g x - g 4 g 5 g 6 Entwurf der zweiten Schicht: Abtrennen von Eckpunkten des Hyperwürfels Kennzeichnung der Gebiete: die Tabelle enthält don t care -Elemente ( ). Die dazugehörigen Neuronen können unberücksichtigt bleiben (Verbindung auftrennen) 3 g g g g g g W g g g 3 g 4 g 5 g b Die Dimension des reduzierten Würfels beträgt nur N=4 (ohne don t care Elemente!) Die Zeilenvektoren von W zeigen genau auf die abzutrennenden Eckpunkte; der Schwellwert hat den Wert b = (-N) = -3 des reduzierten Würfels! H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 3

32 Vereinfachter Entwurf der dritten Schicht: In der dritten Schicht ist die Vereinigungsmenge der Gebiete zu realisieren. Dies geschieht einfach mit einer OR-Verknüpfung. Das bedeutet, dass der Eckpunkt [ ] abgetrennt werden muss. Dies wiederum geschieht mit Hilfe von: 3 3 W b ( ) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 3

33 Beispiel für ein nicht linear separierbares Zwei- Klassenproblem (M.T. Hagan, H.B. Demuth, M. Beale Neural Network Design, PWS Publishing Company, Boston, 995) x 3 Klassifikationsproblem Klasse Klasse x 3 Konvexe Regionen der zweiten Schicht x x x 3 Trennlinien der ersten Schicht x 3 Endgültige Entscheidungsgebiete der dritten Schicht x x H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 33

34 Beispiel für ein nicht linear separierbares Zwei-Klassenproblem Erste Schicht: es werden Geraden zur Abtrennung der Gebiete als Funktion von zwei Eingangsvariablen benötigt! W b T T Zweite Schicht: es werden vier konvexe Gebiete selektiert! W b Dritte Schicht (Vereinigung): W b 3 H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 34

35 Beispiel für ein nicht linear separierbares Zwei- Klassenproblem Erste Schicht: Der Merkmalsraum wird durch Neuronen in unterschiedliche Halbräume aufgeteilt. Zweite Schicht: Schnittmengen von Halbräumen (Polyeder) werden Booleschen Vektoren zugeordnet (AND) Dritte Schicht Vereinigung von konvexen Gebieten (OR) x W + s y W 4 + s 4 y 4 W s 3 y 3 b b b y =sign(w x+b ) y =sign(w y +b ) y 3 =sign(w 3 y +b 3 ) y sign( W sign( W sign( W x b ) b ) b ) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 35

36 Diskussion über die Existenz einer fehlerfreien Lösung für jedes Reklassifikationsproblem (kein Fehler auf dem Lerndatensatz) linear separierbar (gute Generalisierung) nichtlinear separierbar (gute Generalisierung) nichtlinear separierbar (schlechte Generalisierung) nichtlinear separierbar (schlechte Generalisierung) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 36

37 Auf dem Weg zum automatischen Entwurf eines Neuronalen Netzes Die bisher skizzierte Vorgehensweise ist sehr anschaulich und im zweidimensionalen Fall noch intuitiv handhabbar, aber für höherdimensionale Fälle ist sie nicht brauchbar. Alles was wir in der Praxis zur Verfügung haben, sind die Lernstichproben. Benötigt wird ein automatischer Algorithmus, welcher davon ausgehend in einem Lernprozess die optimalen Gewichte des NN automatisch ermittelt. Will man für diese nichtlineare Optimierungsaufgabe iterative Algorithmen einsetzen, so benötigt man differenzierbare Nichtlinearitäten in den Neuronen (die Schwellwertfunktionen sind dafür nur begrenzt geeignet!). H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 37

38 Linear separierbare Klassen der Perceptron-Algorithmus Ziel ist, ein Algorithmus zur automatischen Anpassung der unbekannten Gewichtsmatrizen W i eines Perceptrons an ein Klassifikationsproblem, gegeben eine endliche Stichprobe {(x i, k)}. Für den Fall linear separierbarer Klassen gab Rosenblatt einen iterativen Algorithmus zur Lösung dieses Problems an. Es wird angenommen, dass eine lineare Trennfläche, definiert durch die Gleichung w* T x=0 für das Zweiklassenproblem existiert, derart dass: T w * x 0 x T w * x 0 x Dies schließt auch den Fall ein, dass die Trennfläche nicht wie hier durch den Ursprung läuft, nämlich w* T x+b*=0, da dieser durch Erweiterung von x auf die obige Formulierung zurückgeführt werden kann: w x T T x, x w b, w T T T T w x w x b Linear separierbares Problem H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 38

39 Gelöst wird das Problem durch die Wahl eines geeigneten Gütekriteriums und die Angabe eines Optimierungsalgorithmus. Das zu minimierende Perceptron- Gütemaß sei gegeben durch (Maß für Fehlklassifikation): T J ( w) ( w x) x mit: für x und: für x x x x Summe der Beträge der Projektionen der falsch klassifizierten Vektoren auf den Normalenvektor der Trenngeraden wobei die Menge der Trainingsvektoren enthält, welche durch die gegebene Hyperfläche falsch klassifiziert werden. Offensichtlich ist obige Summe immer positiv und sie wird Null, wenn die leere Menge ist, d.h. alle Elemente richtig zugeordnet werden. Für den Fall eines falsch zugeordneten Vektors x erhalten wir mit w T x < 0 und x < 0 ein positives Produkt der beiden Terme. Das gleiche gilt für Vektoren der Klasse. Das Gütekriterium nimmt seinen Minimalwert Null an, falls alle Stichproben richtig klassifiziert werden. w x i H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 39

40 Das Gütemaß ist stetig und stückweise linear. Falls wir den Gewichtsvektor wenig verändern, ändert sich J(w) linear bis zu dem Punkt, wo sich die Zahl der falsch zugeordneten Vektoren ändert. An dieser Stelle ist der Gradient von J nicht definiert und der Gradient von J ist unstetig. Die iterative Minimierung der Kostenfunktion geschieht durch einen Algorithmus, welcher dem Gradientenabstieg ähnlich ist: w w i i i J ( w) w w w i Dabei ist w i der Gewichtsvektor für die i-te Iteration und i eine Sequenz von positiven Zahlen. Vorsicht ist geboten an den Unstetigkeitsstellen! Aus dem Gütekriterium ergibt sich: J ( w) w, x xx wegen: w w x und damit: x w w x i i i x x Perceptron-Algorithmus H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 40

41 Die Iteration ist fortzusetzen bis der Algorithmus konvergiert. Das folgende Bild vermittelt einen Eindruck der Funktionsweise. Es wird angenommen, dass beim Iterationsschritt i nur ein x falsch klassifiziert wird (w T x < 0) und es sei i=0,5. Der Perceptron-Algorithmus korrigiert den Gewichtsvektor in die Richtung von x. Damit dreht sich die Trennlinie und x wird korrekt zugeordnet (w T x > 0). i+ x i x w i+ x ix w i H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 4

42 In dem folgenden Beispiel wird angenommen, dass wir beim vorletzten Iterationsschritt angekommen sind und lediglich noch zwei Merkmalsvektoren falsch zugeordnet werden: T Trennlinie: x x 0, 5 0 Gewichtsvektor: w 0, 5 Falsch klassifizierte Vektoren: 0,4 0,05-0, 0,75 T T T Mit dem Perceptron-Algorithmus ergibt sich der nächste Gewichtsvektor mit i=0,7 zu: w i w i 0,4 0,,4 0, 7( ) 0, 05 0, 7( ) 0, 75 0,5 0,5 Die neue Trennlinie:,4 x 0,5x 0,5 0 trennt alle Vektoren korrekt. Der Algorithmus terminiert. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 4

43 Eigenschaften des Perceptron-Algorithmus Man kann beweisen, dass der Algorithmus in einer endlichen Anzahl von Iterationen zu einer Lösung konvergiert (bei geeignet gewählten Werten von i, was bei Gradientenalgorithmen immer ein Problem ist), falls die Voraussetzung erfüllt ist, dass die Klassen linear trennbar sind. Die gefundene Lösung ist allerdings nicht eindeutig. Der Algorithmus terminiert, wenn der Fehler und damit auch der Gradient Null ist, selbst wenn die Trenngerade sehr dicht an den Klassen liegt. Für nicht linear-separierbare Probleme erhält man keine Lösung. Die Korrektur in der Iteration hat immer von Null verschiedene Beiträge und kann somit nicht terminieren. Demo aus Matlab: NN-Toolbox -Perceptron Learning rule -Linearly non-separable vectors (demop6.m) Später werden wir Multilagen-NN kennenlernen, welche beliebige Klassifikationsprobleme (auch nichtlineare) lösen können. Der Backpropagation- Algorithmus kann verwendet werden, um solche Netzwerke zu trainieren. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 43

Kapitel 8. Neuronale Netze

Kapitel 8. Neuronale Netze Kapitel 8 Neuronale Netze Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf eines Klassifikators:. Statistische parametrische Modellierung der Klassenverteilungen,

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 1

und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 1 Kapitel 9 Polynomklassifikator und Radiale-Basis-Funktionen-Netzwerke (RBFN) H. Burkhardt, Institut für Informatik, Universität Freiburg ME-II, Kap. 9 Ansätze zum Entwurf eines Klassifikators Es gibt zwei

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Prof. Dr. Rudolf Kruse Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Im Unterschied zu den bisher behandelten NNs mit Schwellwertfunktionen sind die NNe mit stetig differenzierbaren nichtlinearen Aktivierungsfunktionen

Mehr

03. Vektoren im R 2, R 3 und R n

03. Vektoren im R 2, R 3 und R n 03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen

Mehr

03. Vektoren im R 2, R 3 und R n

03. Vektoren im R 2, R 3 und R n 03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

6.6. Abstandsbestimmungen

6.6. Abstandsbestimmungen 6.6. Abstandsbestimmungen 6. Geraden und Ebenen im Raum In diesem Kapitel werden folgende Fälle vorgestellt:. Abstand zweier Punkte. Abstand zweier paralleler Geraden 3. Abstand einer Ebene zu einer zur

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von

Mehr

Klassifikation durch direkten Vergleich (Matching)

Klassifikation durch direkten Vergleich (Matching) Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 8 18. Mai 2010 Kapitel 8. Vektoren (Fortsetzung) Lineare Unabhängigkeit (Fortsetzung) Basis und Dimension Definition 80. (Lineare (Un-)Abhängigkeit)

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif 14 Oktober 2008 1 Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof Dr Ulrich Reif Inhalt: 1 Vektorrechnung 2 Lineare Gleichungssysteme 3 Matrizenrechnung 4 Lineare Abbildungen 5 Eigenwerte

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Blatt 10 Lösungshinweise

Blatt 10 Lösungshinweise Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

2.2 Kollineare und koplanare Vektoren

2.2 Kollineare und koplanare Vektoren . Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Vektoren, Vektorräume

Vektoren, Vektorräume Vektoren, Vektorräume Roman Wienands Sommersemester 2010 Mathematisches Institut der Universität zu Köln Roman Wienands (Universität zu Köln) Mathematik II für Studierende der Chemie Sommersemester 2010

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl. Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Lernunterlagen Vektoren in R 2

Lernunterlagen Vektoren in R 2 Die Menge aller reellen Zahlen wird mit R bezeichnet, die Menge aller Paare a 1 a 2 reeller Zahlen wird mit R 2 bezeichnet. Definition der Menge R 2 : R 2 { a 1 a 2 a 1, a 2 R} Ein Zahlenpaar a 1 a 2 bezeichnet

Mehr

5. Klassifikation. 5.6 Support Vector Maschines (SVM)

5. Klassifikation. 5.6 Support Vector Maschines (SVM) 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246 Überwachtes Lernen / Support Vector Machines Rudolf Kruse Neuronale Netze 246 Überwachtes Lernen, Diagnosesystem für Krankheiten Trainingsdaten: Expressionsprofile von Patienten mit bekannter Diagnose

Mehr

Proseminar über multimediale Lineare Algebra und Analytische Geometrie

Proseminar über multimediale Lineare Algebra und Analytische Geometrie Proseminar über multimediale Lineare Algebra und Analytische Geometrie Aufgabensteller: Dr. M. Kaplan Josef Lichtinger Montag, 1. Dezember 008 Proseminar WS0809 Inhaltsverzeichnis 1 Aufgabenstellung 3

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung

Mehr

Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra

Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra A. Filler[-3mm] Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra, Teil 8 Folie 1 /27 Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra 8. Das Skalarprodukt, metrische

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Das Perzeptron. Volker Tresp

Das Perzeptron. Volker Tresp Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya Lineare Transformationen und Determinanten 10-E Ma 1 Lubov Vassilevskaya Lineare Transformation cc Definition: V und W sind zwei Vektorräume. Eine Funktion T nennt man eine lineare Transformation von V

Mehr

Abituraufgaben Analytische Geometrie (Pflichtteil) Lösung A6/08 Lösungslogik (einfach) Klausuraufschrieb (einfach)

Abituraufgaben Analytische Geometrie (Pflichtteil) Lösung A6/08 Lösungslogik (einfach) Klausuraufschrieb (einfach) Lösung A6/08 (einfach) Der Abstand zweier Geraden im Raum errechnet sich über Richtungsvektor der ersten Geraden, als Aufpunkt der ersten und als Aufpunkt der zweiten Geraden. (einfach) 3 12 1 297 1 5

Mehr

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?

Mehr

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Im Unterschied zu den bisher behandelten NNs mit Schwellwertfunktionen sind die NNs mit stetig differenzierbaren nichtlinearen Aktivierungsfunktionen

Mehr

Geometrie. Ingo Blechschmidt. 4. März 2007

Geometrie. Ingo Blechschmidt. 4. März 2007 Geometrie Ingo Blechschmidt 4. März 2007 Inhaltsverzeichnis 1 Geometrie 2 1.1 Geraden.......................... 2 1.1.1 Ursprungsgeraden in der x 1 x 2 -Ebene.... 2 1.1.2 Ursprungsgeraden im Raum..........

Mehr

Grundwissen Abitur Geometrie 15. Juli 2012

Grundwissen Abitur Geometrie 15. Juli 2012 Grundwissen Abitur Geometrie 5. Juli 202. Erkläre die Begriffe (a) parallelgleiche Pfeile (b) Vektor (c) Repräsentant eines Vektors (d) Gegenvektor eines Vektors (e) Welcher geometrische Zusammenhang besteht

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Aufgabe A7/08 Die Ebene geht durch die Punkte 1,5 0 0,!0 3 0 und " Untersuchen

Aufgabe A7/08 Die Ebene geht durch die Punkte 1,5 0 0,!0 3 0 und  Untersuchen Aufgabe A6/08 Gegeben sind die zwei parallelen Gerade und durch 2 3 1 6 : 9 4, : 2 8;, 4 1 5 2 Bestimmen Sie den Abstand der beiden Geraden. (Quelle Abitur BW 2008 Aufgabe 6) Aufgabe A7/08 Die Ebene geht

Mehr

Tangentialebene. Sei f eine stetig differenzierbare Funktion und p = (p 1,..., p n ) die Koordinaten eines Punktes P auf der durch

Tangentialebene. Sei f eine stetig differenzierbare Funktion und p = (p 1,..., p n ) die Koordinaten eines Punktes P auf der durch Tangentialebene Sei f eine stetig differenzierbare Funktion und p = (p 1,..., p n ) die Koordinaten eines Punktes P auf der durch implizit definierten Fläche. f (x 1,..., x n ) = c Tangentialebene 1-1

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Kapitel II. Vektorräume

Kapitel II. Vektorräume Inhalt der Vorlesung LAAG I Prof. Dr. Arno Fehm TU Dresden WS2017/18 Kapitel II. Vektorräume In diesem ganzen Kapitel sei K ein Körper. 1 Definition und Beispiele 1.1 Beispiel. Ist K = R, so haben wir

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

12. R n als EUKLIDISCHER VEKTORRAUM

12. R n als EUKLIDISCHER VEKTORRAUM 12. R n als EUKLIDISCHER VEKTORRAUM 1 Orthogonalität in der Ebene. Die Vektoren in der Ebene, die (im üblichen Sinne) senkrecht zu einem Vektor x = (x 1, x 2 ) T stehen, lassen sich leicht angeben. Sie

Mehr

Lageinvariante Konturbilderkennung. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 4a 1

Lageinvariante Konturbilderkennung. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 4a 1 Kapitel 4 Lageinvariante Konturbilderkennung H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 4a 1 Konturerfassung und Konturbeschreibung Bei allgemeinen Grau- oder Farbbildvorlagen

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 4 Wintersemester 2017/18 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2017 Steven Köhler Wintersemester 2017/18 Inhaltsverzeichnis Teil 1 Teil

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Teil II. Geometrie 19

Teil II. Geometrie 19 Teil II. Geometrie 9 5. Dreidimensionales Koordinatensystem Im dreidimensionalen Koordinatensystem gibt es acht Oktanten, oben I bis VI und unten VI bis VIII. Die Koordinatenachsen,x 2 und stehen jeweils

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z); 5 Vektorräume Was wir in den vorangegangenen Kapiteln an Matrizen und Vektoren gesehen haben, wollen wir nun mathematisch abstrahieren. Das führt auf den Begriff des Vektorraumes, den zentralen Begriff

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr