Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation
|
|
- Lucas Maus
- vor 5 Jahren
- Abrufe
Transkript
1 Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend aus ZS vielen Eingabeneuronen Darauf definiert diverse Merkmalsextrahoren f, g, h... Lineare Gewichtung der extrahierten Merkmale Eingaberaum = Retina quadratisch angeordneter Eingabeneuronen = Pixelraum hoher Dimension Merkmalsraum: Wir extrahieren diverse (hier 3 Stück) problemrelevante Merkmale: lokal, nichtlinear Ausgaberaum: Ein Perzeptron, linear f(x) w 1 g(x) w 2 θ y w 3 h(x) Was für Lernaufgaben (bestehend aus diversen positiven und negativen Mustern (Bildern) auf der Retina kann man mit einem solchen Modell lernen (=klassifizieren)?
2 1.) Wenn die zugelassenen Merkmalsfunktionen keinerlei Einschränkungen unterliegen, so ist jede Lernaufgabe (gegeben durch eine Menge positiver Punkte/Vektoren/Bilder x P und eine Menge negativer Punkte/Vektoren/Bilder x N) lernbar, sogar mit nur einem einzigen Merkmal # f (x) = $ 1 falls x " P % 0 sonst und einem sehr trivialen Perzeptron, das nur ein Gewicht 1 und Schwellwert ½ hat. Das ist aber nicht die Idee bei dem Modell. Vielmehr will man einfache Merkmale haben, dafür aber vermutlich mehr als nur eines, und ein Ausgabeperzeptron, das auch noch ein bisschen Arbeit leistet. 2.) Merkmalsfunktionen auf eher einfache einzuschränken, kann nun vieles bedeuten: a. Der Definitionsbereich einer Merkmalsfunktion soll nicht die ganze Retina sein, sondern nur ein Teilbereich einer Größe, die ein fester Bruchteil (vielleicht 30%) der Gesamtretinagröße Z S ist. b. Der Definitionsbereich einer Merkmalsfunktion soll sogar in einem Rechteck enthalten sein, dessen Fläche ein fester Bruchteil (vielleicht 30%) der Gesamtretinagröße Z S ist. c. Der Definitionsbereich einer Merkmalsfunktion soll maximal die Größe Z S 1 haben. (Dies erscheint schon fast so spendabel wie ein auf der gesamten Retina definiertes Merkmal.) d. Weitere Varianten sind denkbar. 3.) Je lokaler die Merkmale sind, also je kleiner ihre Definitionsbereiche sind, umso mehr von ihnen werden wir wohl spendieren müssen. Was dabei so alles passieren kann, beleuchten die folgenden Beispiele.
3 Zusammenhang von Mustern erkennen: Die Felder einer Retina nennen wir Pixel. Ein Muster (Bild) auf der Retina besteht aus schwarzen (Bit 1) und weißen (Bit 0) Pixeln. Zwei Pixel heißen benachbart, wenn sie eine Seite gemeinsam haben (ein gemeinsamer Eckpunkt reicht dagegen nicht). Ein Muster heißt zusammenhängend, wenn je zwei schwarze Pixel des Musters durch einen Pfad benachbarter schwarzer Pixel des Musters verbunden werden können. Die folgenden Diagramme zeigen auf einer 7 21-Retina zwei zusammenhängende und zwei nicht zusammenhängende Muster nicht zusammenhängend zusammenhängend nicht zusammenhängend zusammenhängend
4 Wir nehmen an, dass nur Merkmale, deren Definitionsbereich in einem 7 7-Würfel enthalten sind, verwendet werden Dabei ist es egal, wo auf der Retina der jeweilige Würfel liegt. Die Definitionsbereiche diverser Merkmale dürfen sich überlappen. Satz: Mit Merkmalen der beschriebenen Art (egal, wie viele man erlaubt, und egal, wie trickreich diese sein dürfen) und einem nachgeschalteten Perzeptron kann man nicht zusammenhängende von unzusammenhängenden Muster unterscheiden. Beweis: Wir nehmen an, dies ginge doch mit einem Perzeptron und diversen Merkmalen, deren Definitionsbereich jeweils in einem Quadrat der Seitenlänge 7 enthalten sind. Nun unterteilen wir die 7 21-Retina in drei Teilbereiche: Links Mitte Rechts Fernerhin gruppieren wir die Merkmale in drei Gruppen: Gruppe L enthält alle Merkmale, deren Definitionsbereich mindestens ein Pixel im Retinabereich Links enthält. Gruppe R enthält alle Merkmale, deren Definitionsbereich mindestens ein Pixel im Retinabereich Rechts enthält. Gruppe M enthält alle übrigen Merkmale (deren Definitionsbereich somit ganz im Retinabereich Mitte liegt). Da Links und Rechts durch 7 Spalten getrennt sind, sind die Gruppen L, M, R paarweise disjunkt. Nun bilden wir für jedes der 4 obigen Bilder B 1, B 2, B 3, B 4 den Nettoinput S(B i ) an das klassifizierende Perzeptron und zerlegen diesen entsprechend in drei Summanden S L (B i ), S M (B i ) und S R (B i ):
5 S L (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe L auf Bild B i S M (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe M auf Bild B i S R (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe R auf Bild B i S(B i ) = S L (B i ) + S M (B i ) + S R (B i ) Wir halten einige Zusammenhänge fest: (1) S M (B 1 ) = S M (B 2 ) = S M (B 3 ) = S M (B 4 ) Dies liegt daran, dass S M (B i ) nur auf Pixel in der Retinamitte Mitte zugreift und die vier Bilder im bereich Mitte identisch sind. (2) S R (B 1 ) = S R (B 2 ) (3) S R (B 3 ) = S R (B 4 ) Dies liegt daran, dass die Bilder B 1 und B 2 sich nicht in den Retinabereichen Rechts und Mitte unterscheiden und somit jedes Merkmal in der Gruppe L auf beiden denselben Wert liefert. Dasselbe trifft auf die Bilder B 3 und B 4 zu. (4) S L (B 1 ) = S L (B 4 ) (5) S L (B 2 ) = S L (B 3 ) Dies liegt daran, dass die Bilder B 1 und B 4 sich nicht in den Retinabereichen Mitte und Links unterscheiden und somit jedes Merkmal in der Gruppe L auf beiden denselben Wert liefert. Dasselbe trifft auf die Bilder B 2 und B 3 zu. (6) S(B 1 ) < θ und S(B 3 ) < θ (7) S(B 2 ) θ und S(B 4 ) θ
6 Hier sei θ der Schwellwert des Perzeptrons. Die Ungleichungen gelten, weil B 2 und B 4 zusammenhängend sind, während B 1 und B 3 nicht zusammenhängend sind. Alles zusammen: S M (B 1 ) = S M (B 2 ) = S M (B 3 ) = S M (B 4 ) S R (B 1 ) = S R (B 2 ) S R (B 3 ) = S R (B 4 ) S L (B 1 ) = S L (B 4 ) S L (B 2 ) = S L (B 3 ) S(B 1 ) < θ und S(B 3 ) < θ S(B 2 ) θ und S(B 4 ) θ Daraus ergibt sich der folgende Widerspruch: 2" # S(B 2 ) + S(B 4 ) = S L (B 2 ) + S M (B 2 ) + S R (B 2 ) + S L (B 4 ) + S M (B 4 ) + S R (B 4 ) = S L (B 1 ) + S M (B 1 ) + S R (B 1 ) + S L (B 3 ) + S M (B 3 ) + S R (B 3 ) = S(B 1 ) + S(B 3 ) < 2"
7 Parity erkennen Wir wollen Bilder auf der Retina mit einer geraden Anzahl schwarzer Pixel von Bildern mit einer ungeraden Anzahl von Pixeln unterscheiden. Satz: Mit Merkmalen, deren Definitionsbereich nicht gleich der vollen Retina ist, die also auf mindestens ein Pixel nicht zugreifen (egal, wie viele man erlaubt, und egal, wie trickreich diese sein dürfen) und einem nachgeschalteten Perzeptron kann man nicht Bilder mit einer geraden von Bildern mit einer ungeraden Anzahl schwarzer Pixel unterscheiden. Der allgemeine Beweis ist ziemlich trickreich und aufwändig. Wir zeigen ihn nur für den Fall einer 1 3-Ritina Retina mit nur 3 Pixeln. Dieser Fall klingt schon fast trivial, erfordert aber trotzdem noch einen ziemlichen Rechenaufwand. Den Satz können wir für diesen Fall per brute force beweisen. Wir behandeln zunächst einen Sonderfall eines Perzeptrons, in dem als Merkmale nur sog. 2- Masken benutzt werden dürfen. Eine 2-Maske ist ein Merkmal, das auf genau zwei Pixeln p und q mit 1 p < q 3 der Retina definiert und dort das Vorhandensein eines bestimmten Musters ab mit Bits a und b in einem Eingabebild B überprüft. Eine solche 2-Maske bezeichnen wir mit f pqab. Für ein Bild B = (B 1, B 2, B 3 ) gilt also: # f pqab (B) = 1 fallsb p = a" B b = b $ % 0 sonst Da es 3 Kombinationen von p und q (p, q = 1, 2 oder 1,3 oder 2,3) und 4 Kombinationen von a und b (a, b = 00 oder 01 oder 10 oder 11) gibt, gibt es 12 verschiedene 2-Masken, die wir in folgender Tabelle mit ihren Funktionswerten auf allen 8 möglichen Eingabebildern und ihren Gewichten in einem Perzeptron auflisten. Zur besseren Lesbarkeit notieren wir Bits 1 als schwarze Pixel und Bits 0 als weiße Pixel.
8 pos neg neg neg pos pos pos neg w 1 f w 2 f w 3 f w 4 f w 5 f w 6 f w 7 f w 8 f w 9 f w 10 f w 11 f w 12 f Die gewichtete Summe der 12 Merkmalswerte auf den 4 positiven und den 4 negativen Bildern muss somit folgende Nettoinputs ergeben: w 1 + w 5 + w 9 " # w 2 + w 6 + w 9 < # w 3 + w 5 + w 10 < # w 1 + w 7 + w 11 < # w 4 + w 6 + w 10 " # w 2 + w 8 + w 11 " # w 3 + w 7 + w 12 " # w 4 + w 8 + w 12 < # Nun addieren wir die 4 Terme θ und dann die 4 Terme < θ und beobachten, dass beide Summen identisch sind. Dies ist ein Widerspruch.
9 4" # w 1 + w 5 + w 9 + w 4 + w 6 + w 10 + w 2 + w 8 + w 11 + w 3 + w 7 + w 12 = w 2 + w 6 + w 9 + w 3 + w 5 + w 10 + w 1 + w 7 + w 11 + w 4 + w 8 + w 12 < 4" Nun ist noch zu zeigen, wie man ein Perzeptron, welches beliebige Masken mit Definitionsbereich p,q { } mit 1! < q! 3 Sei f eine beliebige solche Maske mit Gewicht w f. p benutzt, durch ein 2-Masken-Perzeptron simuliert. x 1 Merkmal f output f(x p,x q ) x 2 w f x 3 net =. + f(x p,x q )w f + Mit den vier 2-Masken f pq00, f pq01, f pq10, f pq11 können wir auf Input (x 1, x 2, x 3 ) alle vier möglichen Fälle x p x q = 00 oder 01 oder 10 oder 11 testen und mit Gewicht f(00)w f oder f(01)w f oder f(10)w f oder f(11)w f dem Nettoinput net übergeben. x 1 Merkmal f pq00 x 2 f(00)w f x 3 Merkmal f pq01 f(01)w f f(10)w f net =. + f(x p,x q )w f + Merkmal f pq10 f(11)w f Merkmal f pq11
10 Nun bleibt noch das Problem, dass unser Rosenblattperzeptron manche der 2-Masken gar nicht oder mehrfach benutzt. In letzterem Fall führen wir die fehlende 2-Maske ein und gewichten sie mit Gewicht 0. In ersterem Fall sei eine Maske k mal verwendet und mit Gewichten w 1,, w k an das Ausgabeneuron angeschlossen worden. Wir ersetzen die k identischen Maske durch eine einzige mit Gewicht w w k. Eine weitere Art des Lernens von Trainingsdaten und Generalisierung auf Testdaten durch Merkmalsextraktion als Vorverarbeitungsschritt sind RBF-Netze (radial basis function), die aus einer endlichen Anzahl von auf der Retina aufgespannten und durch das Perzeptron dann gewichteten Gaußglocken im n-dimensionalen Eingaberaum (im Beispiel unten ist n = 2) bestehen. w 5 w 1 w 3 w 2 w 4 w 6 Hat eine dieser Gaußglocken (=Merkmale) als Zentrum den Vektor ( = Punkt) z R n und den Varianz σ 2 (= Weite σ) so wirkt sie auf einem Eingabevektor z R n wie folgt: g z" (x) = 1 2#" e$ x$z 2 2" 2 Je näher x dem Zentrum z liegt, umso näher liegt der Merkmalswert bei 1. Die Weite der Gaußglocke bestimmt, in welcher Nachbarschaft von z man Eingabevektoren x noch als zu z
11 gehörig interpretiert. Die Idee wäre, gegebene Trainingsvektoren als Zentren von Gaußglocken zu wählen, deren Weite man nach gewissen Kriterien passend einstellen müsste. Die Idee ist also, bei gegebener Menge von Trainingsvektoren z mit bekanntem Ausgabewert d(z) um diese Eingabevektoren als Zentren mehr oder weniger enge Gaußglocken zu legen, danach neue Eingaben auf ihre Nähe zu den Zentren der Gaußglocken hin zu untersuchen, und die Nähe zu den Gaußglockenzentren dann in gewichteter Weise zusammen zu fügen. In der Praxis würde man sicherlich nicht für jeden Trainingsvektor eine eigene Gaußglocke haben wollen (das würde einem Auswendiglernen der Trainingsdaten entsprechen), sondern benachbarte Trainingsvektoren durch eine gemeinsame Gaußglocke repräsentieren. So etwas werden wir später mittels (neuronaler) Clusteringverfahren kennen lernen.
Nichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
Mehr% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion
Perzeptron (mit Gewichten w 1,..., w n und Schwellwert θ, an dessen Eingänge Werte x 1,...,x n angelegt worden sind) x 1 w 1 θ x n w n Eingabewerte x 1,...,x n (reelle Zahlen, oft zwischen 0 und 1, manchmal
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrLineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
MehrKreis - Kreisgleichung (+ Lagebeziehung Punkt / Kreis)
Kreis - Kreisgleichung (+ Lagebeziehung Punkt / Kreis. Kreisgleichung. Kreis durch 3 Punkte 3. Lage Punkt / Kreis. Kreisgleichung Ein Kreis mit dem Mittelpunkt M - Ortsvektor m - und dem Radius r ist beschrieben
MehrUniversität des Saarlandes
Universität des Saarlandes FR 6.2 Informatik Prof. Dr. Kurt Mehlhorn Dr. Antonios Antoniadis André Nusser WiSe 2017/18 Übungen zu Ideen der Informatik http://www.mpi-inf.mpg.de/departments/algorithms-complexity/teaching/winter17/ideen/
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrMathematischer Vorbereitungskurs für Ökonomen
Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Ungleichungen Inhalt: 1. Grundlegendes 2. Lineare Ungleichungen 3. Ungleichungen mit
MehrDie Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrGerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik
Gerade, ungerade oder weder noch? Algebraische und graphische Beweise 4-E1 Symmetrie einer Funktion: Aufgabe 3 Bestimmen Sie algebraisch und graphisch, ob die Funktionen gerade oder ungerade sind, oder
MehrSätze über ganzrationale Funktionen
Sätze über ganzrationale Funktionen 1. Sind alle Koeffizienten a i ganzzahlig und ist x 0 eine ganzzahlige Nullstelle, so ist x 0 ein Teiler von a 0. 2. Haben alle Koeffizienten dasselbe Vorzeichen, so
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrLösungen - 7. Klasse / 7. Schulstufe
Lösungen der Aufgaben Lösungen - 7. Klasse / 7. Schulstufe 1. Auf jedem der zehn Felder der nebenstehenden 2 5 Tabelle befindet sich ein Mensch, der entweder ein Ehrlicher oder ein Lügner ist. Die Ehrlichen
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr1 0, x C X (A). = 1 χ A(x).
Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrÜbung 5, Analytische Optimierung
Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrPolynome Teil V: Elementarsymmetrische Funktionen.
Die WURZEL Werkstatt Mathematik Polynome Teil V: Elementarsymmetrische Funktionen. Es gibt Gleichungssysteme, die lassen sich mit schulischen Mitteln nicht bzw. nur sehr mühsam knacken. So musste etwa
MehrAnalysis I Lösung von Serie 9
FS 07 9.. MC Fragen: Ableitungen (a) Die Figur zeigt den Graphen einer zweimal differenzierbaren Funktion f. Was lässt sich über f, f und f sagen? Nichts Die Funktion f ist positiv. Die Funktion f ist
Mehr. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall:
Laufzeit von Quicksort im Mittel. Wir wollen die erwartete Effizienz von Quicksort ermitteln. Wir nehmen an, die Wahrscheinlichkeit, dass das gewählte Pivot-Element a j das k-t kleinste Element der Folge
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrQuantenalgorithmus für die Faktorisierung ganzer Zahlen
Quantenalgorithmus für die Faktorisierung ganzer Zahlen Ausgehend von dem allgemeinen Algorithmus für das Hidden Subgroup Problem behandlen wir in diesem Abschnitt den Quantenalgorithmus für die Faktorisierung
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Mehr1. Schularbeit. Gruppe A
1. Schularbeit Gruppe A 18.10.1997 1)a) Berechne den Term (4a+3b-5c). 7x-(5a-4b+6c). 3x (2) und mache die Probe für a=b=5, c=-2, x=3. Gib die Befehle für den TI92 an, erkläre, was sie bewirken (sowohl
MehrTechnische Universität München. Aufgaben Mittwoch SS 2012
Technische Universität München Andreas Wörfel Ferienkurs Analysis 2 für Physiker Aufgaben Mittwoch SS 2012 Aufgabe 1 Äquivalente Aussagen für Stetigkeit( ) Beweisen Sie folgenden Satz: Seien X und Y metrische
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrLösungen Klasse 11 A B. Figur 1
Lösungen Klasse 11 Klasse 11 1. Thomas markiert auf der Oberfläche eines Würfels einige Punkte, so dass folgende Bedingung erfüllt ist: Es gibt keine zwei Seitenflächen mit gleich vielen markierten Punkten.
MehrBeispiellösungen zu Blatt 77
µathematischer κorrespondenz- zirkel Mathematisches Institut Georg-August-Universität Göttingen Aufgabe 1 Beispiellösungen zu Blatt 77 Die Zahl 9 ist sowohl als Summe der drei aufeinanderfolgenden Quadratzahlen,
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrEinführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt
Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen
Mehrf(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv?
Umkehrfunktionen Aufgabe 1. Sei A = {1, 2, 3, 4}. Definieren Sie eine bijektive Funktion f A A und geben Sie ihre Umkehrfunktion f 1 an. Lösung von Aufgabe 1. Zum Beispiel f, f 1 A A mit f(x) = x f 1 (x)
MehrFraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:
Universität Regensburg Sommersemester 013 Daniel Heiß: 9: Metrische äußere Maße II I Das mehrdimensionale Lebesguemaß 1.1 Definition (i) Für reelle Zahlen a b, c d ist ein Rechteck im R die Menge R = a,
Mehr1. Beschreiben Sie folgende Zahlenmengen durch Markierung auf der Zahlengeraden, der Zahlenebene bzw. durch Aufzählen der Elemente:
Lösung 1. Übung Elemente der Algebra WS017/18 1. Beschreiben Sie folgende Zahlenmengen durch Markierung auf der Zahlengeraden, der Zahlenebene bzw. durch Aufzählen der Elemente: (e) {(x,y) IR 3x+4y 1}.
Mehr2. Gauß-Integration. Prof. Dr. Wandinger 4. Scheibenelemente FEM 4.2-1
Die analytische Integration der Steifigkeitsmatrix für das Rechteckelement ist recht mühsam. Für Polynome gibt es eine einfachere Methode zur Berechnung von Integralen, ohne dass die Stammfunktion benötigt
Mehr2 Polynome und rationale Funktionen
Gleichungen spielen auch in der Ingenieurmathematik eine große Rolle. Sie beschreiben zum Beispiel Bedingungen, unter denen Vorgänge ablaufen, Gleichgewichtszustände, Punktmengen. Gleichungen für eine
MehrDemo für
SUMMENZEICHEN Regeln und Anwendungen Gebrauchs des Summenzeichens mit Aufgaben aus vielen Bereichen für Angela Datei Nr. 4 Stand:. Oktober INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Demo für 4 Summenzeichen
MehrÜbungen zur Linearen Algebra 1
Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume
MehrÜbungen Mathematik I, M
Übungen Mathematik I, M Übungsblatt, Lösungen (Stoff aus Mathematik 0) 09.0.0. Kommissar K hat 3 Tatverdächtige P, Q und R. Er weiß: (a) Wenn sich Q oder R als Täter herausstellen, dann ist P unschuldig.
Mehrein vom Nullvektor verschiedener Vektor, dann ist jeder dazu parallele (kollinear) Veka tor d ein Vielfaches von a. + λ 2 a 2
II. Basis und Dimension ================================================================= 2.1 Linearkombination und Basis -----------------------------------------------------------------------------------------------------------------
MehrLösungsvorschlag zur Nachklausur. Zeigen Sie die folgenden voneinander unabhängigen Aussagen:
Lösungsvorschlag zur Nachklausur Aufgabe 1 Es seien G eine Gruppe und H, K zwei Untergruppen von G. Weiterhin gelte G = {hk h H, k K}. Zeigen Sie die folgenden voneinander unabhängigen Aussagen: a) Sind
MehrEinführung in die Gitterfreien Methoden
Einführung in die Gitterfreien Methoden Domenik Beres October 22, 2013 Domenik Beres Einführung in die Gitterfreien Methoden October 22, 2013 1 / 40 Inhaltsverzeichnis 1 Was versteht man unter Datenapproximation?
MehrInstitut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4
Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark 08.11.2018 Dr. Markus Lange Analysis 1 Aufgabenzettel 4 Abgabe bis 14. November 2018, 19:00 Uhr Erinnerung: Die Anmeldung für den Übungsschein
MehrPolynome. Michael Spielmann. 1 ganzrationale Funktionen, Polynome 1. 2 Kurvenverlauf 1. 3 Symmetrie 2. 4 Nullstellen und Linearfaktoren 3
Polnome Michael Spielmann Inhaltsverzeichnis ganzrationale Funktionen, Polnome Kurvenverlauf Smmetrie Nullstellen und Linearfaktoren 5 Polnomdivision 6 Kurvenverlauf an Nullstellen 5 7 Nullstellen und
MehrLösung der Wettbewerbsaufgaben vom 2. Bayreuther Tag der Mathematik Klasse
Lösung der Wettbewerbsaufgaben vom 2. Bayreuther Tag der Mathematik 9. 10. Klasse Vorbemerkung: Die hier angegebenen Lösungen sind sehr längliche Lösungen, die häufig etwas mehr zeigen, als in der Aufgabenstellung
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrÜbersicht. Bielefeld Hannover. Kamen Paderborn. Unna Wünnenberg Kassel. Ziffer wählen. abheben. auflegen. Gespräch führen
Übersicht Graphen beschreiben Objekte und Beziehungen zwischen ihnen geeignet für Modellierung verschiedener Aufgaben betrachten endliche, ungerichtete und endliche, gerichtete Graphen Graphen bestehen
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrKapitel 1. Mengen und Abbildungen. 1.1 Mengen
Kapitel 1 Mengen und Abbildungen 1.1 Mengen Die Objekte der modernen Mathematik sind die Mengen. Obwohl die Logik einen axiomatischen Zugang zur Mengenlehre bietet, wollen wir uns in dieser Vorlesung auf
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
MehrKapitel 3 Lineare Algebra
Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare
MehrBegriffe Wahrscheinlichkeitstheorie I
Begriffe Wahrscheinlichkeitstheorie I Träger / Alphabet einer diskreten Zufallsgröße nach ( 0.0) Der Träger S X R der diskreten Zufallsgröße X ist die Menge aller Werte x, die die Zufallsgröße (mit einer
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Mehr( 1) k k 2. k=0. n n(n + 1) ( 1) k k 2 + ( 1) n+1 (n + 1) 2. k=0. + ( 1) n+1 (n + 1) 2 n(n + 1) + (n + 1) 2 )
Musterlösung zum 9. Blatt 8. Aufgabe: Sei n eine natürliche Zahl. Vermuten Sie eine Formel für ( ) k k und beweisen Sie diese durch vollständige Induktion. Lösung: Für jede natürliche Zahl n sei a n =
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrMethoden zur Erzeugung von Kernen
Methoden zur Erzeugung von Kernen Stefan Frommer 03.07.2007 1. Theoretische Konstruktion von Kernen 1.1 Wiederholung: Kerne 1.2 Auswahl eines Kerns 1.3 Kern-Kompositionen 2. Rechenbeispiele für Kerne 2.1
Mehr1 Übungsaufgaben zu Kapitel 1
Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:
MehrBrückenkurs Elementarmathematik
Brückenkurs Elementarmathematik IV. Ungleichungen November 13, 2013 Inhalt 1 Ungleichungen 2 Umformungen von Ungleichungen 2.1 Äquivalenzumformungen 2.2 Addition und Multiplikation von Ungleichungen 3
MehrPlatonische und archimedische Parkettierungen. Meisterklasse Mathematik Dresden 2016 Olaf Schimmel
Platonische und archimedische Parkettierungen Meisterklasse Mathematik Dresden 2016 Olaf Schimmel Inhaltsübersicht 1 Was sind Parkettierungen? 2 Warum Winkel wichtig sind 3 Platonische Parkette 4 Archimedische
MehrPermutationsgruppen. 1 Zykelzerlegung und Signum. Jesko Hüttenhain. Winter 2013
Permutationsgruppen Jesko Hüttenhain Winter 2013 Sei N eine endliche Menge. Dann bezeichnen wir mit S N := {σ : N N σ bijektiv} die symmetrische Gruppe auf N. Für n N sei [n] := {1,..., n}. Wir schreiben
Mehr3 Endliche Muster und Konfigurationen
3 Endliche Muster und Konfigurationen Wir gehen von nun an immer davon aus, dass 0 N ist. 3.1 Definition Eine Teilmenge P Q heißt genau dann Ruhemenge oder passiv, wenn für alle l : N Q mit ran(l) P gilt:
MehrFunktionen und andere Zuordnungen
Funktionen und andere Zuordnungen Rainer Hauser November 2011 1 Allgemeine Zuordnungen 1.1 Pfeildarstellung von Zuordnungen Sätze wie Das ist der Schlüssel zu diesem Schloss und Hänsel ist der Bruder von
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrQuadratische Funktionen
Quadratische Funktionen Aufgabe 1 Verschieben Sie die gegebenen Parabeln so, dass ihr Scheitelpunkt in S liegt. Gesucht sind die Scheitelpunktsform und die allgemeine Form der Parabelgleichung a) y = x²,
MehrBeispiellösungen zu Blatt 65
µathematischer κorrespondenz- zirkel Mathematisches Institut Georg-August-Universität Göttingen Aufgabe 1 Beispiellösungen zu Blatt 65 Welche regelmäßigen n-ecke der Seitenlänge 1 kann man in kleinere
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrKlausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7
Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite /7 Matrikelnummer: Systeme gewöhnlicher Differentialgleichungen (3 + 3 = 6 Pkt.) Die Abbildung zeigt die Richtungsfelder von drei Differentialgleichungssystemen
MehrIdeen und Konzepte der Informatik
Ideen und Konzepte der Informatik Programme und Algorithmen Antonios Antoniadis 23. Oktober 2017 Algorithmen und Programme Algorithmus Schritt-für-Schritt Vorschrift zur Lösung eines Problems. Formuliert
MehrSachrechnen/Größen WS 14/15-
Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der
MehrMathematik III - Blatt 6
Mathematik III - Blatt Christopher Bronner, Frank Essenberger 8. November Aufgabe Wir suchen erstmal im inneren des Vierecks nach Punkten, die für einen Extremwert in Frage kommen, danach auf den Rändern
MehrKapitel 1:»Rechnen« c 3 c 4 c) b 5 c 4. c 2 ) d) (2x + 3) 2 e) (2x + 0,01)(2x 0,01) f) (19,87) 2
Kapitel :»Rechnen«Übung.: Multiplizieren Sie die Terme so weit wie möglich aus. a /5 a 5 Versuchen Sie, vorteilhaft zu rechnen. Übung.2: Berechnen Sie 9% von 2573. c 3 c 4 b 5 c 4 ( b 2 c 2 ) (2x + 3)
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrMeisterklasse Dresden 2014 Olaf Schimmel
Meisterklasse Dresden 2014 Olaf Schimmel 1 Was sind Parkettierungen? 2 Warum Winkel wichtig sind 3 Platonische Parkette 4 Archimedische Parkette 5 Welche Kombination von Vielecken erfüllen die Winkelbedingung?
Mehr10 Extremwerte mit Nebenbedingungen
10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen
MehrIdeen und Konzepte der Informatik. Programme und Algorithmen Kurt Mehlhorn
Ideen und Konzepte der Informatik Programme und Algorithmen Kurt Mehlhorn November 2016 Algorithmen und Programme Algorithmus = Schritt-für-Schritt Vorschrift zur Lösung eines Problems. Formuliert man
MehrTriangulierungen von Punktmengen und Polyedern
Triangulierungen von Punktmengen und Polyedern Vorlesung im Sommersemester 2000 Technische Universität Berlin Jörg Rambau 17.05.2000 Sekundärpolytop und 6 bistellare Operationen In diesem Kapitel werden
Mehr