Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Größe: px
Ab Seite anzeigen:

Download "Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation"

Transkript

1 Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend aus ZS vielen Eingabeneuronen Darauf definiert diverse Merkmalsextrahoren f, g, h... Lineare Gewichtung der extrahierten Merkmale Eingaberaum = Retina quadratisch angeordneter Eingabeneuronen = Pixelraum hoher Dimension Merkmalsraum: Wir extrahieren diverse (hier 3 Stück) problemrelevante Merkmale: lokal, nichtlinear Ausgaberaum: Ein Perzeptron, linear f(x) w 1 g(x) w 2 θ y w 3 h(x) Was für Lernaufgaben (bestehend aus diversen positiven und negativen Mustern (Bildern) auf der Retina kann man mit einem solchen Modell lernen (=klassifizieren)?

2 1.) Wenn die zugelassenen Merkmalsfunktionen keinerlei Einschränkungen unterliegen, so ist jede Lernaufgabe (gegeben durch eine Menge positiver Punkte/Vektoren/Bilder x P und eine Menge negativer Punkte/Vektoren/Bilder x N) lernbar, sogar mit nur einem einzigen Merkmal # f (x) = $ 1 falls x " P % 0 sonst und einem sehr trivialen Perzeptron, das nur ein Gewicht 1 und Schwellwert ½ hat. Das ist aber nicht die Idee bei dem Modell. Vielmehr will man einfache Merkmale haben, dafür aber vermutlich mehr als nur eines, und ein Ausgabeperzeptron, das auch noch ein bisschen Arbeit leistet. 2.) Merkmalsfunktionen auf eher einfache einzuschränken, kann nun vieles bedeuten: a. Der Definitionsbereich einer Merkmalsfunktion soll nicht die ganze Retina sein, sondern nur ein Teilbereich einer Größe, die ein fester Bruchteil (vielleicht 30%) der Gesamtretinagröße Z S ist. b. Der Definitionsbereich einer Merkmalsfunktion soll sogar in einem Rechteck enthalten sein, dessen Fläche ein fester Bruchteil (vielleicht 30%) der Gesamtretinagröße Z S ist. c. Der Definitionsbereich einer Merkmalsfunktion soll maximal die Größe Z S 1 haben. (Dies erscheint schon fast so spendabel wie ein auf der gesamten Retina definiertes Merkmal.) d. Weitere Varianten sind denkbar. 3.) Je lokaler die Merkmale sind, also je kleiner ihre Definitionsbereiche sind, umso mehr von ihnen werden wir wohl spendieren müssen. Was dabei so alles passieren kann, beleuchten die folgenden Beispiele.

3 Zusammenhang von Mustern erkennen: Die Felder einer Retina nennen wir Pixel. Ein Muster (Bild) auf der Retina besteht aus schwarzen (Bit 1) und weißen (Bit 0) Pixeln. Zwei Pixel heißen benachbart, wenn sie eine Seite gemeinsam haben (ein gemeinsamer Eckpunkt reicht dagegen nicht). Ein Muster heißt zusammenhängend, wenn je zwei schwarze Pixel des Musters durch einen Pfad benachbarter schwarzer Pixel des Musters verbunden werden können. Die folgenden Diagramme zeigen auf einer 7 21-Retina zwei zusammenhängende und zwei nicht zusammenhängende Muster nicht zusammenhängend zusammenhängend nicht zusammenhängend zusammenhängend

4 Wir nehmen an, dass nur Merkmale, deren Definitionsbereich in einem 7 7-Würfel enthalten sind, verwendet werden Dabei ist es egal, wo auf der Retina der jeweilige Würfel liegt. Die Definitionsbereiche diverser Merkmale dürfen sich überlappen. Satz: Mit Merkmalen der beschriebenen Art (egal, wie viele man erlaubt, und egal, wie trickreich diese sein dürfen) und einem nachgeschalteten Perzeptron kann man nicht zusammenhängende von unzusammenhängenden Muster unterscheiden. Beweis: Wir nehmen an, dies ginge doch mit einem Perzeptron und diversen Merkmalen, deren Definitionsbereich jeweils in einem Quadrat der Seitenlänge 7 enthalten sind. Nun unterteilen wir die 7 21-Retina in drei Teilbereiche: Links Mitte Rechts Fernerhin gruppieren wir die Merkmale in drei Gruppen: Gruppe L enthält alle Merkmale, deren Definitionsbereich mindestens ein Pixel im Retinabereich Links enthält. Gruppe R enthält alle Merkmale, deren Definitionsbereich mindestens ein Pixel im Retinabereich Rechts enthält. Gruppe M enthält alle übrigen Merkmale (deren Definitionsbereich somit ganz im Retinabereich Mitte liegt). Da Links und Rechts durch 7 Spalten getrennt sind, sind die Gruppen L, M, R paarweise disjunkt. Nun bilden wir für jedes der 4 obigen Bilder B 1, B 2, B 3, B 4 den Nettoinput S(B i ) an das klassifizierende Perzeptron und zerlegen diesen entsprechend in drei Summanden S L (B i ), S M (B i ) und S R (B i ):

5 S L (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe L auf Bild B i S M (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe M auf Bild B i S R (B i ) = gewichtete (mit den Gewichten des Perzeptrons) Summe aller Werte von Merkmalen aus der Gruppe R auf Bild B i S(B i ) = S L (B i ) + S M (B i ) + S R (B i ) Wir halten einige Zusammenhänge fest: (1) S M (B 1 ) = S M (B 2 ) = S M (B 3 ) = S M (B 4 ) Dies liegt daran, dass S M (B i ) nur auf Pixel in der Retinamitte Mitte zugreift und die vier Bilder im bereich Mitte identisch sind. (2) S R (B 1 ) = S R (B 2 ) (3) S R (B 3 ) = S R (B 4 ) Dies liegt daran, dass die Bilder B 1 und B 2 sich nicht in den Retinabereichen Rechts und Mitte unterscheiden und somit jedes Merkmal in der Gruppe L auf beiden denselben Wert liefert. Dasselbe trifft auf die Bilder B 3 und B 4 zu. (4) S L (B 1 ) = S L (B 4 ) (5) S L (B 2 ) = S L (B 3 ) Dies liegt daran, dass die Bilder B 1 und B 4 sich nicht in den Retinabereichen Mitte und Links unterscheiden und somit jedes Merkmal in der Gruppe L auf beiden denselben Wert liefert. Dasselbe trifft auf die Bilder B 2 und B 3 zu. (6) S(B 1 ) < θ und S(B 3 ) < θ (7) S(B 2 ) θ und S(B 4 ) θ

6 Hier sei θ der Schwellwert des Perzeptrons. Die Ungleichungen gelten, weil B 2 und B 4 zusammenhängend sind, während B 1 und B 3 nicht zusammenhängend sind. Alles zusammen: S M (B 1 ) = S M (B 2 ) = S M (B 3 ) = S M (B 4 ) S R (B 1 ) = S R (B 2 ) S R (B 3 ) = S R (B 4 ) S L (B 1 ) = S L (B 4 ) S L (B 2 ) = S L (B 3 ) S(B 1 ) < θ und S(B 3 ) < θ S(B 2 ) θ und S(B 4 ) θ Daraus ergibt sich der folgende Widerspruch: 2" # S(B 2 ) + S(B 4 ) = S L (B 2 ) + S M (B 2 ) + S R (B 2 ) + S L (B 4 ) + S M (B 4 ) + S R (B 4 ) = S L (B 1 ) + S M (B 1 ) + S R (B 1 ) + S L (B 3 ) + S M (B 3 ) + S R (B 3 ) = S(B 1 ) + S(B 3 ) < 2"

7 Parity erkennen Wir wollen Bilder auf der Retina mit einer geraden Anzahl schwarzer Pixel von Bildern mit einer ungeraden Anzahl von Pixeln unterscheiden. Satz: Mit Merkmalen, deren Definitionsbereich nicht gleich der vollen Retina ist, die also auf mindestens ein Pixel nicht zugreifen (egal, wie viele man erlaubt, und egal, wie trickreich diese sein dürfen) und einem nachgeschalteten Perzeptron kann man nicht Bilder mit einer geraden von Bildern mit einer ungeraden Anzahl schwarzer Pixel unterscheiden. Der allgemeine Beweis ist ziemlich trickreich und aufwändig. Wir zeigen ihn nur für den Fall einer 1 3-Ritina Retina mit nur 3 Pixeln. Dieser Fall klingt schon fast trivial, erfordert aber trotzdem noch einen ziemlichen Rechenaufwand. Den Satz können wir für diesen Fall per brute force beweisen. Wir behandeln zunächst einen Sonderfall eines Perzeptrons, in dem als Merkmale nur sog. 2- Masken benutzt werden dürfen. Eine 2-Maske ist ein Merkmal, das auf genau zwei Pixeln p und q mit 1 p < q 3 der Retina definiert und dort das Vorhandensein eines bestimmten Musters ab mit Bits a und b in einem Eingabebild B überprüft. Eine solche 2-Maske bezeichnen wir mit f pqab. Für ein Bild B = (B 1, B 2, B 3 ) gilt also: # f pqab (B) = 1 fallsb p = a" B b = b $ % 0 sonst Da es 3 Kombinationen von p und q (p, q = 1, 2 oder 1,3 oder 2,3) und 4 Kombinationen von a und b (a, b = 00 oder 01 oder 10 oder 11) gibt, gibt es 12 verschiedene 2-Masken, die wir in folgender Tabelle mit ihren Funktionswerten auf allen 8 möglichen Eingabebildern und ihren Gewichten in einem Perzeptron auflisten. Zur besseren Lesbarkeit notieren wir Bits 1 als schwarze Pixel und Bits 0 als weiße Pixel.

8 pos neg neg neg pos pos pos neg w 1 f w 2 f w 3 f w 4 f w 5 f w 6 f w 7 f w 8 f w 9 f w 10 f w 11 f w 12 f Die gewichtete Summe der 12 Merkmalswerte auf den 4 positiven und den 4 negativen Bildern muss somit folgende Nettoinputs ergeben: w 1 + w 5 + w 9 " # w 2 + w 6 + w 9 < # w 3 + w 5 + w 10 < # w 1 + w 7 + w 11 < # w 4 + w 6 + w 10 " # w 2 + w 8 + w 11 " # w 3 + w 7 + w 12 " # w 4 + w 8 + w 12 < # Nun addieren wir die 4 Terme θ und dann die 4 Terme < θ und beobachten, dass beide Summen identisch sind. Dies ist ein Widerspruch.

9 4" # w 1 + w 5 + w 9 + w 4 + w 6 + w 10 + w 2 + w 8 + w 11 + w 3 + w 7 + w 12 = w 2 + w 6 + w 9 + w 3 + w 5 + w 10 + w 1 + w 7 + w 11 + w 4 + w 8 + w 12 < 4" Nun ist noch zu zeigen, wie man ein Perzeptron, welches beliebige Masken mit Definitionsbereich p,q { } mit 1! < q! 3 Sei f eine beliebige solche Maske mit Gewicht w f. p benutzt, durch ein 2-Masken-Perzeptron simuliert. x 1 Merkmal f output f(x p,x q ) x 2 w f x 3 net =. + f(x p,x q )w f + Mit den vier 2-Masken f pq00, f pq01, f pq10, f pq11 können wir auf Input (x 1, x 2, x 3 ) alle vier möglichen Fälle x p x q = 00 oder 01 oder 10 oder 11 testen und mit Gewicht f(00)w f oder f(01)w f oder f(10)w f oder f(11)w f dem Nettoinput net übergeben. x 1 Merkmal f pq00 x 2 f(00)w f x 3 Merkmal f pq01 f(01)w f f(10)w f net =. + f(x p,x q )w f + Merkmal f pq10 f(11)w f Merkmal f pq11

10 Nun bleibt noch das Problem, dass unser Rosenblattperzeptron manche der 2-Masken gar nicht oder mehrfach benutzt. In letzterem Fall führen wir die fehlende 2-Maske ein und gewichten sie mit Gewicht 0. In ersterem Fall sei eine Maske k mal verwendet und mit Gewichten w 1,, w k an das Ausgabeneuron angeschlossen worden. Wir ersetzen die k identischen Maske durch eine einzige mit Gewicht w w k. Eine weitere Art des Lernens von Trainingsdaten und Generalisierung auf Testdaten durch Merkmalsextraktion als Vorverarbeitungsschritt sind RBF-Netze (radial basis function), die aus einer endlichen Anzahl von auf der Retina aufgespannten und durch das Perzeptron dann gewichteten Gaußglocken im n-dimensionalen Eingaberaum (im Beispiel unten ist n = 2) bestehen. w 5 w 1 w 3 w 2 w 4 w 6 Hat eine dieser Gaußglocken (=Merkmale) als Zentrum den Vektor ( = Punkt) z R n und den Varianz σ 2 (= Weite σ) so wirkt sie auf einem Eingabevektor z R n wie folgt: g z" (x) = 1 2#" e$ x$z 2 2" 2 Je näher x dem Zentrum z liegt, umso näher liegt der Merkmalswert bei 1. Die Weite der Gaußglocke bestimmt, in welcher Nachbarschaft von z man Eingabevektoren x noch als zu z

11 gehörig interpretiert. Die Idee wäre, gegebene Trainingsvektoren als Zentren von Gaußglocken zu wählen, deren Weite man nach gewissen Kriterien passend einstellen müsste. Die Idee ist also, bei gegebener Menge von Trainingsvektoren z mit bekanntem Ausgabewert d(z) um diese Eingabevektoren als Zentren mehr oder weniger enge Gaußglocken zu legen, danach neue Eingaben auf ihre Nähe zu den Zentren der Gaußglocken hin zu untersuchen, und die Nähe zu den Gaußglockenzentren dann in gewichteter Weise zusammen zu fügen. In der Praxis würde man sicherlich nicht für jeden Trainingsvektor eine eigene Gaußglocke haben wollen (das würde einem Auswendiglernen der Trainingsdaten entsprechen), sondern benachbarte Trainingsvektoren durch eine gemeinsame Gaußglocke repräsentieren. So etwas werden wir später mittels (neuronaler) Clusteringverfahren kennen lernen.

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion

% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion Perzeptron (mit Gewichten w 1,..., w n und Schwellwert θ, an dessen Eingänge Werte x 1,...,x n angelegt worden sind) x 1 w 1 θ x n w n Eingabewerte x 1,...,x n (reelle Zahlen, oft zwischen 0 und 1, manchmal

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Kreis - Kreisgleichung (+ Lagebeziehung Punkt / Kreis)

Kreis - Kreisgleichung (+ Lagebeziehung Punkt / Kreis) Kreis - Kreisgleichung (+ Lagebeziehung Punkt / Kreis. Kreisgleichung. Kreis durch 3 Punkte 3. Lage Punkt / Kreis. Kreisgleichung Ein Kreis mit dem Mittelpunkt M - Ortsvektor m - und dem Radius r ist beschrieben

Mehr

Universität des Saarlandes

Universität des Saarlandes Universität des Saarlandes FR 6.2 Informatik Prof. Dr. Kurt Mehlhorn Dr. Antonios Antoniadis André Nusser WiSe 2017/18 Übungen zu Ideen der Informatik http://www.mpi-inf.mpg.de/departments/algorithms-complexity/teaching/winter17/ideen/

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Ungleichungen Inhalt: 1. Grundlegendes 2. Lineare Ungleichungen 3. Ungleichungen mit

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Gerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik

Gerade, ungerade oder weder noch? Algebraische und graphische Beweise. 4-E1 Vorkurs, Mathematik Gerade, ungerade oder weder noch? Algebraische und graphische Beweise 4-E1 Symmetrie einer Funktion: Aufgabe 3 Bestimmen Sie algebraisch und graphisch, ob die Funktionen gerade oder ungerade sind, oder

Mehr

Sätze über ganzrationale Funktionen

Sätze über ganzrationale Funktionen Sätze über ganzrationale Funktionen 1. Sind alle Koeffizienten a i ganzzahlig und ist x 0 eine ganzzahlige Nullstelle, so ist x 0 ein Teiler von a 0. 2. Haben alle Koeffizienten dasselbe Vorzeichen, so

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Lösungen - 7. Klasse / 7. Schulstufe

Lösungen - 7. Klasse / 7. Schulstufe Lösungen der Aufgaben Lösungen - 7. Klasse / 7. Schulstufe 1. Auf jedem der zehn Felder der nebenstehenden 2 5 Tabelle befindet sich ein Mensch, der entweder ein Ehrlicher oder ein Lügner ist. Die Ehrlichen

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

1 0, x C X (A). = 1 χ A(x).

1 0, x C X (A). = 1 χ A(x). Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Polynome Teil V: Elementarsymmetrische Funktionen.

Polynome Teil V: Elementarsymmetrische Funktionen. Die WURZEL Werkstatt Mathematik Polynome Teil V: Elementarsymmetrische Funktionen. Es gibt Gleichungssysteme, die lassen sich mit schulischen Mitteln nicht bzw. nur sehr mühsam knacken. So musste etwa

Mehr

Analysis I Lösung von Serie 9

Analysis I Lösung von Serie 9 FS 07 9.. MC Fragen: Ableitungen (a) Die Figur zeigt den Graphen einer zweimal differenzierbaren Funktion f. Was lässt sich über f, f und f sagen? Nichts Die Funktion f ist positiv. Die Funktion f ist

Mehr

. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall:

. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall: Laufzeit von Quicksort im Mittel. Wir wollen die erwartete Effizienz von Quicksort ermitteln. Wir nehmen an, die Wahrscheinlichkeit, dass das gewählte Pivot-Element a j das k-t kleinste Element der Folge

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Quantenalgorithmus für die Faktorisierung ganzer Zahlen

Quantenalgorithmus für die Faktorisierung ganzer Zahlen Quantenalgorithmus für die Faktorisierung ganzer Zahlen Ausgehend von dem allgemeinen Algorithmus für das Hidden Subgroup Problem behandlen wir in diesem Abschnitt den Quantenalgorithmus für die Faktorisierung

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

1. Schularbeit. Gruppe A

1. Schularbeit. Gruppe A 1. Schularbeit Gruppe A 18.10.1997 1)a) Berechne den Term (4a+3b-5c). 7x-(5a-4b+6c). 3x (2) und mache die Probe für a=b=5, c=-2, x=3. Gib die Befehle für den TI92 an, erkläre, was sie bewirken (sowohl

Mehr

Technische Universität München. Aufgaben Mittwoch SS 2012

Technische Universität München. Aufgaben Mittwoch SS 2012 Technische Universität München Andreas Wörfel Ferienkurs Analysis 2 für Physiker Aufgaben Mittwoch SS 2012 Aufgabe 1 Äquivalente Aussagen für Stetigkeit( ) Beweisen Sie folgenden Satz: Seien X und Y metrische

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Lösungen Klasse 11 A B. Figur 1

Lösungen Klasse 11 A B. Figur 1 Lösungen Klasse 11 Klasse 11 1. Thomas markiert auf der Oberfläche eines Würfels einige Punkte, so dass folgende Bedingung erfüllt ist: Es gibt keine zwei Seitenflächen mit gleich vielen markierten Punkten.

Mehr

Beispiellösungen zu Blatt 77

Beispiellösungen zu Blatt 77 µathematischer κorrespondenz- zirkel Mathematisches Institut Georg-August-Universität Göttingen Aufgabe 1 Beispiellösungen zu Blatt 77 Die Zahl 9 ist sowohl als Summe der drei aufeinanderfolgenden Quadratzahlen,

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv?

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv? Umkehrfunktionen Aufgabe 1. Sei A = {1, 2, 3, 4}. Definieren Sie eine bijektive Funktion f A A und geben Sie ihre Umkehrfunktion f 1 an. Lösung von Aufgabe 1. Zum Beispiel f, f 1 A A mit f(x) = x f 1 (x)

Mehr

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß: Universität Regensburg Sommersemester 013 Daniel Heiß: 9: Metrische äußere Maße II I Das mehrdimensionale Lebesguemaß 1.1 Definition (i) Für reelle Zahlen a b, c d ist ein Rechteck im R die Menge R = a,

Mehr

1. Beschreiben Sie folgende Zahlenmengen durch Markierung auf der Zahlengeraden, der Zahlenebene bzw. durch Aufzählen der Elemente:

1. Beschreiben Sie folgende Zahlenmengen durch Markierung auf der Zahlengeraden, der Zahlenebene bzw. durch Aufzählen der Elemente: Lösung 1. Übung Elemente der Algebra WS017/18 1. Beschreiben Sie folgende Zahlenmengen durch Markierung auf der Zahlengeraden, der Zahlenebene bzw. durch Aufzählen der Elemente: (e) {(x,y) IR 3x+4y 1}.

Mehr

2. Gauß-Integration. Prof. Dr. Wandinger 4. Scheibenelemente FEM 4.2-1

2. Gauß-Integration. Prof. Dr. Wandinger 4. Scheibenelemente FEM 4.2-1 Die analytische Integration der Steifigkeitsmatrix für das Rechteckelement ist recht mühsam. Für Polynome gibt es eine einfachere Methode zur Berechnung von Integralen, ohne dass die Stammfunktion benötigt

Mehr

2 Polynome und rationale Funktionen

2 Polynome und rationale Funktionen Gleichungen spielen auch in der Ingenieurmathematik eine große Rolle. Sie beschreiben zum Beispiel Bedingungen, unter denen Vorgänge ablaufen, Gleichgewichtszustände, Punktmengen. Gleichungen für eine

Mehr

Demo für

Demo für SUMMENZEICHEN Regeln und Anwendungen Gebrauchs des Summenzeichens mit Aufgaben aus vielen Bereichen für Angela Datei Nr. 4 Stand:. Oktober INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Demo für 4 Summenzeichen

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume

Mehr

Übungen Mathematik I, M

Übungen Mathematik I, M Übungen Mathematik I, M Übungsblatt, Lösungen (Stoff aus Mathematik 0) 09.0.0. Kommissar K hat 3 Tatverdächtige P, Q und R. Er weiß: (a) Wenn sich Q oder R als Täter herausstellen, dann ist P unschuldig.

Mehr

ein vom Nullvektor verschiedener Vektor, dann ist jeder dazu parallele (kollinear) Veka tor d ein Vielfaches von a. + λ 2 a 2

ein vom Nullvektor verschiedener Vektor, dann ist jeder dazu parallele (kollinear) Veka tor d ein Vielfaches von a. + λ 2 a 2 II. Basis und Dimension ================================================================= 2.1 Linearkombination und Basis -----------------------------------------------------------------------------------------------------------------

Mehr

Lösungsvorschlag zur Nachklausur. Zeigen Sie die folgenden voneinander unabhängigen Aussagen:

Lösungsvorschlag zur Nachklausur. Zeigen Sie die folgenden voneinander unabhängigen Aussagen: Lösungsvorschlag zur Nachklausur Aufgabe 1 Es seien G eine Gruppe und H, K zwei Untergruppen von G. Weiterhin gelte G = {hk h H, k K}. Zeigen Sie die folgenden voneinander unabhängigen Aussagen: a) Sind

Mehr

Einführung in die Gitterfreien Methoden

Einführung in die Gitterfreien Methoden Einführung in die Gitterfreien Methoden Domenik Beres October 22, 2013 Domenik Beres Einführung in die Gitterfreien Methoden October 22, 2013 1 / 40 Inhaltsverzeichnis 1 Was versteht man unter Datenapproximation?

Mehr

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4 Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark 08.11.2018 Dr. Markus Lange Analysis 1 Aufgabenzettel 4 Abgabe bis 14. November 2018, 19:00 Uhr Erinnerung: Die Anmeldung für den Übungsschein

Mehr

Polynome. Michael Spielmann. 1 ganzrationale Funktionen, Polynome 1. 2 Kurvenverlauf 1. 3 Symmetrie 2. 4 Nullstellen und Linearfaktoren 3

Polynome. Michael Spielmann. 1 ganzrationale Funktionen, Polynome 1. 2 Kurvenverlauf 1. 3 Symmetrie 2. 4 Nullstellen und Linearfaktoren 3 Polnome Michael Spielmann Inhaltsverzeichnis ganzrationale Funktionen, Polnome Kurvenverlauf Smmetrie Nullstellen und Linearfaktoren 5 Polnomdivision 6 Kurvenverlauf an Nullstellen 5 7 Nullstellen und

Mehr

Lösung der Wettbewerbsaufgaben vom 2. Bayreuther Tag der Mathematik Klasse

Lösung der Wettbewerbsaufgaben vom 2. Bayreuther Tag der Mathematik Klasse Lösung der Wettbewerbsaufgaben vom 2. Bayreuther Tag der Mathematik 9. 10. Klasse Vorbemerkung: Die hier angegebenen Lösungen sind sehr längliche Lösungen, die häufig etwas mehr zeigen, als in der Aufgabenstellung

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Übersicht. Bielefeld Hannover. Kamen Paderborn. Unna Wünnenberg Kassel. Ziffer wählen. abheben. auflegen. Gespräch führen

Übersicht. Bielefeld Hannover. Kamen Paderborn. Unna Wünnenberg Kassel. Ziffer wählen. abheben. auflegen. Gespräch führen Übersicht Graphen beschreiben Objekte und Beziehungen zwischen ihnen geeignet für Modellierung verschiedener Aufgaben betrachten endliche, ungerichtete und endliche, gerichtete Graphen Graphen bestehen

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen Kapitel 1 Mengen und Abbildungen 1.1 Mengen Die Objekte der modernen Mathematik sind die Mengen. Obwohl die Logik einen axiomatischen Zugang zur Mengenlehre bietet, wollen wir uns in dieser Vorlesung auf

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare

Mehr

Begriffe Wahrscheinlichkeitstheorie I

Begriffe Wahrscheinlichkeitstheorie I Begriffe Wahrscheinlichkeitstheorie I Träger / Alphabet einer diskreten Zufallsgröße nach ( 0.0) Der Träger S X R der diskreten Zufallsgröße X ist die Menge aller Werte x, die die Zufallsgröße (mit einer

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

( 1) k k 2. k=0. n n(n + 1) ( 1) k k 2 + ( 1) n+1 (n + 1) 2. k=0. + ( 1) n+1 (n + 1) 2 n(n + 1) + (n + 1) 2 )

( 1) k k 2. k=0. n n(n + 1) ( 1) k k 2 + ( 1) n+1 (n + 1) 2. k=0. + ( 1) n+1 (n + 1) 2 n(n + 1) + (n + 1) 2 ) Musterlösung zum 9. Blatt 8. Aufgabe: Sei n eine natürliche Zahl. Vermuten Sie eine Formel für ( ) k k und beweisen Sie diese durch vollständige Induktion. Lösung: Für jede natürliche Zahl n sei a n =

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Methoden zur Erzeugung von Kernen

Methoden zur Erzeugung von Kernen Methoden zur Erzeugung von Kernen Stefan Frommer 03.07.2007 1. Theoretische Konstruktion von Kernen 1.1 Wiederholung: Kerne 1.2 Auswahl eines Kerns 1.3 Kern-Kompositionen 2. Rechenbeispiele für Kerne 2.1

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Brückenkurs Elementarmathematik

Brückenkurs Elementarmathematik Brückenkurs Elementarmathematik IV. Ungleichungen November 13, 2013 Inhalt 1 Ungleichungen 2 Umformungen von Ungleichungen 2.1 Äquivalenzumformungen 2.2 Addition und Multiplikation von Ungleichungen 3

Mehr

Platonische und archimedische Parkettierungen. Meisterklasse Mathematik Dresden 2016 Olaf Schimmel

Platonische und archimedische Parkettierungen. Meisterklasse Mathematik Dresden 2016 Olaf Schimmel Platonische und archimedische Parkettierungen Meisterklasse Mathematik Dresden 2016 Olaf Schimmel Inhaltsübersicht 1 Was sind Parkettierungen? 2 Warum Winkel wichtig sind 3 Platonische Parkette 4 Archimedische

Mehr

Permutationsgruppen. 1 Zykelzerlegung und Signum. Jesko Hüttenhain. Winter 2013

Permutationsgruppen. 1 Zykelzerlegung und Signum. Jesko Hüttenhain. Winter 2013 Permutationsgruppen Jesko Hüttenhain Winter 2013 Sei N eine endliche Menge. Dann bezeichnen wir mit S N := {σ : N N σ bijektiv} die symmetrische Gruppe auf N. Für n N sei [n] := {1,..., n}. Wir schreiben

Mehr

3 Endliche Muster und Konfigurationen

3 Endliche Muster und Konfigurationen 3 Endliche Muster und Konfigurationen Wir gehen von nun an immer davon aus, dass 0 N ist. 3.1 Definition Eine Teilmenge P Q heißt genau dann Ruhemenge oder passiv, wenn für alle l : N Q mit ran(l) P gilt:

Mehr

Funktionen und andere Zuordnungen

Funktionen und andere Zuordnungen Funktionen und andere Zuordnungen Rainer Hauser November 2011 1 Allgemeine Zuordnungen 1.1 Pfeildarstellung von Zuordnungen Sätze wie Das ist der Schlüssel zu diesem Schloss und Hänsel ist der Bruder von

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Quadratische Funktionen

Quadratische Funktionen Quadratische Funktionen Aufgabe 1 Verschieben Sie die gegebenen Parabeln so, dass ihr Scheitelpunkt in S liegt. Gesucht sind die Scheitelpunktsform und die allgemeine Form der Parabelgleichung a) y = x²,

Mehr

Beispiellösungen zu Blatt 65

Beispiellösungen zu Blatt 65 µathematischer κorrespondenz- zirkel Mathematisches Institut Georg-August-Universität Göttingen Aufgabe 1 Beispiellösungen zu Blatt 65 Welche regelmäßigen n-ecke der Seitenlänge 1 kann man in kleinere

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7 Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite /7 Matrikelnummer: Systeme gewöhnlicher Differentialgleichungen (3 + 3 = 6 Pkt.) Die Abbildung zeigt die Richtungsfelder von drei Differentialgleichungssystemen

Mehr

Ideen und Konzepte der Informatik

Ideen und Konzepte der Informatik Ideen und Konzepte der Informatik Programme und Algorithmen Antonios Antoniadis 23. Oktober 2017 Algorithmen und Programme Algorithmus Schritt-für-Schritt Vorschrift zur Lösung eines Problems. Formuliert

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Mathematik III - Blatt 6

Mathematik III - Blatt 6 Mathematik III - Blatt Christopher Bronner, Frank Essenberger 8. November Aufgabe Wir suchen erstmal im inneren des Vierecks nach Punkten, die für einen Extremwert in Frage kommen, danach auf den Rändern

Mehr

Kapitel 1:»Rechnen« c 3 c 4 c) b 5 c 4. c 2 ) d) (2x + 3) 2 e) (2x + 0,01)(2x 0,01) f) (19,87) 2

Kapitel 1:»Rechnen« c 3 c 4 c) b 5 c 4. c 2 ) d) (2x + 3) 2 e) (2x + 0,01)(2x 0,01) f) (19,87) 2 Kapitel :»Rechnen«Übung.: Multiplizieren Sie die Terme so weit wie möglich aus. a /5 a 5 Versuchen Sie, vorteilhaft zu rechnen. Übung.2: Berechnen Sie 9% von 2573. c 3 c 4 b 5 c 4 ( b 2 c 2 ) (2x + 3)

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Meisterklasse Dresden 2014 Olaf Schimmel

Meisterklasse Dresden 2014 Olaf Schimmel Meisterklasse Dresden 2014 Olaf Schimmel 1 Was sind Parkettierungen? 2 Warum Winkel wichtig sind 3 Platonische Parkette 4 Archimedische Parkette 5 Welche Kombination von Vielecken erfüllen die Winkelbedingung?

Mehr

10 Extremwerte mit Nebenbedingungen

10 Extremwerte mit Nebenbedingungen 10 Extremwerte mit Nebenbedingungen 49 10 Extremwerte mit Nebenbedingungen Wir betrachten nun Extremwertaufgaben, bei denen nach dem Extremwert einer fx 1,, x n gesucht wird, aber die Menge der zulässigen

Mehr

Ideen und Konzepte der Informatik. Programme und Algorithmen Kurt Mehlhorn

Ideen und Konzepte der Informatik. Programme und Algorithmen Kurt Mehlhorn Ideen und Konzepte der Informatik Programme und Algorithmen Kurt Mehlhorn November 2016 Algorithmen und Programme Algorithmus = Schritt-für-Schritt Vorschrift zur Lösung eines Problems. Formuliert man

Mehr

Triangulierungen von Punktmengen und Polyedern

Triangulierungen von Punktmengen und Polyedern Triangulierungen von Punktmengen und Polyedern Vorlesung im Sommersemester 2000 Technische Universität Berlin Jörg Rambau 17.05.2000 Sekundärpolytop und 6 bistellare Operationen In diesem Kapitel werden

Mehr