Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
|
|
- Lieselotte Schumacher
- vor 6 Jahren
- Abrufe
Transkript
1 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2
2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene neuronale Netze mit genau einer versteckten Schicht. Als Netzeingabe- und Aktivierungsfunktion werden radiale Basisfunktionen verwendet. Jedes Neuron erhält eine Art Einzugsgebiet. Die Gewichte der Verbindungen von der Eingabeschicht zu einem Neuron geben das Zentrum an. Rudolf Kruse Neuronale Netze 2
3 Radiale-Basisfunktionen-Netze Ein radiale-basisfunktionen-netz (RBF-Netz) ist ein neuronales Netz mit einem Graph G = (U, C), das die folgenden Bedingungen erfüllt: (i)u in U out =, (ii)c = (U in U hidden ) C, C (U hidden U out ) Die Netzeingabefunktion jedes versteckten Neurons ist eine Abstandsfunktion zwischen dem Eingabevektor und dem Gewichtsvektor, d.h. u U hidden : f (u) net (w u, in u ) =d(w u, in u ), wobeid:ir n IR n IR + eine Funktion ist, die x,,z IRn : erfüllt: (i) d(x,) = x =, (ii) d(x,) =d(,x) (iii) d(x, z) d(x, ) + d(, z) (Smmetrie), (Dreiecksungleichung). Rudolf Kruse Neuronale Netze 22
4 Abstandsfunktionen Veranschaulichung von Abstandsfunktionen d k (x,) = Bekannte Spezialfälle dieser Familie sind: n (x i i ) k i= k = : Manhattan-Abstand, k = 2 : Euklidischer Abstand, k : Maximum-Abstand, d.h.d (x,) = max n i= x i i. k = k = 2 k k (alle Punkte auf dem Kreis bzw. den Vierecken haben denselben Abstand zum Mittelpunkt, entsprechend der jeweiligen Abstandsfunktion) Rudolf Kruse Neuronale Netze 23
5 Radiale-Basisfunktionen-Netze Die Netzeingabefunktion der Ausgabeneuronen ist die gewichtete Summe ihrer Eingaben, d.h. u U out : f (u) net (w u, in u ) =w u in u = v pred (u) w uv out v. Die Aktivierungsfunktion jedes versteckten Neurons ist eine sogenannte radiale Funktion, d.h. eine monoton fallende Funktion f : IR + [, ] with f() = and lim f(x) =. x Die Aktivierungsfunktion jedes Ausgabeneurons ist eine lineare Funktion f (u) act (net u,θ u ) = net u θ u. (Die lineare Aktivierungsfunktion ist wichtig für die Initialisierung.) Rudolf Kruse Neuronale Netze 24
6 Radiale Aktivierungsfunktionen Rechteckfunktion: f act (net,) =, falls net>,, sonst. Dreiecksfunktion: f act (net,) =, falls net>, net, sonst. net net Kosinus bis Null: f act (net,) =, falls net>2, cos( π 2 net )+ 2, sonst. Gaußsche Funktion: f act (net,) =e net e 2 2 net e 2 2 net Rudolf Kruse Neuronale Netze 25
7 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Konjunktionx x 2 x x 2 2 x 2 x (,) ist Zentrum Referenzradius ist 2 Euklidischer Abstand Rechteckfunktion als Aktivierung Biaswert im Ausgabeneuron Rudolf Kruse Neuronale Netze 26
8 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Konjunktionx x 2 x x x 2 x (,) ist Zentrum Referenzradius ist 6 5 Euklidischer Abstand Rechteckfunktion als Aktivierung Biaswert im Ausgabeneuron Rudolf Kruse Neuronale Netze 27
9 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Biimplikationx x 2 Idee: logische Zerlegung x x 2 (x x 2 ) (x x 2 ) x x x 2 x Rudolf Kruse Neuronale Netze 28
10 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x x x 2 x 3 x 4 x x 2 x 3 x Annäherung der Originalfunktion durch Stufenfunktionen, deren Stufen durch einzelne Neuronen eines RBF-Netzes dargestellt werden können (vgl. MLPs). Rudolf Kruse Neuronale Netze 29
11 Radiale-Basisfunktionen-Netze: Funktionsapproximation.. x. x 2 2 x x 3 3 x 4.. Rudolf Kruse Neuronale Netze 3 4. = 2 x = 2 (x i+ x i ) Ein RBF-Netz, das die Treppenfunktion von der vorherigen Folie bzw. die stückweise lineare Funktion der folgenden Folie berechnet (dazu muss nur die Aktivierungsfunktion der versteckten Neuronen geändert werden).
12 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x x x 2 x 3 x 4 x x 2 x 3 x 4 4 Darstellung einer stückweise linearen Funktion durch eine gewichtete Summe von Dreiecksfunktionen mit Zentrenx i. 3 2 Rudolf Kruse Neuronale Netze 3
13 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x Annäherung einer Funktion durch eine Summe von Gaußkurven mit Radius =. Es istw = 2,w 2 = 3 undw 3 = 2. w w 2 w 3 Rudolf Kruse Neuronale Netze 32
14 Radiale-Basisfunktionen-Netze: Funktionsapproximation RBF-Netz für eine Summe dreier Gaußfunktionen 2 x Rudolf Kruse Neuronale Netze 33
Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrHopfield-Netze. Rudolf Kruse Neuronale Netze 192
Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrRekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227
Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrKonvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
MehrLineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß
Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrDifferential- und Integralrechnung
Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrMathematik II für Inf und WInf
Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrLösungsvorschlag Theoretische Physik A Neuntes Übungsblatt
Lösungsvorschlag Theoretische Physik A Neuntes Übungsblatt Aufgabe 3 Prof. Dr. Schön und Dr. Eschrig Wintersemester 004/005 Durch Trennung der Veränderlichen und anschließende Integration ergibt sich aus
MehrImplementationsaspekte
Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der
Mehra) Im Berührungspunkt müssen die y-werte und die Steigungen übereinstimmen:
. ANALYSIS Gegeben ist die kubische Parabel f: y = x 3 6x + 8x + a) Die Gerade g: y = k x + berührt die Parabel an der Stelle x = x 0 > 0. Bestimmen Sie den Parameter k. b) Berechnen Sie den Inhalt der
MehrVorbereitungsaufgaben zur Klausur Mathematik I für Studierende des Studienganges Elektrotechnik und Informationssystemtechnik
Vorbereitungsaufgaben zur Klausur Mathematik I für Studierende des Studienganges Elektrotechnik und Informationssystemtechnik (Aufgaben aus Klausuren). Bestimmen und skizzieren Sie in der Gaußschen Zahlenebene
MehrBayern Musterlösung zu Klausur Analysis, Aufgabengruppe I
Diese Lösung wurde erstellt von Tanja Reimbold. Sie ist keine offizielle Lösung des Bayerischen Staatsministeriums für Unterricht und Kultus. Teil 1 Aufgabe 1 Definitionsbereich: Bestimmung der Nullstelle
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrAngewandte Mathematik und Programmierung
Angewandte Mathematik und Programmierung Einführung in das Konzept der objektorientierten Anwendungen zu mathematischen Rechnens SS2013 Inhalt Fourier Reihen Sehen wir in 2 Wochen Lösung der lin. Dgln.
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
MehrFunktionen lassen sich durch verschiedene Eigenschaften charakterisieren. Man nennt die Untersuchung von Funktionen auch Kurvendiskussion.
Tutorium Mathe 1 MT I Funktionen: Funktionen lassen sich durch verschiedene Eigenschaften charakterisieren Man nennt die Untersuchung von Funktionen auch Kurvendiskussion 1 Definitionsbereich/Wertebereich
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrLösungen der Aufgaben zu Kapitel 9
Lösungen der Aufgaben zu Kapitel 9 Abschnitt 9. Aufgabe a) Wir bestimmen die ersten Ableitungen von f, die uns dann das Aussehen der k-ten Ableitung erkennen lassen: fx) = x + e x xe x, f x) = e x e x
MehrSatz von Stokes. Für ein stetig differenzierbares Vektorfeld F auf einer regulären Fläche S mit orientiertem Rand C gilt. Satz von Stokes 1-1
Satz von Stokes Für ein stetig differenzierbares Vektorfeld F auf einer regulären Fläche S mit orientiertem Rand C gilt rot F ds = F d r. S C Satz von Stokes 1-1 Satz von Stokes Für ein stetig differenzierbares
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
MehrVolumen eines Rotationskörpers
Volumen eines Rotationskörpers Das Volumen V des durch Rotation des Funktionsgraphen r = f (x) 0, a x b, um die x-achse erzeugten Körpers lässt sich durch Integration über die kreisförmigen Querschnitte
MehrFunktionen mehrerer Variabler
Funktionen mehrerer Variabler Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Funktionen mehrerer Variabler Übersicht Funktionsbegriff 1 Funktionsbegriff Beispiele Darstellung Schnitte 2 Partielle Ableitungen
MehrEinführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrÜbungsblatt 3 - Lösungen
Übungsblatt 3 - Lösungen zur Vorlesung EP2 (Prof. Grüner) im 2010 3. Juni 2011 Aufgabe 1: Plattenkondensator Ein Kondensator besteht aus parallelen Platten mit einer quadratischen Grundäche von 20cm Kantenlänge.
MehrSerie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.
Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =
MehrAnalysis II. 8. Klausur mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis II 8. Klausur mit en 1 2 Aufgabe 1. Definiere die folgenden kursiv gedruckten) Begriffe. 1) Eine Metrik auf einer Menge M. 2) Die Kurvenlänge
MehrOptimales Routing. Paul Kunze
Optimales Routing Paul Kunze 10.07.2015 Grundlagen Grundlagen endliche Menge an Punkten Φ = {x i } aus R 2 hier: gebildet durch Poisson-Punktprozess A = A D : Route zum Ziel D Φ. Abbildung auf einem Graphen
MehrDie Topologie von R, C und R n
Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).
MehrViele Statistiken werden durch endliche Folgen beschrieben. (z.b. Anzahl der Studierenden an der TU München in den Jahren 1962 bis 1976)
Kapitel 9 Folgen und Reihen 9.1 Folgen 9.1.1 Was ist eine Folge? Abbildungen, die auf N definiert sind (mit Werten z.b. in R), heißen (unendliche) Folgen. Abb., die auf einer endlichen Menge aufeinander
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrAnalysis1-Klausuren in den ET-Studiengängen (Ba) ab 2007
Analysis-Klausuren in den ET-Studiengängen (Ba) ab 7 Im Folgenden finden Sie die Aufgabenstellungen der bisherigen Klausuren Analysis im Bachelorstudium der ET-Studiengänge sowie knapp gehaltene Ergebnisangaben.
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg elementarer Funktionen Gegeben: f : D R, mit D R und a > 0, b R. Dann gilt: f(x) f (x) 1 ln x x 1 log a x x ln a e x e
Mehr7. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 2010 27.-31.05.10 7. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G24 (Grundlegende Definitionen) Betrachten
Mehr(u, v) z(u, v) u Φ(u, v) (v = const.) Parameterlinie v = const. v Φ(u, v) (u = const.) Parameterlinie u = const.
13 Flächenintegrale 64 13 Flächenintegrale Im letzten Abschnitt haben wir Integrale über Kurven betrachtet. Wir wollen uns nun mit Integralen über Flächen beschäftigen. Wir haben bisher zwei verschiedene
MehrCauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit
Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das
MehrPolynomiale Approximation. und. Taylor-Reihen
Polynomiale Approximation und Taylor-Reihen Heute gehts um die Approximation von glatten (d.h. beliebig oft differenzierbaren) Funktionen f nicht nur durch Gerade (sprich Polynome vom Grade 1) und Polynome
MehrDynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29
Dynamische Systeme und Zeitreihenanalyse Komplexe Zahlen Kapitel 3 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.0/29 Motivation Für die
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
Mehr1 Metrische Räume. In diesem Abschnitt wollen wir den Begriff des metrischen Raumes einführen und an einigen Beispielen illustrieren.
1 Metrische Räume 1 Metrische Räume In diesem Abschnitt wollen wir den Begriff des metrischen Raumes einführen und an einigen Beispielen illustrieren. Definition und Beispiele (1.1) Definition (Metrischer
Mehrφ(ζ, η) = (ζ η, η) = (x, y), bijektiv und stetig differenzierbar ist. Die Jacobi-Matrix von φ lautet: f(ζ) det(dφ(ζ, η)) dζ dη f(ζ) dζ dη.
Übungen (Aufg und Lösungen zu Mathem u Lin Alg II SS 6 Blatt 9 66 Aufgabe 43: Sei f : R R eine stetige Funktion Formen Sie das Integral f(x + y dx dy in ein einfaches Integral um Lösung: Führe neue Koordinaten
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrDer n-dimensionale Raum
Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand
MehrPrüfungsklausur Mathematik II für Wirtschaftsingenieure,
HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 15.7.2014 A Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 gesamt erreichbare P. 10
Mehr6 Weiterer Ausbau der Differentialrechnung
6 Weiterer Ausbau der Differentialrechnung 6.1 Mittelwertsätze, Extremwerte, Satz von Taylor Motivation: Wie wählt man Höhe und Durchmesser einer Konservendose, so dass bei festem Volumen V möglichst wenig
MehrMathematik für Studierende der Erdwissenschaften Lösungen der Beispiele des 1. Übungsblatts
Mathematik für Studierende der Erdwissenschaften Lösungen der Beispiele des 1. Übungsblatts 1. Wolfram Alpha: (a) Der Befehl Plot[{x^3-x,2/(3 Sqrt[3]),-2/(3 Sqrt[3]),-x,2(x+1),2(x-1)},{x,-1,1}] stellt
MehrSeite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx
Seite Aufgabe : a Berechnen Sie das Integral b Berechnen Sie das Integral +x x+x dx. π sin x dx. c Differenzieren Sie die Funktion ft = t e t s ds. Nur Leibniz-Formel a + x x + x dx = d dx lnx + x dx =
MehrLinien- oder Kurvenintegrale: Aufgaben
Linien- oder Kurvenintegrale: Aufgaben 4-E Das ebene Linienintegral Im Fall eines ebenen Linienintegrals liegt der Integrationsweg C häufig in Form einer expliziten Funktionsgleichung y = f (x) vor. Das
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 4
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=
MehrSpickzettel Mathe C1
Spickzettel Mathe C1 1 Mengenlehre 1.1 Potenzmenge Die Potenzmenge P (Ω) einer Menge Ω ist die Menge aller Teilmengen von Ω. Dabei gilt: P (Ω) := {A A Ω} card P (Ω) = 2 card Ω P (Ω) 1.2 Mengenalgebra Eine
MehrKNN für XOR-Funktion. 6. April 2009
KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
Mehr12 Integralrechnung, Schwerpunkt
Dr. Dirk Windelberg Leibniz Universität Hannover Mathematik für Ingenieure Mathematik http://www.windelberg.de/agq Integralrechnung, Schwerpunkt Schwerpunkt Es sei ϱ die Dichte innerhalb der zu untersuchenden
Mehr1.2 Einfache Eigenschaften von Funktionen
1.2 Einfache Eigenschaften von Funktionen 1.2.1 Nullstellen Seien A und B Teilmengen von R und f : A B f : Df Wf eine Funktion. Eine Nullstelle der Funktion f ist ein 2 D f, für das f ( = 0 ist. (Eine
MehrIntegration über allgemeine Integrationsbereiche.
Integration über allgemeine Integrationsbereiche. efinition: Sei R n eine kompakte und messbare Menge. Man nennt Z = { 1,..., m } eine allgemeine Zerlegung von, falls die Mengen k kompakt, messbar und
MehrLösungsvorschläge für das 5. Übungsblatt
Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),
Mehr1.3. Beträge, Gleichungen und Ungleichungen
1.3. Beträge, Gleichungen und Ungleichungen Das Maximum zweier Zahlen a, b wird mit max(a,b) bezeichnet, ihr Minimum mit min(a,b). Der Absolutbetrag einer reellen Zahl a ist a = max ( a, a ) oder auch
Mehr42 Orthogonalität Motivation Definition: Orthogonalität Beispiel
4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
MehrMATHEMATIK I für Bauingenieure (Fernstudium)
TU DRESDEN Dresden, 2. Februar 2004 Fachrichtung Mathematik / Institut für Analysis Doz.Dr.rer.nat.habil. N. Koksch Prüfungs-Klausur MATHEMATIK I für Bauingenieure (Fernstudium) Name: Vorname: Matrikel-Nr.:
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrTechnische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras
Technische Universität Berlin Fakultät II Institut für Mathematik SS 3 G. Bärwolff, C. Mehl, G. Penn-Karras 9..3 Oktober Klausur Analysis II für Ingenieure Rechenteil. Aufgabe Punkte i) Wir berechnen zunächst
Mehr16. Differentialquotient, Mittelwertsatz
16. Differentialquotient, Mittelwertsatz Gegeben sei eine stetige Funktion f : R R. Wir suchen die Gleichung der Tangente t an die Kurve y = f(x) im Punkt (x, f(x ), x R. Das Problem dabei ist, dass vorderhand
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrMAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.
1. Konvexität in der absoluten Ebene In einem Dreieck in der Euklidischen Ebene hat die Strecke zwischen zwei Seitenmittelpunkten die halbe Länge der dritten Seite. In der absoluten Ebene hat man eine
Mehrcos(kx) sin(nx)dx =?
3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]
Mehrvon Michael Knorrenschild Fachbuchverlag Leipzig im Carl Hanser Verlag 2009, ISBN
Errata zu Mathematik für Ingenieure 1 von Michael Knorrenschild Fachbuchverlag Leipzig im Carl Hanser Verlag 2009, ISBN 978-3-446-41346-7 Die Änderungen sind blau hervorgehoben. Dank an Prof. Dr. Klaus-Werner
Mehr