ISI-Proseminar NEURONALE NETZE. Thema: MULTILAYER PERZEPTRON. Ausarbeitung von. Roland Ritter Betreuer
|
|
- Friederike Schuster
- vor 6 Jahren
- Abrufe
Transkript
1 ISI-Proseminar NEURONALE NETZE Thema: MULTILAYER PERZEPTRON Ausarbeitung von Roland Ritter Betreuer Prof Heio Neumann Guillem Pagès Gassull Faultät für Informati, Abt Neuroinformati Universität Ulm Inhaltsverzeichnis: Aufbau eines Multilayer Perzetron Perzetron 2 2 MLP-Netzwer 2 2 Das Bacroagation Lernverfahren 2 Allgemeines 4 22 Algorithmus 5 23 Mathematische Herleitung 5 3 Anwendungsbeisiel 7 4 mögliche Probleme 8 5 Quellenverzeichnis
2 Neuronale Netze - Multilayer Perzetron Aufbau eines Multilayer Perzetron Perzetron x ω x 2 ω 2 t y x n ω n Abb : Schaltzeichen eines Perzetrons Ein Perzetron () (Abb ) ist ein Modell eines ünstlichen Neurons Es hat gewichtete Eingänge (x,,xn) und einen Ausgang (y) Die an den Eingängen anliegenden Werte werden eweils mit dem entsrechenden Gewicht (wi) multiliziert und anschließend aufsummiert net = n x i i= ω Mithilfe dieser Summe und einer Ativierungsfuntion (f(net)) wird entschieden ob das Perzetron eine oder eine 0 ausgibt 2 y = f net ) ( Im einfachsten Fall handelt es sich um eine binäre Schwellenfuntion, bei der überrüft wird, ob die Summe mindestens einen gegebenen Schwellenwert (t) erreicht 3, es sind edoch auch weitere Sigmoide, lineare oder semilineare Funtionen üblich n falls xiωi t 3 f ( net ) = i= 0 sonst Um Perzetrone vereinfacht darstellen zu önnen, ann die Schwelle (t) auf Null normiert werden Hierfür wird ein zusätzlicher Eingang, an dem immer Eins anliegt, erstellt und dessen Gewicht auf das Negative des ursrünglichen Schwellenwertes gesetzt Man sricht hierbei von einem so genannten Bias i 2 MLP-Netzwer Da Perzetrone lediglich zu den linearen Klassifiatoren zählen (Abb 2), dies edoch oft nicht ausreicht, ist man dazu übergegangen mehrere Perzetrone miteinander zu verschalten Das Ergebnis waren die Multilayer Perzetrone (MLP), die einen wesentlich mächtigeren Klassifiator darstellen (Abb 22) - 2 -
3 Neuronale Netze - Multilayer Perzetron X 2 X 2 Entscheidungsft X X Abb 2: Eine mögliche Aufteilung einer Puntmenge mittels eines einzelnen Perzetrons Abb 22: Eine mögliche Aufteilung einer Puntmenge mittels eines MLP Ein MLP erstrect sich über mindestens drei Schichten, oft auch Layer genannt: Eine Eingabe-, eine Ausgabe- und mindestens eine verborgene Zwischenschicht (Hidden Layer) (Abb 23) Die Eingabeeinheiten leiten hierbei lediglich die Daten an die nächste Schicht weiter und verteilen sie, so dass edem Perzetron der ersten Zwischenschicht alle Eingabedaten vorliegen Hier, in den Zwischenschichten, findet nun die eigentliche Verarbeitung/Klassifizierung statt Ohne Zwischenschicht hätten wir ein Analogon zum einzelnen Perzetron, das heißt es wäre wiederum ausschließlich die Verarbeitung linearer Probleme möglich Die Eingabe- und ede Zwischenschicht enthält zusätzlich zu den normalen Perzetronen noch ein Bias, das immer eine an die nächste Schicht weitergibt und damit wie oben erlärt deren Schwellenwert sichert bzw auf Null normiert Beim MLP handelt es sich um vollverschaltete Netzwere, dh die Ausgänge der Perzetrone einer Schicht werden alle mit edem Perzetron der nächsten Schicht vernüft und damit ein vorwärtsgerichtetes Netz onstruiert Die Sezifizierung (Abb 23) eines Netzweres erfolgt über die Parameter: Anzahl der Schichten (m), Anzahl der Perzetrone der einzelnen Schichten (ni) und die in der Schicht verwendete Ativierungsfuntion (fi) Hierbei stehen beisielsweise lineare Funtionen, Tangenshyerbolicus, Fermifuntion usw zur Auswahl, wobei eweils der erste Buchstabe als Kennbuchstabe dient (zb L, T, F ) In einigen Büchern ist auch von Stufen die Rede, damit sind alle Schichten außer der Eingabeschicht gemeint, dh ein Netzwer hat stets eine Stufe weniger als Schichten Abb 23: Beisiel für den Aufbau eines MLP (Schicht ist Eingabe-, Schicht 2 ist Zwischenund Schicht 3 ist Ausgabeschicht) Anzahl der Perzetrone in Schicht : n=3 Anzahl der Perzetrone in Schicht 2: n 2 =4 Allgemein gleicht die Beschreibung Anzahl der Schichten: m=3 L L T T T L L L Anzahl der Perzetrone in Schicht 3: n3=3-3 -
4 Neuronale Netze - Multilayer Perzetron eines Netzes also folgender Formel: nf-n2f2- -nmfm (Schichtenschreibweise) n2f2- -nmfm (Stufenschreibweise) Das Netzwer in Abb 23 ist also nach obiger Definitionen ein dreischichtiges bzw zweistufiges Netzwer und lässt sich wie folgt beschreiben: 3L-4T-3L (Schichtenschreibweise) 4T-3L (Stufenschreibweise) Die Anzahl der Perzetrone der Zwischenschichten richtig zu wählen ist beim Aufbau eines MLP eines der größten Probleme, da eine zu geringe Anzahl dazu führt, dass die Ausgabe nicht exat genug ist, während eine zu große Anzahl uneffetiv ist und einen deutlich erhöhten Trainingsaufwand fordert Beim anschließend besrochenen Training werden daher oft mehrere Netze verschiedener Größe gleichzeitig verwendet und erst nach einiger Zeit das am besten geeignete ausgewählt 2 Das Bacroagation Lernverfahren 2 Allgemeines Gerade bei omlexeren Netzen ist es unmöglich intuitiv die richtigen Werte der Gewichte zu bestimmen, daher setzt man Lernverfahren ein um diese zu bestimmen Für das Training der Verbindungsgewichte Neuronaler Netze werden die verfügbaren Daten in Trainings- und Validierungsdaten aufgeteilt Das Netzwer lernt edoch nur von den Trainingsdaten, bei denen Bacroagation zum Einsatz ommt Für alle anderen Eingaben soll es säter eine assende Ausgabe erzeugen Man unterscheidet grundsätzlich zwischen überwachtem und unüberwachtem Lernen Bei den überwachten Lernverfahren, zu denen Bacroagation zählt, existiert ein Lehrersignal t, das den erwarteten Ausgabewert angibt Bei den unüberwachten hingegen fehlt dieses und das Lernen funtioniert über Clustering, über welches Sie in Fachliteratur nähere Informationen finden Während des Trainings werden die Ausgaben des Netzes (o) mit dem Lehrersignal verglichen und die Differenz in Form einer Fehlerfuntion (E) rücwärts durch die Schichten weitergegeben (roagiert) Das Ziel ist es die Gewichte derart zu maniulieren, dass der Fehler minimiert wird Hierfür wird die Ableitung bestimmt und gleich Null gesetzt, daher zählt man Bacroagation auch zu den Gradientenabstiegsverfahren, dh man folgt dem steilsten Abstieg mit dem Ziel ein globales Minimum zu erreichen Hierbei önnen edoch einige Probleme auftreten, die in Kaitel 4 näher erläutert werden - 4 -
5 Neuronale Netze - Multilayer Perzetron Algorithmus Vorinitialisieren der Gewichte mit zufälligen, leinen Werten Wiederholen solange Min TRUE Min = TRUE Für ede Eingabe der Trainingsdaten wiederhole Feedforward-Berechnung Die Eingabe wird durch das Netz geschict um am Ausgang die atuelle Ausgabe zu erhalten Berechnung des Fehlers aus der erwarteten und der tatsächlichen Ausgabe Ja Ist Fehlerdifferenz außerhalb der vereinbarten Toleranz? Min = FALSE Nein Rücwärtsroagierung des Fehlers durch das Netz Berechne daraus die Gewichtsänderungen Ändere die Gewichte Kurz zusammengefasst, werden dem Netzwer solange immer wieder alle Trainingsdaten nacheinander eingegeben und dementsrechend die Gewichte geändert, bis irgendwann bei allen Eingaben der Unterschied des atuellen Fehlers zu dem des letzten Durchlaufes innerhalb einer vorher festgelegten Toleranz liegt 23 Mathematische Herleitung Bacroagation ist eine Verallgemeinerung der Deltaregel 0, welche ursrünglich nur für einstufige Netzwere mit linearen Ativierungsfuntionen definiert wurde 0 wi = η o i wi = η o i = ηo i ( t o ) Bei der Offline-Version (lins) errechnet sich die Gewichtsänderung zwischen den Perzetronen i und mithilfe der Summe über alle Trainingsmuster (), während bei der Online-Version (rechts) für edes Trainingsmuster einzeln eine Gewichtsänderung berechnet wird Bei Bacroagation önnen auch semilineare Ativierungsfuntionen und Netzwere mit mehr als zwei Schichten beschrieben werden Die Herleitung verläuft weitestgehend analog zur Deltaregel, über die in zahlreichen Fachbüchern genaueres nachgelesen werden ann Die nachfolgende Herleitung des Bacroagation-Verfahrens ist beisielsweise weitestgehend aus Simulation neuronaler Netze [2] entnommen - 5 -
6 Neuronale Netze - Multilayer Perzetron Hierfür betrachten wir zunächst einen Ausschnitt eines MLP um die anschließend fallenden Abürzungen besser zu verstehen (Abb 23) i ω i Die Gewichtsänderung ( W) ist definiert als negatives Produt des Gradienten der Fehlerfuntion E(W) und dem Lernfator η Der Lernfator bestimmt somit entscheidend die Geschwindigeit mit der man sich einem Minimum nähert Das W steht hierbei für den Vetor aller Gewichte des Perzetrons Die Fehlerfuntion entsricht edoch nicht einfach der unter 2 erwähnten Differenz In ihr werden die quadratischen Fehler aller Perzetrone aufsummiert und anschließend halbiert, wodurch stets ein ositiver Wert 2 entsteht ( E = ( t ) ) W = η E(W ) 2 i o Somit ergibt sich für das einzelne Gewicht zwischen den Perzetronen i und die Änderung 2 wi = η wobei für alle Eingabemuster der Trainingsdaten steht w i ω Abb 23: Ausschnitt eines MLP zur Erläuterung der Indizes der nachfolgenden Herleitung Mit Hilfe der mehrdimensionalen Kettenregel der Differentialrechnung erhalten wir 3 w i = w i Erinnern wir uns an die Bedeutung der Netzeingabe net, so önnen wir folgendes einsetzen 4 = o iwi = o i wi wi i Hierbei bedeutet oi die Ausgabe des i-ten Perzetrons unter dem Eingabemuster Definiert man etzt als Fehlersignal 5 = so erhält man durch Einsetzen von 4 und 5 in 3 und diese dann in 2 die Offline-Version der Bacroagation-Regel w = η i o i Die Online-Version ist dann, analog zur Delta-Regel, für die Gewichtsänderung für edes einzelne Trainingsmuster () w = ηo i i - 6 -
7 Neuronale Netze - Multilayer Perzetron Um Berechnungen durchführen zu önnen muss etzt edoch noch das Fehlersignal genauer sezifiziert werden = = o o = o f act ( net ) = f act ( net ) o Nachdem das Fehlersignal derart aufgelöst wurde ann zur weiteren Vereinfachung nun noch der erste Fator aufgelöst werden Hierbei muss unterschieden werden, ob es sich bei dem betrachteten Neuron um ein Element der Ausgabe- oder einer der Zwischenschichten handelt Handelt es sich um ein Neuron der Ausgabeschicht, ann die Definition des Fehlersignals eingesetzt werden o = o 2 2 ( t o ) = ( t o ) Bei den Zwischenschichten muss die Ableitung durch Anwendung der Kettenregel und Einsetzen von 5 bestimmt werden o = o = o o iwi = i w Das Summenzeichen sagt uns dabei, dass wir zur Berechnung des gesamten Fehlers in auch alle Nachfolger von betrachten müssen Insgesamt erhalten wir also für die Bacroagation-Regel: f act ( net = f act ( net ) ) ( t o ) w falls eine Zelle der Ausgabeschicht ist, falls eine Zelle der Zwischenschicht ist 3 Anwendungsbeisiel Multilayererzetrone önnen eine Vielzahl an Problemstellungen lösen Ein einfaches Beisiel ist das XOR-Problem Hierbei wird eine Eins ausgegeben wenn genau an einer der Eingabeleitungen eine Eins anliegt Hierfür nehmen wir ein dreischichtiges MLP wie in Abb 3 gezeigt - 7 -
8 Neuronale Netze - Multilayer Perzetron x E i -2 x - 2 E - Abb 3: Ein MLP zur Lösung des XOR-Problems E ennzeichnet die Eingabeschicht, i,, sind Kennzeichnungen für Perzetrone und die Zahlen an den Pfeilen sind die Gewichte Für das Perzetron i gilt: Durch den Bias erhalten wir -, da beide anderen Eingänge das Gewicht haben, muss mindestens an einem der beiden Eingänge eine anliegen, damit die Summe größer gleich 0 wird und somit i eine ausgibt (Abb 32) Für das Perzetron gilt: Durch den Bias erhalten wir, da beide anderen Eingänge das Gewicht - haben, darf höchstens an einem der beiden Eingänge eine anliegen, damit die Summe größer gleich 0 wird und somit eine ausgibt (Abb 33) Für das Perzetron gilt somit: Durch den Bias erhalten wir -2, da beide anderen Eingänge das Gewicht haben, muss an beiden eine anliegen, damit die Summe größer gleich 0 wird und somit eine ausgibt Dh, betrachtet man die Eingänge x und x2, so muß sowohl die Bedingung des Perzetrons i als auch des Perzetrons erfüllt sein und wir erhalten dadurch die Schnittmenge der beiden einzelnen Puntmengen (Abb 34) y x 2 x 2 x 2 0 x Abb 32: Klassifizierung nach Perzetron i x x 0 0 Abb 33: Klassifizierung nach Perzetron Abb 32: Klassifizierung nach Perzetron 4 Mögliche Probleme Abschließend sollen noch Probleme genannt werden, die beim Bacroagation- Verfahren auftreten önnen Diese lassen sich hautsächlich darauf zurücführen, dass das Verfahren auf der ersten Ableitung basiert, welche nur loal gilt Wir suchen edoch ein loales sondern ein globales Minimum der Fehlerfläche - 8 -
9 Neuronale Netze - Multilayer Perzetron Folgende sind häufig auftretende Probleme: Symmetriebrechung: Hierbei wird bei der Initialisierung der Fehler gemacht, die Gewichte zwischen allen Ebenen mit den gleichen Werten zu belegen Daraus ergibt sich, dass sich die Gewichte zwar verändern önnen, aber lediglich alle um den gleichen Betrag, wodurch die Symmetrie fest erhalten bleibt Um diese s Problem zu lösen, reicht es die Gewichte mit zufälligen Werten zu initialisieren Meist wird zusätzlich darauf geachtet, dass es leine Werte sind, was dem Netz ermöglicht, sich schneller anzuassen Loale Minima: Es ann vorommen, dass der Gradient in ein Nebenminimum hineinläuft und aus diesem nicht wieder herausommt, obwohl es gar nicht das globale Minimum ist Man hat beobachtet, dass mit steigender Verbindungszahl in einem Netz, dessen Fehlerfläche immer stärer zerlüftet wird, wodurch dieses Phänomen gehäuft auftritt Eine Lösung für dieses Problem ist in der Regel von der Anwendung und der Kodierung des Netzes abhängig, es ist edoch in der Praxis üblich mehrere Abb 4: ( Quelle: [2] ) identische Netze zu trainieren, wobei die Reihenfolge der Trainingsdaten zufällig ist Dadurch haben die Netze unterschiedliche Anfangsositionen auf der Fehlerfläche und man ann das Netz auswählen, das die beste Lösung hervorbringt Flache Plateaus: Da die Änderung der Gewichte neben dem Lernfator auch vom Gradienten abhängt und dieser bei sehr flachen Abschnitten der Fehlerfläche sehr gering ausfällt, ann es dazu ommen, dass sehr viele Iterationsschritte nötig werden Die Schwierigeit daran ist vor allem, dass unlar bleibt, ob man sich auf einem Plateau oder in einem Minimum befindet Dies lässt sich edoch leicht vermeiden indem man Abb 42: ( Quelle: [2] ) zb einen Momentum Term, Bacroagation mit Imuls oder einfach nur mit variabler Schrittlänge anwendet Auf diese seziellen Verfahren wird hier edoch nicht näher eingegangen, sie sind edoch in Fachliteratur (zb Quelle [2])erläutert - 9 -
10 Neuronale Netze - Multilayer Perzetron Oszillation: Ist der Gradient auf der Seite einer steilen Schlucht sehr groß, so ann ein Srung auf die andere Seite auftreten Findet dort das gleiche Phänomen statt, haben wir eine Oszillation Auch hier hilft Momentum Term oder Bacroagation mit Imuls die Oszillation zu reduzieren oder gar omlett zu unterdrücen Abb 43: ( Quelle: [2] ) Verlassen guter Minima: In sehr engen Minima ann der Gradient betragsmäßig so groß sein, dass eine Gewichtsänderung aus diesem Minimum heraus in ein weniger gutes hinein führt Dies ist edoch normalerweise sehr selten Leider begünstigen die Lösungsversuche der obigen Probleme edoch wieder diesen Fehler Abb 44: ( Quelle: [2] ) Insgesamt zeigt sich, dass die Wahl der Schrittweite das eigentliche Problem ist Ist sie zu gering wird das Verfahren ineffizient, ist sie zu groß wird es zu ungenau (unter anderem wegen obigen Probleme) Die Verfahren die dieses Problem lösen sollen, variieren die Schrittweite während des Trainings Wie in Abb 45 dargestellt, ann dies unter Umständen zu einer deutlichen Verbesserung des Trainingverhaltens führen Das Training mit Imuls ist beisielsweise in diesem Fall fünfmal schneller als Offline Training (hier Batch genannt) Abb 45: Vergleich der nötigen Trainingszeiten eines leinen Netzweres für das XOR-Problem ( [3] ) - 0 -
11 Neuronale Netze - Multilayer Perzetron Mit den Multilayer Perzetronen haben wir in Verbindung mit Bacroagation ein sehr mächtiges Klassifizierungswerzeug Verwendet man nicht die ursrüngliche Version, sondern modifizierte Verfahren wie sie oben bei den Problemlösungen genannt wurden, so lassen sich auch die Nachteile weitestgehend ausbessern 5 Quellenverzeichnis Literaturverzeichnis: [] The essence of Neural Networs Ka 24 Bacroagation learning, S 33-4 Ka 25 Alying the bacroagation networ, S R Callan, Prentice Hall, 999 [2] Simulation Neuronaler Netze Ka 8 Bacroagation, S 05-4 A Zell, Addison-Wesley, 996 [3] Theorie der neuronalen Netze: Eine systematische Einführung Ka 7 Bacroagation-Algorithmus, S R Roas, Sringer, 993 Internetrecherche: [4] htt://wwwneuroct-websacede (Stand: ) [5] htt://wwwinfuosde/theo/neuro/multilayerperzetron (Stand: ) [6] htt://wwwiwiuni-hannoverde/lv/do_ss03/do-df (Stand: ) [7] htt://www-bbghrzhs-anhaltde/wi/nn_web/was/df/toologiedf (Stand: ) [8] htt://www-bbghrzhs-anhaltde/wi/nn_web/was/df/bacrodf (Stand: ) [9] htt://wwwmathtu-clausthalde/~mtalh/zeitreihen/srit/node5html (Stand: ) - -
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrHochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrEine kleine Einführung in neuronale Netze
Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch
MehrLernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrImplementationsaspekte
Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der
MehrMulti-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
MehrLineare Funktion. Wolfgang Kippels 3. November Inhaltsverzeichnis
Lineare Funktion Wolfgang Kippels. November 0 Inhaltsverzeichnis Grundlegende Zusammenhänge. Aufbau der Linearen Funktion......................... Nullstellenbestimmung............................. Schnittpunktbestimmung............................
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrKapitel LF: IV. IV. Neuronale Netze
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c
MehrEntwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -
Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrDie Taylorreihe einer Funktion
Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrKapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und
MehrQuadratische Gleichungen
Quadratische Gleichungen TEIL 1: Die Quadratische Funktion und die Quadratische Gleichung Bei linearen Funktionen kommt nur in der 1. Potenz vor. Bei quadratischen Funktion kommt in der. Potenz vor. Daneben
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrNeuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches
MehrBackpropagation. feedforward Netze
Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom
MehrAnwendungsmöglichkeiten von Lernverfahren
Künstlche Neuronale Netze Lernen n neuronalen Netzen 2 / 30 Anwendungsmöglcheten von Lernverfahren Prnzpelle Möglcheten Verbndungsorentert 1 Hnzufügen neuer Verbndungen 2 Löschen bestehender Verbndungen
MehrEinführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
MehrWärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen
Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrInformationsverarbeitung auf Bitebene
Informationsverarbeitung auf Bitebene Dr. Christian Herta 5. November 2005 Einführung in die Informatik - Informationsverarbeitung auf Bitebene Dr. Christian Herta Grundlagen der Informationverarbeitung
MehrKapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp
Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrDas Skalarprodukt zweier Vektoren
Beim Skalarprodukt zweier Vektoren werden die Vektoren so multipliziert, dass sich ein Skalar eine Zahl ergibt. Die Berechnung des Skalarproduktes ist ziemlich einfach, aber die weiteren Eigenschaften
MehrGrundlagen Künstlicher Neuronaler Netze
FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher
MehrAbgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 2 Prof. Dr. Helmut Seidl, S. Pott,
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
MehrQuadratische Ungleichungen
Quadratische Ungleichungen W. Kippels 7. Oktober 014 Inhaltsverzeichnis 1 Einleitung 3 Lösungsprinzip 3 3 Verdeutlichung an zwei Beispielen 5 3.1 Beispiel 1................................... 5 3. Beispiel...................................
MehrAnalytische Geometrie - Schnittwinkel. u 1, u 2 Richtungsvektoren der Geraden
Analytische Geometrie - Schnittwinkel. Möglichkeiten und Formeln Gerade / Gerade: cos( ) = u u 2 u u 2 Gerade / Ebene: sin( ) = n u n u Ebene / Ebene: cos( ) = n n 2 n n 2 u, u 2 Richtungsvektoren der
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche
MehrLage- und Streuungsparameter
Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
MehrMorphologische Bildverarbeitung II
FAKULTÄT FÜR MATHEMATIK UNIVERSITÄT ULM ABT. STOCHASTIK ABT. ANGEWANDTE INFORMATIONSVERARBEITUNG Seminar Simulation und Bildanalyse mit Java Morphologische Bildverarbeitung II BETREUER: JOHANNES MAYER
MehrKAPITEL 2. Kombinatorik
KAPITEL 2 Kombinatori In der Kombinatori geht es um das Abzählen von Kombinationen 21 Geburtstagsproblem Beispiel 211 (Geburtstagsproblem In einem Raum befinden sich 200 Studenten Wie groß ist die Wahrscheinlicheit,
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrZeichnen von Graphen. graph drawing
Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =
Mehr1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:
Klausur zur Analysis I svorschläge Universität Regensburg, Wintersemester 013/14 Prof. Dr. Bernd Ammann / Dr. Mihaela Pilca 0.0.014, Bearbeitungszeit: 3 Stunden 1. Aufgabe [ Punte] Seien X, Y zwei nicht-leere
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
Mehr12 == 12 true 12 == 21 false 4 === 7 true 4 === "vier" false 4 === 4.0 false 12!= 13 true 12!== 12 false 12!== 12.0 true. 1 < 3 true 3 < 1 false
Die if-anweisung if (Bedingung 1) { Code 1 else { Code 2 ; Anm.1: Das ; kann entfallen, da innerhalb { ein sog. Codeblock geschrieben wird. Anm.2: Es gibt noch andere Schreibweisen, aber wir wollen uns
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrEinführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
MehrKleines Handbuch Neuronale Netze
Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
MehrBernstein-Polynome. Autor: Johannes Erath. Schriftliche Ausarbeitung zum Vortrag vom
Bernstein-Polynome Autor: Johannes Erath Schriftliche Ausarbeitung zum Vortrag vom 07.04.2009 1 Inhaltsverzeichnis 1 Einleitung 3 2 Einführung 3 2.1 Etwas Geschichte........................... 3 2.2 Denition
MehrDamit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1
Aufgabe (4 Punte) Sei A eine n m-matrix Die Matrix A T ist die m n-matrix, die durch Vertauschen der Zeilen und Spalten aus A hervorgeht (dh: aus Zeilen werden Spalten, und umgeehrt) Die Matrix A T heißt
MehrFaktorisierung bei Brüchen und Bruchtermen
Faktorisierung bei Brüchen und Bruchtermen Rainer Hauser Mai 2016 1 Einleitung 1.1 Rationale Zahlen Teilt man einen Gegenstand in eine Anzahl gleich grosse Stücke, so bekommt man gebrochene Zahlen, die
MehrEntladung eines Kondensators
3.11.5 Entladung eines Kondensators Im Gegensatz zu einer Batterie kann mit einem Kondensator innerhalb von kurzer Zeit eine hohe Stromstärke erzeugt werden. Dies wird zum Beispiel beim Blitz eines Fotoapparates
MehrJava 8. Elmar Fuchs Grundlagen Programmierung. 1. Ausgabe, Oktober 2014 JAV8
Java 8 Elmar Fuchs Grundlagen Programmierung 1. Ausgabe, Oktober 2014 JAV8 5 Java 8 - Grundlagen Programmierung 5 Kontrollstrukturen In diesem Kapitel erfahren Sie wie Sie die Ausführung von von Bedingungen
MehrEiniges zu den Potenzfunktionen. Exponentialfunktionen
Einiges zu den Potenzfunktionen Es sind zunächst zwei Arten der Potenzfunktionen zu unterscheiden. Erstens die eigentlichen Potenzfunktionen, bei denen die Variable x als Basis von Potenzen vorkommt. Diese
MehrLösen linearer Gleichungssysteme
Lösen linearer Gleichungssysteme W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Die beschriebenen Verfahren 2 2 Einsetzungsverfahren 3 3 Additions-/Subtraktionsverfahren 5 4 Gleichsetzungsverfahren 8
MehrEinführung in die C++ Programmierung für Ingenieure
Einführung in die C++ Programmierung für Ingenieure MATTHIAS WALTER / JENS KLUNKER Universität Rostock, Lehrstuhl für Modellierung und Simulation 16. November 2012 c 2012 UNIVERSITÄT ROSTOCK FACULTY OF
MehrGPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen
Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,
MehrBeispiele zur Taylorentwicklung
Beispiele zur Taylorentwiclung Nun ein paar Augaben, die mit der Taylorentwiclung zu tun haben. In diesem Zusammenhang sollte man au jeden Fall die Formel ür die Taylorentwiclung und das Restglied nach
MehrSo viel wie möglich Extremwertaufgaben aus Geometrie
So viel wie möglich Extremwertaufgaben aus Geometrie Andreas Ulovec 1 Einführung Die meisten Leute sind mit Extremwertaufgaben vertraut: Was ist das flächengrößte Dreieck, das man in einen Kreis einschreiben
Mehrkonvergent falls Sei eine allgemeine ("gutmütige") Funktion. Frage: kann man sie in der Nähe des Punktes darstellen mittels einer Potenzreihe in
C5 Funktionen: Reihenentwicklungen C5.1 Taylorreihen Brook Taylor (1685-1731) (Analysis-Vorlesung: Konvergenz von Reihen und Folgen) Grundlegende Frage: Wann / unter welchen Voraussetzungen lässt sich
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
Mehr( ) ( ) Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0. y s s
R. Brinkmann http://brinkmann-du.de Seite 07.0.0 Achsenschnittpunkte ganzrationaler Funktionen Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0 y s s f = f 0 = 0 0 = 0 0 = P ( 0 ) oder P ( 0 f(0)
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Mehr1. Einleitung wichtige Begriffe
1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und
MehrMathematische Funktionen
Mathematische Funktionen Viele Schüler können sich unter diesem Phänomen überhaupt nichts vorstellen, und da zusätzlich mit Buchstaben gerechnet wird, erzeugt es eher sogar Horror. Das ist jedoch gar nicht
MehrNeoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel
Neoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel Dieses Skript ist die allgemeine Basis eines Modells zur Simulation der ökonomischen Folgen technischer
MehrModul Entscheidungsunterstützung in der Logistik. Einführung in die Programmierung mit C++ Übung 2
Fakultät Verkehrswissenschaften Friedrich List, Professur für Verkehrsbetriebslehre und Logistik Modul Entscheidungsunterstützung in der Logistik Einführung in die Programmierung mit C++ Übung 2 SS 2016
MehrR C 1s =0, C T 1
Aufgaben zum Themengebiet Aufladen und Entladen eines Kondensators Theorie und nummerierte Formeln auf den Seiten 5 bis 8 Ein Kondensator mit der Kapazität = 00μF wurde mit der Spannung U = 60V aufgeladen
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrEs ist für die Lösung der Programmieraufgabe nicht nötig, den mathematischen Hintergrund zu verstehen, es kann aber beim Verständnis helfen.
Ziele sind das Arbeiten mit Funktionen und dem Aufzählungstyp (enum), sowie - einfache Verzweigung (if else) - Alternativen switch case - einfache Schleifen (while oder do while) Aufgabe 3: Diese Aufgabe
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrMathematische Theorien im kulturellen Kontext. Fläche eines Parabelsegments nach Archimedes
Seminar: Mathematische Theorien im kulturellen Kontext Thema: Fläche eines Parabelsegments nach Archimedes von: Zehra Betül Koyutürk Studiengang Angewandte Mathematik 27.01.2016 ARCHIMEDES Über das Leben
Mehr