ISI-Proseminar NEURONALE NETZE. Thema: MULTILAYER PERZEPTRON. Ausarbeitung von. Roland Ritter Betreuer

Größe: px
Ab Seite anzeigen:

Download "ISI-Proseminar NEURONALE NETZE. Thema: MULTILAYER PERZEPTRON. Ausarbeitung von. Roland Ritter Betreuer"

Transkript

1 ISI-Proseminar NEURONALE NETZE Thema: MULTILAYER PERZEPTRON Ausarbeitung von Roland Ritter Betreuer Prof Heio Neumann Guillem Pagès Gassull Faultät für Informati, Abt Neuroinformati Universität Ulm Inhaltsverzeichnis: Aufbau eines Multilayer Perzetron Perzetron 2 2 MLP-Netzwer 2 2 Das Bacroagation Lernverfahren 2 Allgemeines 4 22 Algorithmus 5 23 Mathematische Herleitung 5 3 Anwendungsbeisiel 7 4 mögliche Probleme 8 5 Quellenverzeichnis

2 Neuronale Netze - Multilayer Perzetron Aufbau eines Multilayer Perzetron Perzetron x ω x 2 ω 2 t y x n ω n Abb : Schaltzeichen eines Perzetrons Ein Perzetron () (Abb ) ist ein Modell eines ünstlichen Neurons Es hat gewichtete Eingänge (x,,xn) und einen Ausgang (y) Die an den Eingängen anliegenden Werte werden eweils mit dem entsrechenden Gewicht (wi) multiliziert und anschließend aufsummiert net = n x i i= ω Mithilfe dieser Summe und einer Ativierungsfuntion (f(net)) wird entschieden ob das Perzetron eine oder eine 0 ausgibt 2 y = f net ) ( Im einfachsten Fall handelt es sich um eine binäre Schwellenfuntion, bei der überrüft wird, ob die Summe mindestens einen gegebenen Schwellenwert (t) erreicht 3, es sind edoch auch weitere Sigmoide, lineare oder semilineare Funtionen üblich n falls xiωi t 3 f ( net ) = i= 0 sonst Um Perzetrone vereinfacht darstellen zu önnen, ann die Schwelle (t) auf Null normiert werden Hierfür wird ein zusätzlicher Eingang, an dem immer Eins anliegt, erstellt und dessen Gewicht auf das Negative des ursrünglichen Schwellenwertes gesetzt Man sricht hierbei von einem so genannten Bias i 2 MLP-Netzwer Da Perzetrone lediglich zu den linearen Klassifiatoren zählen (Abb 2), dies edoch oft nicht ausreicht, ist man dazu übergegangen mehrere Perzetrone miteinander zu verschalten Das Ergebnis waren die Multilayer Perzetrone (MLP), die einen wesentlich mächtigeren Klassifiator darstellen (Abb 22) - 2 -

3 Neuronale Netze - Multilayer Perzetron X 2 X 2 Entscheidungsft X X Abb 2: Eine mögliche Aufteilung einer Puntmenge mittels eines einzelnen Perzetrons Abb 22: Eine mögliche Aufteilung einer Puntmenge mittels eines MLP Ein MLP erstrect sich über mindestens drei Schichten, oft auch Layer genannt: Eine Eingabe-, eine Ausgabe- und mindestens eine verborgene Zwischenschicht (Hidden Layer) (Abb 23) Die Eingabeeinheiten leiten hierbei lediglich die Daten an die nächste Schicht weiter und verteilen sie, so dass edem Perzetron der ersten Zwischenschicht alle Eingabedaten vorliegen Hier, in den Zwischenschichten, findet nun die eigentliche Verarbeitung/Klassifizierung statt Ohne Zwischenschicht hätten wir ein Analogon zum einzelnen Perzetron, das heißt es wäre wiederum ausschließlich die Verarbeitung linearer Probleme möglich Die Eingabe- und ede Zwischenschicht enthält zusätzlich zu den normalen Perzetronen noch ein Bias, das immer eine an die nächste Schicht weitergibt und damit wie oben erlärt deren Schwellenwert sichert bzw auf Null normiert Beim MLP handelt es sich um vollverschaltete Netzwere, dh die Ausgänge der Perzetrone einer Schicht werden alle mit edem Perzetron der nächsten Schicht vernüft und damit ein vorwärtsgerichtetes Netz onstruiert Die Sezifizierung (Abb 23) eines Netzweres erfolgt über die Parameter: Anzahl der Schichten (m), Anzahl der Perzetrone der einzelnen Schichten (ni) und die in der Schicht verwendete Ativierungsfuntion (fi) Hierbei stehen beisielsweise lineare Funtionen, Tangenshyerbolicus, Fermifuntion usw zur Auswahl, wobei eweils der erste Buchstabe als Kennbuchstabe dient (zb L, T, F ) In einigen Büchern ist auch von Stufen die Rede, damit sind alle Schichten außer der Eingabeschicht gemeint, dh ein Netzwer hat stets eine Stufe weniger als Schichten Abb 23: Beisiel für den Aufbau eines MLP (Schicht ist Eingabe-, Schicht 2 ist Zwischenund Schicht 3 ist Ausgabeschicht) Anzahl der Perzetrone in Schicht : n=3 Anzahl der Perzetrone in Schicht 2: n 2 =4 Allgemein gleicht die Beschreibung Anzahl der Schichten: m=3 L L T T T L L L Anzahl der Perzetrone in Schicht 3: n3=3-3 -

4 Neuronale Netze - Multilayer Perzetron eines Netzes also folgender Formel: nf-n2f2- -nmfm (Schichtenschreibweise) n2f2- -nmfm (Stufenschreibweise) Das Netzwer in Abb 23 ist also nach obiger Definitionen ein dreischichtiges bzw zweistufiges Netzwer und lässt sich wie folgt beschreiben: 3L-4T-3L (Schichtenschreibweise) 4T-3L (Stufenschreibweise) Die Anzahl der Perzetrone der Zwischenschichten richtig zu wählen ist beim Aufbau eines MLP eines der größten Probleme, da eine zu geringe Anzahl dazu führt, dass die Ausgabe nicht exat genug ist, während eine zu große Anzahl uneffetiv ist und einen deutlich erhöhten Trainingsaufwand fordert Beim anschließend besrochenen Training werden daher oft mehrere Netze verschiedener Größe gleichzeitig verwendet und erst nach einiger Zeit das am besten geeignete ausgewählt 2 Das Bacroagation Lernverfahren 2 Allgemeines Gerade bei omlexeren Netzen ist es unmöglich intuitiv die richtigen Werte der Gewichte zu bestimmen, daher setzt man Lernverfahren ein um diese zu bestimmen Für das Training der Verbindungsgewichte Neuronaler Netze werden die verfügbaren Daten in Trainings- und Validierungsdaten aufgeteilt Das Netzwer lernt edoch nur von den Trainingsdaten, bei denen Bacroagation zum Einsatz ommt Für alle anderen Eingaben soll es säter eine assende Ausgabe erzeugen Man unterscheidet grundsätzlich zwischen überwachtem und unüberwachtem Lernen Bei den überwachten Lernverfahren, zu denen Bacroagation zählt, existiert ein Lehrersignal t, das den erwarteten Ausgabewert angibt Bei den unüberwachten hingegen fehlt dieses und das Lernen funtioniert über Clustering, über welches Sie in Fachliteratur nähere Informationen finden Während des Trainings werden die Ausgaben des Netzes (o) mit dem Lehrersignal verglichen und die Differenz in Form einer Fehlerfuntion (E) rücwärts durch die Schichten weitergegeben (roagiert) Das Ziel ist es die Gewichte derart zu maniulieren, dass der Fehler minimiert wird Hierfür wird die Ableitung bestimmt und gleich Null gesetzt, daher zählt man Bacroagation auch zu den Gradientenabstiegsverfahren, dh man folgt dem steilsten Abstieg mit dem Ziel ein globales Minimum zu erreichen Hierbei önnen edoch einige Probleme auftreten, die in Kaitel 4 näher erläutert werden - 4 -

5 Neuronale Netze - Multilayer Perzetron Algorithmus Vorinitialisieren der Gewichte mit zufälligen, leinen Werten Wiederholen solange Min TRUE Min = TRUE Für ede Eingabe der Trainingsdaten wiederhole Feedforward-Berechnung Die Eingabe wird durch das Netz geschict um am Ausgang die atuelle Ausgabe zu erhalten Berechnung des Fehlers aus der erwarteten und der tatsächlichen Ausgabe Ja Ist Fehlerdifferenz außerhalb der vereinbarten Toleranz? Min = FALSE Nein Rücwärtsroagierung des Fehlers durch das Netz Berechne daraus die Gewichtsänderungen Ändere die Gewichte Kurz zusammengefasst, werden dem Netzwer solange immer wieder alle Trainingsdaten nacheinander eingegeben und dementsrechend die Gewichte geändert, bis irgendwann bei allen Eingaben der Unterschied des atuellen Fehlers zu dem des letzten Durchlaufes innerhalb einer vorher festgelegten Toleranz liegt 23 Mathematische Herleitung Bacroagation ist eine Verallgemeinerung der Deltaregel 0, welche ursrünglich nur für einstufige Netzwere mit linearen Ativierungsfuntionen definiert wurde 0 wi = η o i wi = η o i = ηo i ( t o ) Bei der Offline-Version (lins) errechnet sich die Gewichtsänderung zwischen den Perzetronen i und mithilfe der Summe über alle Trainingsmuster (), während bei der Online-Version (rechts) für edes Trainingsmuster einzeln eine Gewichtsänderung berechnet wird Bei Bacroagation önnen auch semilineare Ativierungsfuntionen und Netzwere mit mehr als zwei Schichten beschrieben werden Die Herleitung verläuft weitestgehend analog zur Deltaregel, über die in zahlreichen Fachbüchern genaueres nachgelesen werden ann Die nachfolgende Herleitung des Bacroagation-Verfahrens ist beisielsweise weitestgehend aus Simulation neuronaler Netze [2] entnommen - 5 -

6 Neuronale Netze - Multilayer Perzetron Hierfür betrachten wir zunächst einen Ausschnitt eines MLP um die anschließend fallenden Abürzungen besser zu verstehen (Abb 23) i ω i Die Gewichtsänderung ( W) ist definiert als negatives Produt des Gradienten der Fehlerfuntion E(W) und dem Lernfator η Der Lernfator bestimmt somit entscheidend die Geschwindigeit mit der man sich einem Minimum nähert Das W steht hierbei für den Vetor aller Gewichte des Perzetrons Die Fehlerfuntion entsricht edoch nicht einfach der unter 2 erwähnten Differenz In ihr werden die quadratischen Fehler aller Perzetrone aufsummiert und anschließend halbiert, wodurch stets ein ositiver Wert 2 entsteht ( E = ( t ) ) W = η E(W ) 2 i o Somit ergibt sich für das einzelne Gewicht zwischen den Perzetronen i und die Änderung 2 wi = η wobei für alle Eingabemuster der Trainingsdaten steht w i ω Abb 23: Ausschnitt eines MLP zur Erläuterung der Indizes der nachfolgenden Herleitung Mit Hilfe der mehrdimensionalen Kettenregel der Differentialrechnung erhalten wir 3 w i = w i Erinnern wir uns an die Bedeutung der Netzeingabe net, so önnen wir folgendes einsetzen 4 = o iwi = o i wi wi i Hierbei bedeutet oi die Ausgabe des i-ten Perzetrons unter dem Eingabemuster Definiert man etzt als Fehlersignal 5 = so erhält man durch Einsetzen von 4 und 5 in 3 und diese dann in 2 die Offline-Version der Bacroagation-Regel w = η i o i Die Online-Version ist dann, analog zur Delta-Regel, für die Gewichtsänderung für edes einzelne Trainingsmuster () w = ηo i i - 6 -

7 Neuronale Netze - Multilayer Perzetron Um Berechnungen durchführen zu önnen muss etzt edoch noch das Fehlersignal genauer sezifiziert werden = = o o = o f act ( net ) = f act ( net ) o Nachdem das Fehlersignal derart aufgelöst wurde ann zur weiteren Vereinfachung nun noch der erste Fator aufgelöst werden Hierbei muss unterschieden werden, ob es sich bei dem betrachteten Neuron um ein Element der Ausgabe- oder einer der Zwischenschichten handelt Handelt es sich um ein Neuron der Ausgabeschicht, ann die Definition des Fehlersignals eingesetzt werden o = o 2 2 ( t o ) = ( t o ) Bei den Zwischenschichten muss die Ableitung durch Anwendung der Kettenregel und Einsetzen von 5 bestimmt werden o = o = o o iwi = i w Das Summenzeichen sagt uns dabei, dass wir zur Berechnung des gesamten Fehlers in auch alle Nachfolger von betrachten müssen Insgesamt erhalten wir also für die Bacroagation-Regel: f act ( net = f act ( net ) ) ( t o ) w falls eine Zelle der Ausgabeschicht ist, falls eine Zelle der Zwischenschicht ist 3 Anwendungsbeisiel Multilayererzetrone önnen eine Vielzahl an Problemstellungen lösen Ein einfaches Beisiel ist das XOR-Problem Hierbei wird eine Eins ausgegeben wenn genau an einer der Eingabeleitungen eine Eins anliegt Hierfür nehmen wir ein dreischichtiges MLP wie in Abb 3 gezeigt - 7 -

8 Neuronale Netze - Multilayer Perzetron x E i -2 x - 2 E - Abb 3: Ein MLP zur Lösung des XOR-Problems E ennzeichnet die Eingabeschicht, i,, sind Kennzeichnungen für Perzetrone und die Zahlen an den Pfeilen sind die Gewichte Für das Perzetron i gilt: Durch den Bias erhalten wir -, da beide anderen Eingänge das Gewicht haben, muss mindestens an einem der beiden Eingänge eine anliegen, damit die Summe größer gleich 0 wird und somit i eine ausgibt (Abb 32) Für das Perzetron gilt: Durch den Bias erhalten wir, da beide anderen Eingänge das Gewicht - haben, darf höchstens an einem der beiden Eingänge eine anliegen, damit die Summe größer gleich 0 wird und somit eine ausgibt (Abb 33) Für das Perzetron gilt somit: Durch den Bias erhalten wir -2, da beide anderen Eingänge das Gewicht haben, muss an beiden eine anliegen, damit die Summe größer gleich 0 wird und somit eine ausgibt Dh, betrachtet man die Eingänge x und x2, so muß sowohl die Bedingung des Perzetrons i als auch des Perzetrons erfüllt sein und wir erhalten dadurch die Schnittmenge der beiden einzelnen Puntmengen (Abb 34) y x 2 x 2 x 2 0 x Abb 32: Klassifizierung nach Perzetron i x x 0 0 Abb 33: Klassifizierung nach Perzetron Abb 32: Klassifizierung nach Perzetron 4 Mögliche Probleme Abschließend sollen noch Probleme genannt werden, die beim Bacroagation- Verfahren auftreten önnen Diese lassen sich hautsächlich darauf zurücführen, dass das Verfahren auf der ersten Ableitung basiert, welche nur loal gilt Wir suchen edoch ein loales sondern ein globales Minimum der Fehlerfläche - 8 -

9 Neuronale Netze - Multilayer Perzetron Folgende sind häufig auftretende Probleme: Symmetriebrechung: Hierbei wird bei der Initialisierung der Fehler gemacht, die Gewichte zwischen allen Ebenen mit den gleichen Werten zu belegen Daraus ergibt sich, dass sich die Gewichte zwar verändern önnen, aber lediglich alle um den gleichen Betrag, wodurch die Symmetrie fest erhalten bleibt Um diese s Problem zu lösen, reicht es die Gewichte mit zufälligen Werten zu initialisieren Meist wird zusätzlich darauf geachtet, dass es leine Werte sind, was dem Netz ermöglicht, sich schneller anzuassen Loale Minima: Es ann vorommen, dass der Gradient in ein Nebenminimum hineinläuft und aus diesem nicht wieder herausommt, obwohl es gar nicht das globale Minimum ist Man hat beobachtet, dass mit steigender Verbindungszahl in einem Netz, dessen Fehlerfläche immer stärer zerlüftet wird, wodurch dieses Phänomen gehäuft auftritt Eine Lösung für dieses Problem ist in der Regel von der Anwendung und der Kodierung des Netzes abhängig, es ist edoch in der Praxis üblich mehrere Abb 4: ( Quelle: [2] ) identische Netze zu trainieren, wobei die Reihenfolge der Trainingsdaten zufällig ist Dadurch haben die Netze unterschiedliche Anfangsositionen auf der Fehlerfläche und man ann das Netz auswählen, das die beste Lösung hervorbringt Flache Plateaus: Da die Änderung der Gewichte neben dem Lernfator auch vom Gradienten abhängt und dieser bei sehr flachen Abschnitten der Fehlerfläche sehr gering ausfällt, ann es dazu ommen, dass sehr viele Iterationsschritte nötig werden Die Schwierigeit daran ist vor allem, dass unlar bleibt, ob man sich auf einem Plateau oder in einem Minimum befindet Dies lässt sich edoch leicht vermeiden indem man Abb 42: ( Quelle: [2] ) zb einen Momentum Term, Bacroagation mit Imuls oder einfach nur mit variabler Schrittlänge anwendet Auf diese seziellen Verfahren wird hier edoch nicht näher eingegangen, sie sind edoch in Fachliteratur (zb Quelle [2])erläutert - 9 -

10 Neuronale Netze - Multilayer Perzetron Oszillation: Ist der Gradient auf der Seite einer steilen Schlucht sehr groß, so ann ein Srung auf die andere Seite auftreten Findet dort das gleiche Phänomen statt, haben wir eine Oszillation Auch hier hilft Momentum Term oder Bacroagation mit Imuls die Oszillation zu reduzieren oder gar omlett zu unterdrücen Abb 43: ( Quelle: [2] ) Verlassen guter Minima: In sehr engen Minima ann der Gradient betragsmäßig so groß sein, dass eine Gewichtsänderung aus diesem Minimum heraus in ein weniger gutes hinein führt Dies ist edoch normalerweise sehr selten Leider begünstigen die Lösungsversuche der obigen Probleme edoch wieder diesen Fehler Abb 44: ( Quelle: [2] ) Insgesamt zeigt sich, dass die Wahl der Schrittweite das eigentliche Problem ist Ist sie zu gering wird das Verfahren ineffizient, ist sie zu groß wird es zu ungenau (unter anderem wegen obigen Probleme) Die Verfahren die dieses Problem lösen sollen, variieren die Schrittweite während des Trainings Wie in Abb 45 dargestellt, ann dies unter Umständen zu einer deutlichen Verbesserung des Trainingverhaltens führen Das Training mit Imuls ist beisielsweise in diesem Fall fünfmal schneller als Offline Training (hier Batch genannt) Abb 45: Vergleich der nötigen Trainingszeiten eines leinen Netzweres für das XOR-Problem ( [3] ) - 0 -

11 Neuronale Netze - Multilayer Perzetron Mit den Multilayer Perzetronen haben wir in Verbindung mit Bacroagation ein sehr mächtiges Klassifizierungswerzeug Verwendet man nicht die ursrüngliche Version, sondern modifizierte Verfahren wie sie oben bei den Problemlösungen genannt wurden, so lassen sich auch die Nachteile weitestgehend ausbessern 5 Quellenverzeichnis Literaturverzeichnis: [] The essence of Neural Networs Ka 24 Bacroagation learning, S 33-4 Ka 25 Alying the bacroagation networ, S R Callan, Prentice Hall, 999 [2] Simulation Neuronaler Netze Ka 8 Bacroagation, S 05-4 A Zell, Addison-Wesley, 996 [3] Theorie der neuronalen Netze: Eine systematische Einführung Ka 7 Bacroagation-Algorithmus, S R Roas, Sringer, 993 Internetrecherche: [4] htt://wwwneuroct-websacede (Stand: ) [5] htt://wwwinfuosde/theo/neuro/multilayerperzetron (Stand: ) [6] htt://wwwiwiuni-hannoverde/lv/do_ss03/do-df (Stand: ) [7] htt://www-bbghrzhs-anhaltde/wi/nn_web/was/df/toologiedf (Stand: ) [8] htt://www-bbghrzhs-anhaltde/wi/nn_web/was/df/bacrodf (Stand: ) [9] htt://wwwmathtu-clausthalde/~mtalh/zeitreihen/srit/node5html (Stand: ) - -

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

Lineare Funktion. Wolfgang Kippels 3. November Inhaltsverzeichnis

Lineare Funktion. Wolfgang Kippels 3. November Inhaltsverzeichnis Lineare Funktion Wolfgang Kippels. November 0 Inhaltsverzeichnis Grundlegende Zusammenhänge. Aufbau der Linearen Funktion......................... Nullstellenbestimmung............................. Schnittpunktbestimmung............................

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Quadratische Gleichungen

Quadratische Gleichungen Quadratische Gleichungen TEIL 1: Die Quadratische Funktion und die Quadratische Gleichung Bei linearen Funktionen kommt nur in der 1. Potenz vor. Bei quadratischen Funktion kommt in der. Potenz vor. Daneben

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Backpropagation. feedforward Netze

Backpropagation. feedforward Netze Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom

Mehr

Anwendungsmöglichkeiten von Lernverfahren

Anwendungsmöglichkeiten von Lernverfahren Künstlche Neuronale Netze Lernen n neuronalen Netzen 2 / 30 Anwendungsmöglcheten von Lernverfahren Prnzpelle Möglcheten Verbndungsorentert 1 Hnzufügen neuer Verbndungen 2 Löschen bestehender Verbndungen

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Informationsverarbeitung auf Bitebene

Informationsverarbeitung auf Bitebene Informationsverarbeitung auf Bitebene Dr. Christian Herta 5. November 2005 Einführung in die Informatik - Informationsverarbeitung auf Bitebene Dr. Christian Herta Grundlagen der Informationverarbeitung

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Das Skalarprodukt zweier Vektoren

Das Skalarprodukt zweier Vektoren Beim Skalarprodukt zweier Vektoren werden die Vektoren so multipliziert, dass sich ein Skalar eine Zahl ergibt. Die Berechnung des Skalarproduktes ist ziemlich einfach, aber die weiteren Eigenschaften

Mehr

Grundlagen Künstlicher Neuronaler Netze

Grundlagen Künstlicher Neuronaler Netze FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher

Mehr

Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:

Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g: TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 2 Prof. Dr. Helmut Seidl, S. Pott,

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten

Mehr

Quadratische Ungleichungen

Quadratische Ungleichungen Quadratische Ungleichungen W. Kippels 7. Oktober 014 Inhaltsverzeichnis 1 Einleitung 3 Lösungsprinzip 3 3 Verdeutlichung an zwei Beispielen 5 3.1 Beispiel 1................................... 5 3. Beispiel...................................

Mehr

Analytische Geometrie - Schnittwinkel. u 1, u 2 Richtungsvektoren der Geraden

Analytische Geometrie - Schnittwinkel. u 1, u 2 Richtungsvektoren der Geraden Analytische Geometrie - Schnittwinkel. Möglichkeiten und Formeln Gerade / Gerade: cos( ) = u u 2 u u 2 Gerade / Ebene: sin( ) = n u n u Ebene / Ebene: cos( ) = n n 2 n n 2 u, u 2 Richtungsvektoren der

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Algorithmen mit konstantem Platzbedarf: Die Klasse REG

Algorithmen mit konstantem Platzbedarf: Die Klasse REG Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August

Mehr

Morphologische Bildverarbeitung II

Morphologische Bildverarbeitung II FAKULTÄT FÜR MATHEMATIK UNIVERSITÄT ULM ABT. STOCHASTIK ABT. ANGEWANDTE INFORMATIONSVERARBEITUNG Seminar Simulation und Bildanalyse mit Java Morphologische Bildverarbeitung II BETREUER: JOHANNES MAYER

Mehr

KAPITEL 2. Kombinatorik

KAPITEL 2. Kombinatorik KAPITEL 2 Kombinatori In der Kombinatori geht es um das Abzählen von Kombinationen 21 Geburtstagsproblem Beispiel 211 (Geburtstagsproblem In einem Raum befinden sich 200 Studenten Wie groß ist die Wahrscheinlicheit,

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:

1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen: Klausur zur Analysis I svorschläge Universität Regensburg, Wintersemester 013/14 Prof. Dr. Bernd Ammann / Dr. Mihaela Pilca 0.0.014, Bearbeitungszeit: 3 Stunden 1. Aufgabe [ Punte] Seien X, Y zwei nicht-leere

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

12 == 12 true 12 == 21 false 4 === 7 true 4 === "vier" false 4 === 4.0 false 12!= 13 true 12!== 12 false 12!== 12.0 true. 1 < 3 true 3 < 1 false

12 == 12 true 12 == 21 false 4 === 7 true 4 === vier false 4 === 4.0 false 12!= 13 true 12!== 12 false 12!== 12.0 true. 1 < 3 true 3 < 1 false Die if-anweisung if (Bedingung 1) { Code 1 else { Code 2 ; Anm.1: Das ; kann entfallen, da innerhalb { ein sog. Codeblock geschrieben wird. Anm.2: Es gibt noch andere Schreibweisen, aber wir wollen uns

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Bernstein-Polynome. Autor: Johannes Erath. Schriftliche Ausarbeitung zum Vortrag vom

Bernstein-Polynome. Autor: Johannes Erath. Schriftliche Ausarbeitung zum Vortrag vom Bernstein-Polynome Autor: Johannes Erath Schriftliche Ausarbeitung zum Vortrag vom 07.04.2009 1 Inhaltsverzeichnis 1 Einleitung 3 2 Einführung 3 2.1 Etwas Geschichte........................... 3 2.2 Denition

Mehr

Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1

Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1 Aufgabe (4 Punte) Sei A eine n m-matrix Die Matrix A T ist die m n-matrix, die durch Vertauschen der Zeilen und Spalten aus A hervorgeht (dh: aus Zeilen werden Spalten, und umgeehrt) Die Matrix A T heißt

Mehr

Faktorisierung bei Brüchen und Bruchtermen

Faktorisierung bei Brüchen und Bruchtermen Faktorisierung bei Brüchen und Bruchtermen Rainer Hauser Mai 2016 1 Einleitung 1.1 Rationale Zahlen Teilt man einen Gegenstand in eine Anzahl gleich grosse Stücke, so bekommt man gebrochene Zahlen, die

Mehr

Entladung eines Kondensators

Entladung eines Kondensators 3.11.5 Entladung eines Kondensators Im Gegensatz zu einer Batterie kann mit einem Kondensator innerhalb von kurzer Zeit eine hohe Stromstärke erzeugt werden. Dies wird zum Beispiel beim Blitz eines Fotoapparates

Mehr

Java 8. Elmar Fuchs Grundlagen Programmierung. 1. Ausgabe, Oktober 2014 JAV8

Java 8. Elmar Fuchs Grundlagen Programmierung. 1. Ausgabe, Oktober 2014 JAV8 Java 8 Elmar Fuchs Grundlagen Programmierung 1. Ausgabe, Oktober 2014 JAV8 5 Java 8 - Grundlagen Programmierung 5 Kontrollstrukturen In diesem Kapitel erfahren Sie wie Sie die Ausführung von von Bedingungen

Mehr

Einiges zu den Potenzfunktionen. Exponentialfunktionen

Einiges zu den Potenzfunktionen. Exponentialfunktionen Einiges zu den Potenzfunktionen Es sind zunächst zwei Arten der Potenzfunktionen zu unterscheiden. Erstens die eigentlichen Potenzfunktionen, bei denen die Variable x als Basis von Potenzen vorkommt. Diese

Mehr

Lösen linearer Gleichungssysteme

Lösen linearer Gleichungssysteme Lösen linearer Gleichungssysteme W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Die beschriebenen Verfahren 2 2 Einsetzungsverfahren 3 3 Additions-/Subtraktionsverfahren 5 4 Gleichsetzungsverfahren 8

Mehr

Einführung in die C++ Programmierung für Ingenieure

Einführung in die C++ Programmierung für Ingenieure Einführung in die C++ Programmierung für Ingenieure MATTHIAS WALTER / JENS KLUNKER Universität Rostock, Lehrstuhl für Modellierung und Simulation 16. November 2012 c 2012 UNIVERSITÄT ROSTOCK FACULTY OF

Mehr

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Beispiele zur Taylorentwicklung

Beispiele zur Taylorentwicklung Beispiele zur Taylorentwiclung Nun ein paar Augaben, die mit der Taylorentwiclung zu tun haben. In diesem Zusammenhang sollte man au jeden Fall die Formel ür die Taylorentwiclung und das Restglied nach

Mehr

So viel wie möglich Extremwertaufgaben aus Geometrie

So viel wie möglich Extremwertaufgaben aus Geometrie So viel wie möglich Extremwertaufgaben aus Geometrie Andreas Ulovec 1 Einführung Die meisten Leute sind mit Extremwertaufgaben vertraut: Was ist das flächengrößte Dreieck, das man in einen Kreis einschreiben

Mehr

konvergent falls Sei eine allgemeine ("gutmütige") Funktion. Frage: kann man sie in der Nähe des Punktes darstellen mittels einer Potenzreihe in

konvergent falls Sei eine allgemeine (gutmütige) Funktion. Frage: kann man sie in der Nähe des Punktes darstellen mittels einer Potenzreihe in C5 Funktionen: Reihenentwicklungen C5.1 Taylorreihen Brook Taylor (1685-1731) (Analysis-Vorlesung: Konvergenz von Reihen und Folgen) Grundlegende Frage: Wann / unter welchen Voraussetzungen lässt sich

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

( ) ( ) Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0. y s s

( ) ( ) Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0. y s s R. Brinkmann http://brinkmann-du.de Seite 07.0.0 Achsenschnittpunkte ganzrationaler Funktionen Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0 y s s f = f 0 = 0 0 = 0 0 = P ( 0 ) oder P ( 0 f(0)

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

Mathematische Funktionen

Mathematische Funktionen Mathematische Funktionen Viele Schüler können sich unter diesem Phänomen überhaupt nichts vorstellen, und da zusätzlich mit Buchstaben gerechnet wird, erzeugt es eher sogar Horror. Das ist jedoch gar nicht

Mehr

Neoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel

Neoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel Neoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel Dieses Skript ist die allgemeine Basis eines Modells zur Simulation der ökonomischen Folgen technischer

Mehr

Modul Entscheidungsunterstützung in der Logistik. Einführung in die Programmierung mit C++ Übung 2

Modul Entscheidungsunterstützung in der Logistik. Einführung in die Programmierung mit C++ Übung 2 Fakultät Verkehrswissenschaften Friedrich List, Professur für Verkehrsbetriebslehre und Logistik Modul Entscheidungsunterstützung in der Logistik Einführung in die Programmierung mit C++ Übung 2 SS 2016

Mehr

R C 1s =0, C T 1

R C 1s =0, C T 1 Aufgaben zum Themengebiet Aufladen und Entladen eines Kondensators Theorie und nummerierte Formeln auf den Seiten 5 bis 8 Ein Kondensator mit der Kapazität = 00μF wurde mit der Spannung U = 60V aufgeladen

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Es ist für die Lösung der Programmieraufgabe nicht nötig, den mathematischen Hintergrund zu verstehen, es kann aber beim Verständnis helfen.

Es ist für die Lösung der Programmieraufgabe nicht nötig, den mathematischen Hintergrund zu verstehen, es kann aber beim Verständnis helfen. Ziele sind das Arbeiten mit Funktionen und dem Aufzählungstyp (enum), sowie - einfache Verzweigung (if else) - Alternativen switch case - einfache Schleifen (while oder do while) Aufgabe 3: Diese Aufgabe

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Mathematische Theorien im kulturellen Kontext. Fläche eines Parabelsegments nach Archimedes

Mathematische Theorien im kulturellen Kontext. Fläche eines Parabelsegments nach Archimedes Seminar: Mathematische Theorien im kulturellen Kontext Thema: Fläche eines Parabelsegments nach Archimedes von: Zehra Betül Koyutürk Studiengang Angewandte Mathematik 27.01.2016 ARCHIMEDES Über das Leben

Mehr