Teil III: Wissensrepräsentation und Inferenz. Nachtrag zu Kap.5: Neuronale Netze. w i,neu = w i,alt + x i * (Output soll - Output ist ) Delta-Regel

Größe: px
Ab Seite anzeigen:

Download "Teil III: Wissensrepräsentation und Inferenz. Nachtrag zu Kap.5: Neuronale Netze. w i,neu = w i,alt + x i * (Output soll - Output ist ) Delta-Regel"

Transkript

1 Einfaches Perzeptrn Delta-Regel Vrlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentatin und Inferenz Nachtrag zu Kap.5: Neurnale Netze Beim Training werden die Beispiele dem Netz als präsentiert. Output ist für die Beispiele bekannt --> überwachte Lernaufgabe (supervised) (hier: liegt Beispiel in X der Y?) Sll und Ist-Output werden verglichen. Bei Diskrepanz werden Schwellenwert und Gewichte nach flgender Delta-Regel angepasst: w i, = w i, + x i * (Output sll - Output ist ) (mit w 0 = -s, x 0 = 1) Lernrate 3 Einfaches Perzeptrn Perzeptrn Einfaches Perzeptrn Delta-Regel Annahme hier: - Algrithmus mit Lernrate = 1 - als Output nur 0 und 1 möglich (d.h. Trennung vn zwei Klassen wird gelernt) x = (x 1,...,x n ) Gewichte w = (,..., ) Output () Start: Testen: Der Gewichtsvektr w 0 wird zufällig generiert. Setze t:=0. Ein Punkt x in X Y wird zufällig gewählt Falls x X und w t x > 0 gehe zu Testen Falls x X und w t x 0 gehe zu Addieren Falls x Y und w t x < 0 gehe zu Testen Falls x Y und w t x 0 gehe zu Subtrahieren Setze t := t + 1. Gehe zu Testen Subtrahieren: Setze w t+1 = w t - x. Setze t := t + 1. Gehe zu Testen 2 4

2 Einfaches Perzeptrn Einfaches Perzeptrn Wir wllen das lgische Und lernen. Start: Der Gewichtsvektr w 0 wird zufällig generiert: :=0, :=0, Schwellwert = := Zeit x 1 x 2 t Errr zu_addieren/subtr. e_gewichte Zeit x 1 x 2 t Errr zu_addieren/subtr. e_gewichte In unserer Ntatin: w 0 :=0+1 :=0+1 := Einfaches Perzeptrn Einfaches Perzeptrn Wir wllen das lgische Und lernen. Subtrahieren: Setze w t+1 = w t - x. Falls x X und w t x 0 gehe zu Addieren Zeit x 1 x 2 t Errr zu_addieren/subtr. e_gewichte Zeit x 1 x 2 t Errr zu_addieren/subtr. e_gewichte :=1+0 :=1+0 := x0 + 1x0-1 cnst x 0 = 0 6 8

3 Einfaches Perzeptrn Delta-Regel - Beispiel Zeit x 1 x 2 t Errr zu_addieren/subtr. e_gewichte entnmmen Nauk, Kruse, S. 50 Agenda 1. Einführung 2. Einfaches Perzeptrn 3. - Vektrschreibweise der Deltaregel - Schichten des MLP - Backprpagatin - Prbleme der Backprpagatin - Varianten der Backprpagatin Epche hne Veränderung Ende 9 11 Backprpagatin-Algrithmus Delta-Regel als Ableitungsregel für Perzeptrn Die Gewichtsänderungen können auf zwei Arten erflgen: x 1 x 2 x 3... x n Fehlergradient: F = ( - t) 2 = ( x w) - t) 2 Online Training:jedes Gewicht wird sfrt angepasst (flgt nur im Mittel dem Gradienten) Batch-Verfahren: es werden alle Datensätze präsentiert, die Gewichtsänderung des Gewichtes berechnet, summiert und dann erst angepasst (entspricht dem Gradienten über dem Datensatz) wurde hier angewandt = x w) F/ w i = ( - t)/ w i = ( x w) - t) 2 / w i = 2 x w) (-t) x i Die Delta-Regel kann als Gradientenabstieg mit (variablem) Lernfaktr interpretiert werden: w i = (-t) x i mit = 2 x w) (unter derannahme: ist diff.-bar) 10 12

4 2--Perzeptrn -Vektr x Gewichtsmatrix v Aktivitätsvektr y Gewichtsvektr w Output w w 3 1 Fehlerfunktin F (mittlerer quadratischer Fehler) für das Lernen: F D = 1 t d d 2 wbei gilt: d D 2 D Menge der Trainingsbeispiele t d krrekter Output für d D d berechneter Output für d D y = (v. x) = (w. y) 13 Die Gewichte müssen s angepasst werden, daß der Fehler minimiert wird. Dazu bietet sich das Gradientenabstiegsverfahren an. (D.h.: Bergsteigerverfahren mit Vektrraum der Gewichtsvektren als Suchraum!) 15 Backprpagatin Daten Datenstrm (Prpagatin) hidden hidden Output Sei nun ein d D gegeben. Anders geschrieben ist F d = ( - t) 2 =( (w. y) - t) 2 Der Fehlergradient für w i lautet für dieses d: Fehler Berechnung F/ w i = (-t) 2 / w i =... = 2. (-t). '(w. y)y i Fehlerstrm (Backprpagatin) Wir setzen als wie bei der Delta-Regel: w i = (-t) y i mit = 2 y w) und weiter w i := w i - w i 14 16

5 Fehlergradient für v ij lautet: F/ v ij = F/ y i. y i / v ij... = 2. (-t). '(w. y). w i. x). x j Fehler bei der Ausgabe Gewicht Inf vn Zwischenschicht Wir setzen als wie bei der Delta-Regel: v ij = (-t) x j mit = 2 '(w. y). w i. x) und weiter v ij := v ij - v ij Inf vn schic Beispiel analg zur Übung Angenmmen, die Gewichte seien mmentan =0.5, =0.75, v 21 =0.5, v 22 =0.5, =0.5, =0.5. Wir berechnen einmal Prpagatin+Backprpagatin für x 1 =1, x 2 =1. Prpagatin: y 1 := ( ) = (1.25) = 0.78 y 2 := ( ) = (1.0) = 0.73 := ( y 1 + y 2 ) = ( ) = (0.755) = 0.68 Backprpagatin Teil 1: w i = (-t) y i mit = 2 y w) ergibt w i = 2 y w) (-t) y i = 2 0,755) (0.68-0) y i = 2 0,755)(1-0,755))0.68 y i = (1-0.68)0.68 y i = 0.30 y i = 0.3 y 1 = 0.23, als := - := = 0.27 = 0.3 y 2 = 0.22, als := - := = Beispiel analg zur Übung (aber mit anderen Gewichten) Wir wllen XOR lernen. Als Schwellwertfunktin verwenden wir die Sigmid- Funktin mit Steigung 1: (x):=1/(1+e -x ) Ihre Ableitung lautet (x) = e -x /(1 + e -x ) 2 Angenmmen, die Gewichte seien mmentan =0.5, =0.75, v 21 =0.5, v 22 =0.5, =0.5, =0.5. = (x)(1- (x)) Wir berechnen einmal Prpagatin+Backprpagatin für x 1 =1, x 2 =1. Beispiel analg zur Übung Backprpagatin Teil 2: v ij = (-t) x j mit = 2 '(w. y). w i. x) ergibt v ij = 2 '(w. y). w i. x)(-t) x j = 2 '(0.755). w i. x)0.68 x j = 2 0,755)(1-0,755)) w i. = (1-0.68)w i. = 0.30 w i. = ( ) = (1-0.78) = = ( ) = v 21 = ( ) = (1-0.73) = 0.02 v 22 = ( ) = 0.02 Als := - := = := - := = v 21 := v 21 - v 21 := = 0.48 v 22 := v 22 - v 22 := = 0.48 Eine erte Prpagatin würde nun ergeben: y 1 := ( ) = (1.216) = 0.77 y 2 := ( ) = (0.96) = 0.72 := ( y 1 + y 2 ) = ( ) = (0.41) = 0.60 statt vrher

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

12. Übung Künstliche Intelligenz Wintersemester 2006/2007

12. Übung Künstliche Intelligenz Wintersemester 2006/2007 12. Übung Künstliche Intelligenz Wintersemester 2006/2007 1. Contraints und Heuristiken Prof. Dr. Gerd Stumme, Miranda Grahl Fachgebiet Wissensverarbeitung 09.02.2006, mgr@cs.uni-kassel.de a) Beschreibe

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene

Mehr

LS 8 Künstliche Intelligenz Fakultät für Infrmatik Technische Universität Drtmund Gliederung Lineare Mdelle zur Klassifikatin und Regressin 1 Lineare

LS 8 Künstliche Intelligenz Fakultät für Infrmatik Technische Universität Drtmund Gliederung Lineare Mdelle zur Klassifikatin und Regressin 1 Lineare LS 8 Künstliche Intelligenz Fakultät für Infrmatik Technische Universität Drtmund Lineare Mdelle zur Klassifikatin und Regressin Vrlesung Maschinelles Lernen Klassifikatin und Regressin: Lineare Mdelle

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Die folgende Grafik zeigt eine Übergangsmatrix mit zugehörigem Graph: Geben Sie analog zu den folgenden Graphen jeweils eine Transitionsmatrix an.

Die folgende Grafik zeigt eine Übergangsmatrix mit zugehörigem Graph: Geben Sie analog zu den folgenden Graphen jeweils eine Transitionsmatrix an. Stephan Peter Wirtschaftsingenieurwesen SS 2017 Mathematik II Serie 2 Matrizen II Aufgabe 1 Die flgende Grafik zeigt eine Übergangsmatrix mit zugehörigem Graph: a) Geben Sie analg zu den flgenden Graphen

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Teil 6. Neuronale Netze & Genetische Algorithmen

Teil 6. Neuronale Netze & Genetische Algorithmen Teil 6 Neuronale Netze & Genetische Algorithmen Biologie-inspirierte Lernverfahren 2 verschiedene Standpunkte: KI durch Ausnutzung spezifischer Stärken der verwendeten Systeme (z.b. Rechenleistung, Speicherkapazität,

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Was ist Reinforcement Learning? Einführung. Überwachtes Lernen. Reinforcement Learning. Ziel: erreiche soviel Reward wie möglich

Was ist Reinforcement Learning? Einführung. Überwachtes Lernen. Reinforcement Learning. Ziel: erreiche soviel Reward wie möglich Fachbereich Infrmatik Fachbereich Infrmatik Psychlgie Einführung Künstliche Intelligenz Reinfrcement Learning (RL) Steuerungs- und Regelungstechnik Was ist Reinfrcement Learning? Lernen aus Interaktin

Mehr

Backpropagation. feedforward Netze

Backpropagation. feedforward Netze Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Diese Fragen sollten Sie auch ohne Skript beantworten können: Was beschreibt der Differenzenquotient? Wie kann man sich die Steigung im vorstellen? Wa

Diese Fragen sollten Sie auch ohne Skript beantworten können: Was beschreibt der Differenzenquotient? Wie kann man sich die Steigung im vorstellen? Wa 103 Diese Fragen sollten Sie auch ohne Skript beantworten können: Was beschreibt der Differenzenquotient? Wie kann man sich die Steigung im vorstellen? Was bedeutet das für die Ableitungen? Was ist eine

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

CATIA Richtlinien. Es wird zuerst ein quadratischer Tank (geschlossene Form) konstruiert, dieser wird zu:

CATIA Richtlinien. Es wird zuerst ein quadratischer Tank (geschlossene Form) konstruiert, dieser wird zu: CATIA Richtlinien Inhalt: 1. Benennung vn Bauteile 2. Benennung vn Baugruppen 3. Strukturierung vn CATIA-Dateien 4. Uplad auf Agra Um die Benennung und die Struktur in CATIA zu vereinheitlichen bitten

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

ALGORITHMEN- PARADIGMEN

ALGORITHMEN- PARADIGMEN 4. Kapitel ALGORITHMEN- PARADIGMEN Algrithmen & Datenstrukturen Prf. Dr. Wlfgang Schramm Übersicht 1 1. Einführung 2. Algrithmen 3. EigenschaFen vn Prgrammiersprachen 4. Algrithmenparadigmen 5. Suchen

Mehr

Optimierung und Lagrange. x = 9 maximiert f

Optimierung und Lagrange. x = 9 maximiert f Optimierung und Lagrange 1.1 Eine Variable, keine Nebenbedingung ma f ( Erinnerung: (a) min f ( ma ( f ( ) (b) maimiert f f ( ) = 0 (c) f ( ) = 0 und f knkav (z.b. f ( ) 0 für alle ) maimiert f Beispiel:

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n (2k 1) = n 2.

Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n (2k 1) = n 2. Aufgabe 1. (5 Punkte) Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n k=1 (2k 1) = n 2. Aufgabe 2. (7 Punkte) Gegeben sei das lineare Gleichungssystem x + 2z = 0 ay

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Tacton keytech Integration

Tacton keytech Integration Tactn keytech Integratin Herausfrderungen und Lösungen Ausgabedatum: 27.09.2013 - Dkumentversin: 1.0 Autr: Clemens Ambrsius Cpyright Lin GmbH 2013 Alle Rechte vrbehalten Seite 1 1 Einführung Bei vielen

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Tutorial:Unabhängigkeitstest

Tutorial:Unabhängigkeitstest Tutorial:Unabhängigkeitstest Mit Daten aus einer Befragung zur Einstellung gegenüber der wissenschaftlich-technischen Entwicklungen untersucht eine Soziologin den Zusammenhang zwischen der Einstellung

Mehr

Ganzrationale Funktion

Ganzrationale Funktion Zur Übung Funktinenklassen Ganzratinale Funktin Expnentialfunktin Integratin Integratinsmethden Riemannsummen MnteCarlMethde Ausschneiden Auszählen Integratinsregeln Summenregel Faktrregel Partielle Integratin

Mehr

12. Maschinelles Lernen

12. Maschinelles Lernen 12. Maschinelles Lernen Maschinelles Lernen dient der Herbeiführung vn Veränderungen im System, die adaptiv sind in dem Sinne, daß sie es dem System ermöglichen, dieselbe der eine ähnliche Aufgabe beim

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Aussagenlogik: 1. Übersetzen Sie folgende Aussagen in die Aussagenlogik:

Aussagenlogik: 1. Übersetzen Sie folgende Aussagen in die Aussagenlogik: Aussagenlgik: 1. Übersetzen Sie flgende Aussagen in die Aussagenlgik: Wenn schlechtes Wetter ist, gehe ich nicht schwimmen. Ich gehe nur schwimmen, wenn schönes Wetter ist. Wenn ich nicht schwimmen gehe,

Mehr

Mann-Whitney-U-Test: Tiefenstufen

Mann-Whitney-U-Test: Tiefenstufen Mann-Whitney-U-Test: Tiefenstufen Variable Al Ca Cl DOC Fe K Mg Mn Na NO3 ph Si SO4 El. Leitfähigkeit Mann-Whitney U-Test (Piezometer.sta) Nach Var.: Tiefe Markierte Tests signifikant ab p

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Partielle Ableitungen

Partielle Ableitungen Partielle Ableitungen Gymnasium Immensee Vertiefungskurs Mathematik Bettina Bieri 24. Juli 2011 Inhaltsverzeichnis 1 Funktionen von zwei Variablen 1 1.1 Aufbau solcher Funktionen.................... 1

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Aufgaben zu Kapitel 8

Aufgaben zu Kapitel 8 Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen n. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

BME, Hidrodinamikai Rendszerek Tanszék Analyse von technischen und wirtschaftlichen Daten

BME, Hidrodinamikai Rendszerek Tanszék Analyse von technischen und wirtschaftlichen Daten BME, Hidrdinamikai Rendszerek Tanszék Analyse vn technischen und wirtschaftlichen Daten 1. Rechnerübung 2014 Die Durchführung vn Makrs bei der Öffnung der Tabelle sll erlaubt werden! 1. Aufgabe An einer

Mehr

Mathematik für Biologen und Chemiker Prof. Scheltho - Übungen Mathe 2

Mathematik für Biologen und Chemiker Prof. Scheltho - Übungen Mathe 2 Mathematik für Biologen und Chemiker Prof. Scheltho - Übungen Mathe 2 Fortsetzung der komlexen Zahlen : 9. Radizieren und Potenzen a) Berechnen Sie (1+i) 20 und geben Sie das Resultat als Polarkoordinaten

Mehr

Newsletter e-rechnung an die öffentliche Verwaltung

Newsletter e-rechnung an die öffentliche Verwaltung Vn: E-Rechnung an den Bund Gesendet: Miwch, 05. Nvember 201414:43 Betreff: ERB-Newsleer: Deutsch Newsletter e-rechnung an die öffentliche Verwaltung Sehr geehrte Abnnentin, sehr geehrter

Mehr

Arbeitsblätter Mathcad + CAS

Arbeitsblätter Mathcad + CAS Arbeitsblätter Mathcad + CAS Übersicht Gehe zu Arbeitsblatt 1 Arbeitsblatt 2 Arbeitsblatt 3 Arbeitsblatt 4 Arbeitsblatt 5 Arbeitsblatt 6 Arbeitsblatt 7 Arbeitsblatt 8 Arbeitsblatt 9 Arbeitsblatt 1 Sichte

Mehr

Mathe - Lernzettel: Nullstellen, Monotonie und Ableitungen

Mathe - Lernzettel: Nullstellen, Monotonie und Ableitungen Mathe - Lernzettel: Nullstellen, Monotonie und Ableitungen Leun4m 29. April 2015 Version: 0 Ich kann nicht für Richtigkeit garantieren! Inhaltsverzeichnis 1 Themenübersicht 1 2 Funktionen und Graphen 2

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algrithmen und Datenstrukturen Prf. Dr. Ralf Möller Universität zu Lübeck Institut für Infrmatinssysteme Tanya Braun (Übungen) swie viele Tutren Suchgraphen für 2-Persnen-Nullsummenspiele Typen vn Spielen

Mehr

2. Schularbeit aus. Mathematik und Angewandte Mathematik

2. Schularbeit aus. Mathematik und Angewandte Mathematik . Schularbeit aus Mathematik und Angewandte Mathematik Freitag,. April 06 5. Jahrgänge NAME: Punkte:. vn 40 Nte:.. Ntenschlüssel Sehr Gut Gut Befriedigend Genügend Nicht Genügend 40 5 0 5 9 6 6 0 0 Löse

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Objekterkennung mit künstlichen neuronalen Netzen

Objekterkennung mit künstlichen neuronalen Netzen Objekterkennung mit künstlichen neuronalen Netzen Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar,

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Kennwerte eindimensionaler Häufigkeitsverteilungen

Kennwerte eindimensionaler Häufigkeitsverteilungen Kennwerte eindimensinaler Häufigkeitsverteilungen - Einführung - Statistische Kennwerte vn Verteilungen sind numerische Maße mit der Funktin, zusammenfassend einen Eindruck vn 1) dem Schwerpunkt, 2) der

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Fehlerfortpflanzung & Extremwertbestimmung. Folie 1

Fehlerfortpflanzung & Extremwertbestimmung. Folie 1 Fehlerfortpflanzung & Etremwertbestimmung Folie 1 Fehlerfortpflanzung Einführung In vielen technischen Zusammenhängen sind die Werte bestimmter Größen nicht genau bekannt sondern mit einer Unsicherheit

Mehr

Mathematik II für Inf und WInf

Mathematik II für Inf und WInf Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell

Mehr

Vorlesung Wissensentdeckung in Datenbanken

Vorlesung Wissensentdeckung in Datenbanken LS 8 Künstliche Intelligenz Fakultät für Infrmatik Cmputergestützte Statistik Technische Universität Drtmund Lineare Mdelle zur Klassifikatin und Regressin Bias-Varianz knn zur Klassifikatin, Regressin

Mehr

Protokoll der Fachschaftssitzung am Uhr - Raum T3-144

Protokoll der Fachschaftssitzung am Uhr - Raum T3-144 Fachschaft Rechtswissenschaft Universität Bielefeld Pstfach 100131 33501 Bielefeld An die Mitglieder der Fachschaft Rechtswissenschaft Stud. Iur. Aurelia Gußen Raum: T3-122 Tel.: 0521-106-4292 Fax: 0521

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Mathematik GK 11 m3, AB 07 Hochwasser Lösung

Mathematik GK 11 m3, AB 07 Hochwasser Lösung Aufgabe 1: Hochwasserwelle Während einer Hochwasserwelle wurde in einer Stadt der Wasserstand h des Flusses in Abhängigkeit von der Zeit t gemessen. Der Funktionsterm der Funktion, die den dargestellten

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen 24. Mai 2013 *Aufgabe 1. Bestimmen Sie für die folgenden Funktionen jeweils die Gleichung der Tangentialebene für alle Punkte auf der Fläche. Wann ist die Tangentialebene

Mehr

Die Pressemitteilung. Eine Pressemitteilung sollte immer aus folgenden Bausteinen bestehen: Logo/Briefkopf Absender PRESSEMITTEILUNG.

Die Pressemitteilung. Eine Pressemitteilung sollte immer aus folgenden Bausteinen bestehen: Logo/Briefkopf Absender PRESSEMITTEILUNG. Die Pressemitteilung Die Pressemitteilung ist die gängigste Frm, Medien über aktuelle Themen und Ereignisse zu infrmieren. Sie sll infrmativ, auf die wesentlichen Fakten beschränkt und deshalb nach Möglichkeit

Mehr

MATHEMATIKLEHRPLAN 5. SCHULJAHR SEKUNDARSTUFE

MATHEMATIKLEHRPLAN 5. SCHULJAHR SEKUNDARSTUFE Eurpäische Schulen Bür des Generalsekretärs Abteilung für pädaggische Entwicklung Ref. : 011-01-D-8-de- Orig. : EN MATHEMATIKLEHRPLAN 5. SCHULJAHR SEKUNDARSTUFE Kurs 6 Stunden/Wche VOM GEMISCHTEN PÄDAGOGISCHEN

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Klausur Advanced Programming Techniques

Klausur Advanced Programming Techniques Advanced Prgramming Techniques Autr: Prf. Dr. Bernhard Humm, FB Infrmatik, Hchschule Darmstadt Datum: 8. Juli 2008 Klausur Advanced Prgramming Techniques 1 Spielregeln zur Klausur Allgemeines Die Bearbeitungszeit

Mehr

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck: Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,

Mehr

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A. Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........

Mehr

PASCAL. Programme. Daten, Datentypen. Strukturierte Datentypen. Pointers. Dateien: Allgemeine Ein-/ Ausgabe. Funktionen und Prozeduren

PASCAL. Programme. Daten, Datentypen. Strukturierte Datentypen. Pointers. Dateien: Allgemeine Ein-/ Ausgabe. Funktionen und Prozeduren PASCAL Lebensdauer und GUltigke itsbereich vn Labels Die Verwendung vn Labels und Spriingen Prgramme Daten, Datentypen Strukturierte Datentypen Pinters Dateien: Allgemeine Ein-/ Ausgabe Funktinen und Przeduren

Mehr

Algorithmische Grundlagen des Internets VIII

Algorithmische Grundlagen des Internets VIII Vrlesung Smmersemester 2003 Universität Paderbrn EIM Institut für Infrmatik Algrithmische Grundlagen des Internets VIII schindel@upb.de Universität Paderbrn Fakultät für Elektrtechnik, Infrmatik und Mathematik

Mehr