Neuronale Netze. Prof. Dr. Rudolf Kruse

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze. Prof. Dr. Rudolf Kruse"

Transkript

1 Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Rudolf Kruse, Christoph Doell Neuronale Netze

2 Zu meiner Person: Rudolf Kruse 979 Dipl. Mathematik (Nebenfach Informatik) von TU Braunschweig dort 980 promoviert, 984 habilitiert Jahre hauptamtlicher Mitarbeiter bei Fraunhofer 986 Ruf als Professor für Informatik der TU Braunschweig seit 996 Professor an der Universität Magdeburg Forschung: Data Mining, Explorative Datenanalyse, Fuzzy-Systeme, Neuronale Netze, Evolutionäre Algorithmen, Bayes sche Netze Büro: G9-008, Telefon: Sprechstunde: Mi., :00 :00 Uhr Rudolf Kruse, Christoph Doell Neuronale Netze

3 Zur Arbeitsgruppe: Computational Intelligence Lehre: Intelligente Systeme Evolutionäre Algorithmen Neuronale Netze Fuzzy-Systeme Bayes-Netze Intelligente Datenanalyse Bachelor ( V + Ü, 5 CP) Bachelor ( V + Ü, 5 CP) Bachelor ( V + Ü, 5 CP) Master ( V + Ü, 6 CP) Master ( V + Ü, 6 CP) Master ( V + Ü, 6 CP) Seminare: Clustering/Classification Algorithms, Hot Topics in Neural Networks Forschungsbeispiele: Dynamische Analyse von sozialen Netzen Interaktive Datenanalyse (Pascal Held) (Christian Braune) Maschinelles Lernen mit Hilfe von Kognitiven Architekturen (Christoph Doell) Rudolf Kruse, Christoph Doell Neuronale Netze 3

4 Zur Vorlesung Vorlesungstermine: Do., :5 :45 Uhr, G9-307 Vorlesungsausfall: (Christi Himmelfahrt) Vorlesungsende: Informationen zur Vorlesung: wöchentliche Vorlesungsfolien als PDF Übungsblätter ebenfalls wichtige Ankündigungen und Termine! Rudolf Kruse, Christoph Doell Neuronale Netze 4

5 Inhalte und Lernziele der Vorlesung Einführung in die Grundlagen der (Künstlichen) Neuronalen Netze Behandlung von Lernparadigmen und -algorithmen Behandlung von verschiedenen Netzmodellen Anwendungsbeispiele Rudolf Kruse, Christoph Doell Neuronale Netze 5

6 Zur Übung Zielsetzung: Anwendung von Methoden der Datenanalyse mit Neuronalen Netzen zur Lösung von Klassifikations-, Regressions- und weiteren statistischen Problemen Bewertung und Anwendung neuronaler Lernverfahren zur Analyse komplexer Systeme Befähigung zur Entwicklung von Neuronalen Netzen Ihre Aufgabe: Nacharbeiten des Vorlesungsstoffs Bearbeitung der Übungsaufgaben aktive Teilnahme an den Übungen Rudolf Kruse, Christoph Doell Neuronale Netze 6

7 Durchführung der Übungen Sie werden aktiv und erklären Ihre Lösungen! Tutor macht auf Fehler aufmerksam und beantwortet Fragen das Vorrechnen der Aufgaben ist nicht Sinn der Übung ganz bewusst: keine ausgearbeiteten Musterlösungen Tutor: Christoph Doell Raum G9-03, Sprechstunde: immer, wenn Bürotür offen steht Tutor: Cornelius Styp von Rekowski PNK-Tutorin: Michelle Bieber Rudolf Kruse, Christoph Doell Neuronale Netze 7

8 Übung: Termine zur Auswahl Di., :5 :45 Uhr in Raum G9-K059 Do., 3:5 4:45 Uhr in Raum G9-K058 Anmeldung: Übungsbeginn der regulären Übung : diese Woche (Übungsblatt ) Extraübung für PNK-Studierende Mo., 5:5 6:45 Uhr in Raum G9-K059 Beginn der PNK-Übung: vergangenen Montag Rudolf Kruse, Christoph Doell Neuronale Netze 8

9 Zur Prüfung schriftliche Klausur: 0 Minuten voraussichtlich Mitte Juli Termine, Räume etc. werden in Vorlesung u. WWW angekündigt Durchführung ohne Hilfsmittel (nur Taschenrechner) nur Schreibmaterial (Stifte/Füller, die blau oder schwarz schreiben) Bekanntgabe der Ergebnisse: HISQIS Einsichtnahme in die Klausur ist möglich (Termin im WWW) Rudolf Kruse, Christoph Doell Neuronale Netze 9

10 Schein- und Prüfungskriterien Studierende, die den Kurs mit Prüfung oder (un)benotetem Schein beenden wollen, müssen regelmäßig und gut in Übungen mitarbeiten, mind. 50% der Aufgaben votieren, mind. x Lösung zu schriftlicher Aufgabe präsentieren, Klausur nach dem Kurs bestehen Studierende der Philosophie-Neurowissenschaften-Kognition müssen außerdem aktiv an einer zusätzlichen Übung teilnehmen Rudolf Kruse, Christoph Doell Neuronale Netze 0

11 Inhalt der Vorlesung Einleitung Motivation, biologischer Hintergrund Schwellenwertelemente Definition, geometrische Deutung, Grenzen, Netze von SWE, Training Allgemeine Neuronale Netze Struktur, Arbeitsweise, Training Mehrschichtige Perzeptren Definition, Funktionsapproximation, Gradientenabstieg, Backpropagation, Varianten, Sensitivitätsanalyse Radiale-Basis-Funktions-Netze Definition, Funktionsapproximation Initialisierung, Training, allgemeine Version Selbstorganisierende Karten Definition, Lernende Vektorquantisierung, Nachbarschaft von Ausgabeneuronen Rudolf Kruse, Christoph Doell Neuronale Netze

12 Inhalt der Vorlesung Hopfield-Netze Definition, Konvergenz, Assoziativspeicher, Lösen von Optimierungsproblemen Rekurrente Neuronale Netze Differentialgleichungen, Vektornetze, Backpropagation über die Zeit Support-Vektor-Maschinen Empirische Risikominimierung, statistische Lerntheorie, Kernmethoden Gepulste Neuronale Netze Realistischere Simulation des Gehirns, Anwendung in Computerchips Lernen vielschichtiger Neuronaler Netze (Deep Learning) Probleme bei vielschichtigen Netzen, Lösungsansätze, Praktische Anwendung Rudolf Kruse, Christoph Doell Neuronale Netze

13 Bücher zur Vorlesung Rudolf Kruse, Christoph Doell Neuronale Netze 3

14 Literatur zur Lehrveranstaltung Kruse, Borgelt, Klawonn, Moewes, Steinbrecher und Held. Computational Intelligence: A Methodological Introduction. Springer, London, 03. Kruse, Borgelt, Braune, Klawonn, Moewes und Steinbrecher. Computational Intelligence: Eine methodische Einführung in Künstliche Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Springer Vieweg, Wiesbaden, 05. Kriesel. Ein kleiner Überblick über neuronale Netze. Manuskript, erhältlich auf Rudolf Kruse, Christoph Doell Neuronale Netze 4

15 Aktuelle Motivation: Alphago 06: Alphago besiegt Lee Sedol 4: Es nutzt dabei tiefe Neuronale Netze: Policy-Networks zur Vorauswahl möglicher Züge Value-Networks zur Bewertung von Spielpositionen Monte-Carlo Baumsuche zum Finden der besten Züge Reinforcement Learning zur Verbesserung der Neuronalen Netze Rudolf Kruse, Christoph Doell Neuronale Netze 5

16 Motivation: Warum (künstliche) neuronale Netze? (Neuro-)Biologie / (Neuro-)Physiologie / Psychologie: Ausnutzung der Ähnlichkeit zu echten (biologischen) neuronalen Netzen Modellierung zum Verständnis Arbeitsweise von Nerven und Gehirn durch Simulation Informatik / Ingenieurwissenschaften / Wirtschaft Nachahmen der menschlichen Wahrnehmung und Verarbeitung Lösen von Lern-/Anpassungsproblemen sowie Vorhersage- und Optimierungsproblemen Physik / Chemie Nutzung neuronaler Netze, um physikalische Phänomene zu beschreiben Spezialfall: Spin-Glas (Legierungen von magnetischen und nicht-magnetischen Metallen) Rudolf Kruse, Christoph Doell Neuronale Netze 6

17 Konventionelle Rechner vs. Gehirn Computer Gehirn Verarbeitungseinheiten CPU, 0 0 Transistoren 0 Neuronen Speicherkapazität 0 Bytes RAM, 0 3 Bytes Festspeicher 0 Neuronen, 0 4 Synapsen Verarbeitungsgeschwindigkeit 0 8 Sekunden 0 3 Sekunden Bandbreite 0 bits s 0 4bits s Neuronale Updates pro Sekunde Rudolf Kruse, Christoph Doell Neuronale Netze 7

18 Konventionelle Rechner vs. Gehirn Beachte: die Hirnschaltzeit ist mit 0 3 s recht langsam, aber Updates erfolgen parallel. Dagegen braucht die serielle Simulation auf einem Rechner mehrere hundert Zyklen für ein Update. Vorteile neuronaler Netze: Hohe Verarbeitungsgeschwindigkeit durch massive Parallelität Funktionstüchtigkeit selbst bei Ausfall von Teilen des Netzes (Fehlertoleranz) Langsamer Funktionsausfall bei fortschreitenden Ausfällen von Neuronen (graceful degradation) Gut geeignet für induktives Lernen Es erscheint daher sinnvoll, diese Vorteile natürlicher neuronaler Netze künstlich nachzuahmen. Rudolf Kruse, Christoph Doell Neuronale Netze 8

19 Biologischer Hintergrund Struktur eines prototypischen biologischen Neurons Synapsenenden Synapse Dendriten Zellkern Zellkörper (Soma) Axon Myelinscheide Rudolf Kruse, Christoph Doell Neuronale Netze 9

20 Biologischer Hintergrund (Stark) vereinfachte Beschreibung neuronaler Informationsverarbeitung Das Axonende gibt Chemikalien ab, Neurotransmitter genannt. Diese bewirken an der Membran des Empfängerdendriten die Veränderung der Polarisierung. (Das Innere ist typischerweise 70mV negativer als die Außenseite.) Abnahme in der Potentialdifferenz: anregende Synapse Zunahme in der Potentialdifferenz: hemmende Synapse Wenn genügend anregende Information vorhanden ist, wird das Axon depolarisiert. Das resultierende Aktionspotential pflanzt sich entlang des Axons fort. (Die Geschwindigkeit hängt von der Bedeckung mit Myelin ab.) Wenn das Aktionspotential die Synapsenenden erreicht, löst es die Abgabe von Neurotransmittern aus. Rudolf Kruse, Christoph Doell Neuronale Netze 0

21 Schwellenwertelemente Rudolf Kruse, Christoph Doell Neuronale Netze

22 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine VerarbeitungseinheitfürZahlenmitnEingängenx,...,x n undeinemausgang y.daselementhat einen Schwellenwert θ und jeder Eingang x i ist mit einem Gewicht w i versehen. Ein Schwellenwertelement berechnet die Funktion y =, falls x w = 0, sonst. n i= w i x i θ, x w.. θ y x n w n Rudolf Kruse, Christoph Doell Neuronale Netze

23 Schwellenwertelemente: Beispiele Schwellenwertelement für die Konjunktion x x. x 3 x 4 y x x 3x +x y Schwellenwertelement für die Implikation x x. x x y x x x x y Rudolf Kruse, Christoph Doell Neuronale Netze 3

24 Schwellenwertelemente: Beispiele Schwellenwertelement für (x x ) (x x 3 ) (x x 3 ). x x x 3 y x x x 3 iw i x i y Rudolf Kruse, Christoph Doell Neuronale Netze 4

25 Schwellenwertelemente: Geometrische Interpretation Rückblick: Geradendarstellungen Geraden werden typischerweise in einer der folgenden Formen dargestellt: mit den Parametern Explizite Form: g x = bx +c Implizite Form: g a x +a x +d = 0 Punkt-Richtungs-Form: g x = p+k r Normalform g ( x p) n = 0 b : Anstieg der Geraden c : Abschnitt der x -Achse p : Vektor zu einem Punkt auf der Gerade (Ortsvektor) r : Richtungsvektor der Gerade n : Normalenvektor der Gerade Rudolf Kruse, Christoph Doell Neuronale Netze 5

26 Schwellenwertelemente: Geometrische Interpretation Eine Gerade und ihre definierenden Eigenschaften. c x b = r r r n = (a,a ) q = d n n n g ϕ p d = p n x O Rudolf Kruse, Christoph Doell Neuronale Netze 6

27 Schwellenwertelemente: Geometrische Interpretation Bestimmung, auf welcher Seite ein Punkt x liegt. x z z = x n n n n q = d n n n g ϕ x x O Rudolf Kruse, Christoph Doell Neuronale Netze 7

28 Schwellenwertelemente: Geometrische Interpretation Schwellenwertelement für x x. x 3 x 4 y x 0 0 x 0 Ein Schwellenwertelement für x x. x 0 x y x 0 x 0 Rudolf Kruse, Christoph Doell Neuronale Netze 8

29 Schwellenwertelemente: Geometrische Interpretation Darstellung 3-dimensionaler Boolescher Funktionen: x 3 x (,,) x (0,0,0) Schwellenwertelement für (x x ) (x x 3 ) (x x 3 ). x x y x 3 x x 3 x Rudolf Kruse, Christoph Doell Neuronale Netze 9

30 Schwellenwertelemente: lineare Separabilität Zwei Punktmengen in einem n-dimensionalen Raum heißen linear separabel, wenn sie durch eine(n-)-dimensionale Hyperebene getrennt werden können. Die Punkte der einen Menge dürfen dabei auch auf der Hyperebene liegen. Eine Boolesche Funktion heißt linear separabel, falls die Menge der Urbilder von 0 und die Menge der Urbilder von linear separabel sind. Rudolf Kruse, Christoph Doell Neuronale Netze 30

31 Schwellenwertelemente: Grenzen Das Biimplikationsproblem x x : Es gibt keine Trenngerade. x x y x 0 0 x Formaler Beweis durch reductio ad absurdum: da (0,0) : 0 θ, () da (,0) 0: w < θ, () da (0,) 0: w < θ, (3) da (,) : w +w θ. (4) () und (3): w +w < θ. Mit (4): θ > θ, oder θ > 0. Widerspruch zu (). Rudolf Kruse, Christoph Doell Neuronale Netze 3

32 Schwellenwertelemente: Grenzen Vergleich zwischen absoluter Anzahl und der Anzahl linear separabler Boolescher Funktionen. ([Widner 960] zitiert in [Zell 994]) Eingaben Boolesche Funktionen linear separable Funktionen Für viele Eingaben kann ein SWE fast keine Funktion berechnen. Netze aus Schwellenwertelementen sind notwendig, um die Berechnungsfähigkeiten zu erweitern. Rudolf Kruse, Christoph Doell Neuronale Netze 3

33 Netze aus Schwellenwertelementen Biimplikationsproblem, Lösung durch ein Netzwerk. Idee: logische Zerlegung x x (x x ) (x x ) x x berechnet y = x x 3 berechnet y = x x berechnet y = y y y = x x Rudolf Kruse, Christoph Doell Neuronale Netze 33

34 Netze aus Schwellenwertelementen Lösung des Biimplikationsproblems: Geometrische Interpretation x d 0 c g g 0 = y b 0 ac g 3 0 a b 0 d 0 x y 0 Die erste Schicht berechnet neue Boolesche Koordinaten für die Punkte. Nach der Koordinatentransformation ist das Problem linear separabel. Rudolf Kruse, Christoph Doell Neuronale Netze 34

35 Darstellung beliebiger Boolescher Funktionen Sei y = f(x,...,x n ) eine Boolesche Funktion mit n Variablen. (i) Stelle f(x,...,x n ) in disjunktiver Normalform dar. D.h. bestimme D f = K... K m, wobei alle K j Konjunktionen von n Literalen sind, d.h., K j = l j... l jn mit l ji = x i (positives Literal) oder l ji = x i (negatives Literal). (ii) Lege ein Neuron für jede Konjunktion K j der disjunktiven Normalform an (mit n Eingängen ein Eingang pro Variable), wobei {, falls lji = x w ji = i, und θ, falls l ji = x i, j = n + n w ji. (iii) Lege ein Ausgabeneuron an (mit m Eingängen ein Eingang für jedes Neuron, das in Schritt (ii) angelegt wurde), wobei w (n+)k =, k =,...,m, und θ n+ =. i= Rudolf Kruse, Christoph Doell Neuronale Netze 35

36 Trainieren von Schwellenwertelementen Rudolf Kruse, Christoph Doell Neuronale Netze 36

37 Trainieren von Schwellenwertelementen Die geometrische Interpretation bietet eine Möglichkeit, SWE mit und 3 Eingängen zu konstruieren, aber: Es ist keine automatische Methode(Visualisierung und Begutachtung ist nötig). Nicht möglich für mehr als drei Eingabevariablen. Grundlegende Idee des automatischen Trainings: Beginne mit zufälligen Werten für Gewichte und Schwellenwert. Bestimme den Ausgabefehler für eine Menge von Trainingsbeispielen. Der Fehler ist eine Funktion der Gewichte und des Schwellenwerts: e = e(w,...,w n,θ). Passe Gewichte und Schwellenwert so an, dass der Fehler kleiner wird. Wiederhole diese Anpassung, bis der Fehler verschwindet. Rudolf Kruse, Christoph Doell Neuronale Netze 37

38 Trainieren von Schwellenwertelementen Schwellenwertelement mit einer Eingabe für die Negation x. x w θ y x y 0 0 Ausgabefehler als eine Funktion von Gewicht und Schwellenwert. 0 w e θ Fehler für x = w e θ Fehler für x = 0 0 w e θ Summe der Fehler 0 Rudolf Kruse, Christoph Doell Neuronale Netze 38

39 Trainieren von Schwellenwertelementen Die Fehlerfunktion kann nicht direkt verwendet werden, da sie aus Plateaus besteht. Lösung: Falls die berechnete Ausgabe falsch ist, dann berücksichtige, wie weit θ überschritten (für x = 0) oder unterschritten ist (für x = ). anschaulich: Berechnung ist umso falscher, je weiter θ überschritten (für x = 0) bzw. unterschritten ist (für x = ). Modifizierter Ausgabefehler als Funktion von w und θ. 4 e 4 e 4 e 0 w θ Fehler für x = w θ Fehler für x = 0 0 w θ Summe der Fehler 0 Rudolf Kruse, Christoph Doell Neuronale Netze 39

40 Trainieren von Schwellenwertelementen Schema der resultierenden Richtungen der Parameteränderungen. w 0 0 θ Änderungen für x = 0 w 0 0 θ Änderungen für x = w 0 0 θ Summe der Änderungen Beginne an zufälligem Punkt. Passe Parameter iterativ an, entsprechend der zugehörigen Richtung am aktuellen Punkt. Rudolf Kruse, Christoph Doell Neuronale Netze 40

41 Trainieren von Schwellenwertelementen Beispieltrainingsprozedur: Online- und Batch-Training. w 0 0 θ Online-Lernen w 0 0 θ Batch-Lernen 4 0 w e θ 0 Batch-Lernen x y x 0 Rudolf Kruse, Christoph Doell Neuronale Netze 4

42 Trainieren von Schwellenwertelementen: Delta-Regel Formale Trainingsregel: Sei x = (x,...,x n ) ein Eingabevektor eines Schwellenwertelements, o die gewünschte Ausgabe für diesen Eingabevektor, und y die momentane Ausgabe des Schwellenwertelements. Wenn y o, dann werden Schwellenwert θ und Gewichtsvektor w = (w,...,w n ) wie folgt angepasst, um den Fehler zu reduzieren: θ (neu) = θ (alt) + θ wobei θ = η(o y), i {,...,n} : w (neu) i = w (alt) i + w i wobei w i = η(o y)x i, wobei η ein Parameter ist, der Lernrate genannt wird. Er bestimmt die Größenordnung der Gewichtsänderungen. Diese Vorgehensweise nennt sich Delta-Regel oder Widrow Hoff Procedure [Widrow and Hoff 960]. Online-Training: Passe Parameter nach jedem Trainingsmuster an. Batch-Training: Passe Parameter am Ende jeder Epoche an, d.h. nach dem Durchlaufen aller Trainingsbeispiele. Rudolf Kruse, Christoph Doell Neuronale Netze 4

43 Trainieren von Schwellenwertelementen: Delta-Regel Ändern des Schwellenwerts in ein Gewicht: = x 0 w 0 = θ x w x w x w θ y x w 0 y.. w n w n x n x n n i= w i x i θ n i= w i x i θ 0 Rudolf Kruse, Christoph Doell Neuronale Netze 43

44 Trainieren von Schwellenwertelementen: Delta-Regel procedure online training (var w, var θ, L, η); var y, e; (* Ausgabe, Fehlersumme *) begin repeat e := 0; (* initialisiere Fehlersumme *) for all ( x, o) L do begin (* durchlaufe Trainingsmuster*) if ( w x θ)then y := ; (* berechne Ausgabe*) else y := 0; (* des Schwellenwertelements *) if (y o) then begin (* Falls Ausgabe falsch *) θ := θ η(o y); (* passe Schwellenwert *) w := w+η(o y) x; (* und Gewichte an *) end; end; until (e 0); end; e := e + o y ; (* summiere die Fehler*) (* wiederhole die Berechnungen*) (* bis der Fehler verschwindet*) Rudolf Kruse, Christoph Doell Neuronale Netze 44

45 Trainieren von Schwellenwertelementen: Delta-Regel procedure batch training (var w, var θ, L, η); var y, e, (* Ausgabe, Fehlersumme *) θ c, w c ; (* summierte Änderungen *) begin repeat e := 0; θ c := 0; w c := 0; (* Initialisierungen *) for all ( x, o) L do begin (* durchlaufe Trainingsbeispiele*) if ( w x θ) then y := ; (* berechne Ausgabe *) else y := 0; (* des Schwellenwertelements *) if (y o) then begin (* Falls Ausgabe falsch*) θ c := θ c η(o y); (* summiere die Änderungen von*) w c := w c +η(o y) x; (* Schwellenwert und Gewichten *) e := e + o y ; (* summiere Fehler*) end; end; θ := θ +θ c ; (* passe Schwellenwert*) w := w+ w c ; (* und Gewichte an *) until (e 0); (* wiederhole Berechnungen *) end; (* bis der Fehler verschwindet*) Rudolf Kruse, Christoph Doell Neuronale Netze 45

46 Trainieren von Schwellenwertelementen: Online Epoche x o x w y e θ w θ w Rudolf Kruse, Christoph Doell Neuronale Netze 46

47 Trainieren von Schwellenwertelementen: Batch Epoche x o x w y e θ w θ w Rudolf Kruse, Christoph Doell Neuronale Netze 47

48 Trainieren von Schwellenwertelementen: Konjunktion Schwellenwertelement mit zwei Eingängen für die Konjunktion. x w x w θ y x x y x 3 y 0 x 0 0 Rudolf Kruse, Christoph Doell Neuronale Netze 48

49 Trainieren von Schwellenwertelementen: Konjunktion Epoche x x o x w y e θ w w θ w w Rudolf Kruse, Christoph Doell Neuronale Netze 49

50 Trainieren von Schwellenwertelementen: Biimplikation Epoch x x o x w y e θ w w θ w w Rudolf Kruse, Christoph Doell Neuronale Netze 50

51 Trainieren von Schwellenwertelementen: Konvergenz Konvergenztheorem: Sei L = {( x,o ),...( x m,o m )} eine Menge von Trainingsmustern, jedes bestehend aus einem Eingabevektor x i IR n und einer gewünschten Ausgabe o i {0,}. Sei weiterhin L 0 = {( x,o) L o = 0} und L = {( x,o) L o = }. Falls L 0 und L linear separabel sind, d.h., falls w IR n und θ IR existieren, so dass ( x,0) L 0 : w x < θ und ( x,) L : w x θ, dann terminieren sowohl Online- als auch Batch-Training. Für nicht linear separable Probleme terminiert der Algorithmus nicht. Rudolf Kruse, Christoph Doell Neuronale Netze 5

52 Trainieren von Netzwerken aus Schwellenwertelementen Einzelne Schwellenwertelemente haben starke Einschränkungen: Sie können nur linear separable Funktionen berechnen. Netzwerke aus Schwellenwertelementen können beliebige Boolesche Funktionen berechnen. Das Trainieren einzelner Schwellenwertelemente mit der Delta-Regel ist schnell und findet garantiert eine Lösung, falls eine existiert. Netzwerke aus Schwellenwertelementen können nicht mit der Delta-Regel trainiert werden. Rudolf Kruse, Christoph Doell Neuronale Netze 5

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Evolutionäre Algorithmen. SS 2015 Woche 01

Evolutionäre Algorithmen. SS 2015 Woche 01 Evolutionäre Algorithmen SS 2015 Woche 01 Inhalt Organisation der Übung Wiederholung Die Komponenten eines EA Zwei Minimal-Beispiele Besprechung des Übungsblatts Das Team Vorlesung Prof. Dr.-Ing. habil.

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Bioinformatik I (Einführung)

Bioinformatik I (Einführung) Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00

Mehr

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Prof.Dr.-Ing. K.-D. Morgeneier FH Jena, FB Elektrotechnik und Informationstechnik www.fh-jena.de Gliederung 2. Einführung 3.

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Fachgruppe Statistik, Risikoanalyse & Computing. STAT672 Data Mining. Sommersemester 2007. Prof. Dr. R. D. Reiß

Fachgruppe Statistik, Risikoanalyse & Computing. STAT672 Data Mining. Sommersemester 2007. Prof. Dr. R. D. Reiß Fachgruppe Statistik, Risikoanalyse & Computing STAT672 Data Mining Sommersemester 2007 Prof. Dr. R. D. Reiß Überblick Data Mining Begrifflichkeit Unter Data Mining versteht man die Computergestützte Suche

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard Cyrill Stachniss 0.1 Vorlesung Zeit und Ort: Mo 16.00 18.00 Uhr Gebäude 101, HS 00-026 Informationen

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Algorithmen und Berechnungskomplexität I

Algorithmen und Berechnungskomplexität I Institut für Informatik I Wintersemester 2010/11 Organisatorisches Vorlesung Montags 11:15-12:45 Uhr (AVZ III / HS 1) Mittwochs 11:15-12:45 Uhr (AVZ III / HS 1) Dozent Professor für theoretische Informatik

Mehr

Einführung in die Technische Informatik [TI]

Einführung in die Technische Informatik [TI] Computer and Communication Systems (Lehrstuhl für Technische Informatik) Einführung in die Technische Informatik [TI] Falko Dressler und Stefan Podlipnig Universität Innsbruck [TI] Winter 2012/2013 Einleitung

Mehr

Die Naturwissenschaftlich-Technische Fakultät 6 der Universität des Saarlandes Fachrichtung Informatik

Die Naturwissenschaftlich-Technische Fakultät 6 der Universität des Saarlandes Fachrichtung Informatik Die Naturwissenschaftlich-Technische Fakultät 6 der Universität des Saarlandes Fachrichtung Informatik Modulkatalog: Kernbereich des Schwerpunktfachs Informatik Fassung vom 17. September 2015 auf Grundlage

Mehr

Datenstrukturen und Algorithmen

Datenstrukturen und Algorithmen Datenstrukturen und Algorithmen Sommersemester 2013 1 1 O. Einführung 0.1 Organisatorisches 0.2 Überblick 2 0.1 Organisatorisches DSAL Team Veranstaltungen & Termine Kommunikation Materialien Übungsbetrieb

Mehr

2.) Material und Methode

2.) Material und Methode 1.) Einleitung: Wenn man unser Nervensystem und moderne Computer vergleicht fällt erstaunlicherweise auf, dass das Nervensystem ungleich komplexer ist. Dazu ein kurzer Überblick: Das menschliche Nervensystem

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

Einführung in die Wissensverarbeitung und Data Mining

Einführung in die Wissensverarbeitung und Data Mining Einführung in die Wissensverarbeitung und Data Mining Peter Becker FH Bonn-Rhein-Sieg Fachbereich Angewandte Informatik!" $# Vorlesung Wintersemester 2001/02 1. Einführung Vorbemerkungen 1 Einführung Vorbemerkungen

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann

Mehr

Computeranwendung in der Chemie Informatik für Chemiker(innen)

Computeranwendung in der Chemie Informatik für Chemiker(innen) Computeranwendung in der Chemie Informatik für Chemiker(innen) Dr. Jens Döbler Arbeitsgruppe Quantenchemie jd@chemie.hu-berlin.de Jens Döbler 2003 "Computer in der Chemie", WS 2003-04, Humboldt-Universität

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

D I E N S T B L A T T

D I E N S T B L A T T 325 D I E N S T B L A T T DER HOCHSCHULEN DES SAARLANDES 2006 ausgegeben zu Saarbrücken, 29. August 2006 Nr. 23 UNIVERSITÄT DES SAARLANDES Seite... Studienordnung für die Bachelor- und Master-Studiengänge

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 3.2.07 astian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://infotut.sunshine2k.de Organisatorisches / Review is zum 2.2 müssen alle Praxisaufgaben

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik

Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Dozent: Prof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik

Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Algorithmische Methoden zur Netzwerkanalyse Vorlesung für den Bereich Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR

Mehr

PROSEMINAR ONLINE ALGORITHMEN

PROSEMINAR ONLINE ALGORITHMEN PROSEMINAR ONLINE ALGORITHMEN im Wintersemester 2000/2001 Prof. Dr. Rolf Klein, Dr. Elmar Langetepe, Dipl. Inform. Thomas Kamphans (Betreuer) Vortrag vom 15.11.2000 von Jan Schmitt Thema : Finden eines

Mehr

Algorithms for Regression and Classification

Algorithms for Regression and Classification Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Grundlagen der Informationverarbeitung

Grundlagen der Informationverarbeitung Grundlagen der Informationverarbeitung Information wird im Computer binär repräsentiert. Die binär dargestellten Daten sollen im Computer verarbeitet werden, d.h. es müssen Rechnerschaltungen existieren,

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Tobias Stähle 23.05.2014 1 Einführung 1.1 Was ist Machine Learning? Während am Anfang Computer noch auf das reine Ausrechnen beschränkt waren

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

SOI 2013. Die Schweizer Informatikolympiade

SOI 2013. Die Schweizer Informatikolympiade SOI Die Schweizer Informatikolympiade Lösung SOI Wie schreibe ich eine gute Lösung? Bevor wir die Aufgaben präsentieren, möchten wir dir einige Tipps geben, wie eine gute Lösung für die theoretischen

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,

Mehr

Visualisierung von spikenden neuronalen Netzwerken. Entwicklung einer Webapplikation zum Veröffentlichen von Netzwerkmodellen

Visualisierung von spikenden neuronalen Netzwerken. Entwicklung einer Webapplikation zum Veröffentlichen von Netzwerkmodellen Studienprojekte Wintersemester 2014 Visualisierung von spikenden neuronalen Netzwerken Entwicklung einer Webapplikation zum Veröffentlichen von Netzwerkmodellen, m.pyka@rub.de Mercator Research Group Structure

Mehr

Einführung in die Fuzzy Logic

Einführung in die Fuzzy Logic Einführung in die Fuzzy Logic Entwickelt von L. Zadeh in den 60er Jahren Benutzt unscharfe (fuzzy) Begriffe und linguistische Variablen Im Gegensatz zur Booleschen Logik {0,} wird das ganze Intervall [0,]

Mehr

Einführung und Motivation

Einführung und Motivation Einführung und Motivation Programmiermethodik Eva Zangerle Universität Innsbruck Ziele der Vorlesung Grundlagen der Programmierung vertiefen Anknüpfen an Wissen aus Einführung in die Programmierung Grundkonzepte

Mehr

Seminar aus maschinellem Lernen MCTS und UCT

Seminar aus maschinellem Lernen MCTS und UCT Seminar aus maschinellem Lernen MCTS und UCT 26. November 2014 TU Darmstadt FB 20 Patrick Bitz 1 Übersicht Historisches zu MCTS MCTS UCT Eigenschaften von MCTS Zusammenfassung 26. November 2014 TU Darmstadt

Mehr

Theorie der Informatik

Theorie der Informatik Theorie der Informatik 0. Organisatorisches Malte Helmert Gabriele Röger Universität Basel 16. Februar 2015 Organisatorisches Personen Dozenten Prof. Dr. Malte Helmert E-Mail: malte.helmert@unibas.ch Büro:

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen.

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie und, oder, nicht, wenn... dann zwischen atomaren und komplexen Sätzen. I. Aussagenlogik 2.1 Syntax Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen. Sätze selbst sind entweder wahr oder falsch. Ansonsten

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Sortieren. Eine Testmenge erstellen

Sortieren. Eine Testmenge erstellen Sortieren Eine der wohl häufigsten Aufgaben für Computer ist das Sortieren, mit dem wir uns in diesem Abschnitt eingeher beschäftigen wollen. Unser Ziel ist die Entwicklung eines möglichst effizienten

Mehr

Regressionsanalyse zur Optimierung von künstlichen neuronalen Netzen bei der DAX-Prognose

Regressionsanalyse zur Optimierung von künstlichen neuronalen Netzen bei der DAX-Prognose Informatik Philipp von der Born Regressionsanalyse zur Optimierung von künstlichen neuronalen Netzen bei der DAX-Prognose Bachelorarbeit Universität Bremen Studiengang Informatik Regressionsanalyse zur

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Bachelor- und Master-Studium Informatik

Bachelor- und Master-Studium Informatik Bachelor- und Master-Studium Informatik Wissenswertes für Erstsemestler Prof. Dr. Till Tantau Studiengangsleiter MINT-Studiengänge 8. Oktober 2012 Gliederung Wie sollten Sie richtig studieren? Der Bachelor-Studiengang

Mehr

Wintersemester 2010/2011 Rüdiger Westermann Institut für Informatik Technische Universität München

Wintersemester 2010/2011 Rüdiger Westermann Institut für Informatik Technische Universität München Informatik 1 Wintersemester 2010/2011 Rüdiger Westermann Institut für Informatik Technische Universität München 1 0 Allgemeines Zielgruppen Siehe Modulbeschreibung Studierende anderer (nicht Informatik)

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 15, Donnerstag, 12.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 15, Donnerstag, 12. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 15, Donnerstag, 12. Februar 2015 (Evaluation, Klausur, Vorstellung Arbeitsgruppe) Junior-Prof.

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Einleitung. Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck

Einleitung. Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck Einleitung Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck Früher Prozessor: ~ 1 MHz Speicher: 8-64 kb Datenträger: Magnetband, Floppy Disk (~1 MB) Einleitung

Mehr

Organisatorisches. Informatik II Informationen und Daten. Organisatorisches. Organisatorisches. Rainer Schrader. 13. Oktober 2008

Organisatorisches. Informatik II Informationen und Daten. Organisatorisches. Organisatorisches. Rainer Schrader. 13. Oktober 2008 Dozent: Prof. Dr. Rainer Schrader Informatik II Informationen und Daten Rainer Schrader Zentrum für Angewandte Informatik Köln 13. Oktober 2008 Tel.: 470-6030 email: schrader@zpr.uni-koeln.de Sprechstunde:

Mehr

Arbeitsgruppe Neuroinformatik

Arbeitsgruppe Neuroinformatik Arbeitsgruppe Neuroinformatik Prof. Dr. Martin Riedmiller Martin.Riedmiller@uos.de Martin Riedmiller, Univ. Osnabrück, Martin.Riedmiller@uos.de Arbeitsgruppe Neuroinformatik 1 Leitmotiv Zukünftige Computerprogramme

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

Semantic Web Technologies I!

Semantic Web Technologies I! www.semantic-web-grundlagen.de Semantic Web Technologies I! Lehrveranstaltung im WS11/12! Dr. Elena Simperl! DP Dr. Sebastian Rudolph! M.Sc. Anees ul Mehdi! www.semantic-web-grundlagen.de Logik Grundlagen!

Mehr

Gliederung. Definition Wichtige Aussagen und Sätze Algorithmen zum Finden von Starken Zusammenhangskomponenten

Gliederung. Definition Wichtige Aussagen und Sätze Algorithmen zum Finden von Starken Zusammenhangskomponenten Gliederung Zusammenhang von Graphen Stark Zusammenhängend K-fach Zusammenhängend Brücken Definition Algorithmus zum Finden von Brücken Anwendung Zusammenhangskomponente Definition Wichtige Aussagen und

Mehr

Rechnernetze I. Rechnernetze I. 0 Organisation SS 2013. Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404

Rechnernetze I. Rechnernetze I. 0 Organisation SS 2013. Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Rechnernetze I SS 2013 Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 18. Juli 2013 Betriebssysteme / verteilte Systeme Rechnernetze I (1/13) i Rechnernetze

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Stefan Lucks Diskrete Strukturen (WS 2009/10) 57 2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Uhr: Stunden mod 24, Minuten mod 60, Sekunden mod 60,... Rechnerarithmetik: mod 2 w, w {8, 16, 32,

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Datenbanken und Informationssysteme II

Datenbanken und Informationssysteme II Datenbanken und Informationssysteme II SS 2015 Dr. Christian Senger Einführung 1 mitarbeiter_fehltage abteilung_id mitarbeiter_id fehltage 3 2 2 1 1 1 2 4 5 4 5 3 2 6 10 4 3 3 1 8 1 2 7 5 3 9 1 Ausgabe:

Mehr

Architektur verteilter Anwendungen

Architektur verteilter Anwendungen Architektur verteilter Anwendungen Schwerpunkt: verteilte Algorithmen Algorithmus: endliche Folge von Zuständen Verteilt: unabhängige Prozessoren rechnen tauschen Informationen über Nachrichten aus Komplexität:

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Zellulare Neuronale Netzwerke

Zellulare Neuronale Netzwerke Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Zellulare Neuronale Netzwerke Florian Bilstein Dresden, 13.06.2012 Gliederung 1.

Mehr

Organisatorisches... 1. Kennenlernen

Organisatorisches... 1. Kennenlernen Organisatorisches... 1. Kennenlernen Prof. Dr. Michael Helbig Professor für Mathematik & Informatik Mathe/Algebra studiert/promoviert SW Entwicklung & IT Beratung Büro A 5.05, Sprechstunde nach Vereinbarung

Mehr

Data Mining in SAP NetWeaver BI

Data Mining in SAP NetWeaver BI Martin Kießwetter, Dirk Vahl kam p Data Mining in SAP NetWeaver BI Galileo Press Bonn Boston 2.1 Was ist Data Mining? 17 2.2 Data Mining, KDD und Business Intelligence 20 2.3 KDD-Prozessmodelle 22 2.4

Mehr

Grundlagen der Anwendungsunterstützung 0. Einführung. WS 2015/2016 M. Werner. Übungen. Übung 1. http://osg.informatik.tu-chemnitz.

Grundlagen der Anwendungsunterstützung 0. Einführung. WS 2015/2016 M. Werner. Übungen. Übung 1. http://osg.informatik.tu-chemnitz. . Einführung Wintersemester 215/216 Lehrveranstaltung. Kapitel Einführung Prof. Matthias Werner Professur Betriebssysteme (5659) ehem: Betriebssysteme und Rechnernetze im Nebenfach Wer in einer anderen

Mehr

Logik und diskrete Strukturen

Logik und diskrete Strukturen Prof. Dr. Institut für Informatik Abteilung I Wintersemester 2012/13 Organisatorisches Vorlesung Dienstag und Donnerstag 10:15 11:45 Uhr (HS 1) und 12:30 14:00 Uhr (HS 2) Vorlesung am Vormittag = Vorlesung

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Wärme- und Stoffübertragung für CBI, LSE, ET, CE und MB

Wärme- und Stoffübertragung für CBI, LSE, ET, CE und MB Wärme- und Stoffübertragung für CBI, LSE, ET, CE und MB Andreas Paul Fröba Michael Rausch Prof. Dr.-Ing. A. P. Fröba und Dr.-Ing. Michael Rausch Wärme- und Stoffübertragung Folie 1 Erreichbarkeit, Ortsplan

Mehr

Computerorientiertes Problemlösen

Computerorientiertes Problemlösen 1 / 13 Computerorientiertes Problemlösen 22. 26. September 2014 Steffen Basting WS 2014-2015 2 / 13 Organisatorisches 22.09. 26.09. Zeit Mo Di Mi Do Fr 11:00 bis 13:00 13:00 bis 15:30 15:30 bis 18:00 Vorlesung:

Mehr

A.1 Schaltfunktionen und Schaltnetze

A.1 Schaltfunktionen und Schaltnetze Schaltfunktionen und Schaltnetze A. Schaltfunktionen und Schaltnetze 22 Prof. Dr. Rainer Manthey Informatik II Bedeutung des Binärsystems für den Rechneraufbau Seit Beginn der Entwicklung von Computerhardware

Mehr

Maschinelles Lernen und Data Mining: Methoden und Anwendungen

Maschinelles Lernen und Data Mining: Methoden und Anwendungen Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge

Mehr

SOFT COMPUTING TOOLS FÜR DIE ANALYSE KOMPLEXER BETRIEBLICHER PROBLEME

SOFT COMPUTING TOOLS FÜR DIE ANALYSE KOMPLEXER BETRIEBLICHER PROBLEME SOFT COMPUTING TOOLS FÜR DIE ANALYSE KOMPLEXER BETRIEBLICHER PROBLEME Christina Klüver COBASC-Research Group www.cobasc.de Universität Duisburg-Essen VERFAHREN Zellularautomaten Evolutionäre Algorithmen

Mehr

Statistische Methoden der Datenanalyse

Statistische Methoden der Datenanalyse Aktuelle Probleme der experimentellen Teilchenphysik (Modul P23.1.2b) Statistische Methoden der Datenanalyse Ulrich Husemann Humboldt-Universität zu Berlin Wintersemester 2010/2011 Vorstellung Vorlesung:

Mehr

Übung 8: VB-Programmierung: Aufgabe

Übung 8: VB-Programmierung: Aufgabe Übung 8: VB-Programmierung: Aufgabe Sachverhalt: Erstellen Sie ein fehlerfrei lauffähiges Programm in Visual Basic zu folgendem Algorithmus: Berechnung des Benzinverbrauchs Eingabewerte: - KM-Stand alt

Mehr

Vektorgeometrie. mathenachhilfe.ch. Version: 28. Dezember 2007 (Bitte nur für den Eigengebrauch verwenden) 1. Mathematische Operationen für Vektoren

Vektorgeometrie. mathenachhilfe.ch. Version: 28. Dezember 2007 (Bitte nur für den Eigengebrauch verwenden) 1. Mathematische Operationen für Vektoren Vektorgeometrie Version: 28. Dezemer 2007 Bitte nur für den Eigengerauch verwenden) mathenachhilfe.ch. Mathematische Operationen für Vektoren Addition + a + 3 = a + + + 3 + Sutraktion a 3 = a 3 Skalare

Mehr

Monte Carlo Methoden

Monte Carlo Methoden Monte Carlo Methoden im Verstärkungslernen [Spink] Bryan Spink 2003 Ketill Gunnarsson [ ketill@inf.fu-berlin.de ], Seminar zum Verstärkungslernen, Freie Universität Berlin [ www.inf.fu-berlin.de ] Einleitung

Mehr

Lehrveranstaltungen SS 2012

Lehrveranstaltungen SS 2012 Lehrveranstaltungen SS 2012 Grundlagenmodule der Informatik (1. - 4. Fachsemester Bachelor) Modul: Grundlagen der Technischen Informatik (Informatik II) Creditpoints: 10 Aufnahmekapazität für Studium Universale.

Mehr