Grundlagen und Aufbau von neuronalen Netzen

Größe: px
Ab Seite anzeigen:

Download "Grundlagen und Aufbau von neuronalen Netzen"

Transkript

1 Grundlagen und Aufbau von neuronalen Netzen Künstliche neuronale Netze (KNN) modellieren auf stark vereinfachte Weise Organisationsprinzipien und Abläufe biologischer neuronaler Netze Jedes KNN besteht aus einer Anzahl künstlicher Neuronen als elementare Informationsverarbeitungseinheit Künstliche Neuronen sind in bestimmter Art und Weise angeordnet und miteinander verbunden (Netzarchitektur) Die Verbindungen dienen zum Austauschen von Nachrichten und sind gewichtet, was die Intensität des Informationsflusses entlang dieser Verbindung zum Ausdruck bringen soll Mit Hilfe von Lernregeln können die Verbindungsgewichte verändert werden Ziel: Netz soll in Trainingsphase anhand von Beispielen und mit Hilfe einer Lernregel, Abbildungen von Eingaben auf erwünschte Ausgaben des Netzes lernen Vorteil von KNN: müssen für Lösung eines Problems nicht explizit programmiert werden

2 Schematische Darstellung eines künstlichen Neurons Eingangssignale x i : Daten können von Umgebung oder Ausgang eines anderen Neurons stammen Unterschiedliche Netzwerkmodelle erlauben unterschiedliche Wertebereiche Typische Wertebereiche sind die reellen Zahlen, das Intervall [0,1] oder die diskreten Werte {0,1}. Gewichte w i : Jeder Verbindung in KNN ist häufig eine reelle Zahl als Gewicht zugeordnet Gewicht beschreibt Stärke der Verbindung In Verbindungsgewichten ist Wissen des KNN gespeichert

3 Netto-Input net: Netto-Eingabe entspricht Summe der gewichteten Eingangssignale Aktivierungsfunktion f(net): bestimmt, abhängig von Netto-Eingabe net, die Ausgabe kann das Eingangssignal für anderes Neuron sein oder Ausgangssignal des KNN Schwellwertfunktion: Sigmoide Funktion:

4 Die Netztopologie eines mehrstufigen Netzes Mehrstufige (mehrschichtige) Netze sind Netze, bei denen die Ausgabeschicht als Eingabe für eine weitere Neuronenschicht dient Diese Netztypen können alle möglichen Funktionen darstellen und seit 1985 gibt es einen geeigneten Lernalgorithmus, den Backpropagation-Algorithmus Beispiel: Ein zweistufiges neuronales Netz Die mittlere Neuronenschicht ist Eingabe für die darüberliegende Schicht von Neuronen, die den Output des gesamten Netzes bereitstellt Die Zwischenneuronen h1 und h2 bezeichnet man als versteckte Neuronen (hidden neurons) und die gesamte mittlere Schicht als versteckte Schicht (hidden layer).

5 Probleme: 1) Bestimmung der Gewichte Lange Trainingszeiten mit herkömmlichen Methoden Initialisierungsabhängig 2) Bestimmung der Topologie Größe der Eingangs-/Ausgangsschicht steht fest Anzahl der verdeckten Schichten ist variabel Größe der verdeckten Schichten ist variabel Entweder strenge Schichtenarchitektur oder beliebige vorwärtsgerichtete Schichtenarchitektur

6 Optimierung der KNN Künstliche neuronale Netzen werden mit folgenden Ansätzen optimiert: 1. Ansätze, die versuchen die Topologie eines neuronalen Netzes zu optimieren 2. Ansätze, die die Gewichte eines neuronalen Netzes optimieren 3. Ansätze, die gleichzeitig eine optimale Netztopologie und optimale Gewichte des neuronalen Netzes finden wollen Arten der Codierung von KNN: 1) direkte Codierung 2) indirekte Codierung

7 Beispiel 1: direkte Codierung [Schöneburg] Idee: Schöneburg stellt einen Algorithmus vor, der nicht nach geeigneten Topologien im Raum der Netzwerktopologien sucht, sondern im Raum formaler Repräsentationen von Netzwerktopologien. Übersicht des Algorithmus: Übersetzung des Neuronalen Netzes in mathematische Formeln Festlegung akzeptabler Formeln durch Grammatik Codierung der Formeln in ein binäres Format Anwendung von GAs auf binär verschlüsselte Formeln, um gute Formeln zu erhalten gute Formel haben wichtige Eigenschaften, z.b.: minimale Anzahl von Termen minimale Anzahl von Neuronen

8 Übersetzung eines KNN in eine Formel: Mit der Sigmoidfunktion T F als Aktivierungsfunktion für alle Neuronen folgt: o( x) = o( x1, x2 ) = TF ( w54tf ( w41x1 + w42 x2 ) + w53tf ( w31x1 + w32 x2 ))

9 Grammatik, die akzeptable Formeln bestimmt: 1. Seien w i Gewichtungsvariable, x j Inputvariable, dann nennt man w i x j w n x n basic expression 2. Sei Φ ein basic expression, dann heißt ft i (Φ) neuronaler Term 3. Wenn Φ ein basic expression ist und β 1,..., β n neuronale Terme, dann heißt ft i ( Φ + w 1 β w n β n ) terminaler Ausdruck 4. Wenn Φ ein basic expression ist, β 1,..., β n neuronale Terme und Ω 1,..., Ω k terminale Ausdrücke, dann ist ft i (Φ + w 1 β w n β n + w j Ω j α k Ω k ) ebenfalls terminaler Ausdruck. 5. DEFINITION: Eine Folge von Termen < Ω 1,..., Ω k > ist eine akzeptable Formel, wenn alle Ω i terminale Ausdrücke sind und jedes x j mindestens einmal in einem der Ω i auftritt.

10 Ableitung einer Netzwerktopologie aus einer Formel Schritt 1: Man zeichne eine Linie. Auf diese Linie zeichne man für jeden Term der Formel, der für eine Transferfunktion steht, einen Knoten (Kreis). In jeden Knoten zeichne man das entsprechende Symbol der Transferfunktion (die Reihenfolge des Auftragens der Knoten auf der Linie ist im Prinzip gleichgültig) Schritt 2: Man zeichne eine zweite Linie von Knoten unterhalb der ersten, wobei jeder Knoten dieser Linie für ein Eingabe-Symbol (Eingabe Variable) steht (die Reihenfolge ist gleichgültig) Wiederhole für alle Ω = (Ω) Schritt 3: analysiere das Argument Ω Da Ω die Form Ω = Φ α β α β α Ω α Ω hat, ist jeder Teilausdruck Φ von Ω in dieser Summe nach Definition entweder ein basic expression, ein neuronaler Term oder ein terminaler Ausdruck. Arbeite nun Ω von links nach rechts ab. Das weitere Vorgehen hängt davon ab, welcher Art der jeweils betrachtete Teilausdruck von Ω ist.

11 Schritt 3.1: Angenommen Φ ist ein nicht leerer basic expression. Er hat dann nach Definition die Form: Φ=α * +...+α *. In diesem Fall zeichnet man für jeden Teilausdruck α * α von Φ eine Verbindung von dem Knoten der unteren Linie, der die Eingabe-Variable repräsentiert, zu dem Knoten der darüber liegenden Schicht, der die Transferfunktion repräsentiert. Beschrifte diese Verbindung mit αm, da αm die Gewichtung dieser Verbindung darstellt. Schritt 3.2: Wenn Φ von der Form α * (β ) ist und βn ein basic expression, so zeichnet man eine Verbindung von dem Knoten, der repräsentiert zum Knoten und beschriftet diese Verbindung mit α. Dann fahre man mit dem Argument β rekursiv wie in 3.1 fort. Schritt 3.3: Wenn Φ von der Gestalt α * (Ω ) und Ω ein terminaler Ausdruck ist, zeichnet man eine Verbindung von dem Knoten, der repräsentiert zu dem Knoten, der repräsentiert und beschriftet diese Verbindung mit dem Gewicht α. Man beginnt den Aufbauprozess rekursiv mit (Ω ) wie bei Schritt 3, indem durch und Ω durch Ω ersetzt wird.

12 Codierung der Formeln Codierung auf Chromosom mit Alphabet aus 256 Buchstaben Chromosom ist in Abschnitte aufgeteilt Anzahl der Abschnitte entsprecht Anzahl der Ausgabe-Neuronen In Abschnitt ist Graph (Baumstruktur) zu Neuron codiert Abschnitt enthält Unterabschnitt, der aus 3 Buchstaben besteht Erster ist Aktivierungsfunktion, Zweiter und Dritter deren Parameter

13

14 Die Fitness einer Formel Datensatz s = Menge von Tupeln <, >, wobei die Eingabe und die jeweils dazu erwartete Ausgabe des Netzes ist. c sei ein Chromosom, d.h. eine verschlüsselte Formel und int(c, ) die Interpretation von c für das Argument. Die Tauglichkeit von c, fit(c), wird durch ein Fehlermaß über dem Datensatz s bestimmt. Wenn das Fehlermaß der mittlere quadratische Fehler ist, so wird z.b. fit(c) berechnet, indem die Interpretation von c hintereinander auf alle als Argumente angewandt wird: Je kleiner der quadratische Fehler der Interpretation der Formel auf dem Trainingssatz ist, desto größer, ist die Tauglichkeit der Formel

15 Erweiterung der Fitnessfunktion Einfügen von Belohnungs- oder Bestrafungsterm für die Fitnessfunktion um zusätzlich kurze Formeln zu erhalten Identitätsfunktion f(x) = x, um die Länge der Formel gleich mitzuoptimieren Wenn die Identitätsfunktion in verschlüsseltem Formelausdruck erscheint, wird sie übersprungen, da sie Wert nicht verändert Hinzufügen eines Belohnungsterm zur Fitnessfunktion für das k-fache Auftreten der Identitätsfunktion fit( c) = 1/(1/ n * (int( c, x n i= 1 ) y ) )) 2 i i + h( k) Die Funktion h kann im Prinzip jede sinnvolle Funktion von k sein, z.b. eine lineare oder exponentielle Funktion, wie z.b. h(k) = α*k oder h(k)= 10 in der Praxis wird noch eine kleine konstante Zahl β ( 2 oder ähnlich) hinzugefügt, um eine potentielle Division durch 0 zu vermeiden (z.b. wenn Annäherungsfehler 0 ist) k 2 fit( c) = 1/(1/ n * (int( c, x n i= 1 ) y ) + β )) 2 i i + h( k)

16 Die automatische Erzeugung neuronaler Netzwerke Die automatische Erzeugung Neuronaler Netzwerke läuft nun letztlich wie folgt ab: 1. Erzeuge zufällig die anfängliche Population der Formeln (d.h. einen Satz binär verschlüsselter, akzeptabler Formel) 2. Wiederhole bis die Abbruchbedingung erreicht ist (d.h. bis die Zeit abgelaufen ist oder bis kein weiterer Fortschritt in der Population errecht wurde) a. interpretiere jedes Chromosom und berechne seine Tauglichkeit; wenn die Tauglichkeit zufriedenstellend ist, stoppe den Algorithmus und liefere die Formel mit der höchsten Tauglichkeit als Ergebnis zurück b. ansonsten wähle Formeln durch passendes Hochzeitsschema und gebe den Formeln eine Möglichkeit im Verhältnis zu ihrer Tauglichkeit Kinder zu erzeugen. c. rekombiniere die ausgewählten Formeln neu durch Crossover d. nehme an den Formeln der neuen Generation entsprechende Mutationen vor e. gehe zu 2.

17 Mit dieser Implementierung des Algorithmus wurde das folgende dargestellte Netz erzeugt. Dieses Netz erreicht einen mittleren quadratischen Fehler von 8% und wird durch folgende automatisch generierte Formeln beschrieben:

18 Nach weiteren 141 Generationen Optimierung erreicht das Netz [Abbildung 2.8] einen mittleren Fehler von nur 0,2%. Die das Netz codierende, automatisch generierte Formel lautete (i[x] steht hier für die Eingabeneuronen, die Transferfunktion ist hier die Sigmoidfunktion f):

19 Beispiel 2: Indirekte Codierung [Kitano] grammatikalische Codierung Generierung einer Konnektionsmatrix eines KNN, indem er auf ein vordefiniertes Anfangselement (Axiom) rekursiv die Regeln einer deterministischen, kontextfreien Grammatik anwendet

20 In Konnektionsmatrix sind Verbindungen zwischen Neuronen gespeichert, wobei eine 1 für eine Verbindung und eine 0 für keine Verbindung steht Optimierung dieser Regeln mittels GA anstatt direkte Änderung der Verbindungen entstehende KNN sind i.a. regelmäßiger strukturiert und zeigen bessere Generalisierungsfähigkeiten als bei direkter Codierung. linke Seite der Regel besteht aus einem Non-Terminal und ihre rechte Seite aus einer 2x2-Matrix von entweder Terminals oder Non-Terminals Terminals sind Endelemente, die Bestehen oder Fehlen einer Neuronenverbindung anzeigen Non-terminals werden durch rekursive Anwendung der grammatischen Regeln weiter transformiert

21 Grammatik ist als String variabler Länge repräsentiert, auf dem eine Regelmenge codiert ist GA optimiert diese Regeln Ziel: Finden guter Netzarchitekturen über die GA-basierte Optimierung der grammatischen Regeln Jeder String enthält konstanten sowie einen variablen Teil Nur variabler Teil wird durch Crossover und Mutation verändert.

22 Fitness bei [Kitano] Fitnessermittlung durch Transformation des Grammatikstring in KNN Verbindungsgewichte und Schwellwerte werden stochastisch initialisiert im Intervall 1,0 bis +1,0 und anschließend mit BP trainiert Über Testdaten wird die Summe der quadrierten Fehler E ermittelt Fitnessmaß ist 1/E, d.h. höhere Fitness = bessere Netzleistung

23 Beispiel 3: Direkte Codierung: Optimierung von Netzarchitektur und Parametern [Dasgupta und McGregor] Anstatt nur die Topologie zu optimieren und erzeugte KNN mit Lernverfahren, wie BP zu trainieren ( wie bei indirekter Codierung von Kitano), ist es auch möglich simultan die Netzparameter mitzuoptimieren Dasgupta und McGregor verwenden eine hierarchische Lösungsrepräsentation Jeder String besteht aus zwei Teilen Im ersten Teil (high level) ist die Konnektionsmatrix zeilenweise binär repräsentiert Der zweite Teil (low level) codiert, ebenfalls binär, Verbindungsgewichte und weitere Parameter des KNN

24 Sind Verbindungen zwischen Neuronen deaktiviert (Wert 0 in der Konnektionsmatrix), so bleiben die korrespondierenden Gewichte Bestandteil des Strings und werden im Rahmen des GA weitervererbt Diese sind jedoch nicht aktiv und beeinflussen nicht decodierte Netzkonfiguration Durch eine Änderung im high level Abschnitt des Strings können sie wieder aktiviert werden daher ziehen Änderungen auf der höheren Ebene Konsequenzen auf der niedrigeren Ebene nach sich

25 Fitness bei [Dasgupta und McGregor] Startpopulation ist stochastisch initialisiert. Bei der Fitnessbestimmung während GA-Optimierung muss jedes Individuum anhand beider Stringabschnitte zu einem KNN decodiert werden In Fitnessberechnung gehen Gültigkeit und Komplexität der gefundenen Netzarchitektur Dasgupta und McGregor verwenden 2-Punkt Crossover, verschiedene Mutationsformen und rangbasierte Selektion Ungültige Architekturen werden mit höherer Wahrscheinlichkeit als gültige im high level Bereich mutiert

26 Übersicht direkte/indirekte Codierung: Direkte Codierung: maximale Netzgröße muss vorab definiert werden beschränkt Suchraum, aber gute Architekturen können unabsichtlich ausgeschlossen werden daher eignet sich direkte Codierung nur für kleine KNN Stringlänge wächst mit Netzgröße überproportional Indirekte Codierung: Vermeidet Probleme direkter Codierung durch hohen Abstraktionsgrad Nicht geeignet um Einzelheiten der Netzarchitektur zu optimieren (z.b. Gewichte)

Evolutionäre und genetische Algorithmen

Evolutionäre und genetische Algorithmen Proseminar SS 2002: Evolutionäre und genetische Algorithmen Thema: Optimierung von neuronalen Netzen Referent: Thorsten Kaufmann 1 Inhaltsverzeichnis: 1. Grundlagen und Aufbau von neuronalen Netzen S.

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness Raters Brad Johanson, Riccardo Poli Seminarvortrag von Thomas Arnold G ˇ ˇ ˇ ˇ WS 2012/13 TU Darmstadt Seminar

Mehr

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

Fragenkatalog 2. Abgabegespräch Formale Modellierung 3 Reguläre Sprachen

Fragenkatalog 2. Abgabegespräch Formale Modellierung 3 Reguläre Sprachen Fragenkatalog 2. Abgabegespräch Formale Modellierung 3 Reguläre Sprachen 1. Was ist eine formale Sprache? Menge von Zeichenketten, die aus den Symbolen eines beliebigen Alphabets aufgebaut sind. Zeichenkette:

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: der Backward Propagation Algorithmus Prof. Dr. rer. nat. Nikolaus Wulff Neuronen Schicht x 1 x 2 x 3.. θ 1 θ 2. y 1 y 2 n y j = k =1 w jk x k j y j = n k =0 w jk x k x

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Lösungsvorschläge und Erläuterungen Klausur zur Vorlesung Grundbegriffe der Informatik 15. September 2016

Lösungsvorschläge und Erläuterungen Klausur zur Vorlesung Grundbegriffe der Informatik 15. September 2016 Lösungsvorschläge und Erläuterungen Klausur zur Vorlesung Grundbegriffe der Informatik 15. September 2016 Klausurnummer Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Kapitel 1.4. Exkurs: Entscheidbarkeit und Komplexität. Mathematische Logik (WS 2012/3) K. 1.4: Entscheidbarkeit und Komplexität 1/10

Kapitel 1.4. Exkurs: Entscheidbarkeit und Komplexität. Mathematische Logik (WS 2012/3) K. 1.4: Entscheidbarkeit und Komplexität 1/10 Kapitel 1.4 Exkurs: Entscheidbarkeit und Komplexität Mathematische Logik (WS 2012/3) K. 1.4: Entscheidbarkeit und Komplexität 1/10 Algorithmen Ein Algorithmus oder eine Rechenvorschrift ist ein effektives

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 17. Januar 2012 INSTITUT FÜR THEORETISCHE 0 KIT 18.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany), Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 17. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 17. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 0 17.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Evaluation Ergebnisse

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 2)

Genetische und Evolutionäre Algorithmen (Vol. 2) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 30. Oktober 2013 ZÜ DS ZÜ

Mehr

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel Evolutionäre / Genetische Algorithmen Einführung in die Methoden der Künstlichen Intelligenz PD Dr. David Sabel SoSe 0 Anwendungsbereich: Optimierung von Objekten mit komplexer Beschreibung Objekte: Üblicherweise

Mehr

Kapitel IV Formale Sprachen und Grammatiken

Kapitel IV Formale Sprachen und Grammatiken Kapitel IV Formale Sprachen und Grammatiken 1. Begriffe und Notationen Sei Σ ein (endliches) Alphabet. Dann Definition 42 1 ist Σ das Monoid über Σ, d.h. die Menge aller endlichen Wörter über Σ; 2 ist

Mehr

Übungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 18/19

Übungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 18/19 Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 18/19 Ausgabe 8. Januar 2019 Abgabe 22. Januar 2019, 11:00 Uhr (im

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

Diskrete Strukturen Wiederholungsklausur

Diskrete Strukturen Wiederholungsklausur Technische Universität München (I7) Winter 2013/14 Prof. J. Esparza / Dr. M. Luttenberger LÖSUNG Diskrete Strukturen Wiederholungsklausur Beachten Sie: Soweit nicht anders angegeben, ist stets eine Begründung

Mehr

Neuroinformatik. Übung 1

Neuroinformatik. Übung 1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:

Mehr

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen: Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer Oktober 2016 Aufgabe 1 (de Morgan sche Regeln) Veranschaulichen Sie die de Morgan

Mehr

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen: Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer, C. Didden, A. Omar, P. Schwaferts Oktober 2017 Aufgabe 1 (de Morgan sche Regeln)

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Kontextfreie Grammatiken

Kontextfreie Grammatiken Kontextfreie Grammatiken Bisher haben wir verschiedene Automatenmodelle kennengelernt. Diesen Automaten können Wörter vorgelegt werden, die von den Automaten gelesen und dann akzeptiert oder abgelehnt

Mehr

Evolutionäre (Genetische) Algorithmen

Evolutionäre (Genetische) Algorithmen Evolutionäre (Genetische) Algorithmen Ziel, Aufgabe von evolutionären Algorithmen: Optimierung von Objekten mit komplexer Beschreibung, wobei es Parameter gibt. Die Objekte kodiert man so als Bitstrings,

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Prof. Dr. Manfred Schmidt-Schauß SoSe 2018 Stand der Folien: 9. Mai 2018 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung von

Mehr

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ...

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ... 1. XOR: Mit folgender Architektur geht es x 1 x 2 2. n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen x 1 x 2... x 2 Loading-Problem: Für eine endliche Liste binärer Trainingspaare (x(1),d(1)),l,(x(k)d(k))

Mehr

15. Rekursion. Rekursive Funktionen, Korrektheit, Terminierung, Aufrufstapel, Bau eines Taschenrechners, BNF, Parsen

15. Rekursion. Rekursive Funktionen, Korrektheit, Terminierung, Aufrufstapel, Bau eines Taschenrechners, BNF, Parsen 453 15. Rekursion Rekursive Funktionen, Korrektheit, Terminierung, Aufrufstapel, Bau eines Taschenrechners, BNF, Parsen Mathematische Rekursion 454 Viele mathematische Funktionen sind sehr natürlich rekursiv

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen Ökonomische Entscheidungen und Märkte IK Alexander Ahammer Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz Letztes Update: 6. Oktober 2017, 12:57 Alexander

Mehr

Ein Fragment von Pascal

Ein Fragment von Pascal Ein Fragment von Pascal Wir beschreiben einen (allerdings sehr kleinen) Ausschnitt von Pascal durch eine kontextfreie Grammatik. Wir benutzen das Alphabet Σ = {a,..., z, ;, :=, begin, end, while, do} und

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen Mathematische Werkzeuge für Computergrafik 2016/17 Gleitkommzahlen 1 Grundlagen 1 Da im Computer nur endliche Ressourcen zur Verfügung stehen, können reelle Zahlen in vielen Fällen nicht exakt dargestellt

Mehr

Klausur zur Vorlesung Grundbegriffe der Informatik 2. März 2016

Klausur zur Vorlesung Grundbegriffe der Informatik 2. März 2016 Klausurnummer Klausur zur Vorlesung Grundbegriffe der Informatik 2. März 2016 Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI Email-Adr.: nur falls 2. Versuch Aufgabe

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Wirtschaftsmathematik: Mathematische Grundlagen

Wirtschaftsmathematik: Mathematische Grundlagen Wirtschaftsmathematik: Mathematische Grundlagen 1. Zahlen 2. Potenzen und Wurzeln 3. Rechenregeln und Vereinfachungen 4. Ungleichungen 5. Intervalle 6. Beträge 7. Lösen von Gleichungen 8. Logarithmen 9.

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (II) 11.06.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Übersicht 1. Motivation 2. Terminologie

Mehr

Codes on Graphs: Normal Realizations

Codes on Graphs: Normal Realizations Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis

Mehr

2.5 Evolutionäre (Genetische) Algorithmen

2.5 Evolutionäre (Genetische) Algorithmen KI 1, SS 2011, Kapitel 2, GA 1 2.5 Evolutionäre (Genetische) Algorithmen Das Ziel bzw. die Aufgabe von evolutionären Algorithmen ist eine Optimierung von Objekten mit komplexer Beschreibung, wobei es variable

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

Definition 4 (Operationen auf Sprachen) Beispiel 5. Seien A, B Σ zwei (formale) Sprachen. Konkatenation: AB = {uv ; u A, v B} A + = n 1 An

Definition 4 (Operationen auf Sprachen) Beispiel 5. Seien A, B Σ zwei (formale) Sprachen. Konkatenation: AB = {uv ; u A, v B} A + = n 1 An Definition 4 (Operationen auf Sprachen) Seien A, B Σ zwei (formale) Sprachen. Konkatenation: AB = {uv ; u A, v B} A 0 = {ɛ}, A n+1 = AA n A = n 0 An A + = n 1 An Beispiel 5 {ab, b}{a, bb} = {aba, abbb,

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Teil III. Komplexitätstheorie

Teil III. Komplexitätstheorie Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein

Mehr

Evolutionäre Robotik

Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) 1. Adaption Evolutionäre

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Einführung. Ablesen von einander zugeordneten Werten

Einführung. Ablesen von einander zugeordneten Werten Einführung Zusammenhänge zwischen Größen wie Temperatur, Geschwindigkeit, Lautstärke, Fahrstrecke, Preis, Einkommen, Steuer etc. werden mit beschrieben. Eine Zuordnung f, die jedem x A genau ein y B zuweist,

Mehr

Folgen und Reihen Folgen

Folgen und Reihen Folgen Folgen und Reihen 30307 Folgen Einstieg: Wir beginnen mit einigen Beispielen für reelle Folgen: (i),, 4, 8, 6, (ii) 4,, 6, 3, 7, (iii) 0,,,, 3,, (iv), 3, 7,,, Aufgabe : Setzt die Zahlenfolgen logisch fort

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 - 1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik

Mehr

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 - 1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik

Mehr

Finanzmarktprognose mit neuronalen Netzen

Finanzmarktprognose mit neuronalen Netzen Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose

Mehr

Mathematischer Vorkurs Dr. Thomas Zehrt Funktionen 1. 1 Grundlagen 2. 2 Der Graph einer Funktion 4. 3 Umkehrbarkeit 5

Mathematischer Vorkurs Dr. Thomas Zehrt Funktionen 1. 1 Grundlagen 2. 2 Der Graph einer Funktion 4. 3 Umkehrbarkeit 5 Universität Basel Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematischer Vorkurs Dr. Thomas Zehrt Funktionen 1 Inhaltsverzeichnis 1 Grundlagen 2 2 Der Graph einer Funktion

Mehr

Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen

Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen Nijkamp P., Reggiani A., Patuelli R., Longhi S. Ziele: Darstellung eines Neuronalen Netzes (NN) zur Prognose regionaler

Mehr

KAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B

KAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B KAPITEL 5 Boolesche Polynome Polynome über R, d.h. reelle Funktionen der Form p(x) = a 0 + a 1 x + + a n x n, x R, sind schon aus der Schulmathematik bekannt. Wir beschäftigen uns nun mit Booleschen Polynomen,

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr