Übersicht. 20. Verstärkungslernen

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Übersicht. 20. Verstärkungslernen"

Transkript

1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes schen Netzen 20. Verstärkungslernen 21. Wissen beim Lernen VII Kommunizieren, Wahrnehmen und Handeln

2 Reinforcement Learning Problem: Agent bekommt irgendwann ein Feedback und muss herausfinden, welche seiner letzten Aktionen dafür verantwortlich war. Typisch für alle Lebewesen (Positives Feedback ist z.b. Freude, negatives Feedback Schmerz). Verschiedene Lernsituationen: Umgebung kann zugänglich oder unzugänglich sein. Agent kann Wissen über Umgebung und die Effekte seiner Aktionen haben oder er muß außer den Nützlichkeiten auch das Modell lernen. Feedback kann nur in End- oder in allen Zuständen möglich sein. Feedback kann ein Teil der zu maximierenden Nützlichkeit (z.b. im Tischtennis) oder es können Hinweise sein ( Guter Zug ). Agent kann ein passiver oder aktiver Lerner sein. Zwei Haupttypen von Lernverfahren der Nützlichkeitsfunktion: Agent lernt über Zustände, die er zur Aktionsselektion nutzt Q-Lernen: Agent lernt direkt von Aktionen in Zuständen.

3 Beispiel: Reinforcement Learning

4 Passives Lernen in bekannten Umgebungen Annahmen: Der Agent beobachtet Zustandsübergänge mit bekanntem Zustandsübergangswahrscheinlichkeiten und versucht die Nützlichkeiten der Zustände zu lernen (z.b. die Nützlichkeit einer vorgegebenen Politik für sein Verhalten). Die Nützlichkeit einer Sequenz ist gleich der Summe der Belohnungen der Zustände in der Sequenz. Zukünftige Belohnung eines Zustandes (reward-to-go) = Belohnung bis zum Erreichen des Zielzustandes = Erwartete Nützlichkeit

5 Passives Lernen in bekannten Umgebungen: Algorithmen und Datenstrukturen Basisalgorithmus: Der Agent aktualisiert mit jeder Trainingssequenz die erwarteten Nützlichkeiten der betroffenen Zustände. Dabei gibt es verschiedene Möglichkeiten: Naiver Ansatz (LMS) Adaptives dynamisches Programmieren Zeitliches Differenzlernen Datenstrukturen: U: Tabelle der aktuellen Nützlichkeitswerte aller Zustände N: Tabelle der Häufigkeiten aller Zustände M: Tabelle der Übergangswahrscheinlichkeiten zwischen den Zuständen

6 Naives Aktualisieren der Nützlichkeiten (LMS = Least Mean Square Approach) In einer Trainingssequenz werden für alle Zustände der Sequenz ihre beobachteten Nützlichkeiten rückwärts berechnet. Diese werden entsprechend der Häufigkeit der Zustände über alle Trainingssequenzen gewichtet und daraus die Gesamtnützlichkeit des Zustandes berechnet. Rückführung auf induktives Problem: Es gibt eine Menge von Beispielen [Zustand, beobachtete Nützlichkeit], die mit bekannten induktiven Lerntechniken oder Neuronalen Netzen verallgemeinert werden (insbesondere falls Nützlichkeit nicht als Tabelle, sondern als Funktion repräsentiert wird) Problem: Der Algorithmus berücksichtigt nicht das Wissen über Übergangswahrscheinlichkeiten zwischen den Zuständen und konvergiert deswegen extrem langsam.

7 Generelle Agentenstruktur & naives Aktualisieren (LMS)

8 Beispiel-Ergebnisse: Naives Aktualisieren (LMS)

9 Probleme beim Naiven Aktualisieren (LMS)

10 Adaptives Dynamisches Programmieren Tatsächlich ist die Nützlichkeit eines Zustandes der entsprechend der Übergangswahrscheinlickeiten gewichtete Durchschnitt der Nützlichkeiten der Nachbarzustände, d.h. U(i) = R(i) + j M ij U(j) U = Nützlichkeit (Utility) R = Belohnung (Reward) M ij = Übergangswahrscheinlichkeit von Zustand i nach Zustand j Wenn der Agent genügend Pfade beobachtet hat, kann er das Gleichungssystem von n Gleichungen mit n Unbekannten lösen. Wenn dafür dynamische Programmierverfahren benutzt werden, heißt die Reinforcement-Lernmethode adaptives dynamisches Programmieren. Allerdings können die Gleichungssysteme extrem groß und damit nicht mehr handhabbar werden, z.b. bei Backgammon Gleichungen mit Unbekannten.

11 Beispiel-Ergebnisse: Adaptives Dynamisches Programmieren

12 Zeitliches Differenzlernen Kombination der Vorteile vom LMS- und ADP-Ansatz (Einfachheit bei Berücksichtigung von Übergangswahrscheinlichkeiten) Das naive Aktualisieren der Nützlichkeiten berücksichtigt nicht die Übergangswahrscheinlichkeiten. Wenn man von einem Zustand i nach j kommt und derzeit galt: U(i) = -0,5 und U(j) = +0,5 dann sollte U(i) besser an seinen Nachfolger angepaßt werden. Das lässt sich durch folgende Aktualisierungsregel korrigieren: U(i) U(i) + α (R(i) + U(j) - U(i)) Wobei α ein Parameter Lernrate ist, der mit zunehmender Zeit verkleinert wird (ähnlich wie bei simulated annealing).

13 Algorithmus Zeitliches Differenzlernen

14 Beispiel-Ergebnisse: Zeitliches Differenzlernen

15 Passives Lernen in einer unbekannten Umgebung In einer unbekannte Umgebung sind die Übergangswahrscheinlichkeiten zwischen Zuständen nicht bekannt. Da sie vom naiven Aktualisieren und vom Zeitlichen Differenzlernen nicht benutzt werden, ändern sich die Algorithmen nicht. Für das adaptive dynamische Programmieren können die Übergangswahrscheinlichkeiten aus den beobachteten Übergängen in den Trainingssequenzen approximiert werden. Da von einer Trainingssequenz zur nächsten sich die Übergangswahrscheinlichkeiten nur geringfügig ändern, kann für das Gesamtproblem das Verfahren der Value Iteration (Kap. 17) benutzt werden.

16 Unterschiede zwischen Adaptivem Dynamischem Programmieren (ADP) und Zeitlichem Differenzlernen (ZD) ZD adaptiert einen Zustand nur an seinen beobachteten Vorgänger, ADP an alle Nachbarn. Unterschied wird bei vielen Trainingssequenzen unbedeutend. ZD macht nur eine Anpassung pro beobachtete Transition ADP für alle Nachbarn und propagiert diese weiter ZD grobe Approximation von ADP Unterschied kann verringert werden, wenn für ZD Pseudo-Erfahrungen auf der Basis des bisherigen Wissen über Zustandsübergänge generiert werden. Entsprechend kann ADP angepasst werden, indem nur große Wertänderungen an wahrscheinliche Nachbarn propagiert werden approximatives ADP

17 Aktives Lernen in unbekannten Umgebungen Ein aktiver Agent hat die Möglichkeit, in jedem Zustand die jeweils beste Aktion zu wählen. Im Vergleich zum passiven Lernen ändert sich: die Zustandsübergangsfunktion, da sie jetzt auch von der gewählten Aktion abhängt. Die Berechung der Nützlichkeit eines Zustandes, bei der immer die beste Aktion zugrundegelegt wird. Die Verhaltenskomponente fragt die gelernten Funktionen ständig ab. Die Lernalgorithmen ändern sich nicht wesentlich, beim adaptiven dynamischen Programmieren müssen nur die aktionsabhängigen statt der einfachen Zustandsübergangswahrscheinlichkeiten aktualisiert und benutzt werden. Die Zustandsaktualisierungsfunktion beim zeitlichen Differenzlernen ändert sich gar nicht.

18 Algorithmus: Aktives Dynamisches Adaptives Programmieren

19 Erkunden der Umgebung Die Hauptschwierigkeit beim aktiven Lernen ergibt sich daraus, dass Aktionen nicht nur die Belohnung maximieren sollen, sondern auch zur Erkundung der Umgebung nützlich sind. Wie soll kurzfristiger und langfristiger Gewinn gegeneinander abgewogen werden? Grad des Konservativismus sollte proportional zum Wissensstand sein. Umsetzung: Wenig erkundete Pfade bekommen eine belohnungsunabhängige Verstärkung, die mit häufigerem Durchlaufen abnimmt.

20 Beispiel-Ergebnisse mit total konservativem (greedy) und total explorativem (wacky) Extrem(1)

21 Beispiel-Ergebnisse mit gemischter Strategie R + = optimistisch geschätzte Belohnung, N e = Anzahl Versuche Erkundungsfunktion f (u,n) = R + falls n < N e, sonst u (bekannte Utility)

22 Direktes Lernen von Aktionen: Q-Lernen (1) Q(a, i) = Wert der Aktion a im Zustand i Zusammenhang zwischen Nützlichkeit und Q-Werten: U(i) = max a Q(a,i) Der Q-Wert einer Aktion in einem Zustand ergibt sich aus der Belohnung in diesem Zustand + den wahrscheinlichkeitsgewichteten Q- Werten der besten Aktionen in den Nachbarzustände, die durch die Aktion erreicht werden.

23 Direktes Lernen von Aktionen: Q-Lernen (2) Während sich das dynamische adaptive Programmieren nicht übertragen lässt, da es Nützlichkeiten der Zustände benötigt, kann das zeitliche Differenzenlernen leicht angepasst werden: Q(a, i) Q(a, i) + α (R(i) + max a Q(a,j) Q(a,i)) das nach jedem Übergang von Zustand i nach Zustand j berechnet wird. Beim aktiven Lernen werden wiederum seltene Aktionen in Zuständen belohnt. Q-Lernen benötigt kein Modell der Welt und kann daher kein deklaratives Wissen repräsentieren: Eignung eher für einfache Umgebungen.

24 Algorithmus Q-Lernen

25 Beispiel-Ergebnisse: Q-Lernen

26 Generalisierung beim Reinforcement-Lernen Im allgemeinen ist es unmöglich, alle Zustände explizit zu bewerten (z.b. Schach mit ca Stellungen). Stattdessen werden implizite Repräsentationen der Nützlichkeiten benötigt, die häufig als lineare Funktionen von Zustandsvariablen dargestellt werden: U(i) = w 1 f 1 (i) + w 2 f 2 (i) w n f n (i) wobei die Nützlichkeitsfunktion durch n Gewichte repräsentiert wird. Das ist nicht nur eine enorme Speicherreduktion, sondern auch eine Verallgemeinerung, so dass der Agent nicht mehr alle Zustände kennen muss. In den Lernfunktionen muss (außer beim adaptiven dynamischen Programmieren) nur die Nützlichkeit eines Zustandes durch die Nützlichkeit der Zustandsfunktion ersetzt werden, z.b. für Zeitliches Differenzlernen mit einem Gewichtsvektor w = w 1,w 2,... w n : w w +α [r + U w (j) U w (i)] (w) U w (i) was einem Gradienten-Abstiegs-Verfahren wie bei neuralen Netzen entspricht, die sich gut für diese Lernverfahren eignen.

27 Anwendungen in Spielen: Anwendungen Checker-Programm (Samuel 59, 67): Unterschiede zu obiger Formel: - Es wird die aktuelle Stellungsbewertungsbewertung mit der durch Vorausberechnung im Suchbaum entstandenen Stellungsbewertung verglichen. - Es werden nicht die Endzustände im Spiel bewertet, sondern die oben berechneten. Allerdings wird Materialvorteil immer positiv bewertet. Backgamman-Programm (Tesauro 89, 92): 1. Version: Neuronales Netz auf der Basis vom Q-Lernen mit Bewertungen von menschlichen Experten. 2. Version: Neuronales Netz auf der Basis vom TD-Lernen ohne menschliche Bewertungen: bessere Ergebnisse. Anwendungen für Roboter-Steuerung: Inverses Pendel

28 Stab-Balancieren-Problem

29 Genetische Algorithmen und evolutionäre Programmierung Grundidee: Ausgangspunkt ist eine Population von Individuen, die sich entsprechend ihrer Fitness reproduzieren. Dabei ändern sich die Individuen, entweder durch Mutationen und/oder durch Vermischung ihrer Eigenschaften, die als Informationsstring kodiert werden. Kritische Fragen: - Fitness Funktion - Repräsentation von Individuen - Auswahl von Individuen zur Vermehrung Reproduktion von Individuen

30 Genetischer Basisalgorithmus

31 Restaurant-Beispiel für Genetischen Algorithmus

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

Reinforcement Learning

Reinforcement Learning Effiziente Darstellung von Daten Reinforcement Learning 02. Juli 2004 Jan Schlößin Einordnung Was ist Reinforcement Learning? Einführung - Prinzip der Agent Eigenschaften das Ziel Q-Learning warum Q-Learning

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Intelligente Agenten

Intelligente Agenten Intelligente Agenten Einige einfache Überlegungen zu Agenten und deren Interaktionsmöglichkeiten mit ihrer Umgebung. Agent benutzt: Sensoren Aktuatoren (Aktoren; Effektoren) zum Beobachten/Mess seiner

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Reinforcment learning

Reinforcment learning Author: Alexander Camek Betreuer: Prof. Kramer 03.02.2004 Learning Inhalt Einführung in den Bereich Learning Learning Einführung in Generalisierung in Militärische Anwendungen Roboterkontrolle Schach Backgammon

Mehr

TD-Gammon. Michael Zilske

TD-Gammon. Michael Zilske TD-Gammon Michael Zilske zilske@inf.fu-berlin.de TD-Gammon Ein Backgammon-Spieler von Gerald Tesauro (Erste Version: 1991) TD-Gammon Ein Neuronales Netz, das immer wieder gegen sich selbst spielt und dadurch

Mehr

Kapitel 5: Dynamisches Programmieren Gliederung

Kapitel 5: Dynamisches Programmieren Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

2. Beispiel: n-armiger Bandit

2. Beispiel: n-armiger Bandit 2. Beispiel: n-armiger Bandit 1. Das Problem des n-armigen Banditen 2. Methoden zur Berechung von Wert-Funktionen 3. Softmax-Auswahl von Aktionen 4. Inkrementelle Schätzverfahren 5. Nichtstationärer n-armiger

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Übersicht. 7. Prädikatenlogik 1. Stufe

Übersicht. 7. Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

Grundlagen und Basisalgorithmus

Grundlagen und Basisalgorithmus Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Arbeitsgruppe Neuroinformatik

Arbeitsgruppe Neuroinformatik Arbeitsgruppe Neuroinformatik Prof. Dr. Martin Riedmiller Martin.Riedmiller@uos.de Martin Riedmiller, Univ. Osnabrück, Martin.Riedmiller@uos.de Arbeitsgruppe Neuroinformatik 1 Leitmotiv Zukünftige Computerprogramme

Mehr

Programmieren in JavaScript

Programmieren in JavaScript Lineare Programme 1. Euro a) Schreiben Sie ein Programm, dass Frankenbeträge in Euro umrechnet. Der Benutzer gibt dazu den aktuellen Kurs ein, worauf das Programm einige typische Werte (z.b. für Fr 10,

Mehr

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der

Mehr

Monte Carlo Methoden

Monte Carlo Methoden Monte Carlo Methoden im Verstärkungslernen [Spink] Bryan Spink 2003 Ketill Gunnarsson [ ketill@inf.fu-berlin.de ], Seminar zum Verstärkungslernen, Freie Universität Berlin [ www.inf.fu-berlin.de ] Einleitung

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Temporal Difference Learning

Temporal Difference Learning Temporal Difference Learning Das Temporal Difference (TD) Lernen ist eine bedeutende Entwicklung im Reinforcement Lernen. Im TD Lernen werden Ideen der Monte Carlo (MC) und dynamische Programmierung (DP)

Mehr

Hinweise zur Anwendung der Bewertungsmatrix für Ausschreibungen von LED-Straßenleuchtpunkten

Hinweise zur Anwendung der Bewertungsmatrix für Ausschreibungen von LED-Straßenleuchtpunkten Hinweise zur Anwendung der Bewertungsmatrix für Ausschreibungen von LED-Straßenleuchtpunkten Die LED-Technologie stellt eine vergleichsweise junge Technologie dar und verfügt aktuell über ein sehr dynamisches

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Maximizing the Spread of Influence through a Social Network

Maximizing the Spread of Influence through a Social Network 1 / 26 Maximizing the Spread of Influence through a Social Network 19.06.2007 / Thomas Wener TU-Darmstadt Seminar aus Data und Web Mining bei Prof. Fürnkranz 2 / 26 Gliederung Einleitung 1 Einleitung 2

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning Viktor Seifert Seminar: Knowledge Engineering und Lernen in Spielen SS06 Prof. Johannes Fürnkranz Übersicht 1. Definition 2. Allgemeiner Lösungsansatz 3. Temporal Difference Learning

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 2. Agenten, Umgebungen und Lösungsverfahren Malte Helmert Universität Basel 4. März 2013 Rationale Agenten Heterogene Einsatzgebiete KI-Systeme erfüllen sehr unterschiedliche

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: 1 Parallele Algorithmen Grundlagen Parallele Algorithmen Grundlagen Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: Dekomposition eines Problems in unabhängige Teilaufgaben.

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Derivate und Bewertung

Derivate und Bewertung . Dr. Daniel Sommer Marie-Curie-Str. 30 60439 Franfurt am Main Klausur Derivate und Bewertung.......... Wintersemester 2008/09 Klausur Derivate und Bewertung Wintersemester 2008/09 Aufgabe 1: Zinsurven,

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 3

Lösungen zu den Übungsaufgaben aus Kapitel 3 Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen

Mehr

Ablauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26

Ablauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26 Spieldynamik Josef Hofbauer and Karl Sigmund: Evolutionary Games and Population Dynamics, Cambridge, Kap. 8 Simon Maurer Saarbrücken, den 13.12.2011 1 / 26 Ablauf 1 Imitationsdynamik 2 Monotone Auszahlung

Mehr

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker FB IV Mathematik Universität Trier Präsentation von Nadja Wecker 1) Einführung Beispiele 2) Mathematische Darstellung 3) Numerischer Fluss für Diffusionsgleichung 4) Konvergenz 5) CFL-Bedingung 6) Zusammenfassung

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme VE 1: Einführung Prof. Dr. Martin Riedmiller Machine Learning Lab Albert-Ludwigs-Universitaet Freiburg

Mehr

Übersicht. 16. Treffen einfacher Entscheidungen

Übersicht. 16. Treffen einfacher Entscheidungen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 14. Unsicherheiten 15. Probabilistische Inferenzsysteme 16. Treffen

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

KONSTRUKTION VON ROT-SCHWARZ-BÄUMEN

KONSTRUKTION VON ROT-SCHWARZ-BÄUMEN KONSTRUKTION VON ROT-SCHWARZ-BÄUMEN RALF HINZE Institut für Informatik III Universität Bonn Email: ralf@informatik.uni-bonn.de Homepage: http://www.informatik.uni-bonn.de/~ralf Februar, 2001 Binäre Suchbäume

Mehr

Lenstras Algorithmus für Faktorisierung

Lenstras Algorithmus für Faktorisierung Lenstras Algorithmus für Faktorisierung Bertil Nestorius 9 März 2010 1 Motivation Die schnelle Faktorisierung von Zahlen ist heutzutage ein sehr wichtigen Thema, zb gibt es in der Kryptographie viele weit

Mehr

Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle

Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle Umgang mit unsicherem Wissen VAK 03-711.08 Oliver Ahlbrecht 8. Dezember 2005 Struktur 1. Einleitung 2. Beispiel Cart-Pole 3. Warum Hybride

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Konzepte der AI. Maschinelles Lernen

Konzepte der AI. Maschinelles Lernen Konzepte der AI Maschinelles Lernen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion Was bisher geschah Daten, Information, Wissen explizites und implizites Wissen Wissensrepräsentation und -verarbeitung: Wissensbasis Kontextwissen Problemdarstellung fallspezifisches Wissen repräsentiert

Mehr

Application Lifecycle Management als strategischer Innovationsmotor für den CIO

Application Lifecycle Management als strategischer Innovationsmotor für den CIO Application Lifecycle Management als strategischer Innovationsmotor für den CIO Von David Chappell Gefördert durch die Microsoft Corporation 2010 Chappell & Associates David Chappell: Application Lifecycle

Mehr

50 Fragen, um Dir das Rauchen abzugewöhnen 1/6

50 Fragen, um Dir das Rauchen abzugewöhnen 1/6 50 Fragen, um Dir das Rauchen abzugewöhnen 1/6 Name:....................................... Datum:............... Dieser Fragebogen kann und wird Dir dabei helfen, in Zukunft ohne Zigaretten auszukommen

Mehr

Sequentielle Entscheidungsprobleme. Übersicht. MDP (Markov Decision Process) MDP und POMDP. Beispiel für sequentielles Planungsproblem

Sequentielle Entscheidungsprobleme. Übersicht. MDP (Markov Decision Process) MDP und POMDP. Beispiel für sequentielles Planungsproblem Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Case-Based Reasoning und anderen Inferenzmechanismen

Case-Based Reasoning und anderen Inferenzmechanismen Case-Based Reasoning und anderen Inferenzmechanismen Daniel Müller 21 April 2006 DM () CBR und Inferenz 21 April 2006 1 / 31 Contents 1 Einleitung 2 Inferenzmechanismen Statistische Verfahren Data Mining

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners 1 KAP 15. Spiele unter unvollständiger Information Bisher angenommen: jeder Spieler kennt alle Teile des Spiels seine Gegenspieler, deren Aktionen, deren Nutzen, seinen eigenen Nutzen etc. Oft kennt man

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Black Jack - Kartenzählen

Black Jack - Kartenzählen Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches

Mehr

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20 Suche in Spielbäumen Suche in Spielbäumen KI SS2011: Suche in Spielbäumen 1/20 Spiele in der KI Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche Einschränkung von Spielen auf: 2 Spieler:

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Die Invaliden-Versicherung ändert sich

Die Invaliden-Versicherung ändert sich Die Invaliden-Versicherung ändert sich 1 Erklärung Die Invaliden-Versicherung ist für invalide Personen. Invalid bedeutet: Eine Person kann einige Sachen nicht machen. Wegen einer Krankheit. Wegen einem

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning Valentin Hermann 25. Juli 2014 Inhaltsverzeichnis 1 Einführung 3 2 Wie funktioniert Reinforcement Learning? 3 2.1 Das Modell................................... 3 2.2 Exploration

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems

13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems 13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems 13.1 Modellierung des Rucksackproblems 13.2 Lösung mit Greedy-Algorithmus 13.3 Lösung mit Backtracking 13.4 Lösung mit Dynamischer Programmierung

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES Proposal zur Masterarbeit Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES Tchando Kongue Einleitung Neuroevolutionäre Algorithmen sind Methoden, die durch die Benutzung von genetischen

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Dynamic Programming. To compute optimal policies in a perfect model of the environment as a Markov decision process.

Dynamic Programming. To compute optimal policies in a perfect model of the environment as a Markov decision process. Dynamic Programming To compute optimal policies in a perfect model of the environment as a Markov decision process. 1. Dynamic Programming Algorithmen die Teilergebnisse speichern und zur Lösung des Problems

Mehr

Einfacher Problemlösungsagent. Übersicht. Begriffsdefinitionen für Einfach-Probleme

Einfacher Problemlösungsagent. Übersicht. Begriffsdefinitionen für Einfach-Probleme Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Constraint-Probleme 6. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres

Mehr

Fujitsu Siemens Computers GmbH

Fujitsu Siemens Computers GmbH Management Summary Fujitsu Siemens Computers GmbH Report Wirtschaftlichkeitsanalyse Einführung Linux - FSC Der Analysereport beinhaltet die Ergebnisse der Wirtschaftlichkeitsanalyse der Einführung des

Mehr

Clustern. Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so dass:

Clustern. Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so dass: Text-Clustern 1 Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so dass: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen

Mehr

Lernende Suchmaschinen

Lernende Suchmaschinen Lernende Suchmaschinen Qingchui Zhu PG 520 - Intelligence Service (WiSe 07 / SoSe 08) Verzeichnis 1 Einleitung Problemstellung und Zielsetzung 2 Was ist eine lernende Suchmaschine? Begriffsdefinition 3

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Fiktives Spiel und Verlustminimierung. Seminarvortrag von Alexander Marinc zur TUD Computer Poker Challenge 2008

Fiktives Spiel und Verlustminimierung. Seminarvortrag von Alexander Marinc zur TUD Computer Poker Challenge 2008 Fiktives Spiel und Verlustminimierung Seminarvortrag von Alexander Marinc zur TUD Computer Poker Challenge 2008 Dezimierung Übersicht Fiktives Spiel Verlustminimierung Splines Seite 2/30 Inhalt Einführung

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Softwareentwicklung Allgemeines und prozedurale Konstrukte

Softwareentwicklung Allgemeines und prozedurale Konstrukte Mag. iur. Dr. techn. Michael Sonntag Softwareentwicklung Allgemeines und prozedurale Konstrukte E-Mail: sonntag@fim.uni-linz.ac.at http://www.fim.uni-linz.ac.at/staff/sonntag.htm Institut für Informationsverarbeitung

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Übersicht. 9. Schließen in der Prädikatenlogik 1. Stufe

Übersicht. 9. Schließen in der Prädikatenlogik 1. Stufe Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik

Mehr

VERHANDLUNGSTRATEGIEN VON SOFTWARE AGENTEN. Henrik Brauer

VERHANDLUNGSTRATEGIEN VON SOFTWARE AGENTEN. Henrik Brauer 1 VERHANDLUNGSTRATEGIEN VON SOFTWARE AGENTEN Henrik Brauer INHALT Problemstellung Verhandlungsmodell Domänentypen in Multiagentensystemen Verhandlungsbereich in aufgabenorientierten Domänen Verhandlungsstrategie

Mehr

Kaplan-Meier-Schätzer

Kaplan-Meier-Schätzer Kaplan-Meier-Schätzer Ausgangssituation Zwei naive Ansätze zur Schätzung der Survivalfunktion Unverzerrte Schätzung der Survivalfunktion Der Kaplan-Meier-Schätzer Standardfehler und Konfidenzintervall

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

TEST Basiswissen Mathematik für Ingenieurstudiengänge

TEST Basiswissen Mathematik für Ingenieurstudiengänge TEST Basiswissen Mathematik für Ingenieurstudiengänge Erste Fassung März 2013 Dieser Test beinhaltet Aufgaben zu den wesentlichen Themen im Bereich Mathematik, die Basiswissen für ein Ingenieurstudium

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln

Mehr

Kommunikation im Change Prozess

Kommunikation im Change Prozess Kommunikation im Change Prozess Erfolgsregeln bei der Planung und Umsetzung von Veränderungen Ingenieurbüro Roden www.sixsigma-consulting.net Führungsaufgaben in der Veränderung Die erste Aufgabe des Change

Mehr

1. Anfangswertprobleme 1. Ordnung

1. Anfangswertprobleme 1. Ordnung 1. Anfangswertprobleme 1. Ordnung 1.1 Grundlagen 1.2 Euler-Vorwärts-Verfahren 1.3 Runge-Kutta-Verfahren 1.4 Stabilität 1.5 Euler-Rückwärts-Verfahren 1.6 Differentialgleichungssysteme Prof. Dr. Wandinger

Mehr

riskkv Scorenalyse riskkv Scoring Seite 1 von 9

riskkv Scorenalyse riskkv Scoring Seite 1 von 9 riskkv Scorenalyse riskkv Scoring Seite 1 von 9 Das Modul dient der flexiblen Erstellung, Auswertung und Verwendung von Scores. Durch vordefinierte Templates können in einer Einklicklösung bspw. versichertenbezogene

Mehr

(1) Problemstellung. (2) Kalman Filter

(1) Problemstellung. (2) Kalman Filter Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung

Mehr

Dynamische Investitionsrechnung Umsetzung und Beispiele. Teil 3

Dynamische Investitionsrechnung Umsetzung und Beispiele. Teil 3 Dynamische Investitionsrechnung Umsetzung und Beispiele Teil 3 Eingrenzung: Es werden ausschliesslich die Methoden der Pflichtliteratur ab Seite 135 bis Beispiel 12 besprochen. Kapitalwertverfahren (NPV

Mehr

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe Otto-Friedrich-Universität Bamberg Lehrstuhl für Medieninformatik Prof. Dr. Andreas Henrich Dipl. Wirtsch.Inf. Daniel Blank Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie

Mehr

Sortieren. Eine Testmenge erstellen

Sortieren. Eine Testmenge erstellen Sortieren Eine der wohl häufigsten Aufgaben für Computer ist das Sortieren, mit dem wir uns in diesem Abschnitt eingeher beschäftigen wollen. Unser Ziel ist die Entwicklung eines möglichst effizienten

Mehr