Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)
|
|
- Cornelius Kappel
- vor 7 Jahren
- Abrufe
Transkript
1 Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische Lernmethoden 21. Verstärkungslernen VII Kommunizieren, Wahrnehmen und Handeln Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 2 Lernende Agenten (1) Lernende Agenten können ihr zukünftiges Verhalten verbessern. Komponenten eines lernenden Agenten: Verhaltenskomponente (bisheriger Problemlöser) Lernkomponente (Verbesserung der Verhaltenskomponente) - Wissenserwerb - Beschleunigung des Verhaltens Kritikkomponente (Bewertung des Verhaltens) Problemgenerator (Exploration) Die Lernkomponente hängt von folgenden Aspekte ab: Art der zu verbessernden Verhaltenskomponente Wissensrepräsentation der Komponenten (erfordern jeweils angepasste Lernverfahren) Verfügbares Feedback Hintergrundwissen (notwendig für fast alles Lernen) Alles Lernen kann als das Lernen der Repräsentation einer Funktion betrachtet werden. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 3 Lernende Agenten (2) Arten der zu verbessernden Verhaltenskomponente: Direkte Abbildung von Zustandsbedingungen auf Aktionen Herleitung von Eigenschaften der Welt aus Sensorinformationen Informationen wie sich die Welt verändert Informationen über Auswirkungen möglicher Aktionen des Agenten Nützlichkeitsinformationen über die Attraktivität von Situationen Informationen über Nützlichkeit von Aktionen in bestimmten Situationen Ziele, die nützliche Situationsklassen beschreiben Verfügbares Feedback: Geführtes Lernen (Supervised learning) Verstärkungslernen (reinforcement learning) Ungeführtes Lernen (unsupervised learning) Wissensrepräsentation: Lineare gewichtete Polynome für Nützlichkeitsfunktionen Aussagen- oder prädikatenlogische Sätze Probabilistische Beschreibungen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 4
2 Induktives Lernen Gegeben: Ausgabewerte einer Funktion für bestimmte Eingaben, d.h. Beispiele der Art: (x, f(x)). Oft neben positiven auch negative Beispiele. Gesucht: Eine Funktion h (Hypothese), die die Funktion f approximiert. Hauptproblem: Generalisierung Wie aus verschiedenen Hypothesen auswählen (Beispiel a und b)? Ockham's razor: Bevorzuge einfache Hypothesen! Aber wie Einfachheit definieren? Wie für nicht-deterministische Funktionen den unvermeidlichen Kompromiss zwischen Komplexität der Hypothese Grad der Datenüberdeckung finden (Beispiel c)? Wie Apriori-Annahmen über Hypothesenraum formulieren (Beispiel d) Vorwissen erforderlich (Gefahr von Vorurteilen!) Wie stark den Hypothesenraum einschränken (meist sehr stark)? Vereinfachung des Lernen Vereinfachung der Nutzung des gelernten Wissens Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 5 Auswirkungen verschiedener Annahmen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 6 Konsequenzen Für Auswahl der besten Hypothese Präferenzannahmen (bias) nötig! Kompromiss zwischen Ausdrucksstärke der zugrundeliegenden Wissensrepräsentation und Effizienz des Lernverfahrens unvermeidbar! Inkrementelle Lernverfahren zur kontinuierlichen Integration neuer Beispiele in große Fallsammlung mit akzeptablem Aufwand vorteilhaft! Beliebtes Verfahren zum Lernen aus Beispielen: Lernen von Entscheidungsbäumen (eingeschränkte Repräsentation, effizientes Verfahren, aber nicht-inkrementell) diskrete Attribute (bei kontinuierlichen Attributen: Regression) Für Menschen einfach zu verstehen Lernen von Entscheidungsbäumen (1) Input: Objekt oder Situation mit einer Menge von Eigenschaften Output: Ja/Nein-Entscheidung Entscheidungsbäume repräsentieren daher Boolsche Funktionen. Satz: Die meisten Boolschen Funktionen wie z.b. Parity- oder Mehrheitsfunktionen lassen sich schlecht, d.h. mit großen Entscheidungsbäumen, und nur wenige gut, d.h. mit kleinen Entscheidungsbäumen, repräsentieren. Begründung: 1. Eine Funktion benötigt im allgemeinen 2 n bits zu ihrer Repräsentation. n 2. Da es insgesamt 2 2 verschiedene Funktionen gibt (d.h. bei n=6 ca. 2*10 19 verschiedene Funktionen), benötigt man geniale Lernalgorithmen, um eine konsistente Hypothese in einem solchen doppelt exponentiellen Suchraum zu finden. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 7 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 8
3 Lernen von Entscheidungsbäumen (2) Beispiel: Restaurant- Domäne: Variablen Wenn es mehrere konsistente Hypothesen zu einer Trainingsmenge von positiven und negativen Beispielen gibt, dann wird nach Ockham's razor die kompakteste Hypothese, d.h. der kleinste Entscheidungsbaum, bevorzugt Eine wenig kompakte Hypothese wäre es, alle Beispiele auswendig zu lernen. Während das Finden des kleinsten Entscheidungsbaumes exponentiellen Aufwand erfordert, gibt es einen guten "Greedy"- Algorithmus, der meist einen ziemlich kleinen Entscheidungsbaum liefert. Mögliche Hypothese: Unmöglicher Ausdruck: Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 9 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 10 Korrekte Hypothese 12 Trainingsbeispiele Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 11 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 12
4 Informeller Algorithmus für Entscheidungsbäume Die Grundidee besteht darin, immer das Attribut zu wählen, das den größten Informationsgewinn bringt, d.h. das die Fallmenge so in Untergruppen aufspaltet, dass in den Untergruppen möglichst nur positive oder nur negative Beispiele sind. Jede Untergruppe wird rekursiv durch Auswahl des für sie informativsten Attributes wieder in Untergruppen aufgespaltet, wobei 4 Fälle entstehen können: Mögliche Knoten im Entscheidungsbaum (a) Aufteilen nach Restaurant-Typ bringt keine Unterscheidung zwischen positiven und negativen Beispielen (b) Aufteilen nach Gästen (Patrons) ist wesentlich besser. Hunger ist ein guter zweiter Test 1. Wenn alle Beispiele in einer Gruppe positiv oder alle negativ sind, dann terminiere mit der Antwort positiv oder negativ. 2. Wenn in einer Gruppe keine Beispiele enthalten sind, dann terminiere mit einer Default-Antwort, die sich aus der Mehrheit der Obergruppe ergibt. 3. Wenn in einer Gruppe sowohl positive als auch negative Beispiele enthalten sind, und es gibt noch unverbrauchte Attribute, dann wähle das beste Attribut und fahre rekursiv fort. 4. Wenn in einer Gruppe sowohl positive als auch negative Beispiele enthalten sind, und es gibt keine unverbrauchten Attribute mehr, dann sind die Beispiele inkonsistent. Terminiere mit einer Mehrheitsentscheidung oder einer probabilistischen Regel. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 13 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 14 Entscheidungsbaum- Lernalgorithmus Gelernter Entscheidungsbaum zu den 12 Beispielen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 15 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 16
5 Informationstheorie Informationsgewinn Zur Auswahl des besten Attributes kann man informationstheoretisches Wissen benutzen. Entropie: Informationsmaß für die Anzahl der notwendigen bits (Ja/nein-Fragen) um Sicherheit zu bekommen: I = - Σ p i log 2 p i wobei p i die Häufigkeit der i-ten Klasse ist, entsprechend den i Werten des Attributes. Beispiel: Münze werfen: I(1/2, 1/2) = -1/2 log 2 1/2-1/2 log 2 1/2 = 1/2 + 1/2 = 1 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 17 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 18 Bewertung der Leistung von Lernalgorithmen Lernkurve für Entscheidungsbäume Zum Überprüfen müssen Testfälle gewählt werden, die bei der Entwicklung des Algorithmus (bzw. bei der Einstellung seiner Parameter) keine Rolle gespielt haben dürfen. Allerdings ist das in Praxis zu schwierig, sollte aber approximiert und vor allem dokumentiert werden. 1. Sammle Beispiele 2. Teile Beispiele in Trainings- und Testmenge 3. Wende Lernalgorithmus für Trainingsmenge an, generiere Hypothese h 4. Evaluiere h mit Testmenge: Prozentsatz korrekt gelöster Fälle 5. Wiederhole Schritte 1-4 mit unterschiedlichen großen und zufällig gewählten Trainingsmengen Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 19 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 20
6 Rauschen und Überanpassung Rauschen (noise) bedeutet, dass Beispiele falsche Daten oder Bewertungen enthalten, z.b. 2 gleiche Fälle mit unter-schiedlichen Bewertungen. Wenn es irrelevante Attribute gibt (Farbe der Münze, Wochentag des Werfens, usw.), dann kann der Entscheidungsbaum-Algorithmus diese zur weiteren Differenzierung nutzen (Überanpassung; overfitting). Wie kann man das verhindern? Pruning: Man berechnet, wie wahrscheinlich die Aufteilung eines Attributes durch Zufall zustande gekommen sein kann: nur wenn dies sehr unwahrscheinlich ist, dann ist das Attribut ein sinnvoller Entscheidungsknoten, ansonsten wird es eliminiert - Chi-Quadrat-Test (bei 2 x 2 Werten) oder verallgemeinerte Kontingenztests. Cross-Validation: Wie gut kann Hypothese neue Daten bewerten? - Reservierung eines Teils (1 / k) der Trainingsdaten für Validierung Chi- Quadrat- Test Nullhypothese: das Attribut ist irrelevant, d.h. es teilt die Fallmenge zufällig in positive und negative Beispiele auf Die Stärke der Abweichung von zufälliger Verteilung dient als Bewertungsgrundlage. Ihre statistische Auswertung hängt auch von der Fallzahl ab. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 21 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 22 Cross Validation Der Lernalgorithmus verwendet nicht alle Trainingsdaten, sondern nutzt einen Teil zur Validierung Dieser Teil sollte sehr klein sein, weil sonst das Lernen beeinträchtigt wird K-fold Cross Validation es werden k Experimente gemacht, bei denen jeweils 1 / k der Trainingsdaten zur Validierung dienen. Typische Werte für k sind 5 oder 10, aber auch n, d.h. es wird pro Experiment nur mit einem Fall validiert (leave-oneout-cross-validation) Anschließend muss mit anderen Fällen (echten Testdaten) getestet werden Weitere Probleme Unvollständige Daten: Was tun, wenn in einem Fall manche Attribute unbekannt sind? Problem entsteht sowohl beim Lernen als auch beim späteren Klassifizieren. Schätzen der unbekannten Attribute Attribute mit sehr vielen Werten: Diese werden von dem Entropiemaß zur Auswahl des informativsten Attributes ungerechtfertigter Weise bevorzugt (im Extrem z.b. Restaurantname). Wie kann man das vermeiden? Ähnliche Techniken wie beim Pruning Kontinuierliche Attribute: Wie wertet man sie aus? Algorithmen zur Intervallbildung Kontinuierliches Ergebnis: Regressions-Baum Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 23 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 24
7 Ensemble Lernen Idee: Statt einer Hypothese eine Menge (Ensemble) von Hypothesen generieren und diese per Mehrheit abstimmen lassen. funktioniert um so besser, je unabhängiger die Fehler bei der Generierung der Hypothesen sind. erhöht auch die Ausdrucksstärke des Hypothesenraums Verbreiteste Technik: Boosting Boosting Jedes Beispiel hat ein Gewicht > 0 (z.b. entspricht ein Gewicht von 2 der Dublizierung des Beispiels) Vorgehen: Erste Hypothese wird mit normalen Gewichten gelernt. Ab der zweiten Hypothese werden iterativ jeweils die Gewichte der falsch klassifizierten Beispiele erhöht, der richtig klassifizierten entsprechend verringert h Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 25 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 26 Beispiel für Boosting mit Restaurant- Daten Grundsätzliche Überlegungen zum Lernen Ursprünglicher Hypothesenraum: statt Entscheidungsbäume "Entscheidungsstümpfe", d.h. Bäume mit nur einem Attribut Boosting mit 5 Hypothesen und 100 Trainingsfällen (a) Boosting mit steigender Anzahl von Hypothesen (b) Warum funktioniert Lernen aus Beispielen? Die Test- und die Trainingsmenge müssen aus derselben Grundgesamtheit mit gleicher Wahrscheinlichkeitsverteilung stammen. Wie verhindert man, daß der Lernalgorithmus nur die Beispiele auswendig lernt? Durch Beschränkung der Ausdrucksstärke der dem Lernverfahren zugrundeliegenden Wissensrepräsentation. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 27 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 28
8 Wieviele Trainingsbeispiele braucht man? Sei X die Menge aller möglichen Beispiele. Sei D die Verteilung aus der die Trainingsbeispiele stammen. Sei m die Zahl der Trainingsbeispiele. n Sei H die Menge der möglichen Hypothesen (2 2, bei n Attributen) Sei f die wahre Funktion (in H enthalten) und h eine beliebige Hypothese error (h) = P (h(x) f(x) / x aus D) h ist annährend korrekt, falls error (h) ε(kleine Konstante) Aufteilung des Hypothesenraums in gute (im ε-ball um f) und schlechte Hypothesen (H bad ) Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 29 PAC- Lernen (Probably Approximately Correct) Eine schlechte Hypothese h b aus H bad kann trotzdem mit den ersten m Beispielen konsistent sein: P(h b ist m-konsistent) (1- ε) m P(H bad enthält konsistente Hypothese) H bad (1- ε) m H (1- ε) m Das soll kleiner sein als ein kleine Wahrscheinlichkeit δ: H (1- ε) m δ m 1/ε (ln 1/δ + ln H ), d.h. wenn ein Lernverfahren eine Hypothese liefert, die mit so vielen Beispielen konsistent ist, dann ist es annährend korrekt (probably approximately correct). Da der Hypothesenraum doppelt exponentiell ist, braucht man 2 n Beispiele. Jedoch gibt es nicht mehr als 2 n Beispiele. Annährende Korrektheit ist nicht zu erreichen. Dilemma: Falls lernbare Funktionen nicht beschränkt sind, kann nichts gelernt werden, falls doch, kann wahre Hypothese ausgeschlossen sein. Lösungen: 1. Einfachste konsistente Hypothese finden (zu schwierig). 2. Sich auf lernbare Teilmengen der Boolschen Funktionen beschränken! Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 30 Lernen von Entscheidungslisten (Regeln) Suche eine Regel, die aus einer Konjunktion von max. k Attributen besteht und die möglichst viele positive und keine negativen Beispiele (oder umgekehrt) abdeckt und wiederhole die Prozedur mit den nicht-klassifizierten Beispielen, bis alle positiven Beispiele überdeckt sind. Das Ergebnis ist eine Menge von Regeln in disjunktiver Normalform. Die Beschränkung auf k Literale zwingt den Algorithmus zu Generalisierungen (je stärker, je kleiner k ist), beschränkt aber auch seine Lernfähigkeit. Vergleich Entscheidungslisten vs. Entscheidungsbäume Anzahl der Beispiele N, die nach PAC-Lernen bei max k Attributen pro Regeln und n Attributen insgesamt erforderlich sind, um eine vorgegebene Fehlerwahrscheinlichkeit zu unterschreiten: N 1/ε (ln 1/δ + O(n k log 2 (n k ))) Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 31 Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 32
Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrLernen kann von einem einfachen Erinnern der Erfahrungen, wie wir es beim Agenten der Wumpus-Welt gesehen haben (Kap. 10), bis hin zur Erstellung
Lernen kann von einem einfachen Erinnern der Erfahrungen, wie wir es beim Agenten der Wumpus-Welt gesehen haben (Kap. 10), bis hin zur Erstellung ganzer wissenschaftlicher Theorien reichen (z.b. Albert
MehrTheoretische Informatik 1
Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrLernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
MehrEinführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele
Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrEntscheidungsbäume. Minh-Khanh Do Erlangen,
Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume
MehrLernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrÜbersicht. Prädikatenlogik höherer Stufe. Syntax der Prädikatenlogik 1. Stufe (mit Gleichheit)
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern 7. Logische Agenten 8. Prädikatenlogik 1. Stufe 9. Schließen in der Prädikatenlogik 1. Stufe 10. Wissensrepräsentation IV
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrEinführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen
Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht
MehrÜbersicht. Künstliche Intelligenz: 19. Wissen beim Lernen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrIntegration vor Vorwissen. Übersicht. Restaurantdomäne und Logik
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrVon schwachen zu starken Lernern
Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von
MehrÜbersicht. 16. Treffen einfacher Entscheidungen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 14. Unsicherheiten 15. Probabilistische Inferenzsysteme 16. Treffen
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrKapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading
Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrGrundlagen des Maschinellen Lernens Kapitel 4: PAC Lernen
Kapitel 4:. Motivation 2. Lernmodelle Teil I 2.. Lernen im Limes 2.2. Fallstudie: Lernen von Patternsprachen 3. Lernverfahren in anderen Domänen 3.. Automatensynthese 3.2. Entscheidungsbäume 3.3. Entscheidungsbäume
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Tobias Scheffer Michael Brückner Hypothesenbewertung Ziel: gute Vorhersagen treffen. Bayesian model averaging,
MehrKünstliche Intelligenz
Künstliche Intelligenz Intelligente Agenten Claes Neuefeind Sprachliche Informationsverarbeitung Universität zu Köln 26. Oktober 2011 Agenten Konzept des Agenten Rationalität Umgebungen Struktur von Agenten
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrÜbersicht. 7. Prädikatenlogik 1. Stufe
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern 6. Logisch schließende Agenten 7. Prädikatenlogik 1. Stufe 8. Entwicklung einer Wissensbasis 9. Schließen in der Prädikatenlogik
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrKryptographische Protokolle
Kryptographische Protokolle Lerneinheit 2: Generierung von Primzahlen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Wintersemester 2018/2019 15.11.2018 Einleitung Einleitung Diese Lerneinheit
MehrBildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11
Bildverarbeitung: RANSAC D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Beispielaufgaben Man suche eine Gerade ax + by = 1 d.h. die unbekannten Parameter a und b anhand einer Lernstichprobe der Punkte
Mehr4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum
4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.
MehrÜbersicht. Künstliche Intelligenz: 21. Verstärkungslernen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlussfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
Mehr73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher
MehrLernen von Klassifikationen
Lernen von Klassifikationen Gegeben: Trainingsbeispiele: Paare der Form (x i, f(x i )) Gesucht: Funktion f, die die Trainingsbeispiele klassifiziert. (a): Lernen mit Trainingsdaten (b): Genauigkeitsüberprüfung
MehrEine Ausarbeitung von Marcel Ochel
Eine Ausarbeitung von Marcel Ochel 2 3 Vorwort Diese Ausarbeitung ist im Rahmen des Proseminars Künstliche Intelligenz der RWTH- Aachen in der vorlesungsfreien Zeit des Sommersemesters 2003 entstanden.
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrÜbersicht. Künstliche Intelligenz: 3. Problemlösen durch Suche Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen 3. Problemlösen durch Suche 4. Informierte Suchmethoden 5. Constraint-Probleme 6. Spiele III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
Mehr8.1 Einführung: Maschinelles Lernen
Kapitel 8 Maschinelles Lernen 8.1 Einführung: Maschinelles Lernen Da die direkte Programmierung eines intelligenten Agenten sich als nicht möglich herausgestellt hat, ist es klar, dass man zum Erreichen
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrMinimalpolynome und Implikanten
Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,
MehrClassification and Regression Trees. Markus Müller
Classification and Regression Trees Markus Müller Gliederung Lernen Entscheidungsbäume Induktives Lernen von Bäumen ID3 Algorithmus Einfluß der Beispielmenge auf den Baum Möglichkeiten zur Verbesserung
Mehr1. Lernen von Konzepten
1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven
MehrOnline Lernen: Die Themen
Online Lernen: Die Themen (a) Das Online-Spiel: In jeder Runde präsentiert ein Lehrer ein Beispiel, das ein Schüler klassifiziert. Nach wie vielen Runden hat der Schüler das unbekannte Zielkonzept gelernt?
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25
Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrKünstliche Intelligenz Logische Agenten & Resolution
Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein
MehrAufgabe 1 (Allgemeines)
Klausur... Einführung in die Künstliche Intelligenz 1SS08 Aufgabe 1 (Allgemeines) (4 Punkte) a) In der Künstlichen Intelligenz unterscheidet man symbolische und subsymbolische Verfahren. Beschreibe diese
Mehr11. Übung Knowledge Discovery
Prof. Dr. Gerd Stumme, Robert Jäsche Fachgebiet Wissensverarbeitung. Übung Knowledge Discovery.7.7 Sommersemester 7 Informationsgewinn Im folgenden betrachten wir die Menge von n rainingsobjeten, mit den
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
Mehr4 Induktion von Regeln
4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung
MehrMaximierung der erwarteten Nützlichkeit. Übersicht. Bsp.: Maximierung der erwarteten Nützlichkeit. Grundlagen der Nützlichkeitstheorie
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrInstanzenbasiertes Lernen: Übersicht
Instanzenbasiertes Lernen: Übersicht k-nearest Neighbor Lokal gewichtete Regression Fallbasiertes Schließen Lernen: Lazy oder Eager Teil 11: IBL (V. 1.0) 1 c G. Grieser Instanzenbasiertes Lernen Idee:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrGliederung. 1. KI im Allgemeinen und in dieser Vorlesung 2. Heuristische Suche 3. Logik und Inferenz 4. Wissensrepräsentation 5.
Gliederung 1. KI im Allgemeinen und in dieser Vorlesung 2. Heuristische Suche 3. Logik und Inferenz 4. Wissensrepräsentation 5. Handlungsplanung 1. Überblick 6. Lernen 7. Sprachverarbeitung 8. Umgebungswahrnehmung
MehrPrädiktion und Klassifikation mit
Prädiktion und Klassifikation mit Random Forest Prof. Dr. T. Nouri Nouri@acm.org Technical University NW-Switzerland /35 Übersicht a. Probleme mit Decision Tree b. Der Random Forests RF c. Implementation
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrWas wissen Sie jetzt?
Was wissen Sie jetzt?! Sie haben drei Prinzipien für die Regelbewertung kennen gelernt:! Unabhängige Mengen sollen mit bewertet werden.! Der Wert soll höher werden, wenn die Regel mehr Belege hat.! Der
MehrTeil III. Komplexitätstheorie
Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
Mehrfuzzy-entscheidungsbäume
fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrLineare Regression 2: Gute Vorhersagen
Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
Mehr