Übersicht Blockvorlesung: Machinelles Lernen
|
|
- Karoline Simen
- vor 6 Jahren
- Abrufe
Transkript
1 Übersicht Blockvorlesung: Machinelles Lernen Inhaltsverzeichnis Montag: Lerneinheit 1. Übersicht und Entscheidungsbäume 1.1 Organisatorisches 1.2 Definition Machine Learning 1.3 Klassen von maschinellen Lernverfahren a) Supervised Learning / Überwachtes Lernen b) Unsupervised Learning / Unüberwachtes Lernen c) Reinforcement Learning / Verstärkendes Lernen 1.4. Nomenklatur a) Das Modell: Was wird gelernt? c) Features, Attribute, Deskriptoren? d) Abstraktion und Generalisierung e) Abstandsmaße: Metrische und normierte Rüume 1.5 Entscheidungsbäume (ID3) 1.6 Entropie einer Zufallsquelle 1.7 Information Gain zur Auswahl von Attributen 1.8 Overfitting 1.9 Erweiterungen in C Partitionierendes Clustering 2.1 Beispiele partitionierendes Clustering 2.2 Clustering durch Varianzminimierung 2.3 Clustering durch k-means (Mediode, Centroide) 2.4 Inter- und Intraclusterabstände: TD²-Wert 2.5 k-fache Kreuzvalidierung 2.6 Bewertung Lernverfahren: Konfluenzmatrix 2.7 True/False Positives, True/False Negatives 2.8 Präzision (Accuracy), F1-Measure Dienstag: Lerneinheit 3. Hierarchisches Clustering 3.1 Hierarchisches Clustering mit Dentogramm 3.2 Verbindung Hierarchisches / Partitionierendes Clustern 3.3 Kernobjekte und Dichte-Verbundenheit, 3.4 Algorithmen: CLEARNS und DBSCAN 3.5 Silhouetten-Koeffizient und Erreichbarkeitsdiagramme 4. Markov Ketten und HMMs 4.1 Einführung Wahrscheinilichkeitstheorie 4.2 Ereignisse und Zufallsvariablen 4.3 Kolmogorov Axiome
2 4.3 Bedingte Wahrscheinlichkeit und Venn-Diagramme 4.4 Markov-Annahme k-ter Stufe 4.5 Umdrehen der Bedingung: Bayes Theorem 4.6 Markov Ketten: Probabilistische Modellierung von Zustandsübergängen 4.7 Initiale Wahrscheinlichkeitsverteilung 4.6 Hidden Markov Modelle: Beobachtungen 4.7 Transitionsmatrix, Beobachtungsmatrix Mittwoch: Lerneinheit 5. Lineare Regression und Klassifikation 5.1 Lineare Regressionsgleichung 5.2 Regularisierung zur Vermeidung von Overfitting 5.3 Analytische Lösung des Regressionsproblem 5.4 Lineare Klassifikation 5.5 Perceptron Algorithmus und Dualität 5.6 Der Kern-Trick 5.7 Linearer, Quadratischer bzw. RBF-Kern 6. Naive Bayes 6.1 Graphische Systeme 6.2.Bedingte Wahrscheinlichkeit und Kausalität 6.2 Formel Naive Bayes 6.3 Bedingte Unabhängigkeit Donnerstag: Lerneinheit 7. Bayes sche Netze 7.1 Probabilistische Inferenz (PI) in Belief-Netzen 7.2 NP-Vollständigkeitsbeweis PI durch Reduktion auf 3-SAT 7.3 Bucket-Elimination Algorithmus für Belief-Netze 8. SVMs 7.1 Support Vector Maschine und Bit Vector Maschine, 7.2 Parameter-Tuning mit Grid-Suche 7.3 Primal/Dual Definition SVM 7.4 Herleitung aus Hinge Loss 7.5 Kernelintegration 7.6 Soft Margin SVM (Rauschen) Freitag: Lerneinheit 9. MDPs 9.1 Definition Markov Decision Process (MDPs) 9.2 Horizoneffekte und Discount 9.3 Bellmann-Gleichung und -Optimalitätsprinzip 9.4 Reinforement Learning Algorithmen 9.5 Value Iteration Algorithmus 9.6 Speicherplatzreduktion und externe Berechnung 9.7 Vom MDP zum POMDP 10. Randomisierte Suche mit MCTS 10.1 Exploitation vs. Exploration
3 10.2 k-armige Banditen 10.3.Upper Confidence Bound (UCB) 10.4 UCB applied to Trees (UCT) 10.5 Monte-Carlo Baumsuche in Optimierungsproblemen 10.6 Schachtelung der Suche 10.7 Nested Monte-Carlo Suche 10.8 Nested Rollout Policy Adaptation 10.9 Erhöhung der Diversität Anwendungen Montag: Lerneinheit 11. Concept Learning 11.1 Das Lernen von Konzepten 11.2 Hypothesenbildung, Konzepte 11.3 Totale und partielle Ordnung 11.4 Find-S Algorithmus: Vor- und Nachteile 11.5 Der Candidate-Elimination Algorithmus 12. GAs und (S)GD 12.1 Klassen globaler Optimierungsverfahren 12.2 Ameisenalgorithmen, Particleswarm-Optimierung, Simulated Annealing 12.3 Genetische Algorithmen: Mutation, Recombination, Selektion 12.4 Potential und Grenzen Genetischer Algorithmen: Das Schema Theorem 12.5 Gradientenabstieg: Gradient Decent 12.6 Stochastic Gradient Decent Dienstag: Lerneinheit 13. Regellernen 13.1 Data Mining und Predictive Analytics 13.2 Die Warenkorb-Analyse: Einkaufszettel 13.3 Support und Konfidenz 13.4 Assoziationsregeln, A Priori-Algorithmus 14. Recommender Systeme 14.1 Collaborative Filtering 14.2 Additive / Multiplikative Modelle und Link Prediction 14.3 Erkennung von Latent Features 14.4 Anwendungen - Netflix Preis 14.5 Matrix-Dekomposition Verfahren 14.6 SGD Implementierung 14.6 Stufen des KDD-Prozesses Mittwoch: Lerneinheit 15. CBR und NN 15.1 Case-based Reasoning und k-nächste Nachbarn 15.2 Voronoi-Diagramme und Delaunay Triangulierung 15.3 On-Line vs. Off-Line Berechnung 15.4 Das Lokalisationsproblem 15.5 Nearest Neighbor Algorithmen a) exakte Berechnung nächster Nachbarn: Full-Delaunay-Hierarchie (FDH),
4 b) approximative Berechnung nächster Nachbarn: Fractal-NN 15.6 kd-bäume: Mediane 15.7 Erweiterung von NN auf unterschiedliche Mengen 16. SVD und PCA 16.1 Eigenwerte: Die Feinstruktur im Vektorraum 16.2 Potentierung von Matrizen durch Spektralanalyse 16.3 Gründe riesige Feature-Mengen: Sliding Windows 16.4 Auswahl von Features 16.5 Singular Value Decomposition 16.6 Principle Component Analysis (Hauptkomponentenanalyse). Donnerstag: Lerneinheit 17. Strings 17.1 Maschinelles Lernen und Mustererkennung 17.2 Approximative Zeichenketten-/Teilstringsuche 17.3 Grenzen des Lernens von Automaten 17.4 Automatenlernen mit (I)ID 17.5 Dynamic Time Warp (DTW) 17.6 Datenreihen zu Strings: (i)sax 17.7 Lernen von Abkürzungen Aho-Corasick 17.8 Der Makroproblemlöser: Nahe dem Menschlichem Lösen 18. Neuronale Netze 18.1 Menschliche Neuronale Netze 18.2 Artifizielle Neuronale Netze 18.3 Hopfield Netze zur kombinatorischen Optimierung 18.3 Self-Organizing Maps zum Lernen geometischer Formen 18.4 Multilayer Neural Nets, 18.5 Darstellungssätze: Boolesche und Allgemeine Funktionen 18.6 Backpropagation-Verfahren zum Berechnen des Gradientens 18.7 Convolutional Neural Nets und Deep Learning Freitag: Lerneinheit 19. Anwendungen Machine Learning 19.1 Lernen von Mustern in Spielen 19.2 Lernen von Netzwerkdaten 19.3 Lernen von Videoartefakten 19.4 Lernen von Backergebnissen 19.5 Lernen von Gesten Lernen fürs 3D Drucken 19.7 Lernen von Sequenzalignierungen 19.8 Lernen von Straßenkarten 20. Grundzüge der Lerntheorie 20.1 Shatter und VC-Dimension 20.2 Definition PAC-Lernbarkeit 20.3 Fundamentalsatz der Lerntheorie 21. Wrap-Up, Questionaire
5 Klausur , 12-13:30 Uhr
Einführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrGlobale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrEntwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion
Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrEinsatz von Reinforcement Learning in der Modellfahrzeugnavigation
Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation von Manuel Trittel Informatik HAW Hamburg Vortrag im Rahmen der Veranstaltung AW1 im Masterstudiengang, 02.12.2008 der Anwendung Themeneinordnung
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrEine Einführung in R: Hochdimensionale Daten: n << p Teil II
Eine Einführung in R: Hochdimensionale Daten: n
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen
INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen: Clustern von Attributen Literatur J. Han, M. Kamber: Data Mining Concepts and Techniques. J. Han et. al: Mining Frequent Patterns without Candidate
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrFragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07)
Fragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07) 1. Grenzen Sie die Begriffe "Daten" und "Wissen" mit je 3 charakteristischen Eigenschaften gegeander ab. 2. Nennen Sie vier verschiedene
MehrModellbildung und Simulation
Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrSAP Predictive Challenge - Lösung. DI Walter Müllner, Dr. Ingo Peter, Markus Tempel 22. April 2015
SAP Predictive Challenge - Lösung DI Walter Müllner, Dr. Ingo Peter, Markus Tempel 22. April 2015 Teil II - Lösung Teil II-1: Fachbereich (automated mode) Teil II-2: Experte (PAL HANA) Teil II-3: Vergleich
MehrKapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN
Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?
MehrVorlesung Statistisches Lernen
Vorlesung Statistisches Lernen Einheit 1: Einführung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 20 Organisatorisches
MehrWEKA A Machine Learning Interface for Data Mining
WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010
MehrSelected Topics in Machine Learning and Reverse Engineering
Selected Topics in Machine Learning and Reverse Engineering Dozenten: Prof. Dr. Fabian Theis Email: theis@ma.tum.de Prof. Dr. Oliver Junge Raum: 02.08.040? Tel.: +49 (89) 289 17987, Email: junge@ma.tum.de
MehrKnowledge Discovery in Datenbanken I (IN5042)
Knowledge Discovery in Datenbanken I (IN5042) Titel Knowledge Discovery in Databases I Typ Vorlesung mit Übung Credits 6 ECTS Lehrform/SWS 3V + 2Ü Sprache Deutsch Modulniveau Master Arbeitsaufwand Präsenzstunden
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrBachelorarbeit Erkennung von Fließtext in PDF-Dokumenten
Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei
MehrUnüberwachtes Lernen: Clusteranalyse und Assoziationsregeln
Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln Praktikum: Data Warehousing und Data Mining Clusteranalyse Clusteranalyse Idee Bestimmung von Gruppen ähnlicher Tupel in multidimensionalen Datensätzen.
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
Mehr"MACHINE LEARNING" IN DER SAS ANALYTIK PLATTFORM
"MACHINE " IN DER SAS ANALYTIK PLATTFORM Mihai Paunescu Gerhard Svolba MACHINE ANSÄTZE FÜR DIE MODELLIERUNG Y Natur / Prozess X Y Lineare Regression, Logistische Regression X Y unbekannt X Entscheidungsbäume
MehrReinforcement Learning 2
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche
MehrBusiness Intelligence & Machine Learning
AUSFÜLLHILFE: BEWEGEN SIE DEN MAUSZEIGER ÜBER DIE ÜBERSCHRIFTEN. AUSFÜHRLICHE HINWEISE: LEITFADEN MODULBESCHREIBUNG Business Intelligence & Machine Learning Kennnummer Workload Credits/LP Studiensemester
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrProseminar - Data Mining
Vorbesprechung Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2015 Vorbesprechung, SS 2015 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source:
MehrData Mining und maschinelles Lernen
Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:
MehrExploration und Klassifikation von BigData
Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrPredictive Modeling mit künstlich neuronalen Netzen
München, 22. 24. Juni 2015 Predictive Modeling mit künstlich neuronalen Netzen Technische Universität Bergakademie Freiberg (Sachsen) Institut für Wirtschaftsinformatik Silbermannstraße 2, 09599 Freiberg
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
MehrData-Mining: Ausgewählte Verfahren und Werkzeuge
Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den
MehrKünstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
MehrOptimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung
Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme VE 1: Einführung Prof. Dr. Martin Riedmiller Machine Learning Lab Albert-Ludwigs-Universitaet Freiburg
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrDatenbanken Unit 10: Ranking und Data Mining Erstellen und Ändern von Datenbanken
Datenbanken Unit 10: Ranking und Data Mining Erstellen und Ändern von Datenbanken 7. VI. 2016 Organisatorisches nächste Woche am 14. Juni Abschlusstest (Gruppe 1: 10:00 11:15, Gruppe 2: 11:30 12:45 ) Übungsblatt
MehrFachgruppe Statistik, Risikoanalyse & Computing. STAT672 Data Mining. Sommersemester 2007. Prof. Dr. R. D. Reiß
Fachgruppe Statistik, Risikoanalyse & Computing STAT672 Data Mining Sommersemester 2007 Prof. Dr. R. D. Reiß Überblick Data Mining Begrifflichkeit Unter Data Mining versteht man die Computergestützte Suche
MehrMultivariate Verfahren
Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische
MehrMethoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrMythMiner. Ein Empfehlungssystem für Fernsehprogramme auf Basis von RapidMiner. Balázs Bárány. Linuxwochen Wien, 7. 5. 2011
Voraussetzungen für Data Mining und Text Mining Schluÿ Ein Empfehlungssystem für Fernsehprogramme auf Basis von RapidMiner Linuxwochen Wien, 7. 5. 2011 Voraussetzungen für Data Mining und Text Mining Schluÿ
MehrData Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG
Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information
Mehr1 Inhaltsverzeichnis. 1 Einführung...1
1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrPraxisorientierte Anwendung von Big Data-Technologien beim Einsatz mobiler Arbeitsmaschinen
Praxisorientierte Anwendung von Big Data-Technologien beim Einsatz mobiler Arbeitsmaschinen Thilo Steckel CLAAS E-Systems Gütersloh Köln, 19. Oktober 2016 [Quelle: Handelsblatt 2014] [Quelle: VDI-Nachrichten,
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrSeminar aus maschinellem Lernen MCTS und UCT
Seminar aus maschinellem Lernen MCTS und UCT 26. November 2014 TU Darmstadt FB 20 Patrick Bitz 1 Übersicht Historisches zu MCTS MCTS UCT Eigenschaften von MCTS Zusammenfassung 26. November 2014 TU Darmstadt
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt
MehrPanorama der Mathematik und Informatik
Panorama der Mathematik und Informatik 27/28: Forschung in BI: Maschinelles Lernen Dirk Frettlöh Technische Fakultät / Richtig Einsteigen Landkarte der (MINT-)Wissenschaften 27/28: Forschung in BI: Maschinelles
MehrEinführung in Data Mining mit Weka. Philippe Thomas Ulf Leser
Einführung in Data Mining mit Weka Philippe Thomas Ulf Leser Data Mining Drowning in Data yet Starving for Knowledge Computers have promised us a fountain of wisdom but delivered a flood of data The non
MehrÜbersicht. 20. Verstärkungslernen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrKapitel 1: Einleitung
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases im Wintersemester 2003/2004 Kapitel
MehrKünstliche Neuronale Netze und Data Mining
Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung
MehrBehavioral Targeting und selbstlernende Kampagnen. Aktuelle Herausforderungen für Data Mining. Dr. Alexander K. Seewald
Behavioral Targeting und selbstlernende Kampagnen Aktuelle Herausforderungen für Data Mining Dr. Alexander K. Seewald Behavioral Targeting Kognitive Neurowissenschaften Verhalten aussagekräftiger als Erklärung
MehrMaschinelles Lernen und Data Mining: Methoden und Anwendungen
Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge
MehrItem-based Collaborative Filtering
Item-based Collaborative Filtering Initial implementation Martin Krüger, Sebastian Kölle 12.05.2011 Seminar Collaborative Filtering Projektplan Implementierung Ideen Wdh.: Item-based Collaborative Filtering
MehrEinführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch
Einführung: martin.loesch@kit.edu (0721) 608 45944 Übersicht Motivation & Hintergrund Naiver Bayes-Klassifikator Bayessche Netze EM-Algorithmus 2 Was ist eigentlich? MOTIVATION & HINTERGRUND 3 Warum Lernen
MehrData Mining @ Netezza mit IBM SPSS
Michael Ridder Senior Technical Sales Professional Predictiv Analytics Data Mining @ Netezza mit IBM SPSS Software Wir ertrinken in Informationen, aber wir hungern nach Wissen. John Naisbitt Trendforscher
MehrRapidMiner als Werkzeug für die textorientierten Geisteswissenschaften Katharina Morik
technische universität RapidMiner als Werkzeug für die textorientierten Geisteswissenschaften Katharina Morik Name Autor Ort und Datum Informatik: Linguistik: Methoden + Verfahren Forschungsfragen, Anforderungen
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik LS 8 Künstliche Intelligenz Fakultät für Informatik 16.12.2008 1 von 35 Gliederung LS 8 Künstliche Intelligenz Fakultät für
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrIdeen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik
Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrAnwendung der Business Analytics
Anwendung der Business Analytics TDWI 2013 München Prof. Dr. Carsten Felden Dipl.-Wirt.-Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg (Sachsen) Institut für Wirtschaftsinformatik
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrTNS EX A MINE BehaviourForecast Predictive Analytics for CRM. TNS Infratest Applied Marketing Science
TNS EX A MINE BehaviourForecast Predictive Analytics for CRM 1 TNS BehaviourForecast Warum BehaviourForecast für Sie interessant ist Das Konzept des Analytischen Customer Relationship Managements (acrm)
MehrPredictive Modeling Markup Language. Thomas Morandell
Predictive Modeling Markup Language Thomas Morandell Index Einführung PMML als Standard für den Austausch von Data Mining Ergebnissen/Prozessen Allgemeine Struktur eines PMML Dokuments Beispiel von PMML
MehrTopicmodelle. Gerhard Heyer, Patrick Jähnichen Universität Leipzig. tik.uni-leipzig.de
Topicmodelle Universität Leipzig heyer@informa tik.uni-leipzig.de jaehnichen@informatik.uni-leipzig.de Institut für Informatik Topicmodelle Problem: je mehr Informationen verfügbar sind, desto schwieriger
MehrStatistical Learning
Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert
MehrProbe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte
Mehr0 Einführung: Was ist Statistik
0 Einführung: Was ist Statistik 1 Datenerhebung und Messung 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Explorative Datenanalyse EDA Auffinden von Strukturen
MehrMathematische Probleme lösen mit Maple
Mathematische Probleme lösen mit Maple Ein Kurzeinstieg Bearbeitet von Thomas Westermann überarbeitet 2008. Buch. XII, 169 S. ISBN 978 3 540 77720 5 Format (B x L): 15,5 x 23,5 cm Weitere Fachgebiete >
MehrSession: 1 SO Selbstoptimierte Zustandsüberwachung für die Prognose von Fehlzuständen für Windkraftanlagen SO-Pro (Resolto)
Session: 1 SO Selbstoptimierte Zustandsüberwachung für die Prognose von Fehlzuständen für Windkraftanlagen SO-Pro (Resolto) 06. Juli 2016 Bielefeld www.its-owl.de Agenda Abschlusspräsentation Einführung
MehrText Mining Praktikum. Durchführung: Andreas Niekler Email: aniekler@informatik.uni-leipzig.de Zimmer: Paulinum (P) 818
Text Mining Praktikum Durchführung: Andreas Niekler Email: aniekler@informatik.uni-leipzig.de Zimmer: Paulinum (P) 818 Rahmenbedingungen Gruppen von 2- (max)4 Personen Jede Gruppe erhält eine Aufgabe Die
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrEinführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen
Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht
Mehr