Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner
|
|
- Frida Holst
- vor 6 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner
2 Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11: S18. Vorlesung: Mo 12:00-13: S18. Ausweichtermin für ausgefallene Veranstaltungen: Di 10:00-11: S19. 2
3 Organisation Webseite. Kalender. Vorlesungs- und Übungstermine. Blog: Ihre Fragen, Kommentare. Folien: Am Tag nach der Vorlesung im Netz. 3
4 Organisation Übungsaufgaben: Am Tag nach der Vorlesung im Netz. Werden in der darauffolgenden Übung besprochen. Sie können für einzelne Aufgaben votieren. Sie müssen für 2/3 der Aufgaben des Semesters votieren, um die Prüfung abzulegen. Sie rechnen votierte Aufgaben vor. Mündliche Prüfung am Ende des Semesters. 4
5 Literatur Chris Bishop: Pattern Recognition and Machine Learning. 30 Exemplare für Bibliothek bestellt. 5
6 Literatur 6 Eingescannte Kapitel.
7 Literatur 7
8 Maschinelles Lernen 2?! s v 8 = = 1 2 g gt t Umgebung Lern-Algorithmus Daten Modell
9 Maschinelles Lernen und Data Mining Große Datenbank Defekte bestimmter Gene beeinträchtigen Zellstoffwechselprozesse. Lern-Algorithmus In Ländern in denen im Winter Salz gestreut wird häufen sich Defekte der neuen Lichtmaschine. Bestimmte Muster in der Kommunikation deuten auf Hackerangriffe auf Server hin. 9
10 Maschinelles Lernen und Data Mining Es gibt eine indirekte Verbindung zwischen Parkinson und Viagra, die noch nie explizit untersucht wurde. Text-Archiv 30 Millionen Formulierungen treten in Spam häufiger auf als in Nicht-Spam Die Suchmaschinenanfragen von T. deuten darauf hin, dass er sich ein Auto kaufen will. Vielleicht interessiert in Werbung für Autos mehr als für Fahrräder. 10
11 Maschinelles Lernen und Data Mining 11
12 Maschinelles Lernen und Data Mining 12
13 Anwendungen: Modellierung von Risiken Kredit-Risiken, Versicherungs-Risiken. 13
14 Methoden: Entscheidungsbäume 14
15 Methoden: Entscheidungsbäume Einfach, effektiv, effizient. Schön interpretierbare Regeln. Liefert Klassifikation und Begründung dafür. Skalierbare Algorithmen für große Datenbanken. Klassifikation und Regression. 15
16 Anwendungen: Cross-/Upselling Entdecken von Mustern in Datenbanken. Welche Produkte ins Sortiment und wohin stellen? 16
17 Anwendungen: Empfehlungen Nutzer-Item-Empfehlungen. Zentrales Element vieler Geschäftsmodelle. 17
18 Anwendungen: Empfehlungen Netflix Prize: $ % Verbesserung gegenüber aktuellem Modell. 18
19 Anwendungen: Empfehlungen 19 Long-Tail-Produkte. Mass Customization.
20 Methoden: Matrix-Faktorisierung Finde latente Faktoren μ i so dass: x 1 x 2 x 3 x 4 Alice * Bob * *** Carol *** *** * David ** *** Eddie * Frank *** Affinität von Carol zu Merkmal μ i. μ 1 μ 2 μ 3 x 1 x 2 x 3 x 4 Alice σ1 μ 1 Bob σ 2 μ 2 Carol σ 3 μ 3 David Eddie Frank Gewicht von μ 2. Latente Merkmale μ i. Stärke von Merkmal μ 2 in Item x 3. Lernalgorithmus: fülle Matrizen mit Merkmalen, die Trainingsdaten möglichst dut rekonstruieren. Tracenorm-Regularisierung. 20
21 Anwendungen: Spam, Phishing, Angriffe Klassifikationsprobleme mit Gegenspieler. Gegenspieler verändert Verhalten in Reaktion auf gelernte Modelle. Maschinelles Lernen + Spieltheorie. 21
22 Anwendungen: Fraud, Intrusion Detection Fraud Detection: erkennen betrügerischer Transaktionen. 22
23 Anwendungen: Gesundheit Vorhersage: Medikament gegen gegebene Virus- Version wirksam? Vorhersage: Krankheitsverlauf in Abhängigkeit von Behandlungsparametern. 23
24 Anwendungen: Mustererkennung 24 Z.B. Handschrifterkennung.
25 Anwendungen: Mustererkennung 25 Z.B. Luftbild-/Radarbilder.
26 Anwendungen: natürliche Sprache Vorhersage, überwachtes Lernen. Textklassifikation. Informationsextraktion. Wortarterkennung, Parsen. Übersetzung. Unüberwachte Modellierung von Textsammlungen. Welche Dokumente gehören zusammen? Welche Themen gibt es? Wie entwickelt sich eine Dokumentensammlung? 26
27 Methoden: Kernel-Methoden Familie von Methoden für diskriminatives Lernen. Klassifikation, Verarbeitung von Sequenzen (Text), Bäumen (Parsen), Graphen (Web). y 1 y 2 y 3 y 4 Π t Φ(y t,y t+1) = exp { i w i tφ i(y t,y t+1) }. x 1 x 2 x 3 x 4 Π t Φ(x t,y t ) = exp { i w i t φ i (x t,y t ) }. Curiosity kills the cat min ½ w w C ( i ξ i + C u i γ i ξ i ) s.t. w T (φ(x i,y i ) φ (x i,y)) 1 - ξ i y y i i=1,,n ξ i 0 i=1,,n 27
28 Streifzug: Kernel-Methoden Familie von Methoden für diskriminatives Lernen. Klassifikation, Verarbeitung von Sequenzen (Text), Bäumen (Parsen), Graphen (Web). Beste bekannte Methoden für y 1 y 2 y 3 y 4 Π t Φ(y t,y t+1) = exp { i w i tφ i(y t,y t+1) }. x 1 viele x 2 Mustererkennungsaufgaben. x 3 x 4 Π t Φ(x t,y t ) = exp { i w i t φ i (x t,y t ) }. Curiosity kills the cat Parsieren, Eigennamenerkennung, Textklassifikation. min ½ w w C ( i ξ i + C u i γ i ξ i ) s.t. w T (φ(x i,y i ) φ (x i,y)) 1 - ξ i y y i i=1,,n ξ i 0 i=1,,n 28
29 Streifzug: Statistische Modelle Bayessche Statistik: Vorwissen + Beobachtungen Modell, dass verbleibende Ungewissheit charakterisiert. Sauberes, probabilistisches Modell. 29
30 Streifzug: Statistische Modelle Bayessche Statistik: Vorwissen + Beobachtungen Modell, dass verbleibende Ungewissheit charakterisiert. Sauberes, probabilistisches Modell. Flexibel, in extrem vielen Gebieten einsetzbar. Sprachverarbeitung, Übersetzung, Roboterlokalisierung, Elegante Modelle, schöne Algorithmen. Chinese Restaurant Processes. Dirichlet-Prozesse, Gaußsche Prozesse. Gibbs Sampling. 30
31 Wir stellen ein Studentische Mitarbeiter Gern im Zusammenhang mit Studien-/Diplomarbeit. Bitte sprechen Sie uns an. Wissenschaftliche Mitarbeiter, Promotionsstipendiaten. z.t. Drittmmittelprojekten mit Industriepartnern. Schreiben Sie am besten eine Diplomarbeit bei uns. 31
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Einführungsveranstaltung Überblick Organisation Literatur Inhalt und Ziele der Vorlesung Beispiele aus der Praxis 2 Organisation Vorlesung/Übung + Projektarbeit. 4 Semesterwochenstunden.
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Einführungsveranstaltung
INTELLIGENTE DATENANALYSE IN MATLAB Einführungsveranstaltung Überblick Organisation. Literatur. Inhalt und Ziele der Vorlesung. Beispiele aus der Praxis. 2 Organisation Vorlesung/Übung + Projektarbeit.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
MehrMaschinelles Lernen II
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.
MehrSpielen mit Viren und Zombis
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Über maschinelles Lernen und das Spielen mit Viren und Zombis Tobias Scheffer Maschinelles Lernen Teil der Ingenieurwissenschaft
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrLineare Klassifikatoren IV
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren IV Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung MAP-Modell
MehrData Mining 8-1. Kapitel 8: Recommendation Systems. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 8: Recommendation Systems Johannes Zschache Wintersemester 08/9 Abteilung Datenbanken, Universität Leipzig http://dbs.uni-leipzig.de Data Mining 8- 8- Data Mining Übersicht Hochdimension.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrInhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining
6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrTeil VIII. Weiterführende Veranstaltungen im FG Wissensverarbeitung
Teil VIII Weiterführende Veranstaltungen im FG Wissensverarbeitung Überblick 1 Zusammenfassung AlgoDS 2 Datenbanken 3 Internet-Suchmaschinen 4 Knowledge Discovery 5 Künstliche Intelligenz 6 Seminare &
MehrMethoden, Chancen und Risiken beim Auswerten großer Datenmengen
Methoden, Chancen und Risiken beim Auswerten großer Datenmengen Peter Dauscher Gymnasium am Kaiserdom, Speyer peter dauscher gak speyer de Data-Mining in der Schule - Eine Annäherung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrMachine Learning & Künstliche Intelligenz
Dr. med. Christina Czeschik Serapion www.serapion.de Machine Learning & Künstliche Intelligenz Eine kurze Einführung Künstliche Intelligenz intelligent nutzen Essen, 08.06.2018 Künstliche Intelligenz Turing-Test
MehrIdeen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn
Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrText-Mining: Klassifikation I - Naive Bayes vs. Rocchio
Text-Mining: Klassifikation I - Naive Bayes vs. Rocchio Claes Neuefeind Fabian Steeg 17. Juni 2010 Klassifikation im Text-Mining Klassifikation Textkategorisierung Naive Bayes Beispielrechnung Rocchio
MehrMathematisch-algorithmische Grundlagen für Big Data
Mathematisch-algorithmische Grundlagen für Big Data Numerische Algorithmen für Datenanalyse und Optimierung Prof. Dr. Peter Becker Fachbereich Informatik Hochschule Bonn-Rhein-Sieg Sommersemester 2017
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
MehrMustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrWeb Data Mining. Alexander Hinneburg Sommersemester 2007
Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining
MehrMaschinelle Sprachverarbeitung: Part-of-Speech-Tagging
HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrInformationssysteme. Prof. Dr. Hans Czap. Lehrstuhl für Wirtschaftsinformatik I. Lehrstuhl für Wirtschaftsinformatik I - II - 1 -
Vorlesung Grundlagen betrieblicher Informationssysteme Prof. Dr. Hans Czap Email: Hans.Czap@uni-trier.de - II - 1 - Inhalt Kap. 1 Ziele der Datenbanktheorie Kap. 2 Datenmodellierung und Datenbankentwurf
MehrBusiness Intelligence & Machine Learning
AUSFÜLLHILFE: BEWEGEN SIE DEN MAUSZEIGER ÜBER DIE ÜBERSCHRIFTEN. AUSFÜHRLICHE HINWEISE: LEITFADEN MODULBESCHREIBUNG Business Intelligence & Machine Learning Kennnummer Workload Credits/LP Studiensemester
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrGrundlagen der Bilderzeugung und Bildanalyse - Mustererkennung
Grundlagen der Bilderzeugung und Bildanalyse - Mustererkennung Prof. Dr. H. Burkhardt Lehrstuhl für Mustererkennung und Bildverarbeitung Institut für Informatik Albert-Ludwigs-Universität Freiburg H. Burkhardt,
MehrComputerlinguistische Grundlagen. Jürgen Hermes Wintersemester 17/18 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln
Computerlinguistische Grundlagen Jürgen Hermes Wintersemester 17/18 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Was ist Computerlinguistik? Definition Anwendungen Fragestellung
MehrData Science (WS 2018/2019) Klaus Berberich
1 Data Science (WS 2018/2019) Klaus Berberich (klaus.berberich@htwsaar.de) 0. Organisation Agenda 1. Einführung 2. Regression 3. Klassifikation 4. Clusteranalyse 5. Assoziationsanalyse 6. Neuronale Netze
MehrData Mining 7-1. Kapitel 7: Advertising on the Web. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 7: Advertising on the Web Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.uni-leipzig.de Data Mining 7-1 7-2 Data Mining Übersicht Hochdimension.
MehrData Mining auf Datenströmen Andreas M. Weiner
Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas
MehrData Science (WS 2017/2018) Klaus Berberich
1 Data Science (WS 2017/2018) Klaus Berberich (klaus.berberich@htwsaar.de) 0. Organisation Agenda 1. Einführung 2. Regression 3. Klassifikation 4. Clusteranalyse 5. Neuronale Netze 6. Assoziationsanalyse
MehrVorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II
Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt
MehrRingvorlesung interdisziplinäre, angewandte Mathematik: Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Ringvorlesung interdisziplinäre, angewandte Mathematik: Maschinelles Lernen Niels Landwehr, Paul Prasse, Termine VL Dienstag 12:15-13:45,
MehrEinführung in die Informatik
Einführung in die Informatik Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard Cyrill Stachniss 1.1 Vorlesung Zeit und Ort: Mittwochs 16.00 18.00 Uhr Gebäude 101 HS 00-026 Informationen
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrNeuroinformatik. Übung 1
Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informati Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/iels Landwehr/Tobias Scheffer Überblic Problemstellung/Motivation Deterministischer Ansatz: K-Means
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrEinführung in die Praktische Informatik WS 09/10
Einführung in die Praktische Informatik WS 09/10 Prof. Dr. Christian Sengstock Institut für Informatik Neuenheimer Feld 348 69120 Heidelberg http://dbs.ifi.uni-heidelberg.de sengstock@informatik.uni-heidelberg.de
MehrBildverarbeitung. Albert-Ludwigs-Universität Freiburg
Grundlagen der Mustererkennung e e u (Kursvorlesung) Prof. Dr. H. Burkhardt Lh Lehrstuhl thlfür Mustererkennung und Bildverarbeitung Institut t für Informatik Albert-Ludwigs-Universität Freiburg H. Burkhardt,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrÜbersicht. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007
Übersicht Grundlagen für Assoziationsregeln Apriori Algorithmus Verschiedene Datenformate Finden von Assoziationsregeln mit mehren unteren Schranken für Unterstützung Finden von Assoziationsregeln für
MehrMaschinelles Lernen und Data Mining
Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrData Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 11: Machine Learning Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.unileipzig.de Data Mining 111 112 Data Mining Übersicht Hochdimension.
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrIN DER IT SICHERHEIT. Organisation, Überblick, Themen. Niels Landwehr/Tobias Scheffer
PROSEMINAR SPAM SEMINAR MASCHINELLES LERNEN IN DER IT SICHERHEIT Organisation, Überblick, Themen Niels Landwehr/Tobias Scheffer Überblick bli heutige Veranstaltung 1. Organisatorisches i 2. Überblick über
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrLineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren
Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion
MehrSeminar. Textdatenanalyse. Carsten Jentsch & Jonas Rieger. Sommersemester fakultät statistik
Seminar Textdatenanalyse Carsten Jentsch & Jonas Rieger Sommersemester 2019 fakultät statistik Was versteht man unter Textdatenanalyse? Text Mining (Wikipedia): Text Mining, seltener auch Textmining, Text
MehrEvolutionäre Algorithmen Einführung
Evolutionäre Algorithmen Einführung Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für Wissens- und Sprachverarbeitung
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 0. Organisatorisches Malte Helmert Universität Basel 16. Februar 2015 Organisatorisches Personen: Dozent Dozent Prof. Dr. Malte Helmert E-Mail: malte.helmert@unibas.ch
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 21. Dezember 2011 1 Definition Binomialverteilung Geometrische Verteilung Poissonverteilung 2 Standardisierte Verteilung
MehrDatenbanken Unit 11: Data Mining
Datenbanken Unit 11: Data Mining 11. VI. 2018 Organisatorisches Diesen Mittwoch UE-Abschlusstest (Gruppe 1: 17:30 18:30, Gruppe 2: 16:15 17:15 ) Klassifikation Outline 1 Organisatorisches 2 Data Mining
MehrWahlpflichtfach Kulturinformatik im Diplom-Studiengang Wirtschaftsinformatik
Otto-Friedrich-Universität Bamberg Wahlpflichtfach Kulturinformatik im Diplom-Studiengang Wirtschaftsinformatik Prof. Dr. Christoph Wintersemester 2006 Was ist Kulturinformatik? Angewandte Informatik Kulturinformatik
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrÜbersicht über 1. Vorlesungsabschnitt Form und Darstellung von Informationen
Einführung in die Informatik für Hörer aller Fakultäten Prof. Jürgen Wolff von Gudenberg (JWG) Prof. Frank Puppe (FP) Prof. Dietmar Seipel (DS) Vorlesung (Mo & Mi 13:30-15:00 im Zuse-Hörsaal): FP: Form
MehrWie können Computer lernen?
Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Erste Schritte am Rechner Christiane Helzel Übungsleiter: Pawel Buchmüller Tutoren: Valdrin Bajrami, Janka Heyer, Niclas Janssen, David Kerkmann, Tran
MehrIndustrie Chance oder Risiko? Martin Botteck Prof. Dr.-Ing. Kommunikationsdienste und -anwendungen
Industrie 4.0 - Chance oder Risiko? Martin Botteck Prof. Dr.-Ing. Kommunikationsdienste und -anwendungen Industrielle Revolution, Version 4.0 Der Kongress im Jahr 2015: Worum geht es überhaupt? Kongress
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrKapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN
Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
MehrVorlesung Modellierung nebenläufiger Systeme Sommersemester 2014 Universität Duisburg-Essen
Vorlesung Modellierung nebenläufiger Systeme Sommersemester 2014 Universität Duisburg-Essen Barbara König Übungsleitung: Sebastian Küpper Barbara König Vorlesung Modellierung nebenläufiger Systeme 1 Das
MehrTypologisierung von Jungunternehmen
Jungunternehmen auf dem Weg zum konsolidierten Mittelstand Typologisierung von Jungunternehmen Dr. Anne Weber, Drs.. MIB Paul Flachskampf Institut für f r Unternehmenskybernetik e.v. Oliver Strauß Institut
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrVorlesung Berechenbarkeit und Komplexität. Motivation, Übersicht und Organisatorisches
Berechenbarkeit und Komplexität: Motivation, Übersicht und Organisatorisches Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Berechenbarkeit die absoluten Grenzen
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrErstes Mathe-Tutorium am Themen können gewählt werden unter:
Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrInnovative Datenanalyse für die Medizin
Innovative Datenanalyse für die Medizin IDEALearning Intelligent Data Evaluation and Analysis by Machine Learning Dr. Susanne Winter winter:science Technologiezentrum Ruhr Universitätsstr. 142 44799 Bochum
MehrLineare Klassifikatoren (Kernel)
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren (Kernel) Blaine Nelson, Christoph Sawade, Tobias Scheffer Inhalt Kernel für strukturierte Datenräume String Kernel, Graph Kernel
MehrEinführung in die Informatik
Einführung in die Informatik Einleitung Organisatorisches, Motivation, Herangehensweise Wolfram Burgard 1.1 Vorlesung Zeit und Ort: Mittwochs 14.00 16.00 Uhr Gebäude 101 HS 00-026 Informationen zur Vorlesung,
MehrModelle, Daten, Lernprobleme
Universität Potsdam Institut für Informatik Lehrstuhl Modelle, Daten, Lernprobleme Tobias Scheffer Überblick Arten von Lernproblemen: Überwachtes Lernen (Klassifikation, Regression, ordinale Regression,
MehrWissenschaft und Gesellschaft
I-Sicherheit: Herausforderungen für Wissenschaft und Gesellschaft, U München, Fraunhofer AISEC 1 Gliederung 1. Schlüsseltechnologie IK 2. IK benötigt Sicherheit 3. Bedrohungen und Herausforderungen (echnologisch)
MehrAlgorithmen und Datenstrukturen (AuD) Prof. Dr. Claudia Eckert und Dr. Thomas Stibor
Algorithmen und Datenstrukturen (AuD) Prof. Dr. Claudia Eckert und Dr. Thomas Stibor Organisatorisches: Vorlesung 4 SWS, Zentralübung 2 SWS: 6 Credit Points Mi 9:45 11:15 Raum 1200 (Vorlesung) Do 8:00
MehrEinführung. Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2009
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2009 Einführung Vorlesung:
Mehr:21 Uhr Modulbeschreibung #1290/1 Seite 1 von 5
04.12.2015 16:21 Uhr Modulbeschreibung #1290/1 Seite 1 von 5 Modulbeschreibung Maschinelles Lernen 1 Modultitel: Maschinelles Lernen 1 Machine Learning 1 URL: Leistungspunkte: 9 Sekretariat: Modulsprache:
MehrAMTLICHE BEKANNTMACHUNG
AMTLICHE BEKANNTMACHUNG NUMMER 2015/014 SEITEN 1-5 DATUM 05.02.2015 REDAKTION Sylvia Glaser 3. Ordnung zur Änderung der Prüfungsordnung für den Master-Studiengang Informatik der Rheinisch-Westfälischen
Mehr