Classification Algorithms. Alexander Dockhorn
|
|
- Oskar Beckenbauer
- vor 4 Jahren
- Abrufe
Transkript
1 Alexander Dockhorn
2 2 / 18 Organisatorisches Wöchentliche Termine Keine Ausarbeitungen im eigentlichen Sinne Stattdessen Mitarbeit, Hausaufgaben, ordentliches Vorbereiten Anrechenbar als Wissenschaftliches Seminar (Bachelor, 3 CP) FIN SMK (Bachelor, 5 CP, mit Programmieraufgabe) Informatikfach (Master, 6 CP mit Programmieraufgabe) Ablauf 45 Minuten Vortrag/Diskussionsrunde, 45 Minuten Wettbewerb
3 3 / 18 Vorträge / Programmierprojekte Vorträge 30 Minuten Vortrag im 2er Team 15 Minuten Diskussion Hier können alle anderen Punkte sammeln! Programmierprojekte Implementation eines Klassifikationsalgorithmus, der NICHT im Seminar besprochen wird Paper suchen oder irgendetwas selber ausdenken Auswahl mit mir absprechen, Abgabetermin ist fix: kurze Präsentation zum gewählten Algorithmus (10 Minuten + 5 Minuten Diskussion) Implementierungssprache: egal, Python bevorzugt, (noch) Solaris-kompatibel, Umstellung auf Linux erfolgt derzeit
4 4 / 18 Bewertung Mitarbeit (1.5 CP) Jeder kann pro Woche zwei Punkte sammeln konstruktiver Beitrag zur Diskussion (Frage, Antwort, Kommentar, ) Vortrag (1.5 CP) Einzelnoten für jeden Vortragenden Bonus für Interaktion, Einbinden der Zuhörer, Einsatz von Medien Programmierprojekt (2 bzw. 3 CP) Lauffähigkeit, rechtzeitige Abgabe, Dokumentation Vortrag
5 5 / 18 Klassifikation
6 6 / 18 Klassifikation Clustering / Klassifikation / Regression Clustering: Keine Zugehörigkeitsinformationen Strukturerkennung Klassifikation: endlicher Wertebereich für Klassenlabel Struktur unter Ausnutzung von mehr Informationen Regression: unendlicher Wertebereich
7 7 / 18 Klassifikation In dieser Veranstaltung: Feature Selection / Preprocessing Überwachtes Lernen 1. Case-based Reasoning, k Nearest Neighbours 2. Decision Trees 3. Bayes Classifier 4. Linear / Quadratic Discriminant Analysis (LDA / QDA) 5. Linear Learning Machines, Support Vector Machines Teilüberwachtes Lernen 1. Label Propagation 2. Semi Supervised Support Vector Machines (S 3 VM) Active Learning Ensemble Methoden
8 8 / 18 k Nearest Neighbours
9 9 / 18 k Nearest Neighbours Spezialfall: Case based Reasoning Beispielsituation: Gerichtsverhandlung Der Richter kennt nur die folgenden beiden anderen Fälle aus der Vergangenheit: 1. Die Angeklagte hat den Mann getötet und ist dafür zu lebenslanger Haft verurteilt worden. 2. Die Angeklagte hat zweifelsfrei die Tat begangen und ist geständig, einer Frau in der Fußgängerzone die Handtasche aus der Hand gerissen zu haben. Dafür hat sie eine Freiheitsstrafe von 1 Jahr ohne Bewährung erhalten.
10 10 / 18 Im Namen des Volkes Fallanalyse Fall 1 Fall 2 Täter: Weiblich Weiblich Opfer: Männlich Weiblich Straftat: Mord / Totschlag Raub Haftstrafe: Lebenslang 1 Jahr
11 11 / 18 Im Namen des Volkes Fallanalyse Fall 1 Fall 2 Vorliegender Fall Täter: Weiblich Weiblich Männlich Opfer: Männlich Weiblich Weiblich Straftat: Mord / Totschlag Raub Diebstahl Haftstrafe: Lebenslang 1 Jahr??? Case-Based Reasoning Suche den ähnlichsten Fall und treffe die gleiche Entscheidung Wie wird der Richter urteilen?
12 12 / 18 Im Namen des Volkes Fallanalyse Case-Based Reasoning Suche den ähnlichsten Fall und treffe die gleiche Entscheidung Hier: vorliegender Fall stimmt mit Fall 1 in nur einem Merkmal überein, mit Fall 2 in zwei Merkmalen Ergebnis: Fall 1 Fall 2 Vorliegender Fall Täter: Weiblich Weiblich Männlich Opfer: Männlich Weiblich Weiblich Straftat: Mord / Totschlag Raub Diebstahl Haftstrafe: Lebenslang 1 Jahr???
13 13 / 18 Im Namen des Volkes Fallanalyse Case-Based Reasoning Suche den ähnlichsten Fall und treffe die gleiche Entscheidung Hier: vorliegender Fall stimmt mit Fall 1 in nur einem Merkmal überein, mit Fall 2 in zwei Merkmalen Ergebnis: 1 Jahr Haftstrafe Fall 1 Fall 2 Vorliegender Fall Täter: Weiblich Weiblich Männlich Opfer: Männlich Weiblich Weiblich Straftat: Mord / Totschlag Raub Diebstahl Haftstrafe: Lebenslang 1 Jahr???
14 14 / 18 k Nearest Neighbour Verwendung von nur einem Beispiel Case-based Reasoning ist knn mit k=1 Mehr ähnliche Fälle können das Ergebnis absichern Wenn der Richter mehr Fälle gekannt hätte und einbezogen hätte, wäre der Jugendliche glimpflicher davon gekommen. Mehrheitsentscheid Entweder alle gleichberechtig oder gewichtet nach Abstand Wie lässt sich Ähnlichkeit mathematisch messen? für Vektorräume: z.b. euklidischer Abstand
15 15 / 18 Abstandsmaße euklidischer Abstand d Ԧx, Ԧy = 2 x i y 2 i Manhatten Abstand (City-Block Distanz) i Minkowski Abstand* d Ԧx, Ԧy = i x i y i d Ԧx, Ԧy;p = p i x i y i p
16 16 / 18 Abstandsmaße Maximum Norm (Chebyshev Metrik) d Ԧx, Ԧy; = lim p p i x i y i p = max i x i y i Hamming Abstand d Ԧx, Ԧy;0 = lim p 0 p i x i y i p Entspricht der Anzahl der Komponenten, in denen sich x und y unterscheiden
17 17 / 18 Visualisierung von Abstandsmaßen Kreise Menge von Punkten, die den gleichen Abstand zum Mittelpunkt haben p = 0 p = 1 p = 2 p =
18 18 / 18 Gewichtete Abstandsmaße* Allgemeine Form d Ԧx, Ԧy;p = p w i x i y p i Jede Dimension bekommt ein eigenes Gewicht i Kreisbeispiel für euklidischen Abstand mit w = (1, 2) Abstand in y-richtung zählt doppelt, also muss man nur halb so weit vom Mittelpunkt weg sein
19 19 / 18 Gewichtete Abstandsmaße Nachteil einfacher Gewichte Ellipsoide sind immer Achsenparallel D.h. Abhängigkeiten von unterschiedlichen Attributen werden ignoriert Lösung: Mahalanobis-Distanz* d Ԧx, Ԧy = Ԧx Ԧy T Σ 1 Ԧx Ԧy Σ ist Kovarianzmatrix alle paarweisen Kovarianzen werden berücksichtigt
20 20 / 18 Andere Abstandsmaße Standardisierter euklidischer Abstand (steuclidean) Egalisiert unterschiedliche Skalierungen in den Dimensionen Vor der Abstandsberechnung werden alle Dimensionen umgerechnet auf das Intervall [0,1] Quadratischer euklidischer Abstand (sqeuclidean) In vielen Berechnungen braucht man nicht den Abstand selbst sondern d² Wurzelziehen entfällt einfach
Vorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
Multivariate Verfahren
Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:
6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung
6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback
6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation
6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische
Eine Einführung in R: Hochdimensionale Daten: n << p Teil II
Eine Einführung in R: Hochdimensionale Daten: n
Lineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
achsenparallele Stauchung und Streckung durch Gewichte :
Gewichtete Minkowski-Distanzfunktion achsenparallele Stauchung und Streckung durch Gewichte : Forderung: staab@uni-koblenz.de 1 Einheitskreis Translationsinvarianz keine Skalierungsinvarianz keine Rotationsinvarianz
1. Referenzpunkt Transformation
2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere
Entscheidungen bei der Durchführung einer Cluster-Analyse
7712Clusterverfahren Entscheidungen bei der Durchführung einer Cluster-Analyse nach: Eckes, Thomas, und Helmut Roßbach, 1980: Clusteranalysen; Stuttgart:Kohlhammer A. Auswahl der Merkmale Festlegung des
Kapitel 4: Data Mining
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2017 Kapitel 4: Data Mining Vorlesung:
Feature Selection / Preprocessing
1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig
Lernende Vektorquantisierung
Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels
TOPSIS. Eine Technik der Effizienzanalyse
TOPSIS Eine Technik der Effizienzanalyse 1 Literatur Peters, Malte L. und Zelewski, Stephan: TOPSIS als Technik zur Effizienzanalyse. Wirtschaftsstudium, Heft 1, 2007, S. 9-15 http://www.pim.uni-due.de/fileadmin/publikationen/topsis_zur_effizienzanalyse.pdf
Einführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie
Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie Von der Fakultat fur Lebenswissenschaften der Technischen Universitat Carolo-Wilhelmina zu Braunschweig
Instanzenbasiertes Lernen: Übersicht
Instanzenbasiertes Lernen: Übersicht k-nearest Neighbor Lokal gewichtete Regression Fallbasiertes Schließen Lernen: Lazy oder Eager Teil 11: IBL (V. 1.0) 1 c G. Grieser Instanzenbasiertes Lernen Idee:
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
Was ist, kann und darf Deep Learning? Dr. Beat Tödtli Laboratory for Web Science
Was ist, kann und darf Deep Learning? Dr. Beat Tödtli Laboratory for Web Science 15.12.2017 Suchinteresse 15.12.2017 Was ist, kann und darf Deep Learning? 2 Google Trends für Deep Learning ILSVRC 2012:
Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen
Lineare Algebra und Datenwissenschaften in Ingenieur- und Informatikstudiengängen Heiko Knospe Technische Hochschule Köln heiko.knospe@th-koeln.de 6. September 26 / 2 Einleitung Das Management und die
Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
A linear-regression analysis resulted in the following coefficients for the available training data
Machine Learning Name: Vorname: Prof. Dr.-Ing. Klaus Berberich Matrikel: Aufgabe 1 2 3 4 Punkte % % (Bonus) % (Gesamt) Problem 1 (5 Points) A linear-regression analysis resulted in the following coefficients
Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Klassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces
EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
B VI 1 - j/17 Fachauskünfte: (0711)
Artikel-Nr. 3255 17001 Rechtspflege B VI 1 - j/17 Fachauskünfte: (0711) 641-26 17 17.12.2018 Strafverfolgung in Baden-Württemberg 2017 Rechtskräftig Abgeurteilte und in Baden-Württemberg 2017 Ergebnisse
Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
Inhalt VORWORT... 9 INHALT BETÄUBUNGSMITTELVERGEHEN VERSTOSS GEGEN DAS EXPORTGESETZ... 16
Seite 10 Zänker: Deutsche Urteile in Strafsachen Inhalt VORWORT... 9 INHALT... 10 BETÄUBUNGSMITTELVERGEHEN... 13 VERSTOSS GEGEN DAS EXPORTGESETZ... 16 UNERLAUBTES HANDELTREIBEN MIT BETÄUBUNGSMITTELN...
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010
Data Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 11: Machine Learning Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.unileipzig.de Data Mining 111 112 Data Mining Übersicht Hochdimension.
B VI 1 - j/16 Fachauskünfte: (0711)
Artikel-Nr. 3255 16001 Rechtspflege B VI 1 - j/16 Fachauskünfte: (0711) 641-26 20 30.11.2017 Strafverfolgung in Baden-Württemberg 2016 Rechtskräftig Abgeurteilte und in Baden-Württemberg 2016 Ergebnisse
Skalarprodukt, Norm & Metrik
Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1
Charakterisierung von 1D Daten
Charakterisierung von D Daten Mittelwert: µ, Schätzung m x = x i / n Varianz σ2, Schätzung: s2 = (s: Standardabweichung) Höhere Momente s 2 = ( x i m x ) 2 n ( ) Eine Normalverteilung ist mit Mittelwert
Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn
Multivariate Pattern Analysis Jan Mehnert, Christoph Korn Übersicht 1. Motivation 2. Features 3. Klassifizierung 4. Statistik 5. Annahmen & Design 6. Similarity 7. Beispiel Grenzen & Probleme der klassischen
Vorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
Distanzen und Ähnlichkeitsmaÿe
Distanzen und Ähnlichkeitsmaÿe Michael Siebers Kognitive Systeme Universität Bamberg 25. Mai 2011 M. Siebers (KogSys) Distanzen und Ähnlichkeitsmaÿe 25. Mai 2011 1 / 14 Agenda 1 Distanzen 2 Ähnlichkeitsmaÿe
Vorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG. Stefan Langer CIS Universität München Wintersemester 2016/17
SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG Stefan Langer CIS Universität München Wintersemester 2016/17 stefan.langer@cis.uni-muenchen.de Anmeldung Bereits erfolgt über LSF Falls alternative Email
Lineare Methoden zur Klassifizierung
Lineare Methoden zur Klassifizierung Kapitel 3 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität
:21 Uhr Modulbeschreibung #1290/1 Seite 1 von 5
04.12.2015 16:21 Uhr Modulbeschreibung #1290/1 Seite 1 von 5 Modulbeschreibung Maschinelles Lernen 1 Modultitel: Maschinelles Lernen 1 Machine Learning 1 URL: Leistungspunkte: 9 Sekretariat: Modulsprache:
1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
Pareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
k-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
(Pro-)Seminar - Data Mining
(Pro-)Seminar - Data Mining Vorbesprechung SCCS, Fakultät für Informatik Technische Universität München SS 2018 Data Mining: Beispiele (1) Hausnummererkennung (Klassikation) Source: http://arxiv.org/abs/1312.6082
PCA based feature fusion
PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05 Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2 Motivation: PCA
Decision-Tree-Klassifikator
D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung
Inhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Clusteranalyse. Mathematische Symbole Anzahl der Objekte, Versuchspersonen
Clusteranalyse Ziel: Auffinden von Gruppen ( Cluster ) ähnlicher Obekte (bezogen auf die ausgewählten Variablen). Obekte i selben Cluster haben ähnliche Eigenschaften, Obekte in verschiedenen Clustern
Maschinelles Lernen und Data Mining
Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:
12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme
12. Flächenrekonstruktion aus 3D-Punktwolken und generalisierte Voronoi-Diagramme (Einfache) Voronoi-Diagramme: Motivation: gegeben: Raum R, darin Menge S von Objekten Frage nach Zerlegung von R in "Einflusszonen"
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
Multivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
30 Metriken und Normen
31 Metriken und Normen 153 30 Metriken und Normen Lernziele: Konzepte: Metriken, Normen, Skalarprodukte, Konvergenz von Folgen Frage: Versuchen Sie, möglichst viele verschiedene Konvergenzbegriffe für
Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch
Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col
Strukturerkennende Verfahren
Strukturerkennende Verfahren Viele Verfahren der multivariaten Datenanalyse dienen dazu, die in den Daten vorliegenden Strukturen zu erkennen und zu beschreiben. Dabei kann es sich um Strukturen sehr allgemeiner
Ahnlichkeitsbestimmung von Bildern
Seminar: Content Based Image Retrieval Lehrstuhl fur Mustererkennung und Bildverarbeitung 10. Januar 2005 Ubersicht Einfuhrung Problemstellung: Vergleiche Merkmale verschiedener Bilder und bewerte deren
1. NachalgemeinemStrafrechtundnachJugendstrafrechtAbgeurteilteinBaden-Würtemberg2003 nachpersonengruppen
NachalgemeinemStrafrechtundnachJugendstrafrechtAbgeurteilteinBaden-Würtemberg2003 nachpersonengruppen Abgeurteilte VondenAbgeurteiltenwaren StrafbareHandlungen () Insgesamt Erwachsene zusammen Erwachsene
Maschinelles Lernen zur Hautkrebsvorhersage
Maschinelles Lernen zur Hautkrebsvorhersage Eine Bachelorarbeit von Daniel Fischer Betreuung: Dipl. Inf. Frederik Janssen Prof. Dr. Johannes Fürnkranz Dr. med. Matthias Herbst 03.07.2011 Fachbereich Informatik
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
Syntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Entscheidungstheorie Bayes'sche Klassifikation
Predictive Analytics. Warum datenbasierte Vorhersagen kein Hexenwerk sind. ASQF Automation Day Dr. Stefano Signoriello
Predictive Analytics Warum datenbasierte Vorhersagen kein Hexenwerk sind Dr. Stefano Signoriello Seite 1 Inhalte des Vortrags Analytics Von Daten zu Wissen Von Nachsicht über Einsicht zu Voraussicht Descriptive,
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Spracherkennung gestern und morgen - 2 - Ziel Klassifikation von Signalen, Mustererkennung z.b. Sprache, Gestik, Handschrift, EKG, Verkehrssituationen, Sensor Signal Klasse 1 Klasse 2 Klasse n Vorverarbeitung:
Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11
ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03
Vorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
Kategorisierung und Clustering als Technologien für die Erschließung unstrukturierter Information auf der Grundlagevon Oracle 10g TEXT
Kategorisierung und Clustering als Technologien für die Erschließung unstrukturierter Information auf der Grundlagevon Oracle 10g TEXT Barbara Steinhanses Business Development Manager TEXT, intermedia,
Vorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von
WEKA A Machine Learning Interface for Data Mining
WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010
Informationssysteme im Electronic Commerce. Social Recommendation Systems
Informationssysteme im Electronic Commerce Social Recommendation Systems Seminar für Bachelor-/Master-/Diplomstudiengang Sommersemester 2012 Prof. Dr. Oliver Hinz Professur für Wirtschaftsinformatik insb.
11.8 Diskriminanzanalyse
11.8 Diskriminanzanalyse Die Diskriminanzanalyse bezieht sich auf dieselbe Erhebungssituation wie die einfaktorielle MANOVA und teilt deren Voraussetzungen (vgl. Abschn. 11.7.1): Beobachtungsobjekte aus
Projekt-INF Folie 1
Folie 1 Projekt-INF Entwicklung eines Testbed für den empirischen Vergleich verschiedener Methoden des maschinellen Lernens im Bezug auf die Erlernung von Produktentwicklungswissen Folie 2 Inhalt Ziel
Fallbasiertes Schließen (Case-based Reasoning, CBR) CBR-Zyklus nach Aamodt und Plaza 1994:
Fallbasiertes Schließen (Case-based Reasoning, CBR) CBR-Zyklus nach Aamodt und Plaza 1994: 1 Retrieve the most similar case 2 Reuse the solution and other information of the case 3 Revise the proposed
PROJEKT- UND HAUPTSEMINAR SSE
PROJEKT- UND HAUPTSEMINAR SSE Einführungstermin Veranstaltung im Sommersemester 2017 FG System- und Softwareengineering Prof. Dr.-Ing. Armin Zimmermann Ablauf Heute Organisatorisches Projektseminar Haupt-
INDIKATOREN ZU GEWALT UND VERGEWALTIGUNG IN DER PARTNERSCHAFT FÜR POLIZEI UND JUSTIZ
INDIKATOREN ZU GEWALT UND VERGEWALTIGUNG IN DER PARTNERSCHAFT FÜR POLIZEI UND JUSTIZ EIGE November 2017 Indikator 1 Jährliche Anzahl der Frauen (18 Jahre und älter), die nach polizeilichen Erkenntnissen
Fallbasiertes Schließen (Case-based Reasoning, CBR) CBR-Zyklus nach Aamodt und Plaza 1994:
Fallbasiertes Schließen (Case-based Reasoning, CBR) CBR-Zyklus nach Aamodt und Plaza 1994: 1. Retrieve the most similar case 2. Reuse the solution and other information of the case 3. Revise the proposed
Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der
Proseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes
Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes Seminar Maschinelles Lernen VORTRAGENDER: SEBASTIAN STEINMETZ BETREUT VON: ENELDO LOZA MENCÍA Inhalt Vorbedingungen
Andere Methoden zur Klassikation und Objekterkennung
Andere Methoden zur Klassikation und Objekterkennung Heike Zierau 05. Juni 2007 1. Einführung 2. Prototypmethoden K-means Clustering Gaussian Mixture Gaussian Mixture vs. K-means Clustering 3. nächste-nachbarn
Clustering. Ausarbeitung von Michael Speckner. Proseminar Data Mining
Clustering Ausarbeitung von Michael Speckner Proseminar Data Mining Einleitung Das Clustering wird verwendet, wenn man keine Klassen vorhersagen kann, aber die Instanzen in natürliche Gruppen einteilen
Recommender Systeme mit Collaborative Filtering
Fakultät für Informatik Technische Universität München Email: rene.romen@tum.de 6. Juni 2017 Recommender Systeme Definition Ziel eines Recommender Systems ist es Benutzern Items vorzuschlagen die diesem
Pearson- Korrelationskoeffizienten höherer Grade
Pearson- Korrelationskoeffizienten höherer Grade Dipl.- Ing. Björnstjerne Zindler, M.Sc. Erstellt: 13. März 2014 Letzte Revision: 16. März 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Der Lineare Korrelationskoeffizient
Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke
Anwendungen der Hauptkomponentenanalyse Volker Tresp vertreten durch Florian Steinke 1 Dimensionsreduktion für Supervised Learning 2 Beispiel: Kaufentscheidung 3 Verbesserte Abstandsmaße durch Hauptkomponentenanalyse
Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
V. Metriken. Gliederung. I. Motivation. Lesen mathematischer Symbole. Wissenschaftliche Argumentation. Matrizenrechnung. Seite 67
Gliederung I. Motivation II. III. Lesen mathematischer Symbole Wissenschaftliche Argumentation IV. Matrizenrechnung V. Metriken Seite 67 Problemstellung: Gegeben seien 2 Punkte im Raum. Wie groß ist die
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend