INTELLIGENTE DATENANALYSE IN MATLAB
|
|
- Daniela Hauer
- vor 6 Jahren
- Abrufe
Transkript
1 INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen
2 Literatur Chris Bishop: Pattern Recognition i and Machine Learning. Jiaweii Han und Micheline Kamber: Data Mining i Concepts and Techniques. Ulrike von Luxburg: A Tutorial on Spectral Clustering. Matteo Matteucci: A Tutorial on Clustering Algorithms. 2
3 Überblick Shi Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion von Daten. Integration und Säuberung der Daten. Feature- Extraktion. Bestimmen von gegeb./gesuchten Größen. Wahl des Performanzmaß/ Zielkriteriums. Modellraum und Modellannahmen. Algorithmen für das Optimieren des Zielkriteriums finden. Implementieren der Algorithmen. Modell-Selektion & -Anpassung. Training & Evaluation des Modells auf gegebenen Daten. Vorhersage für neue Daten. 3
4 Unüberwachtes Lernen: Problemstellung Gegeben: Trainingsdaten i mit unbekannten Zielattributen (ungelabelte Daten). Eingabe: Instanzen. Ausgabe: Belegung der Zielattribute. Clustern: Nominaler Wertebereich des Zielattributs ib (z.b. Jahreszeiten, {Cluster1, Cluster2, }), d.h. jeder Datenpunkt wird zu genau einem Cluster zugeordnet. Dichteschätzung: Numerischer Wertebereich des Zielattributs, d.h. jedem Datenpunkt wird Wahrscheinlichkeitsverteilung über alle Cluster zugeordnet. 4
5 Unüberwachtes Lernen: Beispiel Beispiel i Clustern (Tabellendarstellung): Monat Bewölkung Temperatur Luftfeuchtigkeit Wind Jahreszeit Juli sonnig warm hochh wenig? September sonnig warm hoch stark? August bedeckt warm hoch wenig? April Regen mild hoch wenig? Oktober Regen kühl normal wenig? Dezember Regen kühl normal stark? Januar bedeckt kühl normal stark? Juli sonnig mild hoch wenig? Februar sonnig kühl normal wenig? März Regen mild normal wenig? November sonnig mild normal stark? August bedeckt mild hoch stark? Juni bedeckt warm normal wenig? April Regen mild hoch stark? Trainings sdaten Zielgröße 5
6 Unüberwachtes Lernen: Beispiel Beispiel i Clustern (Diagramm bzgl. der Attribute Luftfeuchtigkeit und Temperatur): Luftfeuchtigkeit hochh Herbst Sommer normal kühl Winter Frühling warm Temperatur 6
7 Motivation Besseres Verständnis/Beschreibung ädi/b ib der Daten: Kundensegmentierung: Zielgerichtetes Marketing, Produktentwicklung usw. für einzelne Zielgruppen. Landnutzung/Stadtplanung: Identifizieren von Regionen mit ähnlichen geographischen, klimatischen, städtebaulichen Eigenschaften. Risikoanalyse: Klassen von Kunden mit unterschiedlichen Versicherungsrisiken erkennen. Teil der Datenvorverarbeitung für weitere Analyse: Diskretisierung von numerischen Attributen. Outlier-Detection. 7
8 Motivation: Anwendung Überblick bli über eine Dokumentenkollektion. k k Suche nach Stichwort Kohl liefert viele Dokumente. Idee: Zeige dem Nutzer Cluster um genauere Auswahl des Themas zu ermöglichen. Helmut Kohl (Politiker) Kohl s (US Kaufhaus) Kohl (Gemüse) 8
9 Motivation: Anwendung Spam-Kampagnen identifizieren. ifi i Spam-Kampagne ist große Menge ähnlicher (aber nicht gleicher) s. Idee: -Attribute (z.b. enthaltene Wörter) clustern und Spam-Cluster durch nachgeschalteten Klassifikator erkennen. 9
10 Evaluierung Qualitätsmerkmale l eines Clusterings: Hohe Ähnlichkeit zweier Datenpunkte eines Clusters (intra-cluster similarity). Geringe Ähnlichkeit zwischen Datenpunkten verschiedener Cluster (inter-cluster similarity). Anzahl, Form und Größenvarianz der Cluster. Interpretierbarkeit, d.h. gefundene Cluster entsprechen echten (versteckten) Clustern. Stichprobenartig durch Experten prüfen. 10
11 Cluster-Verfahren Cluster-Verfahren Ähnlichkeitsbasierend Dichtebasierend Prototyp- t Misch- Verlinkung- Graphen- Spatial Mode Kernelbasierend Gid Gridbasierenbasierend Modelle basierend theoretisch Clustering Seeking K-Means, K-Medoid Mixture of Gaussians AGNES, CHAMELON Spectral Clustering DBSCAN, OPTICS Mean-Shift DENCLUE STING 11
12 Prototyp-Verfahren Gegeben: Ungelabelte Daten X { x, x,..., x }. 1 2 Anzahl vermuteter Cluster k mit 1<k k < n. Ähnlichkeitsmaß zwischen Datenpunkten. Gesucht: Partitionierung der Daten in k Cluster. Ziel: Kleiner Abstand zw. Punkten im selben Cluster und großer Abstand zw. Punkten verschiedener Cluster. Exponentiell viele Partitionierungen Suche NP-hart! Heuristische Suche (lokal optimal): K-Means und K-Medoids. n 12
13 Prototyp-Verfahren: K-Means Gesucht ist eine Zuweisung R { r1, r2,..., r n } der Daten X { x, x,..., x } zu den Clustern mit 1 2 n k 1 xi in Cluster j ri0,1 rij 0 sonst z.b.. r falls das 5. Beispiel e in Cluster 3 liegt T Seien {,,..., } Cluster-Mittelpunkte (Prototypen). μ1 μ2 μ k Ziel: Minimaler quadratischer Abstand zu den Cluster- Mittelpunkten: n k minr x μ i 1 j 1 ij i j 2 13
14 Prototyp-Verfahren: K-Means Gleichzeitiges Minimieren über { 1, 2,..., k } und sehr schwierig. Idee: Abwechselnde Minimierung. Algorithmus: K-Means(Instanzen t x i, Clusteranzahl k) 0 Setze l = 0 und wähle zufällig i μi DO n k l1 l1 l 2 {,..., } arg min r x j μ μ μ { r1, r2,..., r n } r1 rn ij xi μ j Expectation r1,..., rn i1 j1 n k l1 l1 l1 1 n rij i j μ1,..., μn i1 j1 { μ,..., μ } arg min x μ l l1 l l l1 l1 WHILE { r1,..., rn} { r1,..., rn } l l RETURN { r1,..., r n } 2 Maximization 14
15 Prototyp-Verfahren: K-Means Expectation-Schritt: n k l1 l1 l 1 n rij i j r1,..., rn i1 j1 { r,..., r } arg min x μ 2 Ordne jeden Punkt dem ihm nächsten Cluster-Mittelpunkt zu. 15
16 Prototyp-Verfahren: K-Means Maximization-Schritt: n k l 1 l 1 l 1 1 n r ij i j μ1,..., μn i1 j1 { μ,..., μ } arg min x μ 2 n n l 1 l 1 l 1 Bestimme neue Cluster-Mittelpunkte μ r ij i r j x ij. i1 i1 16
17 Prototyp-Verfahren: K-Means Vorteile: Einfach zu implementieren Relativ schnell. In O(nk) pro Iteration. Effizienten Berechnung neuer Cluster-Mittelpunkte möglich. Nachteile: Nur lokales Optimum garantiert (unterschiedliche Startwerte = unterschiedliche Lösungen). Harte Zuweisung zu Clustern (nicht-probabilistisch). Anzahl Cluster muss vorgeben werden. Nur für nummerische Attribute geeignet. 17
18 Mischmodelle Gegeben: Ungelabelte Daten X { x, x,..., x }. 1 2 Anzahl vermuteter Cluster k muss nicht ihbekannt sein. Verteilungsannahme der Datenpunkte. Gesucht: Probabilistische Partitionierung der Daten. n Cluster 1 oder 2 Cluster 3 18
19 Mischmodelle Idee: Generatives (Misch-)Modell welches Daten X erzeugt hat mit Modell-Paramter. Cluster-Zuordnungen des Modells. Ziel: R { r, r,..., r } 1 2 n sind versteckte Variablen Parameter mit maximaler A-Posteriori-Warscheinlichkeit (MAP): * p X p X p arg max ( ) arg max ( ) ( ) 19
20 Mischmodelle: Mixture of Gaussians Gesucht ist eine Zuweisung { π1, π2,..., π n } der Daten zu den Clustern mit Annahme: π i k 0,1 1 Daten-erzeugendes Modell ist Kombination von Gauß- Verteilungen mit unterschiedlichen Mittelwerten und Kovarianzen k j1 n n k p( X ) p( xi ) ijn( xi μ j, Σ j) i1 i1 j1 mit Parametern, μ, Σ. ij j j ij { x1, x2,..., x n } 20
21 Mischmodelle: Mixture of Gaussians Schätzen der Parameter durch abwechselnde Optimierung analog zu K-Means (EM-Algorithmus). 21
22 Mischmodelle: Mixture of Gaussians Vorteile: Probabilistische Zuweisung zu Clustern. Anzahl Cluster muss nicht vorgeben werden. Automatischer Trade-off zwischen Anzahl Clustern und Anpassung an Daten. Nachteile: Langsamer und komplexer als K-Means. Nur für nummerische Attribute geeignet. 22
23 Verlinkungsbasierte Verfahren Gegeben: Ungelabelte Daten X { x, x,..., x }. 1 2 Anzahl vermuteter Cluster k muss nicht ihbekannt sein. Abstandsmaß dist zwischen Datenpunkten. Gesucht: Darstellung der Daten in Form eines Dendrogramms. n 23
24 Verlinkungsbasierte Verfahren Idee: Agglomerative Hierarchical Clustering. Zu Beginn bildet jeder Datenpunkt einen eigenen Cluster. Benachbarte Cluster werden sukzessive verschmolzen (bottom-up). Divisive Hierarchical Clustering. Ziel: Zu Beginn bilden alle Daten einen gemeinsamen Cluster. Cluster werden sukzessive gesplittet (top-down). Iteratives Aufbauen des Clusterings bis vorgegebene Qualität erreicht ist Qualität erreicht ist. 24
25 Verlinkungsbasierte Verfahren: Agglomerative Nesting (AGNES) Algorithmus: AGNES(Instanzen x i ) Setze C { x } DO WHILE RETURN i i i D dist( C, C ) i, j ij i j * * (, ) argmin i, j i j D Verschmelze D * * i j C i { } ij C und * * i C j Jeder Datenpunkt ein eigener Cluster Distanz zwischen zwei Clustern? Mindest-Qualität (Abbruchbedingung) 25
26 Verlinkungsbasierte Verfahren: Agglomerative Nesting (AGNES) Distanz zwischen zwei Clustern: Single Linkage: dist ( C, C ) min dist ( xy, ) i j xc, yc i j Complete Linkage: dist( C, C ) i j xc, yc max dist( xy, ) i j Average Linkage: Average Group Linkage: Centroid: dist( C, C ) dist( C, C ) i i j j 1 Ci Cj x Ci, y C 1 Ci Cj xy, CiC j dist( xy, ) j dist( xy, ) 1 1 dist ( C, ) x, i C j dist y Ci xc C i j yc j 26
27 Verlinkungsbasierte Verfahren: Agglomerative Nesting (AGNES) Vorteile: Einfach zu implementieren Relativ schnell. Iteratives Verfahren, für Online-Clustering geeignet. Für nominale, ordinale und numerische Attribute geeignet. Anzahl Cluster muss nicht vorgeben werden. Nachteile: Nur lokales Optimum garantiert. Harte Zuweisung zu Clustern (nicht-probabilistisch). Maß für Cluster-Distanz & Abbruchbedingung muss vorgegeben werden. 27
28 Graphentheoretische Verfahren Gegeben: Ungelabelte Daten X { x, x,..., x }. 1 2 Anzahl vermuteter Cluster k mit 1<k k < n. Ähnlichkeitsmaß (Kernel) sim zwischen Datenpunkten. Gesucht: Partitionierung der Daten in k Cluster. Ziel: Hohe Ähnlichkeit zw. Punkten im selben Cluster und geringe Ähnlichkeit zw. Punkten verschiedener Cluster. Repräsentation der Daten als Graph und Partitionieren des Graphs. n 28
29 Graphentheoretische Verfahren Ähnlichkeit zwischen Datenpunkten (Knoten) bilden gewichtete Kanten: 29
30 Graphentheoretische Verfahren Konstruktion des Graphen: -Neighborhood-Graph: Verbinde Knoten x i mit x j falls sim(x i, x j ) >, und setze Kantengewicht auf 1. k-nearest-neighbor-graph: Verbinde Knoten x i mit x j falls x i einer der k-nächsten Nachbarn von x j ist oder/und x j einer der k-nächsten Nachbarn von x i ist, und setze Kantengewicht auf sim(x i, x j ). Vollständiger Graph: Verbinde alle Knoten x i mit x j, und setze Kantengewicht auf sim(x i, x j ). Partitionierung des Graphen: Kanten zwischen Clustern (Teilgraphen) haben geringe Gewichte (geringe inter-cluster similarity). Kanten innerhalb eines Clusters haben hohe Gewichte (hohe intra-cluster similarity). 30
31 Graphentheoretische Verfahren Repräsentation eines (ungericheten) Graphen: Adjazenzmatrix: 1 0,5 0 0,1 0, ,3 A ,7 0,1 0,3 0, 7 1 x 1 0,5 x 2 0,1 0,3 Enthält Kantengewichte A ij. x 4 0,7 x3 Knotengrad-Matrix: Laplace-Matrix: d1 0 D 0 d n d i n j1 A ij Unnormalisiert: Normalisiert (Random Walk): Symmetrisch normalisiert: L un DA 1 Lrw ID A L ID AD sym
32 Graphentheoretische Verfahren: Spectral Clustering Algorithmus: SpecClust(Instanzen x i, Clusteranzahl k) Konstruiere Graph aus Instanzen x i Berechne zugehörige Laplace-Matrix L Berechne die k Eigenvektoren v n mit den k kleinsten Eigenwerten Setze x x x v v v T 1 2 n 1 2 { r,..., r } K-Means(Instanzen t x i, Clusteranzahl k) 1 n RETURN { r1,..., r n } i k 32
33 Graphentheoretische Verfahren: Spectral Clustering Vorteile: Cluster können beliebige Form haben. Einfach zu implementieren. i Relativ schnell (falls Laplace-Matrix sparse). Meist hohe Qualität. Nachteile: Nur lokales Optimum garantiert. Harte Zuweisung zu Clustern (nicht-probabilistisch). Anzahl Cluster muss vorgeben werden. 33
34 Dichtebasierendes Clustern: Spatial Clustering Idee: Cluster-Grenzen sollen durch Regionen mit geringer Datendichte verlaufen. Zwei Punkte x und y gehören zum gleichen Cluster falls es einen Pfad zwischen beiden Punkten gibt. Direkte Erreichbarkeit des Punktes y von x: Nachbarschaftsbedingung: g y N ( x ) z dist ( x, z) Core-Point-Bedingung: # min N ( x) y x Mindestanzahl von benachbarten Punkten 34
35 Dichtebasierendes Clustern: Spatial Clustering Punkt y ist von x erreichbar: Es gibt einen Pfad p 1,p 2,,p m mit p 1 = x und p m = y y, so dass p i+1 direkt erreichbar von p i ist für i = 1 m. x p 1 y Punkt y ist mit x verbunden: Es gibt einen Punkt z, so dass x und y erreichbar von z sind. x z y 35
36 Dichtebasierendes Clustern: Spatial Clustering: DBSCAN Algorithmus: DBSCAN(Instanzen x i, Radius, Mindest-Clustergröße g) Setze l D x DO 0, i Wähle zufällig x D P = { y y ist von x erreichbar} IF P < g D = D \ x ELSE l=l+1 C l =P D = D \ P WHILE D RETURN { C 1,...,, C l } P enthält x x ist Outlier (nicht Teil eines Clusters) x ist Core-Point eines Clusters 36
37 Dichtebasierendes Clustern: Spatial Clustering: DBSCAN Vorteile: Cluster können beliebige Form haben. Für nominale, ordinale und numerische Attribute geeignet. Anzahl Cluster muss nicht vorgeben werden. Nachteile: Nur lokales Optimum garantiert. Harte Zuweisung zu Clustern (nicht-probabilistisch). Radius & Mindest-Clustergröße müssen vorgegeben werden. 37
38 Zusammenfassung Prototyp-Verfahren (z.b. K-Means): Schnell, numerische Attribute, bekannte Clusteranzahl. Mischmodelle (z.b. Mixture of Gaussians): Probabilistische Cluster-Zuweisung, numerische Attribute, unbekannte Clusteranzahl. Verlinkungsbasierte Verfahren (z.b. AGNES): Iterativ, beliebige Attribute, unbekannte Clusteranzahl. Graphbasierte Verfahren (z.b. Spectral Clustering): Beliebige Clusterform, hohe Qualität. Spatial Clustering (z.b. DBSCAN): Beliebige Clusterform, unbekannte Clusteranzahl. 38
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informati Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/iels Landwehr/Tobias Scheffer Überblic Problemstellung/Motivation Deterministischer Ansatz: K-Means
MehrClustering Seminar für Statistik
Clustering Markus Kalisch 03.12.2014 1 Ziel von Clustering Finde Gruppen, sodas Elemente innerhalb der gleichen Gruppe möglichst ähnlich sind und Elemente von verschiedenen Gruppen möglichst verschieden
MehrTextmining Clustering von Dokumenten
Textmining Clustering von Dokumenten Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Clustering 1 / 25 Clustering Definition Clustering ist
MehrExploration und Klassifikation von BigData
Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrVorlesung Text und Data Mining S9 Text Clustering. Hans Hermann Weber Univ. Erlangen, Informatik
Vorlesung Text und Data Mining S9 Text Clustering Hans Hermann Weber Univ. Erlangen, Informatik Document Clustering Überblick 1 Es gibt (sehr viele) verschiedene Verfahren für das Bilden von Gruppen Bei
MehrVorlesung 3 MINIMALE SPANNBÄUME
Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei
MehrEinführung in das Data Mining Clustering / Clusteranalyse
Einführung in das Data Mining Clustering / Clusteranalyse Sascha Szott Fachgebiet Informationssysteme HPI Potsdam 21. Mai 2008 Teil I Einführung Clustering / Clusteranalyse Ausgangspunkt: Menge O von Objekten
MehrEntwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion
Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrStatistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07
Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07 Ziel der Clusteranalyse: Bilde Gruppen (cluster) aus einer Menge multivariater Datenobjekte (stat
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrAnalysis of Crash Simulation Data using Spectral Embedding with Histogram Distances
Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Luisa Schwartz Universität Bonn Institut für Numerische Simulation Fraunhofer SCAI 25. September 2014 Luisa Schwartz
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung
INTELLIGENTE DATENANALYSE IN MATLAB Objekterkennung Objekterkennung Problemstellung Gegeben: Ein Bild. Fragestellungen: Klassifikationsproblem Ist ein bestimmtes Objekt (z.b. Flugzeug) auf dem Bild? Welches
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrClusteranalyse. Anwendungsorientierte Einführung. R. Oldenbourg Verlag München Wien. Von Dr. Johann Bacher
Clusteranalyse Anwendungsorientierte Einführung Von Dr. Johann Bacher R. Oldenbourg Verlag München Wien INHALTSVERZEICHNIS Vorwort XI 1 Einleitung 1 1.1 Primäre Zielsetzung clusteranalytischer Verfahren
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrInhalt dieses Kapitels. Ziel des Clustering, Anwendungen, Typen von Clustering-Algorithmen
2. Clustering Inhalt dieses Kapitels 3. Einleitung Ziel des Clustering, Anwendungen, Typen von Clustering-Algorithmen 3.2 Partitionierende Verfahren k-means, k-medoid, Expectation Maximization, Initialisierung
MehrDokumenten-Clustering. Norbert Fuhr
Dokumenten-Clustering Norbert Fuhr Dokumenten-Clustering (Dokumenten-)Cluster: Menge von ähnlichen Dokumenten Ausgangspunkt Cluster-Hypothese : die Ähnlichkeit der relevanten Dokumente untereinander und
Mehr6. Multivariate Verfahren Zufallszahlen
4. Zufallszahlen 6. Multivariate Verfahren Zufallszahlen - werden nach einem determinist. Algorithmus erzeugt Pseudozufallszahlen - wirken wie zufäll. Zahlen (sollen sie jedenfalls) Algorithmus: Startwert
MehrData Mining und Knowledge Discovery in Databases
Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining
MehrEinführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch
Einführung: martin.loesch@kit.edu (0721) 608 45944 Übersicht Motivation & Hintergrund Naiver Bayes-Klassifikator Bayessche Netze EM-Algorithmus 2 Was ist eigentlich? MOTIVATION & HINTERGRUND 3 Warum Lernen
MehrVoraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen
7. Clusteranalyse (= Häufungsanalyse; Clustering-Verfahren) wird der multivariaten Statistik zugeordnet Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut,
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrAlgorithmus zum Graphen-Matching. und. Anwendung zur inhaltsbasierten Bildersuche
Algorithmus zum Graphen-Matching und Anwendung zur inhaltsbasierten Bildersuche Gliederung 1. Einführung 2. Algorithmus Beschreibung Beispiel Laufzeit 3. Anwendung des Algorithmus Seite 1 von 18 1. Einführung
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
MehrRouting Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
Mehr2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
MehrSemestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2006 Termin:
Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2006 Termin: 26. 7. 2006 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen Der Tragödie IV. Theyl Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University
MehrData Warehousing und Data Mining
Data Warehousing und Data Mining Clustering Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Clustergüte Ähnlichkeiten Clustermitte Hierarchisches Clustering Partitionierendes
Mehr3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel
3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36
MehrKnowledge Discovery in Datenbanken I (IN5042)
Knowledge Discovery in Datenbanken I (IN5042) Titel Knowledge Discovery in Databases I Typ Vorlesung mit Übung Credits 6 ECTS Lehrform/SWS 3V + 2Ü Sprache Deutsch Modulniveau Master Arbeitsaufwand Präsenzstunden
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Sequenzanalyse Überblick Sh Schrie der Daenanalyse: Daenvorverarbeiung Problemanalyse Problemlösung Anwendung der Lösung Aggregaion und Selekion von Daen. Inegraion
MehrSeminar Komplexe Objekte in Datenbanken
Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de
MehrDomain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing
SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0
MehrGrundlagen Datenstrukturen Transitive Hülle Traversierung Kürzeste Wege Spannender Baum Max. Fluss Zuordnungen. 6. Graphen
. Graphen viele praktische (Optimierungs-)Probleme sind als graphentheoretische Probleme formulierbar z.b. in Produktionsplanung, Personaleinsatzplanung,.... Grundlagen gerichteter, ungerichteter und gewichteter
MehrAnwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen
Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen David Knötel Freie Universität Berlin, Institut für Informatik Seminar über Algorithmen Leitfaden Wiederholung
MehrStatistische Verfahren für das Data Mining in einem Industrieprojekt
Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de
MehrTheoretische Überlegungen zur Ausbreitung von Infektionserregern auf Kontaktnetzen. Hartmut Lentz, Maria Kasper, Ansgar Aschfalk und Thomas Selhorst
Theoretische Überlegungen zur Ausbreitung von Infektionserregern auf Kontaktnetzen Hartmut Lentz, Maria Kasper, Ansgar Aschfalk und Thomas Selhorst Netzwerke / Graphen verschiedene Typen von Graphen: einfache
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrSynergien aus Graph-Theorie und Data-Mining für die Analyse von Netzwerkdaten
für die Analyse von Netzwerkdaten Tanja Hartmann, Patricia Iglesias Sánchez, Andrea Kappes, Emmanuel Müller und Christopher Oßner IPD Institut für Programmstrukturen und Datenorganisation ITI Institut
MehrDie Clusteranalyse 24.06.2009. Clusteranalyse. Grundidee Mögliche Anwendungsgebiete gg Vorgehensweise Beispiele. methodenlehre ll Clusteranalyse
Clusteranalyse Thomas Schäfer SS 2009 1 Die Clusteranalyse Grundidee Mögliche Anwendungsgebiete gg Vorgehensweise Beispiele Thomas Schäfer SS 2009 2 1 Die Clusteranalyse Grundidee: Eine heterogene Gesamtheit
Mehr6. Übung zur Linearen Optimierung SS08
6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl
MehrAlgorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Paarweises
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
Mehrf h c 7 a 1 b 1 g 2 2 d
) Man bestimme mit Hilfe des Dijkstra-Algorithmus einen kürzesten Weg von a nach h: c 7 a b f 5 h 3 4 5 i e 6 g 2 2 d Beim Dijkstra-Algorithmus wird in jedem Schritt von den noch unmarkierten Knoten jener
MehrKapitel 1: Einleitung
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases im Wintersemester 2003/2004 Kapitel
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrMining the Network Value of Customers
Mining the Network Value of Customers Seminar in Datamining bei Prof. Fürnkranz Benjamin Herbert Technische Universität Darmstadt Sommersemester 2007 1 / 34 1 2 Werbung Netzwerkwert 3 Bezeichnungen Ansatz
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
Mehr2. Übungsblatt zu Algorithmen II im WS 2016/2017
Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders Dr. Christian Schulz, Dr. Simon Gog Michael Axtmann. Übungsblatt zu Algorithmen II im WS 016/017 Aufgabe
MehrKapitel 5: Clustering
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases im Wintersemester 2006/2007 Kapitel
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 11 Prof. Dr. Helmut Seidl, S. Pott,
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrProseminar: Web-Performance
Proseminar: Web-Performance Workload-Beschreibung (3) Skalierung, Clusteranalyse und algorithmen, Burstiness Skalierung Skalierungsmethoden zur Arbeitslastberechnung: unterschiedliche Einheiten können
MehrDas Briefträgerproblem
Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................
MehrDatenvorverarbeitung von nominalen Daten für Data Mining
Datenvorverarbeitung von nominalen Daten für Data Mining Entstanden 2004/2005 bei der T-Systems International GmbH unter Betreuung von Prof. Dr. J. Fürnkranz Seite 1 Gliederung Datenvorverarbeitung Prepared
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrKürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik
Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Kapitel 15: Graphen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrCustomization (Zuschneiden)
Customization (Zuschneiden) Anpassen der (Graph)Datenstruktur an die Anwendung. I Ziel: schnell, kompakt. I benutze Entwurfsprinzip: make the common case fast I Listen vermeiden Mögliches Problem: Software-Engineering-Alptraum
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
Mehr8 Diskrete Optimierung
8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrSingle Source Sortest Path Negative Kreise All-Pair Shortest Path Problem Minimum Mean Cycle Zusammenfassung. Shortest Paths
Shortest Paths Label Correcting Algorithms Florian Reitz Universität Trier Fachbereich IV Fach Informatik Seminar Netzwerkalgorithmen WS 2005/2006 Einleitung: Problemübersicht Eben: Schnelle Algorithmen
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrStatistical Learning
Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert
MehrClusteranalyse. Multivariate Datenanalyse. Prof. Dr. Dietmar Maringer. Abteilung für Quantitative Methoden, WWZ der Universität Basel
Clusteranalyse Multivariate Datenanalyse Prof. Dr. Dietmar Maringer Abteilung für Quantitative Methoden, WWZ der Universität Basel Herbstsemester 2013 D Maringer: Datenanalyse Clusteranalyse (1) Ausgangssituation
MehrAngewandte Informatik
Angewandte Informatik Analyse des Graphs G zur Bestimmung von Parallel- undreihenschaltung Prof. Dr. Nikolaus Wulff Gewichteter Multigraph Die Adjazenzmatrix eines Graphen eignet sich auch zur Analyse
MehrVery simple methods for all pairs network flow analysis
Very simple methods for all pairs network flow analysis Tobias Ludes 02.07.07 Inhalt Einführung Algorithmen Modifikation der Gomory-Hu Methode Einführung Nach Gomory-Hu nur n-1 Netzwerk-Fluss- Berechnungen
MehrKapitel 5: Abstrakte Algorithmen und Sprachkonzepte. Elementare Schritte
Elementare Schritte Ein elementarer Berechnungsschritt eines Algorithmus ändert im Allgemeinen den Wert von Variablen Zuweisungsoperation von fundamentaler Bedeutung Zuweisungsoperator In Pascal := In
Mehr5 Zwei spieltheoretische Aspekte
5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,
Mehr5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c)
5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c) mit V = {1,...,n} und E {(v, w) 1 apple v, w apple n, v 6= w}. c : E!
MehrClusteranalyse. Clusteranalyse. Fragestellung und Aufgaben. Abgrenzung Clusteranalyse - Diskriminanzanalyse. Rohdatenmatrix und Distanzmatrix
TECHNISCHE UNIVERSITÄT MÜNCHEN-WEIHENSTEPHAN MATHEMATIK UND STATISTIK INFORMATIONS- UND DOKUMENTATIONSZENTRUM R. Biometrische und Ökonometrische Methoden II SS 00 Fragestellung und Aufgaben Abgrenzung
Mehr2. Datenvorverarbeitung
Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy
MehrKapitel 4: Minimal spannende Bäume Gliederung der Vorlesung
Kapitel : Minimal spannende Bäume Gliederung der Vorlesung. Fallstudie Bipartite Graphen 2. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Wege. Traveling
Mehr»La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a
MOTTO GALILEO GALILEI: DIE GOLDWAAGE (IL SAGGIATORE) VON 623»La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l universo), ma non si può intendere
MehrGrundlagen der Informatik I (Studiengang Medieninformatik)
Grundlagen der Informatik I (Studiengang Medieninformatik) Thema: 3. Datentypen, Datenstrukturen und imperative Programme Prof. Dr. S. Kühn Fachbereich Informatik/Mathematik Email: skuehn@informatik.htw-dresden.de
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
MehrItem-based Collaborative Filtering
Item-based Collaborative Filtering Initial implementation Martin Krüger, Sebastian Kölle 12.05.2011 Seminar Collaborative Filtering Projektplan Implementierung Ideen Wdh.: Item-based Collaborative Filtering
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
MehrKapitel 4: Minimale spannende Bäume Gliederung der Vorlesung
Kapitel : Minimale spannende Bäume Gliederung der Vorlesung. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman
Mehr