Modelle, Daten, Lernprobleme
|
|
- Dagmar Lilli Kaufer
- vor 5 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Modelle, Daten, Lernprobleme Tobias Scheffer
2 Überblick Arten von Lernproblemen: Überwachtes Lernen (Klassifikation, Regression, ordinale Regression, Empfehlungen, Sequenzen und Strukturen) Unüberwachtes Lernen Reinforcement-Lernen (Exploration vs. Exploitation) Modelle Verlustfunktionen, Regularisierer, Risiko Evaluierung 2
3 Überwachtes Lernen: Grundbegriffe Instanz In der Statistik: unabhängige Variable m X kann z.b. Vektorraum über Attribute sein ( X ) Instanz ist in diesem Fall Belegung der Attribute. x1 x xm x X Zielvariable: Merkmalsvektor y Y In der Statistik: abhängige Variable Ein Modell bildet Instanzen auf die Zielvariable ab. x Modell y 3
4 Überwachtes Lernen: Klassifikation Eingabe: Instanz x X. z.b. Merkmalsvektor x1 x... x m Ausgabe: Klasse y Y ; endliche Menge. Klasse wird auch als Zielattribut bezeichnet y heißt auch (Klassen)Label x Klassifikator y Y 4
5 Klassifikation: Beispiel Eingabe: x X. X = Menge aller möglichen Kombinationen einer Menge von Wirkstoffem Attribute Wirkstoff 1 enthalten? Wirkstoff 6 enthalten? Instanz x Belegung der Attribute, Merkmalsvektor Wirkstoffkombination Ausgabe: yy { toxisch, ok} Klassifikator / 5
6 Klassifikation: Beispiel Eingabe: Instanz x X. X = Menge aller 16x16 Pixel Bitmaps Attribute Instanz x 0.1 Grauwert Pixel Grauwert Pixel Pixelwerte Ausgabe: yy {0,1,2,3,4,5,6,7,8,9}: erkannte Ziffer Klassifikator "6" 6
7 Klassifikation: Beispiel Eingabe: Instanz x X. X = Bag-of-Words-Repräsentation aller möglichen -Texte Attribute Wort 1 kommt vor? Wort N kommt vor? N Instanz x Alternative Beneficiary Friend Sterling Zoo Dear Beneficiary, your address has been picked online in this years MICROSOFT CONSUMER AWARD as a Winner of One Hundred and Fifty Five Thousand Pounds Sterling Ausgabe: y Y { spam, ok} Dear Beneficiary, We are pleased to notify you that your address has been picked online in this second quarter's MICROSOFT CONSUMER AWARD (MCA) as a Winner of One Hundred and Fifty Five Thousand Pounds Sterling Klassifikator Spam 7
8 Klassifikation Klassifikator soll aus Trainingsdaten gelernt werden. Klassifikator Klassifikator "6" Dear Beneficiary, We are pleased to notify you that your address has been picked online in this second quarter's MICROSOFT CONSUMER AWARD (MCA) as a Winner of One Hundred and Fifty Five Thousand Pounds Sterling Klassifikator Spam 8
9 Klassifikationslernen Eingabe Lernproblem: Trainingsdaten. x x X xn1 x y y y 11 1m 1 n nm T n Ausgabe: Modell y : X Y zum Beispiel y ( x) T, wenn x 0, sonst Trainingsdaten: T {( x, y ),,( x, y )} n 1 1 n n Linearer Klassifikator mit Parametervektor. 9
10 Klassifikationslernen Eingabe Lernproblem: Trainingsdaten. x x X xn1 x y y y 11 1m 1 n T n Trainingsdaten: T {( x, y ),,( x, y )} nm n 1 1 n n Ausgabe: Modell Modellklassen: (Generalisierte) Lineare Modelle Entscheidungsbäume Ensemble- Klassifikatoren y : X Y 10
11 Überwachtes Lernen: Regression Eingabe: Instanz x X. z.b. Merkmalsvektor x1 x... x m Ausgabe: kontinuierlicher Wert, z.b Toxizität. y Wie toxisch ist Kombination? y 11
12 Regressionslernen Eingabe Lernproblem: Trainingsdaten. x x X xn1 x 11 1m nm T n Ausgabe: Modell y : X Y zum Beispiel y y y 1 n y T ( x ) x Trainingsdaten: T {( x, y ),,( x, y )} n 1 1 n n Generalisiertes lineares Modell mit Parametervektor. 12
13 Überwachtes Lernen: Ordinale Regression Eingabe: Instanz x X. Ausgabe: diskreter Wert yy, es existiert jedoch eine Ordnung auf den Elementen von Y. Große Abweichungen zwischen Vorhersage des Modells und echtem Wert sind schlechter als kleine. Zufrieden mit der Wirkung? 13
14 Überwachtes Lernen: Taxonomieklassifikation Eingabe: Instanz x X. Ausgabe: diskreter Wert yy; es gibt eine baumförmige Ordnung auf den Elementen von Y. Vorhersage ist umso schlechter, je weiter vorhergesagter und tatsächlicher Knoten auseinanderliegen. 14
15 Überwachtes Lernen: Sequenz- und Strukturvorhersage Eingabe: Instanz x X. Ausgabe: Sequenz, Baum oder Graph. Beispielanwendungen: Parsen natürlicher Sprache Proteinfaltungen yy AAGCTTGCACTGCCGT 15
16 Überwachtes Lernen: Rankings Eingabe: Anfrage q, Liste von Items I 1,, I n. Ausgabe: Sortierung der Items Trainingsdaten: Nutzer klickt nach Anfrage q auf I j : Item sollte höher gerankt werden als weiter oben stehende Items, die nicht angeklickt wurden. 16
17 Überwachtes Lernen: Empfehlungen Eingabe: Benutzer, Items, Kontextinformationen. Ausgabe: Wie sehr wird ein Vorschlag einem Benutzer gefallen? Trainingsdaten: Ratings, Käufe, Seitenaufrufe. 17
18 Unüberwachtes Lernen Trainingsdaten beim unüberwachten Lernen: Menge von Instanzen x X. Zusätzliche Annahmen über Prozess der Entstehung der Daten, beispielsweise Unabhängigkeiten von Zufallsvariablen. Ziel ist das Aufdecken von Strukturen in den Daten: Beispielsweise wahrscheinlichste Aufteilung in Cluster von Instanzen, die bestimmte, nicht direkt beobachtete Eigenschaften teilen. 18
19 Clusteranalyse: Beispiel kampagnen Eingabe: Strom von s. Ausgabe: Partitionierung in Teilmengen, die zur selben Kampagne gehören. Hello, This is Terry Hagan. Our company confirms you are legible for a $ loan for a $380.00/month. Dear Mr/Mrs, This is Brenda Dunn. Our office confirms you can get a $ loan for a $ per month payment. Dear friend, You are invited for a barbeque! Cluster 1 Cluster 2 Cluster 3 19
20 Clusteranalyse: Beispiel Marktsegmentierung Eingabe: Daten über Kundenverhalten. Ausgabe: Partitionierung in Cluster von Kunden, die ähnliche Produktpräferenzen haben. Cluster 1 Cluster 2 20
21 Lernen von Steuerungen System, das über Steuerungsparameter verfügt. Nutzenfunktion beschreibt, welches Verhalten erwünscht ist. Änderung der Steuerungsparameter kann zeitlich verzögerte Auswirkungen haben. Lerner muss mit System experimentieren, um Modell für dessen Verhalten zu gewinnen (Exploration) Gleichzeitig soll das System möglichst in den besten Zuständen gehalten werden (Exploitation). 21
22 Lernen von Steuerungen: Beispiel Platzierung von Anzeigen. Um zu lernen, welche Anzeigen ein Benutzer anklickt, muss Lerner experimentieren. Wenn Lerner experimentiert statt bisher populärste Anzeigen zu verwenden, geht Umsatz verloren 22
23 Überblick Arten von Lernproblemen: Überwachtes Lernen (Klassifikation, Regression, ordinale Regression, Empfehlungen, Sequenzen und Strukturen) Unüberwachtes Lernen Reinforcement-Lernen (Exploration vs. Exploitation) Modelle Verlustfunktionen, Regularisierer, Risiko Evaluierung 23
24 Klassifikationslernen Eingabe Lernproblem: Trainingsdaten. x x X xn1 x y y y 11 1m 1 n T n Trainingsdaten: T {( x, y ),,( x, y )} nm n 1 1 n n Ausgabe: Klassifikator y : X Y Wie kann Lernalgorithmus Modell (Klassifikator) aus Trainingsdaten lernen? Suchproblem im Raum aller Modelle 24
25 Modellraum, Parameterraum Modellraum, Parameterraum, Hypothesenraum : Klassifikator hat Parameter ist Menge der Modelle (Klassifikatoren), die Lernverfahren in Betracht zieht. Modellraum ist einer der Freiheitsgrade beim maschinellen Lernen, viele Räume gebräuchlich. Heisst auch Language Bias Beispiel: Lineare Modelle y ( x),, sonst m wenn x j j
26 Verlustfunktion, Optimierungskriterium Lernprobleme werden als Optimierungsaufgaben formuliert. Verlustfunktion misst, wie gut Modell zu Trainingsdaten passt Regularisierungsfunktion misst, ob das Modell nach unserem Vorwissen wahrscheinlich ist. Optimierungskriterium ist Summe aus Verlust und Regularisierer. Suche Minimum des Optimierungskriteriums Insgesamt wahrscheinlichstes Modell, gegeben Trainingsdaten und Vorwissen. 26
27 Verlustfunktion Verlustfunktion: Wie schlimm ist es, wenn Modell y (x i ) vorhersagt obwohl der echte Wert der Zielvariable y i ist? ( y ( x ), y ) Mittlerer Verlust auf den gesamten Trainingsdaten : n n 1 Empirisches Risiko Rˆ( ) ( y ( i ), yi ) n x i i i1 T Beispiel: Binäres Klassifikationsproblem mit positiver Klasse (+1) und negativer Klasse (-1). False Positives und False Negatives gleich schlimm. Zero-One Loss: 0/1( y ( xi), yi) 0, wenn y ( xi) 1, sonst y i 27
28 Verlustfunktion Beispiel: diagnostische Klassifikationsprobleme, übersehene Erkrankungen (False Negatives) schlimmer als False Positives. Kostenmatrix c FP, c FN yi 1 yi 1 ( y( xi), yi) y( xi) 1 0 cfp y ( xi) 1 cfn 0 28
29 Verlustfunktion Beispiel Verlustfunktion Regression: Vorhersage möglichst dicht an echtem Wert des Zielattributes Quadratischer Fehler ( ( ), ) ( ( ) ) 2 y x y y x y i i i i 2 29
30 Verlustfunktion Wie schlimm ist es, wenn Modell y vorhersagt obwohl der echte Wert der Zielvariable y ist? Verlust ( y', y) Verlustfunktion ist aus der jeweiligen Anwendung heraus motiviert. 30
31 Suche nach Modell Suche nach Klassifikator für Kombination toxisch. Modellraum: y ( x),, sonst m wenn x j j 1 0 Beispiel- Kombinationen Trainingsdaten Medikamente in der Kombination x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Ansatz: empirisches Risiko sollte minimal sein * n arg min ( y ( ), y ) x i1 01 / i i Gibt es ein solches Modell? Gibt es mehrere? 31
32 Suche nach Modell Suche nach Klassifikator für Kombination toxisch. Modellraum: y ( x),, sonst m wenn x j j 1 0 Beispiel- Kombinationen Trainingsdaten Medikamente in der Kombination x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Modelle mit Verlust von 0: y ( x ), wenn x 1 y ( x ), wenn x x 2 y ( x ), wenn 2x4 x
33 Suche nach Modell Suche nach Klassifikator für Kombination toxisch. Modellraum: y ( x),, sonst m wenn x j j 1 0 Beispiel- Kombinationen Trainingsdaten Medikamente in der Kombination x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Modelle mit Verlust von 0: y ( x ), wenn x 1 y ( x ), wenn x x x y ( ), wenn 2x4 x6 1 6 Modelle mit einem empirischem Risiko von 0 bilden den Versionenraum. Versionenraum ist leer bei widersprüchlichen Daten. 33
34 Suche nach Modell Suche nach Klassifikator für Kombination toxisch. Modellraum: y ( x),, sonst m wenn x j j 1 0 Beispiel- Kombinationen Trainingsdaten Medikamente in der Kombination x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Modelle mit Verlust von 0: y ( x ), wenn x 1 y ( x ), wenn x x x y ( ), wenn 2x4 x6 1 6 Modelle im Versionenraum unterscheiden sich in ihrer Vorhersage für einige Instanzen, die nicht in der Trainingsmenge vorkommen. Welches ist das Richtige? 34
35 Unsicherheit In der Praxis erreicht man niemals Gewissheit darüber, ein korrektes Modell gefunden zu haben. Daten können widersprüchlich sein (z.b. durch Messfehler) Viele unterschiedliche Modelle können einen niedrigen Verlust haben. Das korrekte Modell liegt vielleicht gar nicht im Modellraum. Lernen als Optimierungsproblem Verlustfunktion: Grad der Konsistenz mit Trainingsdaten Regularisierer: A-Priori-Wahrscheinlichkeit der Modelle 35
36 Regularisierer Verlustfunktion drückt aus, wie gut Modell zu Daten passt Regularisierer: drückt Annahme darüber aus, ob Modell a priori wahrscheinlich ist. Unabhängig von den Trainingsdaten. Je höher der Regularisierungsterm für ein Modell, desto unwahrscheinlicher Häufig wird die Annahme ausgedrückt, dass wenige der Attribute für ein gutes Modell ausreichen. Anzahl der Attribute, L 0 -Regularisierung Betrag der Attribut-Gewichtungen, L 1 -Regularisierung Quadrat der Attribut-Gewichtungen, L 2 -Regularisierung. 36
37 Regularisierer Kandidaten: y ( x ), wenn x 1 y ( ), wenn x x 2 y ( ), wenn 2x x 1 Regularisierer: x 2 5 L 0 -Regularisierung L 1 -Regularisierung L 2 -Regularisierung T T T ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
38 Optimierungskriteruim Regularisiertes empirisches Risiko: Trade-Off zwischen mittlerem Verlust und Regularisierer 1 n ( y ( ), ) ( ) i 1 i yi n x Parameter steuert Trade-Off zwischen Verlust und Regularisierer. 38
39 Optimierungsproblem Rechtfertigung für Optimierungskriterium? Mehrere Rechtfertigungen und Herleitungen. Wahrscheinlichstes Modell (MAP-Modell). Niedrige obere Schranke für Fehler auf zukünftigen Daten abhängig von. (SRM). Lernen ohne Regularisierung ist ill-posed Problem; keine eindeutige Lösung, oder Lösung hängt extrem stark von minimalen Änderungen in den Daten ab. 39
40 Regularisierte empirische Risikominimierung Suche nach Klassifikator für Kombination toxisch. Modellraum: y ( x),, m wenn x j j sonst 1 0 Beispiel- Kombinationen Trainingsdaten Medikamente in der Kombination x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Regularisiertes empirisches Risiko: 1 n 1( y ( 1 0/ i), y ) 0( ) i i n x Modell mit minimalem regularisiertem empirischem Risiko: y y ( x ), wenn x 1 ( x ) 2 für <0.5. für >
41 Evaluierung von Modellen Wie gut wird ein Modell in Zukunft funktionieren? Zukünftige Instanzen werden entsprechend einer (unbekannten) Verteilung p( x, y) gezogen. Risiko: erwarteter Verlust unter p( x, y) R( ) ( y ( x), y) p( x, y) dx y Ist das empirische Risiko auf den Trainingsdaten ein brauchbarer Schätzer für das Risiko? 41
42 Evaluierung von Modellen Wie gut wird ein Modell in Zukunft funktionieren? Zukünftige Instanzen werden entsprechend einer (unbekannten) Verteilung p( x, y) gezogen. Risiko: erwarteter Verlust unter p( x, y) Ist das empirische Risiko auf den Trainingsdaten ein brauchbarer Schätzer für das Risiko? Problem: Alle Modelle aus dem Version Space haben ein emp. Risiko von 0 auf Trainingsdaten. Ein Klassifikator, der einfach nur die Trainingsdaten in einer Tabelle speichert hat ein empirisches Risiko von 0 auf Trainingsdaten. 42
43 Evaluierung von Modellen Wie gut wird ein Modell in Zukunft funktionieren? Zukünftige Instanzen werden entsprechend einer (unbekannten) Verteilung p( x, y) gezogen. Risiko: erwarteter Verlust unter p( x, y) Empirisches Risiko auf den Trainingsdaten ist ein extrem optimistischer Schätzer für das Risiko. Risiko wird auf Daten geschätzt, die nicht zum Training verwendet wurden. Training-and-Test. N-fold Cross Validation. 43
44 Optimierungsproblem Einstellung von? Teile verfügbare Daten in Trainings- und Testdaten Iteriere über Werte für Training auf Trainingsdaten, finde Modell Bestimme auf Testdaten Wähle Wert mit minimalem Verlust Trainiere mit allen Daten R( ) 44
45 Daten, Modelle, Lernprobleme Überwachtes Lernen: Finde Funktion, die wahrscheinlich die Trainingsdaten erzeugt hat. Verlustfunktion: Übereinstimmung zwischen Vorhersage des Modells und Wert der Zielvariable in den Trainingsdaten. Regularisierer: Übereinstimmung mit Vorwissen. Unüberwachtes Lernen: Keine Zielvariable, entdecke Struktur in den Daten, z.b. durch Einteilung der Instanzen in Cluster mit gemeinsamen Eigenschaften. Reinforcement-Lernen: Steuerung von Prozessen. 45
Modelle, Daten, Lernprobleme
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Modelle, Daten, Lernprobleme Tobias Scheffer Überblick Arten von Lernproblemen: Überwachtes Lernen (Klassifikation, Regression,
MehrRingvorlesung interdisziplinäre, angewandte Mathematik: Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Ringvorlesung interdisziplinäre, angewandte Mathematik: Maschinelles Lernen Niels Landwehr, Paul Prasse, Termine VL Dienstag 12:15-13:45,
MehrLineare Klassifikatoren
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen
MehrProblemanalye und Datenvorverarbeitung
Organisation Hören Sie die electure mathematische Grundlagen Interesse an Tutorium? Vielleicht 7.5., 12-14h? Am Donnersteg bieten wir zwei Übungsgruppen an (Freitag, 1. Mai, ist frei) Donnerstag 10-12
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Tobias Scheffer Michael Brückner Hypothesenbewertung Ziel: gute Vorhersagen treffen. Bayesian model averaging,
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Problemanalyse & Grundlagen der Lerntheorie Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Zusammenfassung
INTELLIGENTE DATENANALYSE IN MATLAB Zusammenfassung Überwachtes Lernen Gegeben: Trainingsdaten mit bekannten Zielattributen (gelabelte Daten). Eingabe: Instanz (Objekt, Beispiel, Datenpunkt, Merkmalsvektor)
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Problemanalyse & Grundlagen der Lerntheorie
INTELLIGENTE DATENANALYSE IN MATLAB Problemanalyse & Grundlagen der Lerntheorie Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrLineare Klassifikatoren (Kernel)
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren (Kernel) Blaine Nelson, Christoph Sawade, Tobias Scheffer Inhalt Kernel für strukturierte Datenräume String Kernel, Graph Kernel
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrErstes Mathe-Tutorium am Themen können gewählt werden unter:
Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrMaschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008
Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Christoph Sawade/Niels Landwehr Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Tobias Scheffer Überblick Wiederholung: Konfidenzintervalle Statistische Tests
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrEntscheidungsbäume. Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Silvia Makowski Tobias Scheffer Entscheidungsbäume Eine von vielen
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrSeminar Textmining SS 2015 Grundlagen des Maschinellen Lernens
Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining
MehrMaschinelles Lernen II
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrIdentifizierung regulärer Ausdrücke zum Blockieren von Email-Kampagnen
Identifizierung regulärer Ausdrücke zum Blockieren von Email-Kampagnen Paul Prasse, Tobias Scheffer Universität Potsdam Motivation Spammer verbreitet Postmaster schreibt I m a [a-z]+ russian (girl lady).
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrLineare Klassifikatoren IV
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren IV Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung MAP-Modell
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrMotivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Dominik Lahmann Tobias Scheffer Entscheidungsbäume
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen
INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen: Clustern von Attributen Literatur J. Han, M. Kamber: Data Mining Concepts and Techniques. J. Han et. al: Mining Frequent Patterns without Candidate
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
MehrData Mining und Maschinelles Lernen
Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrMaschinelles Lernen und Data Mining
Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrVorlesung 2. Maschinenlernen: Klassische Ansätze I
Vorlesung 2 Maschinenlernen: Klassische Ansätze I Martin Giese Martin.giese@tuebingen.mpg.de Übersicht! Statistische Formulierung des überwachten Lernproblems! Einfache Klassifikatoren! Regression I. Statistiche
Mehr