Naive Bayes für Regressionsprobleme
|
|
- Karl Sternberg
- vor 6 Jahren
- Abrufe
Transkript
1 Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
2 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze
3 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze
4 Traditioneller Naive Bayes Der Naive Bayes Algorithmus Rahmenbedingungen Gegeben: Diskrete Attribute Gesucht: Zuordnung zu einer Kategorie Trainingsdaten enthalten möglichst zu jedem Zielwert mehrerer Beispiel
5 Traditioneller Naive Bayes Der Naive Bayes Algorithmus Lösungsmechanismus p(k A 1, A 2,..., A n ) = p(a 1,A 2,...,A n K ) p(k ) p(a 1,A 2,...,A n) Annahme: A k sind unabhängig voneinander. Daher: Wähle k mit maximalem ˆP(K A 1, A 2,..., A n ) = p(k ) n p(a i k) i=1 p(k ) und p(a i K ) kann anhand der Trainingsdaten berechnet werden.
6 Naive Bayes und Regression Neue Rahmenbedingungen Gegeben: Numerische und nominale Attribute Gesucht: Ein numerischer Zielwert Numerische Attribute können auch kontinuierlich sein Zielwert ist ebenfalls kontinuierlich Zielwert kommt möglicherweise nicht in den Trainingsdaten vor.
7 Naive Bayes und Regression Allgemeine Vorgehensweise Erstellung einer Annäherungsfunktion für p(z A) Berechnung der Funktionwerte für ein diskretisiertes Intervall Berechnung des Zielwertes auf Basis der Funktionswerte Zielwert ist Durchschnitt oder Median der Annäherungsfunktion
8 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )
9 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )
10 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )
11 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze
12 Interpolation durch Gauss-Kernfunktionen Wie leite ich eine kontinuierliche Wahrscheinlichkeitsfunktion aus Beispielwerten ab? b sei nunr der Zielwert Wert und b j der Wert der Beispielwert j. ( ) 1 b h K bi mit K (x) = (2π) 1 2 e x2 2 h 2 h=0.5 Beispielwert
13 Interpolation durch Gauss-Kernfunktionen Wie leite ich eine kontinuierliche Wahrscheinlichkeitsfunktion aus Beispielwerten ab? b sei nunr der Zielwert Wert und b j der Wert der Beispielwert j. ( ) 1 b h K bi mit K (x) = (2π) 1 2 e x2 2 h 2 h=0.5 Beispielwert
14 Interpolation durch Gauss-Kernfunktionen 1 n h n ( ) b bi K h i=1 h ist zu klein 2 h=0.05 h=0.05 Beispielwert Beispielwert Beispielwert Beispielwert
15 Interpolation durch Gauss-Kernfunktionen 1 n h n ( ) b bi K h i=1 h ist zu groß 2 h=2 h=2 Beispielwert Beispielwert Beispielwert Beispielwert
16 Die richtige Wahl des h Leave-One-Out-Cross-Validation Intuitiv: Maximale Wahrscheinlichkeit bei den Beispielwerten Problem: h 0 Lösung: Maximierung einer Pseudo-Wahrscheinlichkeit, bei der alle Kernel ausser dem über b i berücksichtigt werden. f i (b i ) = 1 (n 1)h n j=1;i j ( ) bi b j K h
17 3 Pseudowahrscheinlichkeit f*(x) Beispielwert h=
18 3 2.5 Pseudowahrscheinlichkeit f*(x) Beispielwert h=0.05 h=
19 3 2.5 Pseudowahrscheinlichkeit f*(x) Beispielwert h=0.05 h=0.5 h=
20 Exkurs: Die richtige Wahl des h (2) Leave-One-Out-Cross-Validation Maximierung der Wahrscheinlichkeit über alle i { } 1 n h CV = arg max log f (b i ) h n i=1 Vorgehen: Ausprobieren von Werten für h über einem festgelegten Intervall.
21 2 Optimales h Wahrscheinlichkeit Beispielwert Beispielwert Beispielwert Beispielwert
22 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze
23 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z
24 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z
25 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z
26 Teilfunktionen Beispiel: Lebensdauer von Ameisen Trainingsdaten: Z [10, 20] Monate, A 1 [2.0, 4.0] mm und A 2 {rot,schwarz} p(z=z,a1=3.0) line 1 line 2 Z A 1 A rot schwarz rot schwarz? 3.0 rot Berechnung von p(a 1 = 3.0 Z = z) für alle z {10, 10.1, 10.2,..., 20}
27 Teilfunktionen Beispiel: Lebensdauer von Ameisen Trainingsdaten: Z [10, 20] Monate, A 1 [2.0, 4.0] mm und A 2 {rot,schwarz} Z A 1 A rot schwarz rot schwarz? 3.0 rot p(z=z) Wahrscheinlichkeit Beispielwert Beispielwert Beispielwert Beispielwert Berechnung von p(a 1 = 3.0 Z = z) für alle z {10, 10.1, 10.2,..., 20}
28 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.
29 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.
30 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.
31 Teilfunktionen p(a 2 = rot) p(z = z A 2 = rot) p(a 2 = rot)p(z = z B = rot) + p(a 2 = schw)p(z = z A 2 = schw) Z A 1 A rot schwarz rot schwarz? 3.0 rot p(a 2 = rot) = p(z=z A2=rot) Wahrscheinlichkeit Beispielwert Beispielwert Berechnung von p(a 2 = rot Z = z) für alle k {10, 10.1, 10.2,..., 20}
32 Teilfunktionen p(a 2 = rot) p(z = z A 2 = rot) p(a 2 = rot)p(z = z B = rot) + p(a 2 = schw)p(z = z A 2 = schw) Z A 1 A rot schwarz rot schwarz? 3.0 rot p(a 2 = rot) = p(z=z A2=rot) Wahrscheinlichkeit Beispielwert Beispielwert Berechnung von p(a 2 = rot Z = z) für alle k {10, 10.1, 10.2,..., 20}
33 Teilfunktionen Berechnung von p(z) p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Es fehlt noch: p(z ) ˆp(z): Gauss-Interpolation über die Zielwerte aller Objekte in den Trainingsdaten Berechnung von p(z = z) für alle z {10, 10.1, 10.2,..., 20}
34 Teilfunktionen Berechnung von p(z) p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Es fehlt noch: p(z ) ˆp(z): Gauss-Interpolation über die Zielwerte aller Objekte in den Trainingsdaten Berechnung von p(z = z) für alle z {10, 10.1, 10.2,..., 20}
35 Zielwert p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz p(z = z A) ist nun bekannt für das gesamte Intervall Entweder: Minimierung des quadratischen Fehlers Zielwert ist der Erwartungswert Oder: Minimierung des absoluten Fehlers Zielwert ist der Median
36 Zielwert p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz p(z = z A) ist nun bekannt für das gesamte Intervall Entweder: Minimierung des quadratischen Fehlers Zielwert ist der Erwartungswert Oder: Minimierung des absoluten Fehlers Zielwert ist der Median
37 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze
38 Allgemeines Vergleiche mit anderen Algorithmen Locally Weighted Linear Regression (LWR) Linear Regression (LR) Model Tree Prediction (M5 )
39 Probleme mit unabhängigen Attributen 3D-Spirale (x1, x2) y
40 Probleme mit unabhängigen Attributen Auswertung Vergleich mit dem Model Tree Inducer M5
41 Standard-Datensätze Vergleich mit anderen Lernalgorithmen Auswahl aus 41 Datensätzen Datensatz Instanzen Fehlend Numerisch Nominal Schlvote % 4 1 EchoMonths % 6 3 BreastTumor % 1 8 Meta % 19 2
42 Standard-Datensätze Fehler bei verschiedenen Algorithmen Durchschnittlicher Quadratischer Fehler Datensatz Naive Bayes LR LWR M5 Schlvote 95.92± ± ± ±10.2 EchoMonths 78.53± ± ± ±0.7 BreastTumor ± ± ± ±0.6 Meta ± ± ± ±32.2 Durschnittlicher Absoluter Fehler Datensatz Naive Bayes LR LWR M5 Schlvote 90.13± ± ± ±7.4 EchoMonths 72.34± ± ± ±0.7 BreastTumor ± ± ± ±0.6 Meta 78.44± ± ± ±8.5
43 Standard-Datensätze Direktvergleich zwischen den Algorithmen Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durchschnittlicher Quadratischer Fehler Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durschnittlicher Absoluter Fehler
44 Standard-Datensätze Direktvergleich zwischen den Algorithmen Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durchschnittlicher Quadratischer Fehler Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durschnittlicher Absoluter Fehler
45 Suche nach Gründen für die schlechte Performanz Vergleich mit Naive Bayes für Klassifikation Liegt der Fehler in der Ableitung des Naive Bayes? Modellierung eines Klassifikationsproblems als Regression: Ein Regressionsproblem pro Zielklasse Tests auf Standard-Klassifikations-Datensätzen Ergebnis: Besseres Abschneiden als der normale Naive Bayes
46 Suche nach Gründen für die schlechte Performanz Vergleich mit Naive Bayes für Klassifikation Liegt der Fehler in der Ableitung des Naive Bayes? Modellierung eines Klassifikationsproblems als Regression: Ein Regressionsproblem pro Zielklasse Tests auf Standard-Klassifikations-Datensätzen Ergebnis: Besseres Abschneiden als der normale Naive Bayes
47 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes
48 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes
49 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes
50 Suche nach Gründen für die schlechte Performanz Fazit Für Regressionsprobleme gilt: Unabhängigkeit der Attribute erfüllt: Naive Bayes funktioniert gut nicht-erfüllt: Andere Algorithmnen schneiden besser ab Vielen Dank für eure Aufmerksamkeit!
51 Quellen Technical Notes: Naive Bayes for Regression; E. Frank, L.Trigg, G.Holmes, I.H.Witten; Machine Learning 41, 5-25, 2000 Retrofitting Decision Tree Classifiers Using Kernel Density Estimation; P.Smyth, A.Gray, U.M.Fayyad (Appendix: Univariate Bandwidth Selection for Kernel Density Estimation) Naive Bayes zur Klassifikation:
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
MehrNaive Bayes. Naive Bayes
Naive Bayes Ein einfacher Klassifikator Wolfgang Konen Fachhochschule Köln November 007 W. Konen DMC WS007 Seite - 1 informatikö Inhalt Naive Bayes Der Ansatz Beispiel Wetterdaten Bayes sche Regel Das
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrDas Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrStandardnormalverteilung
Standardnormalverteilung 1720 erstmals von Abraham de Moivre beschrieben 1809 und 1816 grundlegende Arbeiten von Carl Friedrich Gauß 1870 von Adolphe Quetelet als "ideales" Histogramm verwendet alternative
MehrSeminar Text- und Datamining Datamining-Grundlagen
Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrElementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrAngewandte Statistik mit R
Reiner Hellbrück Angewandte Statistik mit R Eine Einführung für Ökonomen und Sozialwissenschaftler 2., überarbeitete Auflage B 374545 GABLER Inhaltsverzeichnis Vorwort zur zweiten Auflage Tabellenverzeichnis
MehrWEKA A Machine Learning Interface for Data Mining
WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010
MehrSchätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003
Schätzen der Fehlerzahl in Software-Dokumenten Dr. Frank Padberg Universität Karlsruhe Mai 2003 Motivation beim Testen oder bei Inspektionen werden nicht alle Fehler gefunden Anzahl der unentdeckten Fehler
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
MehrKapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11
Kapitel 1 Exakte Suche nach einem Wort R. Stiebe: Textalgorithmen, WS 2003/04 11 Überblick Aufgabenstellung Gegeben: Text T Σ, Suchwort Σ mit T = n, = m, Σ = σ Gesucht: alle Vorkommen von in T Es gibt
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrMathematik in den Life Siences
Gerhard Keller Mathematik in den Life Siences Grundlagen der Modellbildung und Statistik mit einer Einführung in die Statistik-Software R 49 Abbildungen Verlag Eugen Ulmer Stuttgart Inhaltsverzeichnis
MehrSTETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
MehrPrüfung aus Statistik 1 für SoziologInnen. Musterlösung
Prüfung aus Statistik 1 für SoziologInnen Gesamtpunktezahl =80 1) Wissenstest (maximal 20 Punkte) Prüfungsdauer: 2 Stunden Musterlösung Kreuzen ( ) Sie die jeweils richtige Antwort an. Jede richtige Antwort
MehrBachelorarbeit Erkennung von Fließtext in PDF-Dokumenten
Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei
MehrVortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering
Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrBayessches Lernen Aufgaben
Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1
MehrÜbungen zu Splines Lösungen zu Übung 20
Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrLösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 2013)
Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 203) Aufgabe (9 Punkte) Ein metrisches Merkmal X sei in einer Grundgesamtheit vom Umfang n = 200 diskret klassiert.
MehrÜbungen Mathematik I, M
Übungen Mathematik I, M Übungsblatt, Lösungen (Stoff aus Mathematik 0).0.0. Berechnen Sie unter Verwendung des binomischen Lehrsatzes ( x + y) 7 Lösung: Nach dem binomischen Lehrsatz ist ( x + y) 7 = 7
MehrWie können Computer lernen?
Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrDifferenzial- und Integralrechnung II
Differenzial- und Integralrechnung II Rainer Hauser Dezember 011 1 Einleitung 1.1 Ableitung Die Ableitung einer Funktion f: R R, x f(x) ist definiert als f (x) = df(x) dx = d f(x + h) f(x) f(x) = lim dx
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
Mehr8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrIdentifikation von Zeitwerten für LEP-Pflegeinterventionen. Reto Bürgin, Dieter Baumberger,
Identifikation von Zeitwerten für LEP-Pflegeinterventionen Reto Bürgin, Dieter Baumberger, 15.11.2016 Einleitung Für statistische Auswertungen können für LEP-Interventionen Zeitwerte erfasst werden Z.B.
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
MehrUnsupervised Kernel Regression
9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrWahrscheinlichkeiten
Wahrscheinlichkeiten August, 2013 1 von 21 Wahrscheinlichkeiten Outline 1 Wahrscheinlichkeiten 2 von 21 Wahrscheinlichkeiten Zufallsexperimente Die möglichen Ergebnisse (outcome) i eines Zufallsexperimentes
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrMarcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
Mehr1 2 x x x x x x2 + 83
Polynominterpolation Aufgabe 1 Gegeben sei die Wertetabelle i 0 1 2 3 x i 0 1 2 4 f i 3 1 2 7 a) Bestimmen Sie das Interpolationspolynom von Lagrange durch die obigen Wertepaare. b) Interpolieren Sie die
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrWahrscheinlichkeitstheorie und Naive Bayes
Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie
MehrBoole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen
Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrKULTUSMINISTERIUM DES LANDES SACHSEN-ANHALT. Abitur Januar/Februar Mathematik (Grundkurs) Arbeitszeit: 210 Minuten
KULTUSMINISTERIUM DES LANDES SACHSEN-ANHALT Abitur Januar/Februar 2002 Mathematik (Grundkurs) Arbeitszeit: 210 Minuten Der Prüfling wählt je eine Aufgabe aus den Gebieten G 1, G 2 und G 3 zur Bearbeitung
MehrGMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida
GMA Grundlagen Mathematik und Analysis Reelle Funktionen 3 Christian Cenker Gabriele Uchida Data Analytics and Computing Nullstellen cos log : 0, 0,? 1 Fixpunkte Beispiel 1 Beispiel 2 1 0 0 und 1 1sin,?
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
MehrExemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur
MehrInhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden
Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse
MehrMathematische und statistische Hilfsmittel für Pharmazeuten
Mathematische und statistische Hilfsmittel für Pharmazeuten Dr. Helga Lohöfer Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Fassung vom September 2003 Inhaltsverzeichnis I Elementare
MehrPROC MEANS. zum Berechnen statistischer Maßzahlen (für quantitative Merkmale)
PROC MEAS zum Berechnen statistischer Maßzahlen (für quantitative Merkmale) Allgemeine Form: PROC MEAS DATA=name Optionen ; VAR variablenliste ; CLASS vergleichsvariable ; Beispiel und Beschreibung der
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrNormalverteilung und Dichtefunktionen
Normalverteilung und Dichtefunktionen Ac Einführung der Normalverteilung als Approximationsfunktion der Binomialverteilung Da die Binomialverteilung für große n das Aussehen einer Glockenkurve besitzt
MehrChi Quadrat-Unabhängigkeitstest
Fragestellung 1: Untersuchung mit Hilfe des Chi-Quadrat-Unabhängigkeitstestes, ob zwischen dem Herkunftsland der Befragten und der Bewertung des Kontaktes zu den Nachbarn aus einem Anderen Herkunftsland
MehrModellierung von Temperaturdaten bei Lichtbogenschweißversuchen
Modellierung von Temperaturdaten bei Lichtbogenschweißversuchen Von Robin Cedric Schwenke 1 Einleitung Motivation Um Algorithmen der institutseigenen Schweißsimulationssoftware SimWeld auf deren Realitätsnähe
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne
MehrTextmining Klassifikation von Texten Teil 1: Naive Bayes
Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrÜbungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014
Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrStandardisierte kompetenzorientierte schriftliche Reifeprüfung AHS. 12. Jänner Mathematik. Teil-1-Aufgaben. Korrekturheft
Standardisierte kompetenzorientierte schriftliche Reifeprüfung AHS 12. Jänner 2017 Mathematik Teil-1-Aufgaben Korrekturheft Aufgabe 1 Mehrwertsteuer für Hörbücher y = x 1,19 1,07 Ein Punkt für eine korrekte
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr3rd IQ Best Practice Day 2007
1 3rd IQ Best Practice Day 2007 Klaus Koch, Torsten Kaup, Felix Michels, Daniel Elsner, Bernhard Kurpicz, Dirk Malzahn Schema Matching Automatische Erkennung semantisch gleicher Attribute Frankfurt am
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrStatistik-Klausur vom
Statistik-Klausur vom 09.02.2009 Bearbeitungszeit: 90 Minuten Aufgabe 1 a) Ein Unternehmen möchte den Einfluss seiner Werbemaßnahmen auf den erzielten Umsatz quantifizieren. Hierfür werden die jährlichen
Mehr