Naive Bayes für Regressionsprobleme

Größe: px
Ab Seite anzeigen:

Download "Naive Bayes für Regressionsprobleme"

Transkript

1 Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt

2 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze

3 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze

4 Traditioneller Naive Bayes Der Naive Bayes Algorithmus Rahmenbedingungen Gegeben: Diskrete Attribute Gesucht: Zuordnung zu einer Kategorie Trainingsdaten enthalten möglichst zu jedem Zielwert mehrerer Beispiel

5 Traditioneller Naive Bayes Der Naive Bayes Algorithmus Lösungsmechanismus p(k A 1, A 2,..., A n ) = p(a 1,A 2,...,A n K ) p(k ) p(a 1,A 2,...,A n) Annahme: A k sind unabhängig voneinander. Daher: Wähle k mit maximalem ˆP(K A 1, A 2,..., A n ) = p(k ) n p(a i k) i=1 p(k ) und p(a i K ) kann anhand der Trainingsdaten berechnet werden.

6 Naive Bayes und Regression Neue Rahmenbedingungen Gegeben: Numerische und nominale Attribute Gesucht: Ein numerischer Zielwert Numerische Attribute können auch kontinuierlich sein Zielwert ist ebenfalls kontinuierlich Zielwert kommt möglicherweise nicht in den Trainingsdaten vor.

7 Naive Bayes und Regression Allgemeine Vorgehensweise Erstellung einer Annäherungsfunktion für p(z A) Berechnung der Funktionwerte für ein diskretisiertes Intervall Berechnung des Zielwertes auf Basis der Funktionswerte Zielwert ist Durchschnitt oder Median der Annäherungsfunktion

8 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )

9 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )

10 Naive Bayes und Regression Bayes Formel Angepasste Bayes-Formel p(z A) = p(a Z ) p(z ) p(a Z ) p(z )dz Nach Anwendung der Unabhängigkeitsannahme: n p(z ) i=1 p(z A) = p(a i Z ) p(z ) n i=1 p(a i Z )dz Zu ermitteln: Annäherungen an p(a i Z ) und p(z )

11 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze

12 Interpolation durch Gauss-Kernfunktionen Wie leite ich eine kontinuierliche Wahrscheinlichkeitsfunktion aus Beispielwerten ab? b sei nunr der Zielwert Wert und b j der Wert der Beispielwert j. ( ) 1 b h K bi mit K (x) = (2π) 1 2 e x2 2 h 2 h=0.5 Beispielwert

13 Interpolation durch Gauss-Kernfunktionen Wie leite ich eine kontinuierliche Wahrscheinlichkeitsfunktion aus Beispielwerten ab? b sei nunr der Zielwert Wert und b j der Wert der Beispielwert j. ( ) 1 b h K bi mit K (x) = (2π) 1 2 e x2 2 h 2 h=0.5 Beispielwert

14 Interpolation durch Gauss-Kernfunktionen 1 n h n ( ) b bi K h i=1 h ist zu klein 2 h=0.05 h=0.05 Beispielwert Beispielwert Beispielwert Beispielwert

15 Interpolation durch Gauss-Kernfunktionen 1 n h n ( ) b bi K h i=1 h ist zu groß 2 h=2 h=2 Beispielwert Beispielwert Beispielwert Beispielwert

16 Die richtige Wahl des h Leave-One-Out-Cross-Validation Intuitiv: Maximale Wahrscheinlichkeit bei den Beispielwerten Problem: h 0 Lösung: Maximierung einer Pseudo-Wahrscheinlichkeit, bei der alle Kernel ausser dem über b i berücksichtigt werden. f i (b i ) = 1 (n 1)h n j=1;i j ( ) bi b j K h

17 3 Pseudowahrscheinlichkeit f*(x) Beispielwert h=

18 3 2.5 Pseudowahrscheinlichkeit f*(x) Beispielwert h=0.05 h=

19 3 2.5 Pseudowahrscheinlichkeit f*(x) Beispielwert h=0.05 h=0.5 h=

20 Exkurs: Die richtige Wahl des h (2) Leave-One-Out-Cross-Validation Maximierung der Wahrscheinlichkeit über alle i { } 1 n h CV = arg max log f (b i ) h n i=1 Vorgehen: Ausprobieren von Werten für h über einem festgelegten Intervall.

21 2 Optimales h Wahrscheinlichkeit Beispielwert Beispielwert Beispielwert Beispielwert

22 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze

23 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z

24 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z

25 Teilfunktionen p(a i Z ) für numerische Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Gesucht: p(a i Z ) =: p(b Z ) = p(b,z ) p(z ) ˆp(B = b, Z = z) durch zweidimensionale Gauss-Interpolation ˆp(Z ): Gauss Interpolation über alle z

26 Teilfunktionen Beispiel: Lebensdauer von Ameisen Trainingsdaten: Z [10, 20] Monate, A 1 [2.0, 4.0] mm und A 2 {rot,schwarz} p(z=z,a1=3.0) line 1 line 2 Z A 1 A rot schwarz rot schwarz? 3.0 rot Berechnung von p(a 1 = 3.0 Z = z) für alle z {10, 10.1, 10.2,..., 20}

27 Teilfunktionen Beispiel: Lebensdauer von Ameisen Trainingsdaten: Z [10, 20] Monate, A 1 [2.0, 4.0] mm und A 2 {rot,schwarz} Z A 1 A rot schwarz rot schwarz? 3.0 rot p(z=z) Wahrscheinlichkeit Beispielwert Beispielwert Beispielwert Beispielwert Berechnung von p(a 1 = 3.0 Z = z) für alle z {10, 10.1, 10.2,..., 20}

28 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.

29 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.

30 Teilfunktionen p(a i Z ) für nominale Attribute p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Nach Bayes: p(b=b) p(z =z B=b) p(a i Z ) =: p(b = b Z = z) = P b Kat p(b=b) p(z =z B=b) B ˆp(Z = z B = b): Gauss-Interpolation über alle Zielwerte von Beispielen mit A i = b. ˆp(B = b) ist der prozentuale Anteil der Beispiele mit A i = b an der Gesamtzahl der Beispiele.

31 Teilfunktionen p(a 2 = rot) p(z = z A 2 = rot) p(a 2 = rot)p(z = z B = rot) + p(a 2 = schw)p(z = z A 2 = schw) Z A 1 A rot schwarz rot schwarz? 3.0 rot p(a 2 = rot) = p(z=z A2=rot) Wahrscheinlichkeit Beispielwert Beispielwert Berechnung von p(a 2 = rot Z = z) für alle k {10, 10.1, 10.2,..., 20}

32 Teilfunktionen p(a 2 = rot) p(z = z A 2 = rot) p(a 2 = rot)p(z = z B = rot) + p(a 2 = schw)p(z = z A 2 = schw) Z A 1 A rot schwarz rot schwarz? 3.0 rot p(a 2 = rot) = p(z=z A2=rot) Wahrscheinlichkeit Beispielwert Beispielwert Berechnung von p(a 2 = rot Z = z) für alle k {10, 10.1, 10.2,..., 20}

33 Teilfunktionen Berechnung von p(z) p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Es fehlt noch: p(z ) ˆp(z): Gauss-Interpolation über die Zielwerte aller Objekte in den Trainingsdaten Berechnung von p(z = z) für alle z {10, 10.1, 10.2,..., 20}

34 Teilfunktionen Berechnung von p(z) p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz Es fehlt noch: p(z ) ˆp(z): Gauss-Interpolation über die Zielwerte aller Objekte in den Trainingsdaten Berechnung von p(z = z) für alle z {10, 10.1, 10.2,..., 20}

35 Zielwert p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz p(z = z A) ist nun bekannt für das gesamte Intervall Entweder: Minimierung des quadratischen Fehlers Zielwert ist der Erwartungswert Oder: Minimierung des absoluten Fehlers Zielwert ist der Median

36 Zielwert p(z A) = n p(z ) i=1 p(a i Z ) p(z ) n i=1 p(a i Z )dz p(z = z A) ist nun bekannt für das gesamte Intervall Entweder: Minimierung des quadratischen Fehlers Zielwert ist der Erwartungswert Oder: Minimierung des absoluten Fehlers Zielwert ist der Median

37 Gliederung 1 Einleitung Traditioneller Naive Bayes Naive Bayes und Regression 2 Annäherung durch Interpolation mit Gauss-Kurven 3 Algorithmus: Naive Bayes für Regression Ermittlung der Teilfunktionen p(a i Z ) und p(z ) Berechnung des Zielwerts 4 Evaluation Allgemeines Probleme mit unabhängigen Attributen Standard-Datensätze

38 Allgemeines Vergleiche mit anderen Algorithmen Locally Weighted Linear Regression (LWR) Linear Regression (LR) Model Tree Prediction (M5 )

39 Probleme mit unabhängigen Attributen 3D-Spirale (x1, x2) y

40 Probleme mit unabhängigen Attributen Auswertung Vergleich mit dem Model Tree Inducer M5

41 Standard-Datensätze Vergleich mit anderen Lernalgorithmen Auswahl aus 41 Datensätzen Datensatz Instanzen Fehlend Numerisch Nominal Schlvote % 4 1 EchoMonths % 6 3 BreastTumor % 1 8 Meta % 19 2

42 Standard-Datensätze Fehler bei verschiedenen Algorithmen Durchschnittlicher Quadratischer Fehler Datensatz Naive Bayes LR LWR M5 Schlvote 95.92± ± ± ±10.2 EchoMonths 78.53± ± ± ±0.7 BreastTumor ± ± ± ±0.6 Meta ± ± ± ±32.2 Durschnittlicher Absoluter Fehler Datensatz Naive Bayes LR LWR M5 Schlvote 90.13± ± ± ±7.4 EchoMonths 72.34± ± ± ±0.7 BreastTumor ± ± ± ±0.6 Meta 78.44± ± ± ±8.5

43 Standard-Datensätze Direktvergleich zwischen den Algorithmen Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durchschnittlicher Quadratischer Fehler Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durschnittlicher Absoluter Fehler

44 Standard-Datensätze Direktvergleich zwischen den Algorithmen Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durchschnittlicher Quadratischer Fehler Gewinner Verlierer Naive Bayes LR LWR M5 Naive Bayes LR LWR M Durschnittlicher Absoluter Fehler

45 Suche nach Gründen für die schlechte Performanz Vergleich mit Naive Bayes für Klassifikation Liegt der Fehler in der Ableitung des Naive Bayes? Modellierung eines Klassifikationsproblems als Regression: Ein Regressionsproblem pro Zielklasse Tests auf Standard-Klassifikations-Datensätzen Ergebnis: Besseres Abschneiden als der normale Naive Bayes

46 Suche nach Gründen für die schlechte Performanz Vergleich mit Naive Bayes für Klassifikation Liegt der Fehler in der Ableitung des Naive Bayes? Modellierung eines Klassifikationsproblems als Regression: Ein Regressionsproblem pro Zielklasse Tests auf Standard-Klassifikations-Datensätzen Ergebnis: Besseres Abschneiden als der normale Naive Bayes

47 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes

48 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes

49 Suche nach Gründen für die schlechte Performanz Vergleich mit einer modifizierten Version des M5 Liegt es an der Unabhängigkeitsannahme? M5 Independent: Mit Unabhängigkeitsannahme Direktvergleiche: M5 gegen M5 Independent M5 gegen Naive Bayes Ergebnis: M5 Independent schneidet im Vergleich genauso schlecht gegen M5 ab wie Naive Bayes

50 Suche nach Gründen für die schlechte Performanz Fazit Für Regressionsprobleme gilt: Unabhängigkeit der Attribute erfüllt: Naive Bayes funktioniert gut nicht-erfüllt: Andere Algorithmnen schneiden besser ab Vielen Dank für eure Aufmerksamkeit!

51 Quellen Technical Notes: Naive Bayes for Regression; E. Frank, L.Trigg, G.Holmes, I.H.Witten; Machine Learning 41, 5-25, 2000 Retrofitting Decision Tree Classifiers Using Kernel Density Estimation; P.Smyth, A.Gray, U.M.Fayyad (Appendix: Univariate Bandwidth Selection for Kernel Density Estimation) Naive Bayes zur Klassifikation:

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik

Mehr

Naive Bayes. Naive Bayes

Naive Bayes. Naive Bayes Naive Bayes Ein einfacher Klassifikator Wolfgang Konen Fachhochschule Köln November 007 W. Konen DMC WS007 Seite - 1 informatikö Inhalt Naive Bayes Der Ansatz Beispiel Wetterdaten Bayes sche Regel Das

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern. 10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Standardnormalverteilung

Standardnormalverteilung Standardnormalverteilung 1720 erstmals von Abraham de Moivre beschrieben 1809 und 1816 grundlegende Arbeiten von Carl Friedrich Gauß 1870 von Adolphe Quetelet als "ideales" Histogramm verwendet alternative

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Angewandte Statistik mit R

Angewandte Statistik mit R Reiner Hellbrück Angewandte Statistik mit R Eine Einführung für Ökonomen und Sozialwissenschaftler 2., überarbeitete Auflage B 374545 GABLER Inhaltsverzeichnis Vorwort zur zweiten Auflage Tabellenverzeichnis

Mehr

WEKA A Machine Learning Interface for Data Mining

WEKA A Machine Learning Interface for Data Mining WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010

Mehr

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003 Schätzen der Fehlerzahl in Software-Dokumenten Dr. Frank Padberg Universität Karlsruhe Mai 2003 Motivation beim Testen oder bei Inspektionen werden nicht alle Fehler gefunden Anzahl der unentdeckten Fehler

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11 Kapitel 1 Exakte Suche nach einem Wort R. Stiebe: Textalgorithmen, WS 2003/04 11 Überblick Aufgabenstellung Gegeben: Text T Σ, Suchwort Σ mit T = n, = m, Σ = σ Gesucht: alle Vorkommen von in T Es gibt

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

Mathematik in den Life Siences

Mathematik in den Life Siences Gerhard Keller Mathematik in den Life Siences Grundlagen der Modellbildung und Statistik mit einer Einführung in die Statistik-Software R 49 Abbildungen Verlag Eugen Ulmer Stuttgart Inhaltsverzeichnis

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Prüfung aus Statistik 1 für SoziologInnen. Musterlösung

Prüfung aus Statistik 1 für SoziologInnen. Musterlösung Prüfung aus Statistik 1 für SoziologInnen Gesamtpunktezahl =80 1) Wissenstest (maximal 20 Punkte) Prüfungsdauer: 2 Stunden Musterlösung Kreuzen ( ) Sie die jeweils richtige Antwort an. Jede richtige Antwort

Mehr

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei

Mehr

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

Übungen zu Splines Lösungen zu Übung 20

Übungen zu Splines Lösungen zu Übung 20 Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 2013)

Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 2013) Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 203) Aufgabe (9 Punkte) Ein metrisches Merkmal X sei in einer Grundgesamtheit vom Umfang n = 200 diskret klassiert.

Mehr

Übungen Mathematik I, M

Übungen Mathematik I, M Übungen Mathematik I, M Übungsblatt, Lösungen (Stoff aus Mathematik 0).0.0. Berechnen Sie unter Verwendung des binomischen Lehrsatzes ( x + y) 7 Lösung: Nach dem binomischen Lehrsatz ist ( x + y) 7 = 7

Mehr

Wie können Computer lernen?

Wie können Computer lernen? Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Differenzial- und Integralrechnung II

Differenzial- und Integralrechnung II Differenzial- und Integralrechnung II Rainer Hauser Dezember 011 1 Einleitung 1.1 Ableitung Die Ableitung einer Funktion f: R R, x f(x) ist definiert als f (x) = df(x) dx = d f(x + h) f(x) f(x) = lim dx

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Identifikation von Zeitwerten für LEP-Pflegeinterventionen. Reto Bürgin, Dieter Baumberger,

Identifikation von Zeitwerten für LEP-Pflegeinterventionen. Reto Bürgin, Dieter Baumberger, Identifikation von Zeitwerten für LEP-Pflegeinterventionen Reto Bürgin, Dieter Baumberger, 15.11.2016 Einleitung Für statistische Auswertungen können für LEP-Interventionen Zeitwerte erfasst werden Z.B.

Mehr

(8 + 2 Punkte) = = 0.75

(8 + 2 Punkte) = = 0.75 Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten August, 2013 1 von 21 Wahrscheinlichkeiten Outline 1 Wahrscheinlichkeiten 2 von 21 Wahrscheinlichkeiten Zufallsexperimente Die möglichen Ergebnisse (outcome) i eines Zufallsexperimentes

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

1 2 x x x x x x2 + 83

1 2 x x x x x x2 + 83 Polynominterpolation Aufgabe 1 Gegeben sei die Wertetabelle i 0 1 2 3 x i 0 1 2 4 f i 3 1 2 7 a) Bestimmen Sie das Interpolationspolynom von Lagrange durch die obigen Wertepaare. b) Interpolieren Sie die

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Wahrscheinlichkeitstheorie und Naive Bayes

Wahrscheinlichkeitstheorie und Naive Bayes Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie

Mehr

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

KULTUSMINISTERIUM DES LANDES SACHSEN-ANHALT. Abitur Januar/Februar Mathematik (Grundkurs) Arbeitszeit: 210 Minuten

KULTUSMINISTERIUM DES LANDES SACHSEN-ANHALT. Abitur Januar/Februar Mathematik (Grundkurs) Arbeitszeit: 210 Minuten KULTUSMINISTERIUM DES LANDES SACHSEN-ANHALT Abitur Januar/Februar 2002 Mathematik (Grundkurs) Arbeitszeit: 210 Minuten Der Prüfling wählt je eine Aufgabe aus den Gebieten G 1, G 2 und G 3 zur Bearbeitung

Mehr

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida GMA Grundlagen Mathematik und Analysis Reelle Funktionen 3 Christian Cenker Gabriele Uchida Data Analytics and Computing Nullstellen cos log : 0, 0,? 1 Fixpunkte Beispiel 1 Beispiel 2 1 0 0 und 1 1sin,?

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse

Mehr

Mathematische und statistische Hilfsmittel für Pharmazeuten

Mathematische und statistische Hilfsmittel für Pharmazeuten Mathematische und statistische Hilfsmittel für Pharmazeuten Dr. Helga Lohöfer Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Fassung vom September 2003 Inhaltsverzeichnis I Elementare

Mehr

PROC MEANS. zum Berechnen statistischer Maßzahlen (für quantitative Merkmale)

PROC MEANS. zum Berechnen statistischer Maßzahlen (für quantitative Merkmale) PROC MEAS zum Berechnen statistischer Maßzahlen (für quantitative Merkmale) Allgemeine Form: PROC MEAS DATA=name Optionen ; VAR variablenliste ; CLASS vergleichsvariable ; Beispiel und Beschreibung der

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Normalverteilung und Dichtefunktionen

Normalverteilung und Dichtefunktionen Normalverteilung und Dichtefunktionen Ac Einführung der Normalverteilung als Approximationsfunktion der Binomialverteilung Da die Binomialverteilung für große n das Aussehen einer Glockenkurve besitzt

Mehr

Chi Quadrat-Unabhängigkeitstest

Chi Quadrat-Unabhängigkeitstest Fragestellung 1: Untersuchung mit Hilfe des Chi-Quadrat-Unabhängigkeitstestes, ob zwischen dem Herkunftsland der Befragten und der Bewertung des Kontaktes zu den Nachbarn aus einem Anderen Herkunftsland

Mehr

Modellierung von Temperaturdaten bei Lichtbogenschweißversuchen

Modellierung von Temperaturdaten bei Lichtbogenschweißversuchen Modellierung von Temperaturdaten bei Lichtbogenschweißversuchen Von Robin Cedric Schwenke 1 Einleitung Motivation Um Algorithmen der institutseigenen Schweißsimulationssoftware SimWeld auf deren Realitätsnähe

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Standardisierte kompetenzorientierte schriftliche Reifeprüfung AHS. 12. Jänner Mathematik. Teil-1-Aufgaben. Korrekturheft

Standardisierte kompetenzorientierte schriftliche Reifeprüfung AHS. 12. Jänner Mathematik. Teil-1-Aufgaben. Korrekturheft Standardisierte kompetenzorientierte schriftliche Reifeprüfung AHS 12. Jänner 2017 Mathematik Teil-1-Aufgaben Korrekturheft Aufgabe 1 Mehrwertsteuer für Hörbücher y = x 1,19 1,07 Ein Punkt für eine korrekte

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

3rd IQ Best Practice Day 2007

3rd IQ Best Practice Day 2007 1 3rd IQ Best Practice Day 2007 Klaus Koch, Torsten Kaup, Felix Michels, Daniel Elsner, Bernhard Kurpicz, Dirk Malzahn Schema Matching Automatische Erkennung semantisch gleicher Attribute Frankfurt am

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Statistik-Klausur vom

Statistik-Klausur vom Statistik-Klausur vom 09.02.2009 Bearbeitungszeit: 90 Minuten Aufgabe 1 a) Ein Unternehmen möchte den Einfluss seiner Werbemaßnahmen auf den erzielten Umsatz quantifizieren. Hierfür werden die jährlichen

Mehr