Signalentdeckungstheorie, Dichteschätzung
|
|
|
- Sophie Brauer
- vor 6 Jahren
- Abrufe
Transkript
1 Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.
2 Übersicht 1 Signalentdeckungstheorie 2 Dichteschätzung 3 Kerndichteschätzer
3 Übersicht 1 Signalentdeckungstheorie 2 Dichteschätzung 3 Kerndichteschätzer
4 Klassifikationsfehler Es gibt zwei Möglichkeiten für Fehler: Beobachtung x fällt in in R 2, der wahre Naturzustand ist ω 1. Beobachtung x fällt in in R 1, der wahre Naturzustand ist ω 2.
5 Bayesfehler Fehlerwahrscheinlichkeit: p(fehler) = p(x R 2, ω 1 ) + p(x R 1, ω 2 ) = p(x R 2 ω 1 )p(ω 1 ) + p(x R 1 ω 2 )p(ω 2 ) = p(x ω 1 )p(ω 1 ) dx + p(x ω 2 )p(ω 2 ) dx R 1 R 2 Der minimale Fehler wird erreicht, wenn die Entscheidungsgrenze auf dem Punkt liegt, an dem beide A-posteriori-Wahrscheinlichkeiten gleich groß sind ( Bayessche Entscheidungsregel). Der dadurch erreichbare minimale Fehler heißt Bayesfehler.
6 4 mögliche Ausgänge eines Detektionsexperimentes 2 Zustände in der Signaldetektion (Dichotomie): ω 1 - zu detektierendes Signal ist tatsächlich da, ω 2 - Signal nicht vorhanden. Hit: Vorhandenes Signal wurde detektiert (auch richtig positiv). Detektionswahrscheinlichkeit (Sensitivität, Richtig-Positiv-Rate): p(x R 1 ω 1 ). Korrekte Rückweisung: Signal ist nicht vorhanden und wurde auch nicht detektiert (auch richtig negativ). Richtig-Negativ-Rate (Spezifität): p(x R 2 ω 2 ). Fehlalarm: Detektion trotz nicht vorhandenem Signal (auch falsch positiv, Fehler 1. Art). Fehlalarmrate (Falsch-Positiv-Rate): p(x R 1 ω 2 ). Miss: Vorhandenes Signal wurde nicht detektiert (auch falsch negativ, Fehler 2. Art). Falsch-Negativ-Rate: p(x R 2 ω 1 ).
7 Beispiel: Signaldetektion bei gaußverteiltem Rauschen Maß für Unterscheidbarkeit (unabhängig vom Klassifikator): d = µ 2 µ 1 σ
8 ROC-Kurve ROC: Receiver Operating Characteristic Darstellung der Detektionsvs. Fehlalarmrate für alle Schwellwerte
9 ROC-Kurven bei mehrdimensionalen Problemen Bei mehrdimensionalen Problemen gibt es i.a. zu jeder Hit-Rate viele mögliche Entscheidungsflächen mit unterschiedlichen Fehlalarmraten. ROC-Kurven werden ebenfalls über einen Parameter gewonnen, der in beiden Extremen durch den Ursprung und durch (1,1) geht. Fläche unter ROC-Kurve (AUC - area under curve) ist ein häufiges Maß für die Qualität eines Klassifikators.
10 Aufgabe 5 (Signalentdeckungstheorie) In einer Sortiermaschine sollen Kaffeebohnen von irrtümlich beigemischten Steinen getrennt werden. Kaffee kommt in 60 % aller Fälle vor. Die Wahrscheinlichkeiten der Längen für beide Kategorien sind in folgender Tabelle aufgetragen: Länge l (mm) p(l Kaffee) p(l Stein) Tragen Sie beide A-posteriori-Wahrscheinlichkeiten in einem Histogramm auf. 2. Ab welcher Länge würden Sie dasc Objekt wegwerfen? 3. Für den von Ihnen gewählten Schwellwert: was ist die zugehörige Detektionswahrscheinlichkeit für Steine? Was ist die Fehlalarmrate? Wie wahrscheinlich sind korrekte Identifikationen von Steinen? Wie häufig kommen Steine durch? 4. Tragen Sie die zugehörige ROC-Kurve auf. Was ist der AUC-Wert? In einer zweiten Charge befinden sich etwas kleinere Kaffebohnen mit gleicher Häufigkeit: Länge l (mm) p(l Kaffee) p(l Stein) Wie ist hier der AUC-Wert? Welches Klassifikationsproblem ist leichter?
11 Übersicht 1 Signalentdeckungstheorie 2 Dichteschätzung 3 Kerndichteschätzer
12 Parametrische Klassifikation Die bisher vorgestellten Techniken waren parametrisch, d.h. die Form der zugrundeliegenden Verteilungen wurde als bekannt vorausgesetzt: Bayes-Klassifikator: A-posteriori-Wahrscheinlichkeit p(ω i x) muß analytisch oder als Histogramm gegeben sein. Spezialfall Gaußverteilung: p(ω i x) = N (µ, σ 2 ) Es gibt eine Vielzahl weiterer parametrischer Techniken, bei denen einzelne Parameter von Verteilungen geschätzt werden (z.b. µ, σ in N (µ, σ 2 )): Maximum-Likelihood- oder Bayessche Parameterschätzung. Problem: Die meisten parametrisierten Verteilungsmodelle passen nicht auf die tatsächlich vorkommenden Dichten.
13 Nichtparametrische Klassifikation Nichtparametrische Klassifikationstechniken können bei beliebigen Verteilungen, da sie (fast) keine Annahmen über die vorkommenden Verteilungen machen. Ansätze: Schätzung der Wahrscheinlichkeit mit Histogrammen bei Zufallsvariablen mit diskreten Werten Dichteschätzung bei kontinuierlichen Zufallsvariablen Nächste-Nachbar-Techniken: direkte Schätzung der Entscheidungsfunktion aus den Daten
14 Schätzung von Wahrscheinlichkeiten (kont. ZV) Wahrscheinlichkeit p, daß ein Vektor x in die Region R fällt: p = p(x) dx Bei n unabhängigen, identisch verteilten (i.i.d.) Versuchen mit k Treffern: ( n p(k p) = p k) k (1 p) n k (Binomialverteilung) mit Erwartungswert E[k] = np. R Schätzung von p: p = k/n Die Verteilung von k/n hat bei großem n eine scharfe Spitze bei p, d.h. k/n ist ein guter Schätzer für p.
15 Dichteschätzung Wahrscheinlichkeitsdichte einer kontinuierlichen Variablen ist definiert als Wahrscheinlichkeit pro Volumen. Für hinreichend kleine Regionen mit Volumen V gilt für stetiges p(x) p = p(x) dx p(x)v. Mit dem vorherigen Schätzer p = k/n ergibt sich R p(x) k/n V Problem: Wenn man keine räumlich geglättete Schätzung will, muß V 0 laufen. Bei endlich vielen Daten fällt aber irgendwann kein x i mehr in R, oder womöglich fällt ein x i genau auf x. Beide Schätzungen sind nutzlos Für reale Schätzung ist Glättung und Streuung der k/n unvermeidbar!
16 Ideale Dichteschätzung Volumen nimmt in Abhängigkeit von n ab, z.b. mit V n = 1/ n (oben) oder umschließt einen Teil der Daten, z.b. k n = n (unten). In beiden Fällen konvergiert die Schätzung gegen die korrekte Dichte (bei unendlich vielen Daten!).
17 Übersicht 1 Signalentdeckungstheorie 2 Dichteschätzung 3 Kerndichteschätzer
18 Dichteschätzung mit einem Kern Beispiel: d-dimensionaler Hyperwürfel mit Kantenlänge h um x: V = h d Schreibweise mit einem Kern (oder Fensterfunktion): { 1 uj < 1/2 ϕ(u) = 0 sonst d.h. ϕ((x x i )/h) ist 1, wenn x i in den Hyperwürfel fällt, sonst 0. Anzahl der x i im Hyperwürfel: k = n ( ) x xi ϕ h i=1 Dichteschätzung mit p(x) (k/n)/v: p(x) 1 n ( ) x xi ϕ nv h i=1
19 Kerne zur Dichteschätzung Die Würfelfunktion ist ein Beispiel für einen Kern zur Dichteschätzung. Andere Kerne sind ebenfalls erlaubt (z.b. Gaußfunktionen, Exponentialfunktionen usw.). Voraussetzung: Die Schätzung muß eine legitime Dichtefunktion ergeben. Das läßt sich garantieren, wenn ϕ(x) ebenfalls eine Dichtefunktion ist, d.h. ϕ(x) 0 und ϕ(u) du = 1 Verhalten von 1/Vϕ(x/h) für verschiedene Breiten h (mit V = h d ):
20 Effekt der Kernbreite auf Dichteschätzung Je breiter, desto glatter und gröber die Schätzung (Interpolationseffekt) Je schmaler, desto höher die Auflösung, aber auch der Rauscheffekt der einzelnen Beispiele Für unendlich viele Beispiele, vernünftige Kerne und langsam schrumpfende Breite (< 1/n) läßt sich zeigen, daß der Schätzer gegen die wahre Dichte konvergiert (s. Duda et al., 2001).
21 Beispiel: Dichteschätzung einer eindimensionalen Normalverteilung mit Gaußkern
22 Beispiel: Dichteschätzung einer zweidimensionalen Normalverteilung mit Gaußkern (1)
23 Beispiel: Dichteschätzung einer zweidimensionalen Normalverteilung mit Gaußkern (2)
24 Beispiel: Dichteschätzung einer bimodalen Verteilung mit Gaußkern
25 Klassifikation mit Kerndichteschätzern 1 Schätzung der A-priori-Wahrscheinlichkeiten p(ω i ) der Kategorien über ihre relativen Häufigkeiten 2 Wahl eines geeigneten Kerns und einer geeigneten Breite (Vorsicht: mit einer zu kleinen Breite lassen sich die Trainingsdaten perfekt modellieren, aber bei der Klassifikation von bisher unbekannten Beispielen ist eine schlechte Leistung zu erwarten!) 3 Schätzung der Likelihood p(x ω i ) für jede Kategorie mit Kerndichteschätzer. 4 Klassifikation mit Bayes-Klassifikator Vorteil: Allgemeingültigkeit - funktioniert im Prinzip für beliebige Verteilung. Nachteil: braucht riesige Trainingssets, funktioniert nur bei niedrigdimensionalen Daten ( Fluch der Dimensionalität )
26 Beispiel: Klassifikation mit Kerndichteschätzern
k-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Lineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Nichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Wahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Einführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
Linear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Grundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
Klassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Modellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
Statistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Kapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
Zufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Wahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Prüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Wirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Stochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
Modellierung- und Simulation Mathis Plewa ( )
Inhaltsverzeichnis Abbildungsverzeichnis... 1 Übungsaufgabe: Zufallsgeneratoren und Histogramme... 2 Standard Gleichverteilung... 2 Gaußverteilung... 3 Exponentialverteilung... 4 Übungsaufgabe: Geometrische
Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
Klassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
1. Was ist eine Wahrscheinlichkeit P(A)?
1. Was ist eine Wahrscheinlichkeit P(A)? Als Wahrscheinlichkeit verwenden wir ein Maß, welches die gleichen Eigenschaften wie die relative Häufigkeit h n () besitzt, aber nicht zufallsbehaftet ist. Jan
Statistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Klassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
STETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Prüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
Punktetabelle (wird von den Korrektoren beschriftet)
Probability and Statistics FS 2018 Prüfung 13.08.2018 Dauer: 180 Minuten Name: Legi-Nummer: Diese Prüfung enthält 12 Seiten (zusammen mit dem Deckblatt) und 10 Aufgaben. Das Formelblatt wird separat verteilt.
1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76
4. Normalverteilung Gauß'sche Glockenkurve: P(a X b) = b 1 x 1 a e dx 1 0.8 0.6 0.4 0. 4 6 8 10 Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^],{x,0,10}] 76 Zentraler Grenzwertsatz: Es sei X 1, X,... eine
Stochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Fit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Winter 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
Auswertung und Lösung
Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Kapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
Biostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Klassifikation von Signifikanztests
Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests
Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 17. November 2010 1 Gesetze Das Gesetz der seltenen Ereignisse Das schwache Gesetz der großen Zahl 2 Verteilungsfunktionen
Biostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Statistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
