Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Größe: px
Ab Seite anzeigen:

Download "Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator"

Transkript

1 Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen Merkmale und Klassen werden als Zufallsgrößen betrachtet, die statistisch beschrieben werden Voraussetzung: Wahrscheinlichkeitsverteilungen der Klassen sind bekannt Merkmale sind voneinander statistisch unabhängig: Die Auswirkung eines Merkmales auf die Klassifizierung ist unabhängig von den Ausprägungen anderer Merkmale Naiv Praxisbezug Besondere Bedeutung: Referenz zur Beurteilung der Qualität anderer Klassifikatoren Die Voraussetzungen sind in der Praxis oft verletzt, dennoch de facto oft gute Performance Wahrscheinlichkeitsverteilungen müssen ggf. erst anhand von Stichproben geschätzt werden 1

2 Übersicht 3 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes` Theorem Bayes` Theorem Bedingte Wahrscheinlichkeiten: wie ändert sich die Wahrscheinlichkeit durch das Eintreten von einzelnen Ereignissen? A B 4 Die Wahrscheinlichkeit, dass zwei Ereignisse A und B zusammen eintreten ist P A B = P A B P B = P B A P A P A, P B sind die a-priori Wahrscheinlichkeiten für jedes Ereignis für sich P A B ist die bedingte Wahrscheinlichkeit für A, wenn B bereits eingetreten, bzw. bekannt ist. Bayes sagt: P A B = P(B A) P(A) P(B) Das heißt, dass sich die Wahrscheinlichkeit für das Eintreten von A - unter der Bedingung, dass B schon eingetreten ist - durch die Wahrscheinlichkeit beschreiben lässt, dass B unter der Bedingung von A eingetreten ist. 2

3 Bayes` Theorem: Bedeutung für Klassifikation 5 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für Bayes` Theorem: Bedeutung für Klassifikation 6 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen 3

4 Bayes` Theorem: Bedeutung für Klassifikation 7 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Bayes` Theorem: Bedeutung für Klassifikation 8 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Apfel! Das Merkmal x spricht zwar (knapp) für die Birne (wenn ich jede Klasse einzeln betrachte), aber Äpfel kommen viel häufiger vor. 4

5 Bayes` Theorem: Bedeutung für Klassifikation 9 Intuitives Beispiel a) Ohne Wissen über konkretes Merkmal x Apfel (weil P ω j = P Apfel = 90%) b) Mit Merkmal x und Wissen über Wahrscheinlichkeit innerhalb Klassen p(x ω j ), aber ohne Wissen über Klassenhäufigkeit P(ω j ) Birne c) Alles bekannt: x, p x ω j und P(ω j ) Apfel b) Ungewichtet, p i =1 p x Apfel < p x Birne c) Gewichtet, p i = P(ω i ) Bayes` Theorem: Bedeutung für Klassifikation 10 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Apfel! Das Merkmal x spricht zwar (knapp) für die Birne (wenn ich jede Klasse einzeln betrachte), aber Äpfel kommen viel häufiger vor. Zugrunde liegende Entscheidungskriterien: a) Größte a-priori -Wahrscheinlichkeit b) Klassengrenze = Schnittpunkt der ungewichteten Verteilungsfunktionen p(x ω i ) c) Klassengrenze = Schnittpkt. der gewichteten Verteilungsfkt. p x ω i P(ω i ) 5

6 Übersicht 11 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator: Mathematische Formulierung 12 Anwendung des Bayes Theorem auf Klassifikationen "Ereignisse" = Klassen & Merkmale Verwendete Wahrscheinlichkeiten P(ω i ): Wahrscheinlichkeit für das Auftreten der Klasse ω i, (a-priori Wahrsch.) p( x): Wahrscheinlichkeit für das Auftreten der Merkmalvektors x, wenn unbekannt ist, zu welcher Klasse es gehört p( x ω i ): Wahrscheinlichkeit für das Auftreten des Merkmalvektors x, wenn er zur Klasse ω i gehört (sog. klassenbedingte Wahrscheinlichkeit) P(ω i x): Wahrscheinlichkeit, dass ein gegebener Merkmalsvektor x zur Klasse ω i gehört ( a- posteriori Wahrscheinlichkeit) hier gesucht Dabei gilt Hier liegen kontinuierliche Merkmale vor p( x) und p( x ω i ) sind Wahrscheinlichkeitsdichten mit p x dx = 1 und p x ω i dx = 1 Wahrscheinlichkeitsdichte für den Merkmalsvektor = gewichtete Summe über die Verteilungen in den einzelnen Klassen p x = j p( x ω j ) P(ω j ) 6

7 Bayes-Klassifikator: Mathematische Formulierung 13 Bayes sche Entscheidungsregel Das Objekt mit dem Merkmalen x wird der Klasse ω i zugeordnet, für die es die größere a-posteriori Wahrscheinlichkeit hat: x ω i wenn P ω i x > P ω j x i j Wenn ich weiß, wie häufig jede Klasse ω i vorkommt und wie sich die Merkmale x innerhalb jeder Klasse verteilen, kann ich darauf schließen, wie wahrscheinlich es ist, dass ein bestimmter Merkmalsektor x zu einer Klasse gehört Bayes-Klassifikator: Mathematische Formulierung 14 Bayes sche Entscheidungsregel Das Objekt mit dem Merkmalen x wird der Klasse ω i zugeordnet, für die es die größere a-posteriori Wahrscheinlichkeit hat: x ω i wenn P ω i x > P ω j x i j Beispielsweise für 2 Klassen: x ω 1 ω 2 wenn P ω 1 x > P ω 2 x wenn P ω 1 x < P ω 2 x bzw. P ω 1 x P ω 2 x bzw. p( x ω 1 ) P(ω 1 ) p( x) p( x ω 2) P(ω 2 ) p( x) 7

8 Bayes-Klassifikator: Mathematische Formulierung 15 Zähler / Nenner Nenner p x = Wahrsch.verteilung der Merkmale, sorgt für Normierung auf 1 in p( x ω i ) P ω i x = p( x ω i) P(ω i ) p( x) Für einen festen Merkmalsvektor x ist der Nenner für jede Klasse gleich, d.h. für die Entscheidung reicht der Vergleich der Zähler P(ω i x) p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator: Optimale Klassifikation 16 Minimaler Klassifikationsfehler? Hier beispielhaft für 2 Klassen und ein Merkmal (x= skalar) Bei gegebenem Merkmal x wird die Klasse ω 1 gewählt, wenn die Wahrscheinlichkeit P ω 1 x) > P ω 2 x) ist. Dennoch verbleibt eine Wahrscheinlichkeit, dass x zu ω 2 gehört P ω 2 x) > 0 = Wahrscheinlichkeit für eine Fehlentscheidung ε(x). Für jeden möglichen Merkmalswert ist die Fehlerwahrscheinlichkeit hier jedoch die kleinst-mögliche: ε x = min P i = min P ω 1 x)), P ω 2 x)) Damit ist auch immer die mittlere Fehlerwahrscheinlichkeit (für alle Merkmalswerte) E ε = ε x p x dx min Anschaulich Fehler bei Bayes: A+B+D Fehler bei verschobener Entscheidungsgrenze: A+B+C+D 8

9 Übersicht 17 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator: Varianten 18 Varianten der Entscheidungsregel Bei der Entscheidung wird nur nach dem größeren Wert geschaut. p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Addition einer Konstanten, Multiplikation mit einem (positiven) Faktor auf beiden Seiten ändert nichts a p x ω 1 P ω 1 + b a p x ω 2 P ω 2 + b Genauso jede monotone Funktion, auf beide Seiten angewandt ln p x ω 1 P ω 1 ln p x ω 2 P ω 2 Der natürliche Logarithmus ist nützlich bei Normalverteilungen 9

10 Bayes-Klassifikator: Varianten 19 Likelihood-Quotient Entscheidungsregel umstellen als Quotient der a-posteriori Wahrscheinlichkeiten Für 2 Klassen p x ω 1 P ω 1 p x ω 2 P ω 2 L x = p( x ω 1) p x ω 2 P ω 2 P(ω 1 ) = Likelihood-Quotient der Bayes-Entscheidungsregel, mit ihrem Schwellwert P(ω 2 ) P(ω 1 ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator: Verallgemeinerung Risiko 21 Risikoorientierter Bayes-Klassifikator Bisher reine Wahrscheinlichkeitsbetrachtung. Alle Fehlklassifikationen werden gleich gewichtet. Es kommt aber vor, dass Fehlentscheidungen unterschiedlich schwerwiegende Folgen haben (z.b. Kosten), also unterschiedlich riskant sind Risiko- bzw. Kostenfaktoren einführen. Jede Entscheidung für eine bestimmte Klasse verursacht Kosten λ ij 0. Fehlentscheidungen (Entscheidung für ω i / wahre Klasse ω j ) können mit hohen Werten von λ ij, i j belegt werden. Bei einer Entscheidung für die Klasse ω i treten also in Summe das Risiko / die Kosten r i ( x) = k λ ik P ω k x auf Ziel: Minimierung des Gesamtrisikos (der Gesamtkosten) 10

11 Bayes-Klassifikator: Verallgemeinerung Risiko 22 Risikobasierte Regel Neue Vorgabe: Minimierung der Gesamtkosten (des Gesamtrisikos) Entsprechend neue Forderung für Entscheidungsregel: Das Ereignis mit dem Merkmalen x soll der Klasse ω i zugeordnet werden, für die das kleinste Risiko auftritt vorliegt:! x ω i wenn r i x < r j x i j Z.B.: 2-Klassenfall und Darstellung über Likelihood-Quotient p x ω 1 p x ω 2 λ 12 λ 22 P ω 2 λ 21 λ 11 P ω 1 Einführung von Risikofaktoren verschiebt den Entscheidungs-Schwellwert Bayes-Klassifikator: Verallgemeinerung Rückweisung 25 Bayes-Klassifikator mit Rückweisung Darstellung als Likelihood-Quotient: Entscheidung hängt von Schwellwert ab L x = p x ω 1 p x ω 2 λ 12 λ 22 P ω 2 λ 21 λ 11 P ω 1 = θ Wenn L x knapp an der Schwelle θ liegt Entscheidung unsicher Mögliche Zusatzforderung: nur sichere Entscheidungen treffen ω 1 : L x < θ θ oder ω 2 : L x > θ + θ, ansonsten: zurückweisen (reject option). 11

12 Übersicht 26 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator bei Normalverteilungen 27 Bayes-Klassifikation & Normalverteilungen 12

13 Reminder: Normalverteilungen 28 Einschub: Normalverteilung Gaußsche Glockenkurve, sehr weit verbreitet, auch aus theoretischen Erwägungen bedeutsam (Zentraler Grenzwertsatz: Summe einer großen Anzahl von Zufallsvariablen ist annähernd normalverteilt). Univariate Normalverteilung N μ, σ 2 = 1 2π σ exp [ 1 x μ 2 ] 2 σ ist vollständig definiert durch Mittelwert μ = E(x) und Varianz σ 2 = E x μ 2 Reminder: Normalverteilungen 29 Multivariate Normalverteilung Normalverteilung im N-dimensionalen Raum 1 N μ, K = 2π N K exp [ 1 2 x μ t K 1 x μ ] Mittelwert μ = N-dimensionaler Vektor μ = E( x) Kovarianzmatrix K = NxN Matrix der (Ko-) Varianzen K = mit σ ij 2 = E x i μ i x j μ j Eigenschaften der Kovarianzmatrix 2 σ 11 2 σ 12 2 σ 21 2 σ 22 K ist symmetrisch, d.h. σ ij 2 = σ ji 2 Diagonalelement σ ii 2 ist die Varianz des i-ten Merkmals σ ij 2, i j ist die Kovarianz zwischen i-ten und j-tem Merkmal ( Korrelation) Wenn die Zufallsvariablen / Merkmale x i und x j statistisch unabhängig sind: Kovarianzen verschwinden σ ij 2 = 0 für i j N μ, K = Produkt der n 1D Normalverteilungen Notation: K = Determinante, K 1 = Inverse 13

14 Reminder: Normalverteilungen 30 Eigenschaften der (multivariaten) Normalverteilung Der größte Wert von N liegt bei x = μ (Zentrum, Schwerpunkt) Die Form der Verteilung wird von der Kovarianzmatrix K bestimmt: Punkte mit gleichem Wert N μ, K = const formen (Hyper-) Ellipsoide, die Hauptachsen der Ellipsoide liegen parallel zu den Eigenvektoren von K, Länge der Halbachsen = zugehörigen Eigenwerte von K. K = σ 0 0 σ K = σ σ 2 K = σ 11 σ 12 σ 21 σ 22 Bayes-Klassifikator bei Normalverteilungen 31 Bayes-Klassifikation & Normalverteilungen Annahme Für jede Klasse werden die Merkmale werden durch eine (multivariate) Normalverteilung beschrieben. Mittelwerte und Kovarianzmatrix sind bekannt p x ω i = N i μ i, K i Als Diskriminanzfunktion sinnvollerweise g i = ln p x ω i P ω i 14

15 Bayes-Klassifikator bei Normalverteilungen 32 Bayes-Klassifikation & Normalverteilungen Annahme Für jede Klasse werden die Merkmale werden durch eine (multivariate) Normalverteilung beschrieben. Mittelwerte und Kovarianzmatrix sind bekannt p x ω i = N i μ i, K i Als Diskriminanzfunktion sinnvollerweise = ln g i = ln p x ω i P ω i = ln N i μ i, K i + ln[p ω i ] 1 2π N K i exp 1 2 x μ t i K 1 2 i x μ i + ln[p ω i ] = N 2 ln 2π ln K i 1 2 x μ i t K i 1 x μ i + ln[p ω i ] Diskriminanzfunktion ist quadratisch in x Klassengrenzen sind quadratische Funktionen (Hyperquadrics). D.h. die Trennflächen zwischen den Klassen müssen nie komplexer sein, höhere Potenzen (in x ) sind nicht notwendig. Bayes-Klassifikator bei Normalverteilungen 33 Bayes-Klassifikation bei Normalverteilungen: Spezialfall Annahmen Alle Kovarianzmatrizen der verschiedenen Klassen seien gleich K i = K j, für alle i, j Alle Varianzen sind gleich, die Kovarianzen verschwinden K = σ 2 1 K 1 = 1/σ 2 D.h. alle Klassen werden durch gleiche, hyperkugelige Wahrscheinlichkeitsverteilung beschrieben Diskriminanzfunktion g i = ln K i 1 2 x μ i t K i 1 x μ i + ln P ω i g i = x μ i 2 2σ 2 + ln P ω i dabei ist x μ i 2 das Abstandsquadrat zwischen dem betrachteten Merkmalspunkt und dem Mittelpunkt der Klasse ω i (Euklid sche Norm). 15

16 Bayes-Klassifikator bei Normalverteilungen 34 Bayes-Klassifikation bei Normalverteilungen: Spezialfall ff Wegen x μ i 2 = x μ i t x μ i = x t x 2 μ i t x + μ i t μ i und x t x unabh. von i g i = v i t x + v i0, mit v i = 1 σ 2 μ i und v i0 = 1 2σ 2 μ i t μ i + ln(p ω i ) Diskriminanzfunktion linear in x Klassengrenze g i = g j ist eine Hyperebene: w t x + w 0 = w t x x 0 = 0 mit w = μ i μ j und x 0 = 1 2 μ i + μ j σ 2 (μ i μ j ) μ i μ j 2 ln P ω i P ω j Hyperebene steht senkrecht auf der Verbindungslinie zwischen beiden Klassenzentren, Lage auf Verbindungslinie (x 0 ) hängt von a-priori-wahrscheinlichkeit ab. Zusatzannahme: alle Klassen sind gleich wahrscheinlich P ω i x 0 = 1 2 μ i + μ j = Mitte zwischen den beiden Klassenzentren = Minimum Distance Klassifikator = P ω j, für alle i, j Bayes-Klassifikator bei Normalverteilungen 35 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Einfache Beispiel in 1, 2 und 3 Dimensionen. Dargestellt sind nur die klassenbedingten Wahrscheinlichkeiten der Merkmale p( x ω i ) Bildquelle: Duda, Hart, Stork, Pattern Classification 16

17 Bayes-Klassifikator bei Normalverteilungen 36 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Trennfläche (Entscheidungsgrenze) verschiebt sich mit der a-priori Wahrscheinlichkeit P(ω i ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator bei Normalverteilungen 37 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Beispiele für quadratische Funktionen (Hyperquadrics, Flächen 2.Ordnung) als Klassifikationsgrenzen im 3-dim. Merkmalsraum Bildquelle: Duda, Hart, Stork, Pattern Classification 17

18 Bayes-Klassifikator 38 Fazit Der theoretisch optimale Klassifikator lässt sich über bedingte Wahrscheinlichkeiten nach Bayes bestimmen Referenz für alle anderen Verfahren Entscheidung nach der größeren (a-posteriori) Wahrscheinlichkeit, dass ein beobachteter Merkmalsvektor x zu einer bestimmten Klasse ω i gehört: g 1 g 2 P ω 1 x P ω 2 x p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Anwendung setzt voraus, dass Wahrscheinlichkeitsverteilungen der Merkmale (a-priori) bekannt sind oder diese werden empirisch geschätzt (mit entsprechender Unsicherheit) Merkmale müssen voneinander (statistisch) unabhängig sein Einfachste Rechnung mit Normalverteilungen Trennflächen sind (höchstens) quadratische Funktionen Erweiterung zur Einbeziehung des Entscheidungsrisikos ist einfach möglich 18

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen

Mehr

Computergestützte Datenanalyse in der Kern- und Teilchenphysik

Computergestützte Datenanalyse in der Kern- und Teilchenphysik Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Kapitel 5. Bayes Klassifikator

Kapitel 5. Bayes Klassifikator Kapitel 5 Bayes Klassifikator Theoretische Grundlagen Bayes Entscheidungstheorie Allgemeiner Bayes Klassifikator Bayes Klassifikator bei Normalverteilung Parameterschätzung Nichtparametrische Klassifikatoren

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

1 Diskriminanzanalyse

1 Diskriminanzanalyse Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1 SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf SBP Mathe Aufbaukurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

Wahrscheinlichkeiten. Verteilungen

Wahrscheinlichkeiten. Verteilungen Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 2

Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 2 Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik Lösungsblatt zu Nr. 2 1. Für die

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Zuverlässigkeitstheorie

Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli

Mehr

Übungen mit dem Applet Zentraler Grenzwertsatz

Übungen mit dem Applet Zentraler Grenzwertsatz Zentraler Grenzwertsatz 1 Übungen mit dem Applet Zentraler Grenzwertsatz 1 Statistischer Hintergrund... 1.1 Zentraler Grenzwertsatz... 1. Beispiel Würfeln... 1.3 Wahrscheinlichkeit und relative Häufigkeit...3

Mehr

Aufgabe Punkte

Aufgabe Punkte Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Oktober 2007 1. Statistik Wir denken an Experimente, bei deren Durchführung die Variable X, um die es dabei geht, verschiedene Werte annehmen

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Wahrscheinlichkeitstheorie (Klausuraufgaben) Marcel Bliem Marco Boßle Jörg Hörner Mathematik Online Herbst 2010 Bliem/Boßle/Hörner (MO) PV-Kurs HM 3 1 / 7

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Mehrdimensionale Verteilungen und Korrelation

Mehrdimensionale Verteilungen und Korrelation Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Schätzung von Parametern

Schätzung von Parametern Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters

Mehr

1. Einführung in die induktive Statistik

1. Einführung in die induktive Statistik Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:

Mehr

Rechnernutzung in der Physik

Rechnernutzung in der Physik Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of

Mehr

Statistik II für Wirtschaftswissenschaftler

Statistik II für Wirtschaftswissenschaftler Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr