Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
|
|
- Krista Beckenbauer
- vor 6 Jahren
- Abrufe
Transkript
1 Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen Merkmale und Klassen werden als Zufallsgrößen betrachtet, die statistisch beschrieben werden Voraussetzung: Wahrscheinlichkeitsverteilungen der Klassen sind bekannt Merkmale sind voneinander statistisch unabhängig: Die Auswirkung eines Merkmales auf die Klassifizierung ist unabhängig von den Ausprägungen anderer Merkmale Naiv Praxisbezug Besondere Bedeutung: Referenz zur Beurteilung der Qualität anderer Klassifikatoren Die Voraussetzungen sind in der Praxis oft verletzt, dennoch de facto oft gute Performance Wahrscheinlichkeitsverteilungen müssen ggf. erst anhand von Stichproben geschätzt werden 1
2 Übersicht 3 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes` Theorem Bayes` Theorem Bedingte Wahrscheinlichkeiten: wie ändert sich die Wahrscheinlichkeit durch das Eintreten von einzelnen Ereignissen? A B 4 Die Wahrscheinlichkeit, dass zwei Ereignisse A und B zusammen eintreten ist P A B = P A B P B = P B A P A P A, P B sind die a-priori Wahrscheinlichkeiten für jedes Ereignis für sich P A B ist die bedingte Wahrscheinlichkeit für A, wenn B bereits eingetreten, bzw. bekannt ist. Bayes sagt: P A B = P(B A) P(A) P(B) Das heißt, dass sich die Wahrscheinlichkeit für das Eintreten von A - unter der Bedingung, dass B schon eingetreten ist - durch die Wahrscheinlichkeit beschreiben lässt, dass B unter der Bedingung von A eingetreten ist. 2
3 Bayes` Theorem: Bedeutung für Klassifikation 5 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für Bayes` Theorem: Bedeutung für Klassifikation 6 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen 3
4 Bayes` Theorem: Bedeutung für Klassifikation 7 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Bayes` Theorem: Bedeutung für Klassifikation 8 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Apfel! Das Merkmal x spricht zwar (knapp) für die Birne (wenn ich jede Klasse einzeln betrachte), aber Äpfel kommen viel häufiger vor. 4
5 Bayes` Theorem: Bedeutung für Klassifikation 9 Intuitives Beispiel a) Ohne Wissen über konkretes Merkmal x Apfel (weil P ω j = P Apfel = 90%) b) Mit Merkmal x und Wissen über Wahrscheinlichkeit innerhalb Klassen p(x ω j ), aber ohne Wissen über Klassenhäufigkeit P(ω j ) Birne c) Alles bekannt: x, p x ω j und P(ω j ) Apfel b) Ungewichtet, p i =1 p x Apfel < p x Birne c) Gewichtet, p i = P(ω i ) Bayes` Theorem: Bedeutung für Klassifikation 10 Intuitives Beispiel Die Ernte besteht zu 90% aus Äpfeln. Auf einer Merkmalsskala x (bspw. Rundheit ) liegen Äpfel bei 0.8 ± 0.1, Birnen bei 0.3 ± 0.2 (Intuitive) Klassifikation einer Frucht: a) Blind: Ich kenne das Merkmal nicht Entscheidung für die wahrscheinlichste Klasse = Apfel b) Ich kenne das Merkmal: x = 0.6, aber nicht die Häufigkeit der Klassen ich muss beide Klassen als gleich wahrscheinlich annehmen Birne c) Ich kenne beides Entscheidung für Apfel! Das Merkmal x spricht zwar (knapp) für die Birne (wenn ich jede Klasse einzeln betrachte), aber Äpfel kommen viel häufiger vor. Zugrunde liegende Entscheidungskriterien: a) Größte a-priori -Wahrscheinlichkeit b) Klassengrenze = Schnittpunkt der ungewichteten Verteilungsfunktionen p(x ω i ) c) Klassengrenze = Schnittpkt. der gewichteten Verteilungsfkt. p x ω i P(ω i ) 5
6 Übersicht 11 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator: Mathematische Formulierung 12 Anwendung des Bayes Theorem auf Klassifikationen "Ereignisse" = Klassen & Merkmale Verwendete Wahrscheinlichkeiten P(ω i ): Wahrscheinlichkeit für das Auftreten der Klasse ω i, (a-priori Wahrsch.) p( x): Wahrscheinlichkeit für das Auftreten der Merkmalvektors x, wenn unbekannt ist, zu welcher Klasse es gehört p( x ω i ): Wahrscheinlichkeit für das Auftreten des Merkmalvektors x, wenn er zur Klasse ω i gehört (sog. klassenbedingte Wahrscheinlichkeit) P(ω i x): Wahrscheinlichkeit, dass ein gegebener Merkmalsvektor x zur Klasse ω i gehört ( a- posteriori Wahrscheinlichkeit) hier gesucht Dabei gilt Hier liegen kontinuierliche Merkmale vor p( x) und p( x ω i ) sind Wahrscheinlichkeitsdichten mit p x dx = 1 und p x ω i dx = 1 Wahrscheinlichkeitsdichte für den Merkmalsvektor = gewichtete Summe über die Verteilungen in den einzelnen Klassen p x = j p( x ω j ) P(ω j ) 6
7 Bayes-Klassifikator: Mathematische Formulierung 13 Bayes sche Entscheidungsregel Das Objekt mit dem Merkmalen x wird der Klasse ω i zugeordnet, für die es die größere a-posteriori Wahrscheinlichkeit hat: x ω i wenn P ω i x > P ω j x i j Wenn ich weiß, wie häufig jede Klasse ω i vorkommt und wie sich die Merkmale x innerhalb jeder Klasse verteilen, kann ich darauf schließen, wie wahrscheinlich es ist, dass ein bestimmter Merkmalsektor x zu einer Klasse gehört Bayes-Klassifikator: Mathematische Formulierung 14 Bayes sche Entscheidungsregel Das Objekt mit dem Merkmalen x wird der Klasse ω i zugeordnet, für die es die größere a-posteriori Wahrscheinlichkeit hat: x ω i wenn P ω i x > P ω j x i j Beispielsweise für 2 Klassen: x ω 1 ω 2 wenn P ω 1 x > P ω 2 x wenn P ω 1 x < P ω 2 x bzw. P ω 1 x P ω 2 x bzw. p( x ω 1 ) P(ω 1 ) p( x) p( x ω 2) P(ω 2 ) p( x) 7
8 Bayes-Klassifikator: Mathematische Formulierung 15 Zähler / Nenner Nenner p x = Wahrsch.verteilung der Merkmale, sorgt für Normierung auf 1 in p( x ω i ) P ω i x = p( x ω i) P(ω i ) p( x) Für einen festen Merkmalsvektor x ist der Nenner für jede Klasse gleich, d.h. für die Entscheidung reicht der Vergleich der Zähler P(ω i x) p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator: Optimale Klassifikation 16 Minimaler Klassifikationsfehler? Hier beispielhaft für 2 Klassen und ein Merkmal (x= skalar) Bei gegebenem Merkmal x wird die Klasse ω 1 gewählt, wenn die Wahrscheinlichkeit P ω 1 x) > P ω 2 x) ist. Dennoch verbleibt eine Wahrscheinlichkeit, dass x zu ω 2 gehört P ω 2 x) > 0 = Wahrscheinlichkeit für eine Fehlentscheidung ε(x). Für jeden möglichen Merkmalswert ist die Fehlerwahrscheinlichkeit hier jedoch die kleinst-mögliche: ε x = min P i = min P ω 1 x)), P ω 2 x)) Damit ist auch immer die mittlere Fehlerwahrscheinlichkeit (für alle Merkmalswerte) E ε = ε x p x dx min Anschaulich Fehler bei Bayes: A+B+D Fehler bei verschobener Entscheidungsgrenze: A+B+C+D 8
9 Übersicht 17 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator: Varianten 18 Varianten der Entscheidungsregel Bei der Entscheidung wird nur nach dem größeren Wert geschaut. p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Addition einer Konstanten, Multiplikation mit einem (positiven) Faktor auf beiden Seiten ändert nichts a p x ω 1 P ω 1 + b a p x ω 2 P ω 2 + b Genauso jede monotone Funktion, auf beide Seiten angewandt ln p x ω 1 P ω 1 ln p x ω 2 P ω 2 Der natürliche Logarithmus ist nützlich bei Normalverteilungen 9
10 Bayes-Klassifikator: Varianten 19 Likelihood-Quotient Entscheidungsregel umstellen als Quotient der a-posteriori Wahrscheinlichkeiten Für 2 Klassen p x ω 1 P ω 1 p x ω 2 P ω 2 L x = p( x ω 1) p x ω 2 P ω 2 P(ω 1 ) = Likelihood-Quotient der Bayes-Entscheidungsregel, mit ihrem Schwellwert P(ω 2 ) P(ω 1 ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator: Verallgemeinerung Risiko 21 Risikoorientierter Bayes-Klassifikator Bisher reine Wahrscheinlichkeitsbetrachtung. Alle Fehlklassifikationen werden gleich gewichtet. Es kommt aber vor, dass Fehlentscheidungen unterschiedlich schwerwiegende Folgen haben (z.b. Kosten), also unterschiedlich riskant sind Risiko- bzw. Kostenfaktoren einführen. Jede Entscheidung für eine bestimmte Klasse verursacht Kosten λ ij 0. Fehlentscheidungen (Entscheidung für ω i / wahre Klasse ω j ) können mit hohen Werten von λ ij, i j belegt werden. Bei einer Entscheidung für die Klasse ω i treten also in Summe das Risiko / die Kosten r i ( x) = k λ ik P ω k x auf Ziel: Minimierung des Gesamtrisikos (der Gesamtkosten) 10
11 Bayes-Klassifikator: Verallgemeinerung Risiko 22 Risikobasierte Regel Neue Vorgabe: Minimierung der Gesamtkosten (des Gesamtrisikos) Entsprechend neue Forderung für Entscheidungsregel: Das Ereignis mit dem Merkmalen x soll der Klasse ω i zugeordnet werden, für die das kleinste Risiko auftritt vorliegt:! x ω i wenn r i x < r j x i j Z.B.: 2-Klassenfall und Darstellung über Likelihood-Quotient p x ω 1 p x ω 2 λ 12 λ 22 P ω 2 λ 21 λ 11 P ω 1 Einführung von Risikofaktoren verschiebt den Entscheidungs-Schwellwert Bayes-Klassifikator: Verallgemeinerung Rückweisung 25 Bayes-Klassifikator mit Rückweisung Darstellung als Likelihood-Quotient: Entscheidung hängt von Schwellwert ab L x = p x ω 1 p x ω 2 λ 12 λ 22 P ω 2 λ 21 λ 11 P ω 1 = θ Wenn L x knapp an der Schwelle θ liegt Entscheidung unsicher Mögliche Zusatzforderung: nur sichere Entscheidungen treffen ω 1 : L x < θ θ oder ω 2 : L x > θ + θ, ansonsten: zurückweisen (reject option). 11
12 Übersicht 26 Bedingte Wahrscheinlichkeiten: Bayes' Theorem Der Bayes-Klassifikator Varianten und Verallgemeinerungen Bayes-Klassifikation bei Normalverteilungen Bayes-Klassifikator bei Normalverteilungen 27 Bayes-Klassifikation & Normalverteilungen 12
13 Reminder: Normalverteilungen 28 Einschub: Normalverteilung Gaußsche Glockenkurve, sehr weit verbreitet, auch aus theoretischen Erwägungen bedeutsam (Zentraler Grenzwertsatz: Summe einer großen Anzahl von Zufallsvariablen ist annähernd normalverteilt). Univariate Normalverteilung N μ, σ 2 = 1 2π σ exp [ 1 x μ 2 ] 2 σ ist vollständig definiert durch Mittelwert μ = E(x) und Varianz σ 2 = E x μ 2 Reminder: Normalverteilungen 29 Multivariate Normalverteilung Normalverteilung im N-dimensionalen Raum 1 N μ, K = 2π N K exp [ 1 2 x μ t K 1 x μ ] Mittelwert μ = N-dimensionaler Vektor μ = E( x) Kovarianzmatrix K = NxN Matrix der (Ko-) Varianzen K = mit σ ij 2 = E x i μ i x j μ j Eigenschaften der Kovarianzmatrix 2 σ 11 2 σ 12 2 σ 21 2 σ 22 K ist symmetrisch, d.h. σ ij 2 = σ ji 2 Diagonalelement σ ii 2 ist die Varianz des i-ten Merkmals σ ij 2, i j ist die Kovarianz zwischen i-ten und j-tem Merkmal ( Korrelation) Wenn die Zufallsvariablen / Merkmale x i und x j statistisch unabhängig sind: Kovarianzen verschwinden σ ij 2 = 0 für i j N μ, K = Produkt der n 1D Normalverteilungen Notation: K = Determinante, K 1 = Inverse 13
14 Reminder: Normalverteilungen 30 Eigenschaften der (multivariaten) Normalverteilung Der größte Wert von N liegt bei x = μ (Zentrum, Schwerpunkt) Die Form der Verteilung wird von der Kovarianzmatrix K bestimmt: Punkte mit gleichem Wert N μ, K = const formen (Hyper-) Ellipsoide, die Hauptachsen der Ellipsoide liegen parallel zu den Eigenvektoren von K, Länge der Halbachsen = zugehörigen Eigenwerte von K. K = σ 0 0 σ K = σ σ 2 K = σ 11 σ 12 σ 21 σ 22 Bayes-Klassifikator bei Normalverteilungen 31 Bayes-Klassifikation & Normalverteilungen Annahme Für jede Klasse werden die Merkmale werden durch eine (multivariate) Normalverteilung beschrieben. Mittelwerte und Kovarianzmatrix sind bekannt p x ω i = N i μ i, K i Als Diskriminanzfunktion sinnvollerweise g i = ln p x ω i P ω i 14
15 Bayes-Klassifikator bei Normalverteilungen 32 Bayes-Klassifikation & Normalverteilungen Annahme Für jede Klasse werden die Merkmale werden durch eine (multivariate) Normalverteilung beschrieben. Mittelwerte und Kovarianzmatrix sind bekannt p x ω i = N i μ i, K i Als Diskriminanzfunktion sinnvollerweise = ln g i = ln p x ω i P ω i = ln N i μ i, K i + ln[p ω i ] 1 2π N K i exp 1 2 x μ t i K 1 2 i x μ i + ln[p ω i ] = N 2 ln 2π ln K i 1 2 x μ i t K i 1 x μ i + ln[p ω i ] Diskriminanzfunktion ist quadratisch in x Klassengrenzen sind quadratische Funktionen (Hyperquadrics). D.h. die Trennflächen zwischen den Klassen müssen nie komplexer sein, höhere Potenzen (in x ) sind nicht notwendig. Bayes-Klassifikator bei Normalverteilungen 33 Bayes-Klassifikation bei Normalverteilungen: Spezialfall Annahmen Alle Kovarianzmatrizen der verschiedenen Klassen seien gleich K i = K j, für alle i, j Alle Varianzen sind gleich, die Kovarianzen verschwinden K = σ 2 1 K 1 = 1/σ 2 D.h. alle Klassen werden durch gleiche, hyperkugelige Wahrscheinlichkeitsverteilung beschrieben Diskriminanzfunktion g i = ln K i 1 2 x μ i t K i 1 x μ i + ln P ω i g i = x μ i 2 2σ 2 + ln P ω i dabei ist x μ i 2 das Abstandsquadrat zwischen dem betrachteten Merkmalspunkt und dem Mittelpunkt der Klasse ω i (Euklid sche Norm). 15
16 Bayes-Klassifikator bei Normalverteilungen 34 Bayes-Klassifikation bei Normalverteilungen: Spezialfall ff Wegen x μ i 2 = x μ i t x μ i = x t x 2 μ i t x + μ i t μ i und x t x unabh. von i g i = v i t x + v i0, mit v i = 1 σ 2 μ i und v i0 = 1 2σ 2 μ i t μ i + ln(p ω i ) Diskriminanzfunktion linear in x Klassengrenze g i = g j ist eine Hyperebene: w t x + w 0 = w t x x 0 = 0 mit w = μ i μ j und x 0 = 1 2 μ i + μ j σ 2 (μ i μ j ) μ i μ j 2 ln P ω i P ω j Hyperebene steht senkrecht auf der Verbindungslinie zwischen beiden Klassenzentren, Lage auf Verbindungslinie (x 0 ) hängt von a-priori-wahrscheinlichkeit ab. Zusatzannahme: alle Klassen sind gleich wahrscheinlich P ω i x 0 = 1 2 μ i + μ j = Mitte zwischen den beiden Klassenzentren = Minimum Distance Klassifikator = P ω j, für alle i, j Bayes-Klassifikator bei Normalverteilungen 35 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Einfache Beispiel in 1, 2 und 3 Dimensionen. Dargestellt sind nur die klassenbedingten Wahrscheinlichkeiten der Merkmale p( x ω i ) Bildquelle: Duda, Hart, Stork, Pattern Classification 16
17 Bayes-Klassifikator bei Normalverteilungen 36 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Trennfläche (Entscheidungsgrenze) verschiebt sich mit der a-priori Wahrscheinlichkeit P(ω i ) Bildquelle: Duda, Hart, Stork, Pattern Classification Bayes-Klassifikator bei Normalverteilungen 37 Bayes-Klassifikation bei Normalverteilungen: Beispiele für Klassengrenzen Beispiele für quadratische Funktionen (Hyperquadrics, Flächen 2.Ordnung) als Klassifikationsgrenzen im 3-dim. Merkmalsraum Bildquelle: Duda, Hart, Stork, Pattern Classification 17
18 Bayes-Klassifikator 38 Fazit Der theoretisch optimale Klassifikator lässt sich über bedingte Wahrscheinlichkeiten nach Bayes bestimmen Referenz für alle anderen Verfahren Entscheidung nach der größeren (a-posteriori) Wahrscheinlichkeit, dass ein beobachteter Merkmalsvektor x zu einer bestimmten Klasse ω i gehört: g 1 g 2 P ω 1 x P ω 2 x p x ω 1 P ω 1 p( x ω 2 ) P(ω 2 ) Anwendung setzt voraus, dass Wahrscheinlichkeitsverteilungen der Merkmale (a-priori) bekannt sind oder diese werden empirisch geschätzt (mit entsprechender Unsicherheit) Merkmale müssen voneinander (statistisch) unabhängig sein Einfachste Rechnung mit Normalverteilungen Trennflächen sind (höchstens) quadratische Funktionen Erweiterung zur Einbeziehung des Entscheidungsrisikos ist einfach möglich 18
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012
7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen
MehrComputergestützte Datenanalyse in der Kern- und Teilchenphysik
Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrKapitel 5. Bayes Klassifikator
Kapitel 5 Bayes Klassifikator Theoretische Grundlagen Bayes Entscheidungstheorie Allgemeiner Bayes Klassifikator Bayes Klassifikator bei Normalverteilung Parameterschätzung Nichtparametrische Klassifikatoren
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr6.6 Poisson-Verteilung
6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrSBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1
SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf SBP Mathe Aufbaukurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrWahrscheinlichkeiten. Verteilungen
Wahrscheinlichkeiten. Verteilungen 2 2.1 Wahrscheinlichkeitsrechnung Das Ergebnis eines mit Zufälligkeit behafteten Versuchs nennen wir ein Ereignis. Beim Wurf einer Münze sind zwei Ereignisse möglich.
MehrHeute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung
Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrÜbungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 2
Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik Lösungsblatt zu Nr. 2 1. Für die
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrVerteilungen mehrerer Variablen
Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrZuverlässigkeitstheorie
3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli
MehrÜbungen mit dem Applet Zentraler Grenzwertsatz
Zentraler Grenzwertsatz 1 Übungen mit dem Applet Zentraler Grenzwertsatz 1 Statistischer Hintergrund... 1.1 Zentraler Grenzwertsatz... 1. Beispiel Würfeln... 1.3 Wahrscheinlichkeit und relative Häufigkeit...3
MehrAufgabe Punkte
Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Oktober 2007 1. Statistik Wir denken an Experimente, bei deren Durchführung die Variable X, um die es dabei geht, verschiedene Werte annehmen
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Wahrscheinlichkeitstheorie (Klausuraufgaben) Marcel Bliem Marco Boßle Jörg Hörner Mathematik Online Herbst 2010 Bliem/Boßle/Hörner (MO) PV-Kurs HM 3 1 / 7
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik
Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrBiomathematik für Mediziner, Klausur WS 1999/2000 Seite 1
Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrMehrdimensionale Verteilungen und Korrelation
Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrSchätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
Mehr1. Einführung in die induktive Statistik
Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen
MehrBestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
MehrRechnernutzung in der Physik
Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of
MehrStatistik II für Wirtschaftswissenschaftler
Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen
MehrKapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
Mehr