Vorlesung 14. Gemeinsame Entropie und bedingte Entropie
|
|
- Tomas Hoch
- vor 5 Jahren
- Abrufe
Transkript
1 Vorlesung 14 Gemeinsame Entropie und bedingte Entropie 1
2 Wir betrachten ein zufälliges Paar (X,Y) mit Verteilungsgewichten ρ(a,b) Die Entropie von (X,Y) (auch gemeinsame Entropie von X und Y genannt) ist H[X,Y] := H[(X,Y)] = a,bρ(a,b)logρ(a,b). Die gemeinsame Verteilung von X,Y kann man zerlegen: ρ(a,b) = ρ 0 (a)p(a,b). Diese Zerlegung überträgt sich auf die Entropie: 2
3 H[X,Y] = a,bρ(a,b)(logρ 0 (a)+logp(a,b)) = a ρ 0(a)logρ 0 (a) a ρ 0(a) b P(a,b)logP(a,b) = H[X]+ a ρ 0(a)H[Y X = a] mit H[Y X = a] := b P(a,b)logP(a,b) (die Entropie von Y gegeben das Ereignis {X = a}). 3
4 H[X,Y] = H[X]+ a ρ 0(a)H[Y X = a] = H[X]+H[Y X] mit H[Y X] := P(X = a)h[y X = a] a die bedingte Entropie von Y, gegeben X. H[X,Y] = H[X]+H[Y X] Sind X und Y unabhängig, dann gilt H[Y X] = H[Y], also H[X,Y] = H[X]+H[Y] 4
5 Allgemein gilt: H[X] + H[Y] H[X,Y] = a,bp(x = a,y = b)logp(x = a) a,bp(x = a,y = b)logp(y = b) + a,bp(x = a,y = b)logp(x = a,y = b) = a,b P(X = a,y = b)log P(X = a,y = b) P(X = a)p(y = b) = D((X,Y) ( X,Ỹ)) mit X verteilt wie X, Ỹ verteilt wie Y, X,Ỹ unabhängig. 5
6 H[X, Y] ist symmetrisch in (X, Y) (denn die Verteilungsgewichte von (Y,X) sind ρ(b,a) := ρ(a,b)). Also ist auch H[Y] +H[X] H[X,Y] symmetrisch in X und Y. Dieses ist gleich H[Y] H[Y X] =: I[X Y], die sogenannte wechselseitige Information von X und Y. 6
7 Wir hatten I[X Y] als relative Entropie (von (X, Y) bezüglich seiner Entkopplung ) erkannt. Die relative Entropie ist nichtnegativ (Vorlesung 13), also folgt H[Y X] H[Y] und analog (vgl. Buch (24.11)) H[Y X,Z] H[Y Z]. Merke: Zusätzliches Bedingen verkleinert die Entropie. 7
8 Beispiel: Stationäre Quellen. X 1,X 2,... heißt stationär verteilt, wenn für alle m,n N die gemeinsamen Verteilungen von X 1,...,X n und von X m+1,...,x m+n übereinstimmen. Wir werden zeigen: h Q := lim n H 2 [X 1,...,X n ] n existiert. 8
9 h Q := lim n H 2 [X 1,...,X n ] n [0,H 2 (X 1 )] Extremfälle: (i) X 1,X 2,... unabhängig und identisch verteilt: H 2 [X 1,...,X n ] = nh 2 [X 1 ], h Q = H 2 [X 1 ] (ii) X 1 = X 2 =... H 2 [X 1,...,X n ] = H 2 [X 1 ], h Q = 0 r Q := 1 h Q H 2 [X 1 ] heißt relative Redundanz der Quelle. 9
10 Behauptung: h Q := lim n H 2 [X 1,...,X n ] n existiert. Beweis: H[X 1,...,X n ] = H[X 2,...,X n ]+H[X 1 X 2,...,X n ] = = H[X n ]+H[X n 1 X n ]+ +H[X 1 X 2,...,X n ]. Mittels Stationarität folgt H[X 1,...,X n ] = H[X 1 ]+H[X 1 X 2 ]+ +H[X 1 X 2,...,X n ]. Zusätzliches Bedingen verkleinert die Entropie, also fallen die Summanden monoton. Aus der Konvergenz der Summanden folgt die Konvergenz des arithmetischen Mittels gegen denselben Grenzwert. 10
11 Entropiereduktion unter Abbildungen H[h(X)] H[X] denn wegen P ( X = a,h(x) = h(a) ) = P(X = a) ist H[X] = H[X,h(X)]. Weiter ist H[X,h(X)] = H[h(X)]+H[X h(x)] H[h(X)]. 11
12 Simulation diskreter Verteilungen per Münzwurf Wir betrachten einen vollen Binärbaum. Dieser beschreibt einen fairen Münzwurf, der zufällig abbricht: Für jedes Blatt b der Tiefe t endet das Experiment mit Wahrscheinlichkeit 2 t in b. Die Blätter seien mit Elementen einer abzählbaren Menge S beschriftet. Z. B. für S = {c,d,e}: c c d c e 12
13 Es sei X das zufällige Blatt, in dem das Experiment endet, und h(x) seine Beschriftung. c c d c e Dann hat die Verteilung von Y = h(x) die Gewichte π(c) = , π(d) = 1 16, π(e) = 1 4. Das Experiment erzeugt per Münzwurf eine Zufallsvariable Y mit Verteilung π. 13
14 Jede Verteilung π auf einer abzählbaren Menge S lässt sich auf diese Weise simulieren: Man schreibe die Gewichte von π als Dualbruch, π(b) = 2 l(b,j), j mit natürlichen Zahlen 1 l(b,1) < l(b,2) <. Dann gilt b,j2 l(b,j) = b π(b) = 1. 14
15 π(b) = j 2 l(b,j), b,j2 l(b,j) = b π(b)= 1. Nach dem Lemma von Fano-Kraft gibt es also einen vollen binären Baum, der für jedes Paar (b,j) ein Blatt der Tiefe l(b,j) frei hält. Versieht man alle diese Blätter mit der Beschriftung b, dann endet der Münzwurf in einem mit b beschrifteten Blatt mit der Wahrscheinlichkeit 2 l(b,j) = π(b). j 15
16 Wir stellen jetzt eine Beziehung her zwischen der erwarteten Anzahl der für die Simulation von π benötigten Münzwürfe und der binären Entropie von π. Zur Erinnerung: X ist das zufällige Blatt, in dem das Experiment endet, und Y = h(x) seine Beschriftung. 16
17 Ist l(a) die Tiefe des Blattes a, dann gilt: P(X = a) = 2 l(a) Also folgt: E[l(X)] = H 2 [X] Für Y = h(x) gilt H 2 [X] = H 2 [X,Y] = H 2 [Y]+H 2 [X Y] Wir werden zeigen: H 2 [X Y] 2 und bekommen so die Abschätzung: H 2 [Y] E[l(X)] H 2 [Y]+2 17
18 π(b) = j Behauptung: H 2 [X Y] 2 Beweis: Wir hatten die Dualbruchdarstellung 2 l(b,j), mit natürlichen Zahlen 1 l(b,1) < l(b,2) <. Die Blätter a 1,a 2,..., die mit b beschriftet sind, lassen sich also so anordnen, dass l(a 1 ) < l(a 2 ) < gilt. Für p i := P(X = a i Y = b) = 2 l(a i) /π(b) folgt p i+1 p i /2. Dies impliziert, dass es eine Zahl k gibt, so dass p i > 2 i für i k und p i 2 i für i > k. Es folgt i 1i( p i 2 i) = (i k) ( p i 2 i) 0, und somit i 1 i 1ip i i 1i2 i = 2. Mit Entropieschranke (Vorlesung 13): H 2 [X Y = b] 2. Es folgt H 2 [X Y] 2. 18
Vorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrVorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen
Vorlesung 2b Diskrete Zufallsvariable und ihre Verteilungen 1 1. Die Grundbegriffe 2 Bisher hatten wir uns (vor allem) mit Zufallsvariablen beschäftigt, deren Wertebereich S endlich war. Die (schon in
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 2
Vorlesung 8b Zweistufige Zufallsexperimente Teil 2 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
MehrVorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten
MehrVorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
MehrVorlesung 3b. Der Erwartungswert
Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von
MehrVorlesung 7a. Unabhängigkeit
Vorlesung 7a Unabhängigkeit 1 Wir erinnern an die Definition der Unabhängigkeit von zwei Zufallsvariablen (Buch S. 61): Zufallsvariable X 1,X 2 heißen (stochastisch) unabhängig, falls für alle Ereignisse
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 1
Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt
MehrVorlesung 12a. Zerlegung der Varianz
Vorlesung 12a Zerlegung der Varianz 1 Im zufälligen Paar (X, Y ) 2 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz.
MehrVorlesung 8b. Bedingte Erwartung und bedingte Varianz
Vorlesung 8b Bedingte Erwartung und bedingte Varianz 1 1. Zerlegung eines Erwartungswertes nach der ersten Stufe (Buch S. 91) 2 Wie in der vorigen Vorlesung betrachten wir die gemeinsame Verteilung von
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrAnhang II zur Vorlesung Kryptologie: Entropie
Anhang II zur Vorlesung Kryptologie: Entropie von Peter Hellekalek Fakultät für Mathematik, Universität Wien, und Fachbereich Mathematik, Universität Salzburg Tel: +43-(0)662-8044-5310 Fax: +43-(0)662-8044-137
MehrVorlesung 9b. Rechnen mit Ereignissen und Indikatoren
Vorlesung 9b Rechnen mit Ereignissen und Indikatoren 1 {0, 1}-wertige Zufallsvariablen nennen wir auch 2 {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. {0, 1}-wertige Zufallsvariablen nennen
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
MehrVorlesung 2a. Diskret uniform verteilte Zufallsvariable. (Buch S. 6-11)
Vorlesung 2a Diskret uniform verteilte Zufallsvariable (Buch S. 6-11) 1 0. Erinnerung und Auftakt 2 Sei S eine endliche Menge. Eine Zufallsvariable X heißt diskret uniform verteilt auf S, wenn P(X = a)
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrDie mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t
Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines
MehrVorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3 Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrVorlesung 2a. Diskret uniform verteilte Zufallsvariable
Vorlesung 2a Diskret uniform verteilte Zufallsvariable 1 Eine Zufallsvariable X heißt diskret uniform verteilt, wenn ihr Zielbereich S endlich ist und P(X = a) = 1 #S für alle a S. Damit beschreibt X eine
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrVorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson
Vorlesung 4b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 0. Fortgesetzter p-münzwurf 2 Definition: Sei p (0,1), q := 1 p. Eine Bernoulli-Folge zum Parameter p
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrDefinitionen und Aussagen zur Maßtheorie
Definitionen und Aussagen zur Maßtheorie Man möchte den Teilmengen eines Raumes ein Gewicht zuordnen. Wir werden sehen, daß dies in sinnvoller Weise häufig nicht für alle Teilmengen möglich ist, sondern
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrVorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte
Vorlesung 9b Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte 1 Definition. Seien E 1, E 2 Ereignisse. Dann ist die bedingte Wahrscheinlichkeit von E 2, gegeben E 1, definiert als P(E 2 E 1 )
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrDer Satz von Gelfand. 1 Spektrum einer kommutativen Banachalgebra mit Eins
Vortrag zum Seminar zur Funktionalanalysis, 23.10.2008 Cornelia Wirtz In diesem Vortrag werden wir uns mit dem Spektrum (oder auch dem maximalen Idealraum oder Strukturraum genannt) einer kommutativen
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrVorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson
Vorlesung 3b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 Unser heutiger Rahmen: p- Münzurf alias Bernoulli-Folge 2 Jacob Bernoulli (1654-1705) 3 Sei p (0,1), q
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrVorlesung 5a. Die Varianz
Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrVorlesung 5a. Varianz und Kovarianz
Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
Mehr3 Konstruktion einer f.s. konvergente Folge
1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i
Mehr2. Klausur zu,,algorithmische Mathematik II
IAM/INS Sommersemester 2017 Andreas Eberle, André Uschmajew 2. Klausur zu,,algorithmische Mathematik II Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang: Wichtige Hinweise:
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrÜ b u n g s b l a t t 7
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrVorlesung 13a. Schätzen von Parametern. Teil 2
Vorlesung 13a Schätzen von Parametern Teil 2 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S Ein Logo der Statistik: X Θ S P ϑ (X da) = ρ ϑ (da), ϑ Θ Ein Logo der Statistik: X Θ t S P ϑ (X
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrAlgebraische Kurven - Vorlesung 23. Glatte und normale Punkte
Algebraische Kurven - Vorlesung 3 Glatte und normale Punkte Wir wollen zeigen, dass ein Punkt auf einer ebenen algebraischen Kurve genau dann glatt ist, wenn der zugehörige lokale Ring ein diskreter Bewertungsring
MehrWie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrErwartungswert einer Zufallsvariablen / mean value of a random variable
Erwartungswert / mean value / moyen E[X] Aademische isziplin der Statisti/academic field of statistics/ la discipline statistique/estadística/disciplina academica della statistica Erwartungswert einer
Mehr8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem
8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8.1 Der Kompaktheitssatz Kompaktheitssatz Endlichkeitssatz Der Kompaktheitssatz ist auch unter dem Namen Endlichkeitssatz bekannt. Unter Verwendung
MehrVorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
MehrVorlesung 12a. Schätzen von Parametern. Teil 2
Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.
MehrDIE HÖHE VON REKURSIVEN BÄUMEN
DIE HÖHE VON REKURSIVEN BÄUMEN Michael Drmota Institut für Diskrete Mathematik und Geometrie Technische Universität Wien michael.drmota@tuwien.ac.at www.dmg.tuwien.ac.at/drmota/ Kolloquium aus Diskreter
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrInhaltsverzeichnis (Ausschnitt)
8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
VARIOUS KINDS OF CONVERGENCES OF SEQUENCES OF RANDOM VARIABLES 10 Dezember, 2012 1 Bekannte Konvergenzarten 2 3 1 Bekannte Konvergenzarten 2 3 Wahrscheinlichkeitsraum Im Folgenden betrachten wir immer
Mehr