2. Stochastische Prozesse.
|
|
- Helene Melsbach
- vor 6 Jahren
- Abrufe
Transkript
1 SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht deterministisch (stochastisch) ist. Wir können das System, in dem sich der Prozess abspielt, entweder kontinuierlich oder in gewissen diskreten Zeitabständen analysieren. Je nach dieser Wahl, müssen wir mithin einen diskreten oder kontinuierlichen stochastischen Prozess betrachten. Hierzu verwenden wir das Konzept der Zufallsvariablen. Definition 1: Eine Familie von Zufallsvariablen {X t t T}, die sich in zufälliger, aber wohl definierter Weise entwickelt, heisst ein stochastischer Prozess. T bezeichnet dabei häufig die (entweder kontinuierlich oder in diskreten Schritten) betrachtete Zeit. Ein stochastischer Prozess soll im folgenden als vollständig zufällig kurz "zufällig" bezeichnet werden, wenn (2.1) Pr(X t+s = i X t = j; A) = Pr(X t+s = i X t = j) für alle t, s gilt, wobei A ein beliebiges einfaches oder zusammengesetztes, in irgend einer Weise durch {X r r < t} bedingtes Ereignis ist und Pr die Wahrscheinlichkeit bezeichnet. Die angegebene Wahrscheinlichkeit ist mithin unabhängig von Ereignissen, die vor der Zeit t stattgefunden haben. 3. Eigenschaften von Warteschlangen. Die Struktur einer Warteschlange wird durch drei Faktoren bestimmt: den Typ T A des Ankunftsmusters, den Typ T B des Bedienungsmusters und die Warteregel. Ankunfts und/oder Bedienungsmuster sind stochastische Prozesse. Das Ankunftsmuster gibt an, in welchem zeitlichen Abstand die Klienten an dem Bedienungseingang erscheinen. Das Bedienungsmuster gibt an, wie der zeitliche Ablauf des Bedienungs (Behandlungs ) Vorgangs abläuft. Hierzu gehört auch die Angabe der Anzahl der Bediener. Die Warteregel gibt an, nach welcher Regel die wartenden Klienten zur Bedienung ausgesucht werden.
2 SS 2006 Arbeitsblatt 2 / S. 2 von 7 Entsprechend diesen Charakteristika wird die Warteschlange in Kurzschreibweise in der Form (T A / T B / k) notiert, wobei k die Anzahl der Bediener angibt und die Token T als M : (Markov) vollständig zufällige Verteilung, D : deterministische Verteilung (konstante Zeitintervalle), G : beliebige Verteilung angegeben werden. Mathematisch am einfachsten ist eine Warteschlange zu beschreiben, bei der die Klienten "vollständig zufällig" am Bedienungseingang auftauchen, die Bedienung durch einen Bediener erfolgt, die Bedienungsdauer ebenfalls "vollständig zufällig", und die Warteregel "First In First Out" (FIFO) ist (in der angegebenen Schreibweise also die Warteschlange (M / M / 1)). 4. Der "gedächtnislose" Ankunftsprozess. Der im folgenden formulierte Ankunftsprozess ist ein vollständig zufälliger stochastischer Prozess im Sinne der eingangs gegebenen Definition: Sei λ die mittlere Anzahl von Ankünften in der Zeiteinheit. Dann ist die Wahrscheinlichkeit dafür, dass im Zeitintervall zwischen t und t + dt ein Klient eintrifft, gleich λ dt + o(dt), die Wahrscheinlichkeit dafür, dass in diesem Zeitintervall kein Klient eintrifft, gleich 1 λ dt + o(dt), und die Wahrscheinlichkeit dafür, dass in diesem Intervall zwei oder mehr Klienten eintreffen, gleich o(dt) 1. Dazu zeigen wir zunächst: Satz 1: Für einen Ankunftsprozess sind die Bedingungen (1) Sei λ die mittlere Anzahl von Ankünften in der Zeiteinheit. Dann ist die Wahrscheinlichkeit dafür, dass im Zeitintervall zwischen t und t + dt ein Klient eintrifft, gleich λ dt + o(dt), die Wahrscheinlichkeit dafür, dass in diesem Zeitintervall kein Klient eintrifft, gleich 1 λ dt + o(dt), (2) Die Anzahl der Ankünfte während einer Zeit τ ist eine Zufallsvariable N, die eine POISSON Verteilung mit dem Parameter λ besitzt, 1 Die betrachteten Wahrscheinlichkeiten hängen also nur vom Zeitintervall dt ab und sind unabhängig von vorangegangenen Ereignissen
3 SS 2006 Arbeitsblatt 2 / S. 3 von 7 (3) Das Zeitintervall zwischen der Ankunft zweier aufeinander folgender Klienten ist eine Zufallsvariable T, die eine Exponentialverteilung mit dem Parameter λ besitzt, äquivalent. Beweis: (1) (2): Das Intervall τ wird in m äquidistante Intervalle der Länge dt zerlegt; es ist also τ = m dt. Dann folgt aus (1) für die Wahrscheinlichkeit Pr λ (N = n) nach der Binomialverteilung (4.1) m n Pλ ( N = n) = ( λ dt + o( dt)) (1 λ dt + o( dt) ) n λτ n! (4.2) ( ) exp( λτ ) n m n im Limes m, dt 0, m dt τ. Die Wahrscheinlichkeit dafür, dass die Anzahl der Ereignisse zur Zeit τ gleich n ist, ist mithin nur von λτ abhängig: Pr(N=n) = Pr(n ; λτ) (zur Herleitung vgl. den Abschnitt A 1.6 aus Arbeitsblatt 1). Erwartungswert und Varianz von N sind E(N) = V(N) = λ τ. (2) (3): Seien f(t) und F(t) die Dichte bzw. die Verteilungsfunktion der Zufallsvariablen T. Angenommen, ein Klient erscheine zu einem bestimmten Zeitpunkt, und wir messen die danach verstreichende Zeit t bis zur Ankunft des nächsten Klienten. Dann ist und damit Pr(T > t) = Pr(kein Klient erscheint in (0,t)) = e λ t nach (2). Da jedoch Pr(T > t) = 1 Pr(T t) = 1 F(t) ist, folgt λ t F( t) = 1 e ; t 0, λ t (4.3) f ( t) = F ( t) = λ e ; t 0. Es folgt für beliebige t, s 0 : (4.4) Pr(T > s+t T > t) = Pr(T > s), da die Menge {τ τ > s+t} in der Menge {τ τ > t} enthalten ist. Das zu erwartende Zeitintervall bis zur nächsten Ankunft ist also unabhängig von der Vorgeschichte. Erwartungswert und Varianz von T sind E(T) = 1/ λ und V(T) = 1/ λ 2.
4 SS 2006 Arbeitsblatt 2 / S. 4 von 7 (3) (1): Nach (3) ist die Wahrscheinlichkeit dafür, dass in der Zeit zwischen t = 0 und t = dt ein Klient erscheint, (4.5) Pr(0 T < dt) = F(dt) F(0) = λ dt + O(dt 2 ) = λ dt + o(dt), die, dass kein Klient erscheint, (4.6) Pr(T > dt) = e λ dt = 1 λ dt + O(dt 2 ) = 1 λ dt +o(dt) und, wegen der Unabhängigkeit der Zwischenankunftsintervalle, die, dass zwei oder mehr Klienten erscheinen, gleich o(dt). Wie gezeigt, ist ein exponentialverteilter Prozess "gedächtnislos". Es gilt aber auch die Umkehrung: Satz 2: Für jeden (stetigen) Zufallsprozess mit der Dichtefunktion f(x) auf dem Intervall ]0, ] und der Eigenschaft, dass für beliebige t, s 0 gilt: (4.7) Pr(T > s+t T > t) = Pr(T > s), folgt, dass ein λ > 0 derart existiert, dass f(x) = λ exp(-λ x) für alle x 0 ist. Zum Beweis wird der folgende Hilfssatz aus der Analysis benötigt: Lemma: Sei G: ]0, ] R eine stetige Funktion mit G(s+t) = G(s) G(t) für alle s, t 0. G sei nicht die Nullfunktion. Dann gibt es ein λ R so, dass G(t) = G λ (t) = exp(λ t) für alle t 0. Zum Beweis des Lemmas vgl. etwa [3]. Beweis von Satz 2: Aus (4.7) folgt zunächst wegen {ω s+t} {ω t}, dass Man setze nun x Pr{ω s+t} = Pr{ω s} Pr{ω t}. G ( x) : = f ( t) dt. Dann ist G eine stetige Funktion auf ]0, ] mit den aus den Voraussetzungen leicht ablesbaren Eigenschaften: G(0) = 1, G(x) 0 für alle x, G(s+t) = G(s) G(t) für alle s,t 0, G(t) 0 für t.
5 SS 2006 Arbeitsblatt 2 / S. 5 von 7 Das Lemma garantiert, dass es wegen der zweiten Eigenschaft ein reelles α geben muss, mit G(x) = exp(α x). Aufgrund der dritten Eigenschaft muss α = - λ mit λ > 0 sein, und der Hauptsatz der Differential- und Integralrechnung liefert direkt x d G '( x) = f ( t) dt = f ( x) = λ exp( λ x), dx also f(x) = λ exp(-λ x), wie behauptet. Als Beispiel für eine kompliziertere Fragestellung soll im folgenden die Verteilung der Zufallsvariablen V k hergeleitet werden, die die Zeit beschreibt, die bis zum Eintreffen von k unabhängigen, mit dem Parameter λ gleichverteilten Ereignissen vergeht. Es ist V k = T 1 + T 2 + T k und damit die Wahrscheinlichkeit Pr(V k t) dafür, dass mindestens V k Ereignisse im Intervall [0,t] stattfinden, gleich G k ( t) = 1 k 1 k 1 r λ t ( λ t) Pr( r; λ t) = 1 e r= 0 r= 0 r! Die Dichtefunktion von V k erhält man daraus durch Differentiation nach t zu (4.8) g k k 1 ( λ t) λ t ( t) = λ e t 0. ( k 1)! Eine weitere Frage ist die nach dem Maximum T von n mit dem Parameter λ exponential gleichverteilten k Zufallsvariablen T: = max{t 1, T 2, T k }. Gesucht wird also die Wahrscheinlichkeit Pr(T b), für die aufgrund der Unabhängigkeit der T i folgt, dass ist. Damit wird Pr(T b) = Pr(T 1 b) Pr(T 2 b) Pr(T k b) λ b Pr( T b) = (1 e ), und für die Dichtefunktion ϕ von T folgt als erste Ableitung ϕ k (b) = k λ exp(-λ b) (1- exp(-λ b)) k-1. Für k > 1 ist dieses Maximum mithin nicht exponentialverteilt. Der Erwartungswert der Zufallsvariablen T = max{t 1, T 2, T k } wird in den Übungen berechnet. Dagegen gilt für das Minimum voneinander unabhängiger exponential gleichverteilter Zufallsvariablen die Aussage: Das Minimum von k unabhängigen mit λ exponential gleichverteilten X i ist ebenfalls exponentialverteilt mit dem Parameter kλ. k.
6 SS 2006 Arbeitsblatt 2 / S. 6 von 7 Die folgenden Beispiele werden in den Übungen besprochen: In einem Telefonnetz werde das Besetzen einer Leitung durch einen vollständig zufälligen Prozess mit der mittleren Wartezeit 1/λ = 10 Minuten modelliert. Damit können z.b. leicht die folgenden Fragen beantwortet werden: B 1: Wie gross ist die Wahrscheinlichkeit, nach 5 Minuten eine freie Leitung zu erhalten? B 2: Wie lange muss ein Teilnehmer warten, um mit 80% Wahrscheinlichkeit eine freie Leitung zu erhalten? B 3: Kann der Teilnehmer davon ausgehen, dass seine Wartezeit bei wiederholten vergeblichen Anrufen geringer wird? B 4: Angenommen, Sie kommen zu einer Telefonzelle, in der gerade jemand telefoniert und noch 2 Leute vor Ihnen warten. Die mittlere Zeit eines Telefonats sei 1 Minute. Wie groß ist die Wahrscheinlichkeit, dass Sie noch höchstens 3 Minuten warten müssen? Weitere Beispiele: B 5: Berechnen Sie die LAPLACE-Transformation und Erwartungswert für die Zufallsvariable V k. B 6: Berechnen Sie den Erwartungswert von T: = max{t 1 T k }. B 7: Unter der Annahme, der Abstand aufeinander folgender Fahrzeuge auf einer in einer Richtung befahrbaren Strasse folge einer exponentiellen Verteilung mit einem Mittelwert von 100 Metern zwischen den Fahrzeugen, berechnen Sie die Wahrscheinlichkeit dafür, dass sich in einem Bereich der Länge von 5 km zwischen 50 und 60 Fahrzeuge befinden. B 8: Unter der Annahme, der Verkehr auf einer Einbahnstrasse sei vollständig zufällig mit einer Intensität von 30 Fahrzeugen pro Minute, berechnen Sie die Wahrscheinlichkeit P dafür, dass n = 4 Fahrzeuge mehr als N = 10 Sekunden benötigen, um eine Messstelle zu passieren. Die Frage, ob eine real vorliegende Situation sinnvoll durch einen vollständig zufälligen Prozess modelliert werden kann, ist natürlich nicht allgemein zu beantworten. Die Aussagen von Satz 1 zeigen, dass diese Annahme dann plausibel ist, wenn mit einiger Sicherheit angenommen werden kann, dass der zugrunde liegende Prozess gedächtnislos ist, also beispielsweise Ankunftswahrscheinlichkeiten nicht von vergangenen Vorgängen beeinflusst werden. Dies trifft häufig zumindest in erster Näherung zu (eine Exponentialverteilung für die Ankunft von Fahrzeugen an einer Stelle im Strassenverkehr ist jedoch z.b. dann sicherlich nicht gerechtfertigt, wenn sich diese Stelle kurz hinter einer Ampelregelung mit festen Rot und Grün Zeitintervallen befindet). Da gedächtnislose Prozesse mathematisch am einfachsten zu behandeln
7 SS 2006 Arbeitsblatt 2 / S. 7 von 7 sind, werden wir uns zunächst auf solche beschränken und allgemeinere Prozesse erst später behandeln. Literatur zu 2., 3. und 4.: [3] E. Behrends, "Überall Zufall", BI Wissenschaftsverlag 1994, S. 148 ff.
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 7 1 Inhalt der heutigen Übung Statistik und Wahrscheinlichkeitsrechnung Vorrechnen der Hausübung D.9 Gemeinsames Lösen der Übungsaufgaben D.10: Poissonprozess
Mehr1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.
Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 24. November 2010 1 Stetige Verteilungen Normalapproximation Gleichverteilung Exponentialverteilung Normalapproximation
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr)
SS 2011 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ss/dwt/uebung/ 30. Juni 2011 ZÜ
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrSatz 104 (Skalierung exponentialverteilter Variablen)
2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrLemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,
Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrExponentialverteilung
Exponentialverteilung Dauer von kontinuierlichen Vorgängen (Wartezeiten; Funktionszeiten technischer Geräte) Grenzübergang von der geometrischen Verteilung Pro Zeiteinheit sei die Eintrittswahrscheinlichkeit
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehr7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen
7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1
MehrProf. Dr. R. Mathar RWTH Aachen, SS 2002 Daniel Catrein Abgabe: bis 15:45 Uhr. 1. Übung zur Einführung in die Stochastik für Informatiker
Daniel Catrein Abgabe: 02.05.02 1. Übung zur Einführung in die Stochastik für Informatiker Aufgabe 1 Bei einem Kartenspiel mit 52 Karten werden an jeden der vier Spieler (A, B, C und D) 13 Karten ausgegeben.
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrReferenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn
8.5 Eindimensionale stetige Zufallsvariablen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f(x) gibt, sodass die Verteilungsfunktion von X folgende Gestalt hat: x F(x) = f(t)dt f(x) heißt
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrWiederholungsklausur DWT
LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr8 Die Exponentialverteilung
8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie
Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr2 Verteilungen. Zoltán Zomotor. Versionsstand: 1. April 2015, 10:29. Die nummerierten Felder bitte während der Vorlesung ausfüllen. Inhaltsverzeichnis
2 Verteilungen Zoltán Zomotor Versionsstand: 1. April 2015, 10:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative Commons Attribution-NonCommercial-ShareAlike
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrZufallsvariable: Verteilungen & Kennzahlen
Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
Mehr6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen
6. Kontinuierliche Zufallsgrößen Definition: Eine Z. G. ξ ist absolut stetig mit (Wahrscheinlichkeits-) Dichte f : R R, wenn gilt: P ( a ξ < b ) = b a f(x) dx (a < b) allgem. Eigenschaften einer Dichte
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrWeihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.
Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
Mehr1. Stationarität Definition: Ein stochastischer Prozess. heißt streng oder stark stationär, falls für
" " " Beschreibung stochastischer Prozesse Wir betrachten diskrete Zeitpunkte und die zugehörigen Zufallsvariablen!. ann sind die Zufallsvariablen durch ihre gemeinsame ichte " #%$&#'$)(*#'$,+- charakterisiert.
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
MehrMathematik für Sicherheitsingenieure I B (BScS 2011)
Priv.-Doz. Dr. J. Ruppenthal Wuppertal, 5.9.7 Mathematik für Sicherheitsingenieure I B (BScS Aufgabe. (5+8+7 Punkte a eben Sie für jede der folgenden Aussagen an, ob sie WAHR oder FALSCH ist. Eine Begründung
MehrAufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).
Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrAnliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.
2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrZufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =
Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrKapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen
Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen
Mehr