Wahrscheinlichkeitstheorie. Alea iacta est!

Ähnliche Dokumente
Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Mathematik für Biologen

2 Zufallsvariable und Verteilungsfunktionen

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Wirtschaftsmathematik

Stochastik. 1. Wahrscheinlichkeitsräume

Grundlagen der Wahrscheinlichkeitstheorie

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Fit for Abi & Study Stochastik

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Wahrscheinlichkeitsverteilungen

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

1.5 Erwartungswert und Varianz

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zufallsvariablen [random variable]

Grundbegriffe der Wahrscheinlichkeitsrechnung

5 Binomial- und Poissonverteilung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

1.5 Erwartungswert und Varianz

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Die Varianz (Streuung) Definition

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

5. Spezielle stetige Verteilungen

Mathematik für Biologen

Biostatistik, Sommer 2017

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Prüfungsvorbereitungskurs Höhere Mathematik 3

Universitätsklinikum Schleswig-Holstein

Kapitel 5 Stochastische Unabhängigkeit

Einführung in Quantitative Methoden

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Willkommen zur Vorlesung Statistik (Master)

Stetige Standardverteilungen

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Willkommen zur Vorlesung Statistik (Master)

Stetige Verteilungen, Unabhängigkeit & ZGS

2 Zufallsvariable, Verteilungen, Erwartungswert

70 Wichtige kontinuierliche Verteilungen

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Unabhängige Zufallsvariablen

WAHRSCHEINLICHKEITSRECHNUNG

TU DORTMUND Sommersemester 2018

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Biostatistik, Winter 2011/12

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Vorlesung 7a. Der Zentrale Grenzwertsatz

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Wahrscheinlichkeitsrechnung

13 Grenzwertsätze Das Gesetz der großen Zahlen

Psychologische Methodenlehre und Statistik I

Wichtige Definitionen und Aussagen

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Grundbegriffe der Stochastik II

Modelle diskreter Zufallsvariablen

Prüfungsvorbereitungskurs Höhere Mathematik 3

1. Grundbegri e der Stochastik

Wahrscheinlichkeit und Statistik BSc D-INFK

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Wahrscheinlichkeitstheorie 2

Verteilung von Summen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

1.5.4 Quantile und Modi

3. Kombinatorik und Wahrscheinlichkeit

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

SozialwissenschaftlerInnen II

Wahrscheinlichkeitsrechnung und Quantentheorie

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

1 Stochastische Konvergenz 2

Diskrete Strukturen WiSe 2012/13 in Trier

Elementarereignis: Stellt ein Einzelergebnis eines Zufallsexperimentes dar, wird oftmals mit E bezeichnet.

Beispiel: Zufallsvariable

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung und Statistik

Finanzmathematische Modelle und Simulation

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Woche 2: Zufallsvariablen

Biostatistik, Winter 2011/12

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Stochastik I. Vorlesungsmitschrift

Unabhängigkeit von Zufallsvariablen

Transkript:

Wahrscheinlichkeitstheorie Alea iacta est!

"Wissenschaftliche Theorien, die auf Eigenschaften einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die zufällige Natur ihrer Beweisgrundlagen aus dem Auge verliert." Ronald Aylmer Fisher (1890-1962)

Ein Ereignis wird als zufällig bezeichnet, wenn sein Ausgang variabel und nicht vorhersagbar ist.

Pierre-Simon Laplace (1749-1827) Die klassische Interpretation Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen der Anzahl günstiger und möglicher Ausgänge eines Zufallsexperiments. Beispiel: Mit einem Würfel soll eine 5 geworfen werden. Von den sechs möglichen Ausgängen des Wurfs ist hierfür nur einer günstig. Also beträgt die Wahrscheinlichkeit für "die Augenzahl lautet 5" ein Sechstel.

Die frequentistische Interpretation Die Wahrscheinlichkeit eines Ereignisses in einer Serie von Versuchen ist der Grenzwert der relativen Häufigkeit des Ereignisses. John Venn (1834-1923) Beispiel: Wirf einen Würfel sehr oft und notiere jedes mal die Augenzahl. Die relative Häufigkeit von "die Augenzahl lautet 5" ist ungefähr ein Sechstel. Der Grenzwert der relativen Häufigkeit ist genau ein Sechstel.

Die subjektive Interpretation Wahrscheinlichkeit ist ein Maß für den Glauben an den Eintritt eines Ereignisses. Frank P. Ramsey (1903-1930) Beispiel: Nimm an Du wettest, dass die Augenzahl 5 lautet. Du setzt einen Dollar ein und bekommst sechs Dollar zurück, wenn Du gewinnst. Diese Wette empfindest Du als fair.

Die axiomatische Interpretation Eine Wahrscheinlichkeit ist etwas, was die Axiome der Wahrscheinlichkeitstheorie erfüllt. Andrej N. Kolmogorov (1903-1987)

Kolmogorovs Axiome Es sei Ωeine nicht leere Menge und eine Familie von Teilmengen von Ω, die Ωenthält und die abgeschlossen ist bezüglich der Komplementbildung und Vereinigung von Mengen. Es sei P eine Abbildung von in die reellen Zahlen mit den folgenden Eigenschaften: 1. Nicht-Negativität P(A) 0 für alle A 2. Normalität P(Ω) = 1 3. Additivität P(A 1 A 2...) = P(A 1 )+P(A 2 )+... für alle A 1, A 2,... mit A i A j = Ø P heißt "Wahrscheinlichkeitsfunktion" und (Ω,, P) ist ein so genannter "Wahrscheinlichkeitsraum". Grundbegriffe der Wahrscheinlichkeitsrechnung (1933)

Würfelspiel P=6/6 P=4/6 P=2/6 {1,2,3,4,5,6} Ω {1,2,3,4} {1,2,3,5} {1,2,3,6} {1,2,4,5} {1,2,4,6} {1,2,5,6} {1,3,4,5} {1,3,4,6} {1,3,5,6} {1,4,5,6} {2,3,4,5} {2,3,4,6} {2,3,5,6} {2,4,5,6} {3,4,5,6} {1,2} {1,3} {1,4} {1,5} {1,6} {2,3} {2,4} {2,5} {2,6} {3,4} {3,5} {3,6} {4,5} {4,6} {5,6} P=5/6 P=3/6 P=1/6 {1,2,3,4,5} {1,2,3,4,6} {1,2,3,5,6} {1,2,4,5,6} {1,3,4,5,6} {2,3,4,6,5} {1,2,3} {4,5,6} {1,2,4} {3,5,6} {1,2,5} {3,4,6} {1,2,6} {3,4,5} {1,3,4} {2,5,6} {1,3,5} {2,4,6} {1,3,6} {2,4,5} {1,4,5} {2,3,6} {1,4,6} {2,3,5} {1,5,6} {2,3,4} {1} {2} {3} {4} {5} {6} P=0/6 Ø

Maßtheoretische Sicht der Wahrscheinlichkeit Ω Ω A B A A C A B: Ereignis A oder Ereignis B oder beide treten ein. A B: Ereignisse A und B treten gleichzeitig ein. A C : Das Komplement (Gegenteil) von Ereignis A tritt ein. P(A B) = P(A)+P(B)-P(A B) P(A)+P(A C ) = P(A A C ) = P(Ω) = 1 P(A C ) = 1-P(A)

Unabhängigkeit von Ereignissen Zwei Ereignisse A und B heißen "unabhängig", wenn P(A B) = P(A) P(B)

Blutdruck und Blutfette Etwa 25% der erwachsenen US-Amerikaner haben einen erhöhten Blutdruck. (A) Etwa 20% der erwachsenen US-Amerikaner haben erhöhte Blutfettwerte. (B) Etwa 17% der erwachsenen US-Amerikaner sind hypertensiv und hyperlipidämisch. (A B) P(A B) = 0.17 > 0.05 = 0.25 0.20= P(A) P(B)

Zufallsvariable... bilden komplexe Zufallsereignisse aus der Realität auf eine einfache (meistens numerische) Skala ab. X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X = 2 eine "Realisierung" von X

Diskrete Zufallsvariable X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X = 2 eine "Realisierung" von X Wahrscheinlichkeitsfunktion von X f(a)=p(x=a) für alle möglichen Werte a von X

Binomialverteilung Bin(n,π) Modell: n unabhängige Wiederholungen eines Experiments mit binärem Ausgang ("Erfolg", "Misserfolg") und konstanter Erfolgswahrscheinlichkeit π bei jeder Wiederholung X: Anzahl der Erfolge f(k) = P(X = k) = n k π k (1 π) n k n k = 1 2... n 1 2... k 1 2... (n k) = n! k!(n k)! "Binomialkoeffizient"

Münzwurf n=5, k=3 π (1-π) π (1-π) π=π 3 (1-π) 2 (1-π) π π (1-π) π=π 3 (1-π) 2 1 2 3 4 5 Wieviel verschiedene Möglichkeiten gibt es, aus 5 Positionen genau 3 Positionen auszuwählen? 5 4 3 3 2 1 = 10 = 5 4 3 2 1 3 2 1 2 1 = 5! 3! 2!

Wirksamkeit von Antibiotika Ein Antibiotikum wirkt bei 85% aller Patienten mit einer bestimmten Krankheit. Mit welcher Wahrscheinlichkeit werden mindestens 8 von 10 Patienten durch das Medikament geheilt? P(X 8) = f(8) + f(9) + f(10) = n=10, π=0.85, k=8, 9 oder 10 = 10 8 0.858 0.15 2 + 10 9 0.859 0.15 1 + 10 10 0.8510 0.15 0 = 45 0.272 0.023 + 10 0.232 0.150 + 1 0.197 1.000 = 0.820

Wahrscheinlichkeitsfunktion 0.4 Bin(10,0.85) 0.3 f(k) 0.2 0.1 0.0 0 1 2 3 4 5 6 7 8 9 10 k

Stetige Zufallsvariable X = 22.5 Verteilungsfunktion von X F(b)=P(X b) für reelle Zahlen b

Verteilungsfunktion 1,0 0,8 F(b) 0,6 0,4 0,2 0,0-4 -3-2 -1 0 1 2 3 4 b 0 F(b) 1 F(b) ist monoton wachsend

y Verteilung einer stetigen Zufallsvariablen b f(x) "Dichte" x F(b) = b f(x)dx y P(a < X b) = F(b) F(a) a b x

Unabhängigkeit von Zufallsvariablen Zwei Zufallsvariable X und Y heißen "stochastisch unabhängig", wenn P(X a,y b) = P(X a) P(Y b) für jede Auswahl reeller Zahlen aund b.

Unabhängigkeit von Zufallsvariablen Beispiele unabhängig X: Körpergröße Y: Untersuchungszeitpunkt X: Geschlecht Y: Haarfarbe nicht unabhängig X: Body-Mass-Index Y: Alter X: Blutdruck Y: Blutfettwerte

Erwartungswert E(X) Der Erwartungswert (oder das "Populationsmittel") einer Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen Wert an. Er fasst wesentliche Charakteristika der Verteilung der Variablen in einer Kennzahl zusammen. http://www.stats.gla.ac.uk/steps/glossary/index.html diskret stetig E(X) = a P(X = a a) E(X) + = x f(x) dx

Würfelspiel X: Augenzahl in einem Wurf E(X) = 1 1 / 6 + 2 1 / 6 + 3 1 / 6 + 4 1 / 6 + 5 1 / 6 + 6 1 / 6 = 3.5 Y: Summe der Augenzahl in zwei Würfen E(Y) = 2 1 / 36 + 3 2 / 36 + 4 3 / 36 + 5 4 / 36 + 6 5 / 36 + 7 6 / 36 + 8 5 / 36 + 9 4 / 36 + 10 3 / 36 + 11 2 / 36 +12 1 / 36 = 7

Gesetz der Großen Zahlen X 1, X 2,, X n unabhängig und identisch verteilt mit E(X 1 ) =... = E(X n ) = µ X = X 1 +... n + X n µ wenn n sehr groß wird

Würfelspiel X i : Augenzahl eines einzelnen Wurfs (i=1,...,n) X: durchschnittliche Augenzahl 5.5 5.0 100 Wiederholungen 4.5 4.0 X 3.5 3.0 2.5 2.0 1.5 n=10 n=100 n=500

Varianz Var(X) Die Varianz einer Zufallsvariablen ist eine nicht negative reelle Zahl, die einen Eindruck von der zu erwartenden Streuung der Realisierungen einer Zufallsvariablen vermittelt. Je größer die Varianz, umso verstreuter werden diese Beobachtungen sein. http://www.stats.gla.ac.uk/steps/glossary/index.html Var(X) = E([X-E(X)] 2 ) Var(X) "Standardabweichung"

Varianz Var(X) E(X 1 ) E(X 2 ) Var(X 1 ) < Var(X 2 )

Würfelspiel X: Augenzahl in einem Wurf Var(X) = (1-3.5) 2 1 / 6 + (2-3.5) 2 1 / 6 + (3-3.5) 2 1 / 6 + (4-3.5) 2 1 / 6 + (5-3.5) 2 1 / 6 + (6-3.5) 2 1 / 6 = 2.9 Y: Summe der Augenzahl in zwei Würfen Var(Y) = (2-7) 2 1 / 36 + (3-7) 2 2 / 36 + (4-7) 2 3 / 36 + (5-7) 2 4 / 36 + (6-7) 2 5 / 36 + (7-7) 2 6 / 36 +(8-7) 2 5 / 36 + (9-7) 2 4 / 36 + (10-7) 2 3 / 36 + (11-7) 2 2 / 36 + (12-7) 2 1 / 36 = 5.8

Einige Rechenregeln E(X+Y) = E(X) + E(Y) E(α X) = α E(X) Var(α X) = α 2 Var(X) wenn X und Y unabhängig sind E(X Y) = E(X) E(Y) Var(X+Y) = Var(X) + Var(Y)

Normalverteilung N(µ,σ 2 ) f(x) = 1 e (x µ) 2 2σ 2 σ 2π µ = E(X), σ 2 = Var(X)

Standard-Normalverteilung N(0,1) z 0 1 2 3 4 5 6 7 8 9 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 P(Z z)=φ(z) 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817

Standardisierung von N(µ,σ 2 ) Wenn X normalverteilt ist mit Erwartungswert µund Varianz σ 2, dann hat die Zufallsvariable Z = X µ σ eine Standard-Normalverteilung. Für die Verteilungsfunktion F(b) von X gilt F(b) = b Φ( µ σ )

Blutdruck Der diastolische Blutdruck von Normalpersonen sei normalverteilt mit Erwartungswert µ=80 mmhg und Standardabweichung σ=10 mmhg. Mit welcher Wahrscheinlichkeit weist eine zufällig ausgewählte Normalperson einen Blutdruck zwischen 70 mmhg und 85 mmhg auf? P(70 X 85) = F(85) F(70) = = 85 80 70 80 Φ( ) Φ( ) 10 10 Φ( 0.5) Φ( 1) = 0.6915 0.1587 =0.5328

Standard-Normalverteilung N(0,1) P(-1.00 Z +1.00) = 0.68 P(µ-σ X µ+σ) = 0.68

Standard-Normalverteilung N(0,1) P(Z 0.00) = 0.50= P(Z 0.00) P(X µ) = 0.50 = P(X µ)

Standard-Normalverteilung N(0,1) P(-1.96 Z +1.96) = 0.95 P(µ-1.96σ X µ+1.96σ) = 0.95

Standard-Normalverteilung N(0,1) P(Z 1.65) = 0.95 = P(Z -1.65) P(X µ+1.65σ) = 0.95 = P(X µ-1.65σ)

Normalverteilung N(µ,σ 2 ) N(0,1) N(1,1) N(0,4) N(0,0.25)

Zentraler Grenzwertsatz X 1, X 2,, X n unabhängig und identisch verteilt mit Erwartungswert µund Varianz σ 2 n σ X 1 +... + X n µ n Z für ein standard-normalverteiltes Z, wenn n sehr groß wird

"Galton-Brett" Ein Brett mit mehreren Reihen versetzter, aber in gleichem Abstand zueinander angebrachter Nägel; benannt nach seinem Erfinder Francis Galton (1822-1911) http://www.rand.org/methodology/stat/applets/clt.html

Würfelspiel X : durchschnittliche Augenzahl aus n Würfen 3.7 3.6 30 X 3.5 25 3.4 3.3 3.2 n=500 Frequency 20 15 10 5 100 Wiederholungen 0 X

Die (Fast) Universelle Natur der Normalität Länge Sauerstoffverbrauch Fruchtbarkeit Schnabellänge Gewicht

Zusammenfassung -Die Wahrscheinlichkeitstheorie ist eine mathematische Disziplin auf der Grundlage der Kolmogorovschen Axiome. -Zufallsvariablebilden komplexe (reale) Ereignisse auf einer einfachen numerischen, diskreten oder stetigen Skala ab. -Die Verteilung einer Zufallsvariablen wird charakterisiert durch ihre Wahrscheinlichkeitsfunktion bzw. Dichte. -Zufallsvariable heißen unabhängig,wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist. -Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind deren Erwartungswert und Varianz. -Die Normalverteilungist eine universelle Annäherung des umfangreichen "Durchschnitts" anderer Zufallsvariable.