Rechnernutzung in der Physik

Ähnliche Dokumente
8. Stetige Zufallsvariablen

I. Deskriptive Statistik 1

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Kapitel VI - Lage- und Streuungsparameter

Die Varianz (Streuung) Definition

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

Tabellarische und graphie Darstellung von univariaten Daten

Stochastik und Statistik für Ingenieure Vorlesung 4

Spezielle stetige Verteilungen

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Über den Autor 7. Teil Beschreibende Statistik 29

Univariates Datenmaterial

Übungsblatt 9. f(x) = e x, für 0 x

Keine Panik vor Statistik!

Kenngrößen von Zufallsvariablen

Was ist Physik? Modell der Natur universell es war schon immer so

1 Zahlen Anzahlen Reelle Zahlen Dokumentation von Messwerten Ausgewählte Übungsaufgaben...

Statistische Methoden der Datenanalyse

9 Die Normalverteilung


Mathematische und statistische Methoden II

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing.

K8 Stetige Zufallsvariablen Theorie und Praxis

Begriffe aus der Informatik Nachrichten

Diskrete Verteilungen

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Kapitel 2 Wahrscheinlichkeitsrechnung

Statistik - Fehlerrechnung - Auswertung von Messungen

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Simulationsmethoden in der Bayes-Statistik

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Übungsaufgaben zu Statistik II

Kapitel 5. Stochastik

diskrete und kontinuierliche Verteilungen

Muster für einen Studienbericht (in Auszügen) im Fach Mathematik LK

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Satz 16 (Multiplikationssatz)

Eine zweidimensionale Stichprobe

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

Statistische Thermodynamik I Lösungen zur Serie 1

Statistik II. Statistische Tests. Statistik II

Statistik für Psychologen und Sozialwissenschaftler

LEHRPLAN MATHEMATIK SPORT- UND MUSIKKLASSE

Beispiel: Zweidimensionale Normalverteilung I

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Zeit zum Kochen [in min] [10, 20[ [20, 30[ [30, 40[ [40, 50[ [50,60[ [60, 100] Hi

Mathematik für Biologen

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Übungsrunde 7, Gruppe 2 LVA , Übungsrunde 7, Gruppe 2, Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

1 Gemischte Lineare Modelle

Chi-Quadrat-Verteilung

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

Einführung in die Fehlerrechnung und Messdatenauswertung

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Grundprinzipien der Bayes-Statistik

Übungsrunde 5, Gruppe 2 LVA , Übungsrunde 5, Gruppe 2, Markus Nemetz, TU Wien, 11/2006

Allgemeine Wahrscheinlichkeitsräume

Würfel-Aufgabe Bayern LK 2006

Quantitatives Risikomanagement

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36)

Schulinternes Curriculum Mathematik SII

Übungsrunde 9, Gruppe 2 LVA , Übungsrunde 8, Gruppe 2, Markus Nemetz, TU Wien, 12/2006

8 Stetige Zufallsvariablen

Medizinische Biometrie (L5)

Prüfungstutorat: Angewandte Methoden der Politikwissenschaft. Polito Seminar Carl Schweinitz

Angewandte Wahrscheinlichkeitstheorie

Monte Carlo Simulationen

Vorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe. Mathematik

1 Grundprinzipien statistischer Schlußweisen

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Aufgaben zu Kapitel 38

Statistik II für Betriebswirte Vorlesung 12

12 Die Normalverteilung

Beispiel für Anwendung: z-tabelle kann genutzt werden, um z.b. Poissonverteilung näherungsweise zu integrieren. Beispiel: wie wahrscheinlich ist es

Die richtige Wahl von Verteilungen

Messungen und Messfehler

Operations Research (OR) II

2 Euklidische Vektorräume

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Zentralabitur Mathematik. Beispielaufgaben zum ersten Prüfungsteil. Aufgaben ohne Hilfsmittel

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Fragenkatalog Kapitel 1 Fehleranalyse

Peter P. Eckstein. Statistik für. Wirtschaftswissenschaftler. Eine realdatenbasierte. Einführung mit SPSS. 4., aktualisierte und erweitete Auflage

Signalverarbeitung 2. Volker Stahl - 1 -

Wahrscheinlichkeitsrechnung

Simulation von Zufallsvariablen und Punktprozessen

Inhaltsverzeichnis. II. Statistische Modelle und sozialwissenschaftliche Meßniveaus 16

Bayes sches Lernen: Übersicht

Schulinternes Curriculum Mathematik Sekundarstufe II/Lk. Stand: November 2011

Transkript:

Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of Baden-Wuerttemberg and National Research Center of the Helmholtz Association Grundlagen der Wahrscheinlichkeitstheorie, Werkzeuge zur statistischen Datenanalyse Gängige Wahrscheinlichkeitsverteilungen Monte-Carlo Methoden Parameterschätzung Hypothesentests www.kit.edu

Zusammenfassung Kapiel 3.1: Grundlagen der Wahrscheinlichkeitstheorie Rolle der Statistik in der modernen Physik. Ergebnisraum, Ereignisraum, Wahrscheinlichkeitsverteilung. 2 Bedingte Wahrscheinlichkeit, Satz von der totalen Wahrscheinlichkeit, Unabhägigkeit zweier Ereignisse. Interpretation von (Zufalls-)Experimenten und stochastische Modelle.

Zusammenfassung Kapiel 3.2: Werkzeuge zur statistischen Datenanalyse 3 ROOT: C++-Framework zur Datenanalyse: Erste Schritte/Dokumentation. (Software-)Modell zur Datenspeicherung (ROOT-Tree). Darstellung von Daten: Graphen, Histogramme. Funktionen und Anpassung von Funktionen. ROOT-basierte weiterführende Analysepakete. Python Bibliotheken als Alternative zu ROOT.

Kapiel 3.3: Charakterisierung von Wahrscheinlichkeitsverteilungen 4

Wahrscheinlichkeitsverteilung Eine auf dem Ereignisraum definierte Funktion (1) heißt Wahrscheinlichkeitsverteilung über dem Ergebnisraum die folgenden Eigenschaften erfüllt: 5 Für jedes Ereignis gilt ( Nichtnegativität). Für die Wahrscheinlichkeit zweier disjunkter Ereignisse gilt: ( Linearität). Die Wahrscheinlichkeit (1) Beachte: Interpretation der Wahrscheinlichkeitsverteilung!, wenn sie und ( ) (Normierungsbedingung).

Zufallsvariable & Wahrscheinlichkeitsdichte 6 Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben können sie die Meßreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-breite 5 Erfassungen(2) 15 21 cm in 15 bins

Zufallsvariable & Wahrscheinlichkeitsdichte 7 Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben können sie die Meßreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-breite 5 Erfassungen(2) 5 Erfassungen 15 21 cm in 45 bins 15 21 cm in 15 bins

Zufallsvariable & Wahrscheinlichkeitsdichte 8 Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben können sie die Meßreihe in Form von Histogrammen erfassen: (2) Normiert auf 1 und geteilt durch die bin-breite 5 Erfassungen(2) 5 Erfassungen 15 21 cm in 9 bins 5 Erfassungen 15 21 cm in 45 bins 15 21 cm in 15 bins

Zufallsvariable & Wahrscheinlichkeitsdichte 9 Für unsere weiteren Betrachtungen stellen Sie sich die Erfassung der Körpergröße von 5 männlichen Einwohnern über 18 Jahre in Karlsruhe vor. ist eine (kontinuierlich verteilte) Zufallsvariable, deren Wert jeweils der Ergebnis eines Zufallsexperiments ist. Mit Hilfe der Methoden, die Sie in der letzten Vorlesung kennengelernt haben können sie die Meßreihe in Form von Histogrammen erfassen: 5 Erfassungen(2) 5 Erfassungen 15 21 cm in 9 bins 5 Erfassungen 15 21 cm in 45 bins 15 21 cm in 15 bins Wahrscheinlichkeitsdichte: (2) Normiert auf 1 und geteilt durch die bin-breite Wahrscheinlichkeitsdichte

Wahrscheinlichkeitsdichte Ist eine kontinuierliche verteilte Zufallsvariable und die Wahrscheinlichkeitsverteilung über der Ergebnisraum stetig in differenzierbar dann bezeichnen wir: Als Wahrscheinlichkeitsdichtefunktion von. Wahrscheinlichkeitsdichte 1 kumulative Wahrscheinlichkeitsdichte

NB: Beachten Sie: die Wahrscheinlichkeit für das Ereignis erhalten Sie nicht als sondern aus den Integral: Wahrscheinlichkeitsdichte 11 kumulative Wahrscheinlichkeitsdichte

NB: Beachten Sie: die Wahrscheinlichkeit für das Ereignis erhalten Sie nicht als sondern aus den Integral: NNB: Wahrscheinlichkeitsdichten können kontinuierlich oder diskret verteilt sein. Im diskreten Fall ersetze jedes Integral durch eine Summe über den endlichen Ergebnisraum. Wahrscheinlichkeitsdichte 12 kumulative Wahrscheinlichkeitsdichte

Quantilen Zur Charakterisierung der kumulativen Wahrscheinlichkeitsdichte: Quantile(α) 21 Quantil der Ordnung ( -Punkt): (Umkehrfunktion von 2 19 Beispiele: Median ( Rankings von Klausurergebnissen. 18 ). Hypothesen-Tests (z.b. auch in Qualitätskontrollen). 17 16 15 13.1.2.3.4.5.6.7.8.9 1 α )

Lagemaß Charakterisierung der Wahrscheinlichkeitsdichte: p(x) 1 (3) Modus.9 Maximum der Verteilung (= wahrscheinlichster Wert) einfach. Median.8 Modus: Erwartungswert.7 Median ( ): Gleich viele Werte,, größer als auch kleiner als robust..6.5.4.2.1 14 ): Abgeschätzt durch das arithmetische Mittel..3 Erwartungswert (.5 1 1.5 2 2.5 (3) Beispiel: Log-Normalverteilung (siehe Folie XY). 3 3.5 4 4.5 Das Beispiel auf der rechten Seite zeigt: diese drei Maße müssen nicht gleich sein. 5 x

Erwartungswert Bekannteste Größe zur Charakterisierung der Wahrscheinlichkeitsdichte: (kontinuierlich) Bemerkungen: 15 (diskret) für eine vorgegebene Wahrscheinlichkeitsdichte (-verteilung) ist eine Zahl und keine Funktion von (andere gänige Bezeichnungen auch:, ). Verallgemeinerung: Erwartungswert einer Funktion Erwartungswert ist linear in x:

Algebraische Momente - Varianz Verallgemeinerung des Erwartungswertes: n-tes (algebraisches) Moment um Spezialfall: -tes Moment: 1-tes Moment: 2-tes Moment: (Varianz) 16 heißt Standardabweichung.

Mehrdimensionale Verteilungen Der Ausgang einer Messung kann durch mehrere Zufallsgrößen charakterisiert sein (z.b. Körpergröße und Alter). In diesem Fall ist auch die Wahrscheinlichkeitsdichte mehrdimensional. : : (4) (Normierung) (kumulativ ) 17 (4) Für diskrete Verteilung ersetze Integrale durch Summen. A B

Randverteilungen Ausintegrieren einer der Zufallsvariablen: px (x) 1.9.8 (Randverteilung).7.6 (kumulativ ).5.4.3 Ausintegrieren von (manchmal unbekannten) Zufallsgrößen: Marginalisierung. Dimension der Wahrscheinlichkeitsdichte in typischen Problemen (z.b. der Teilchenphysik):..1 py (y).2 Im Englischen: maringal distribution. 1 2.7.6.5.4 A.3 3 4 5 6 7 8 9 1 x Projektion auf x-achse B.2.1 1 2 3 4 5 6 7 8 9 1 y Projektion auf y-achse 18

Bedingte Wahrscheinlichkeit (2d) Integration in einem Interval : (Bedingte W'dichte) 19 Das Bsp rechts zeigt, daß sich für und verschiedene Wahrscheinlichkeitsdichten ergeben können. Als Verallgemeinerung zum 1-dim Fall gilt für die Randverteilung: Sind die zwei Zufallsvariablen und unabhängig, dann gilt für die Wahrscheinlichkeitsdichte:

Kovarianz Zur Beschreibung der Beziehung zweier Variablen zueinander führen wir die Kovarianz analog zur Varianz ein: (Varianz ) (Kovarianz) Bemerkungen: heißt Kovarianzmatrix. 2 is symmetrisch (d.h. es gibt immer eine Hauptachsentransformation ). heißt Korrelationskoeffizient. nimmt Werte in also. (5) Siehe letzte Anmerkung der voherigen Folie. an. Für unabhängige Zufallsvariablen gilt: (5)

Korrelation (anschaulich) Positive Korrelation: Negative Korrelation: Welche Korrelation? 21

Korrelation (anschaulich) Positive Korrelation: Negative Korrelation: Keine Korrelation!(6) 22 (6) Analog zum Erwartungwert (siehe Tafelbild...).

Korrelation (anschaulich) Positive Korrelation: Negative Korrelation: Unkorreliert Korreliert Keine Korrelation! kausal verknüpft! Korrelation kann zufällig sein. möglich. möglich. 23 unabhängig! möglich.

Funktionen von Zufallsvariablen Nehmen Sie an die Wahrscheinlichkeitsdichte für die Zufallsvariable bekannt. Wie sieht die Wahrscheinlichkeitsdichte für eine Funktion Beispiel: Sie haben den Durchmesser,, eines Kreises gemessen. Für Wie sieht für die Kreisfläche aus? 24 sei aus? Erhaltung der Wahrscheinlichkeit: haben Sie ein Modell. Absolutbetrag stellt sicher, daß positiv semi-definit ist.

Funktionen von Zufallsvariablen Nehmen Sie an die Wahrscheinlichkeitsdichte für die Zufallsvariable bekannt. Wie sieht die Wahrscheinlichkeitsdichte für eine Funktion Beispiel: Sie haben den Durchmesser,, eines Kreises gemessen. Für Wie sieht für die Kreisfläche aus? sei aus? Erhaltung der Wahrscheinlichkeit: haben Sie ein Modell. Absolutbetrag stellt sicher, daß positiv semi-definit ist. Für mehrdimensionale Wahrscheinlichkeitsdichten wird zur Jacobi Matrix: 25

Funktionen von Zufallsvariablen Nehmen Sie an die Wahrscheinlichkeitsdichte für die Zufallsvariable bekannt. Wie sieht die Wahrscheinlichkeitsdichte für eine Funktion Beispiel: Sie haben den Durchmesser,, eines Kreises gemessen. Für Wie sieht für die Kreisfläche aus? sei aus? Erhaltung der Wahrscheinlichkeit: haben Sie ein Modell. Absolutbetrag, um sicher zu stellen, daß positiv semi-definit ist. Für mehrdimensional wahrscheinlichkeitsdichten wird zur Jacobi Matrix: 26

Gaußsche Fehlerfortpflanzung Nehmen Sie an Sie hätten einen Vektor,, von Zufallsvariablen, deren Wahrscheinlichkeitsdichten Ihnen nicht bekannt sind. Sie kennen jedoch den Vektor der Erwartungwerte,, und die Kovarianzmatrix,. Wie erhalten Sie eine Abschätzung für? Nach Taylor-Entwicklung: (Erwartungswert) (Varianz) Und für einen Vektor von Funktionen erhalten Sie die Korrelationsmatrix entsprechend: (Kovarianz) 27

Gaußsche Fehlerfortpflanzung Wichtige Spezialfälle: : (einfacher Fehler von Summen) : (einfacher Fehler von Produkten) Für diese Beispiele haben wir die Annahme gemacht, dass bereits in führender Ordnung durch eine Taylor-Entwicklung beschrieben werden kann. Wenn linear ist ist diese Näherung exakt. Sie wird jedoch immer schlechter, je nicht-linearer das Verhalten von wird (Bsp.: ). Im Zweifel Monte Carlo Methoden besser geignet zur Abschätzung von Unsicherheiten und (v.a.) Korrelationen (oft Methode der Wahl in der Praxis)., : (binomische Fehlerfortpflanzung) Wenn Sie die Fehlerrechnung selbst machen wollen, vergewissern sie sich, daß und unkorreliert sind (was ist ihre jeweilige Bedeutung?). Wenden Sie dann die Fehlerrechnung stur an. Berechnen Sie auch den Korrelationskoeffizienten zwischen und. 28

Zusammenfassung Kapiel 3.3: Charakterisierung von Wahrscheinlichkeitsverteilungen 29 Zufallsvariablen und Wahrscheinlichkeitsdichten. Charakterisierung durch Quantilen, Lagemaß. Erwartungswert, algebraische Momente, Varianz. Mehrdimensionale Wahrscheinlickeitsdichten, Kovarianz, Korrelationen. Funktionen von Zufallsvariablen, Gaußsche Fehlerfortpflanzung.

Kapiel 3.4: Beispiele gängiger Wahrscheinlichdichteverteilungen 3

Uniforme Verteilung Gleichverteilte Zufallszahlen (jeder Wert unabhängig & gleichwertig): U(x).8 [4., 6.] [3., 7.] [2., 8.] [1., 9.].7 (Erwartungswert).6.5 (Varianz).4.3 NB: jede beliebig verteilte Zufallsvariable läßt sich auf eine uniform verteilte Zufallsvariable transformieren..2.1 1 2 (für ) 31 3 4 5 6 7 8 9 1 x Jeder Beginn einer Mote Carlo Integration. Allgemeinster prior einer Bayesianischen likelihood Abschätzung.

Exponentialverteilung Differenz von Zufallszahlen gleichverteilt (jede Differenz(!) unabhängig & gleichwertig): exp(x, λ) 1 λ=.5.9 λ=1. λ=2..8 (Erwartungswert).7 (Varianz).6 λ=5..5 NB: Klassisches Beispiel: radioaktiver Zerfall. In diesem Bild entspricht der Lebensdauer des Präparats..4.3.2.1 32 1 2 3 4 5 6 7 8 9 1 x

Exponentialverteilung Differenz von Zufallszahlen gleichverteilt (jede Differenz(!) unabhängig & gleichwertig): exp(x, λ) 1 λ=.5.9 λ=1. λ=2..8 (Erwartungswert).7 (Varianz).6 λ=5..5.4 NB: Klassisches Beispiel: radioaktiver Zerfall. In diesem Bild entspricht der Lebensdauer des Präparats. Alle Differenzen gleich und klein..3.2.1 1 2 3 4 5 6 7 8 9 1 x Alle Differenzen gleich und groß. 33

Binomialverteilung Günstige/mögliche Ereignisse (jeder Wert unabhängig aber nicht mehr gleichwertig): B(p, n, k) (Erwartungswert) (Varianz).5 p=.5, n=5 p=.5, n=1 p=.5, n=2 p=.5, n=3.45.4.35.3.25 NB: Verteilung von nicht mehr gleich sondern folgt Wahrscheinlichkeit..2.15.1.5 34 2 4 6 8 1 12 14 16 18 2 k

Poissonverteilung Günstige/mögliche Ereignisse (jeder Wert unabhängig aber nicht mehr gleichwertig): P(μ, k).3 μ=2. μ=5. μ=1. μ=25..25 (Erwartungswert).2 (Varianz).15 NB: entspricht Binomialverteilung im Grenzwert, (Beweis, siehe nächste Folie)..1.5 35 5 1 15 2 25 3 35 4 45 5 k

Binomial- Poissonverteilung 36

Zentraler Grenzwertsatz Betrachte einen Ereignisraum mit unbabhängigen Zufallsvariablen (=Experimentausgängen) der Länge. Die mögen dabei einer beliebigen(!) identischen Wahrscheinlicheitsverteilung mit endlichem Erwartungswert und endlicher Varianz folgen. Dann folgt die Zufallsvariable für den Grenzübergang und Varianz. 37 einer Normalverteilung mit Erwartungwert

.2 Binomialverteilung: P(μ, k) B(p, n, k) Zentraler Grenzwertsatz (in action) B(p, n, k) φ(x=k, μ=1, σ 2=9).18.2.16.14.14.12.12.1.1.8.8.6.6.4.4.2.2 2 4 6 8 1 12 14 P(μ, k) φ(x=k, μ=1, σ 2=1).18.16 Poissonverteilung: 16 18 2 k 2 4 6 8 1 12 14 16 18 2 k Normalverteilung (universell!) 38

Normalverteilung Summe vieler, unabhängiger, identisch verteilter Messungen: φ(x, μ, σ ) 1 μ=., σ =.5 μ=., σ =1. μ=., σ =2. μ=1., σ =1..9.8 (Erwartungswert).7 (Varianz).6.5.4.3.2.1-5 39-4 -3-2 -1 1 2 3 4 5 x

Log-Normalverteilung Produkt vieler, unabhängiger, identisch verteilter Messungen: f(x, σ, μ) 1 μ=., σ =.5 μ=., σ =1. μ=., σ =1.5 μ=1., σ =1..9.8 (Erwartungswert).7 (Varianz).6.5 NB: Variablensubstitution:.4.3.2 führt Log-Normalverteilung in Normalverteilung über: 4.1.5 1 1.5 2 2.5 3 3.5 4 4.5 5 x

-Verteilung Der Logarithmus der Normalverteilung ist (bis auf eine Konstante) χ2 (x, n) (Gammafunktion) (Erwartungswert) (Varianz) verteilt:.5 n=1.45 n=2 n=5.4 n=1.35.3.25.2 NB: Die Summe der Quadrate von verteilten Zufallsgrößen.15 normal-.1.5 ist -verteilt. Die Zahl heißt Freiheitsgrad. Sie entspricht der Anzahl unabhängiger Normalverteilungen. 41 2 4 6 8 1 12 14 16 18 2 x

Kapiel 3.4: Beispiele gängiger Wahrscheinlichdichteverteilungen 42 Uniforme Verteilung, Exponentialverteilung ( jeder Experimentausgang gleichwertig). Binomialverteilung, Poissonverteilung ( unterscheide günstige/mögliche Experimentausgänge). Normalverteilung, Log-Normalverteilung, -Verteilung ( viele unabhängige Messungen mit einem bestimmten Ausgang, in einem bestimmten Intervall ).