Stochastik für die Naturwissenschaften
|
|
- Margarete Albert
- vor 6 Jahren
- Abrufe
Transkript
1 Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel: 5.8 in Kapitel 5 und 6.12 in Kapitel 6 * Storrer: (38.6), (39.2)-(39.7), (41.8), (41.9), (43.5) Anwendung von LLN: Schätzen von Parametern; siehe auch Kapitel 8, 10 CLT: Approximative Berechnungen, zum Beispiel für Tests; siehe auch Kapitel 8, 9, 10 und weitere 149
2 7.1 LLN (Law of Large Numbers; Gesetz der grossen Zahlen) Fragestellung: Was geschieht mit 1 n n k=1 X k falls n und welche Voraussetzungen werden wir sinnvollerweise machen? Wir haben in Kapitel 2 und in Teil 5.3 über Stichproben immer wieder das arithmetische Mittel von Realisationen (oder Daten) x := 1 n n x i (7.1) i=1 untersucht. Der Ausdruck 1 n n X i (7.2) i=1 ist offenbar das Pendant auf der Ebene der Zufallsgrössen, vor der Realisation. In (7.1) haben wir reelle Zahlen, da ist kein Zufall mehr drin. Wenn wir aber erneut eine (unabhängige) Stichprobe nehmen, wird 150
3 (7.1) bei stetigen Zufallsgrössen sicher anders aussehen (bei diskreten Zufallsgrössen kann es je nach konkreter Situation (n und konkrete Parameter) zufällig auch den gleichen Wert geben). Indem wir (7.2) untersuchen, lernen wir auch viel über (7.1), z.b. über die Schwankungsbreite (Varianz) oder um welchen Wert (7.1) etwa zu liegen kommt (Erwartungswert). (7.1) konvergiert gegen den Erwartungswert von (7.2); mehr gleich nachfolgend. Indem wir Erwartungswert und Varianz von (7.2) berechnen, können wir abschätzen, was mit (7.1) passieren muss, wenn n. Von Kapitel 5, die X i s seien iid mit E[X i ] = µ und V [X i ] = σ 2 : E [ 1 n n i=1 X [ i] = µ und V 1 n n i=1 X ] i = 1 n σ2. Das heisst, (7.1) wird um µ herum schwanken, mit immer kleinerer Schwankung, Bild: 151
4 Wir wollen eine Aussage der Art machen: 1 n n i=1 X i konvergiert gegen den Erwartungswert von X 1. Theorem 7.1 [Satz von Kolmogoroff (LLN)] Sei X 1, X 2,... eine Folge von unabhängigen, identisch verteilten Zufallsgrössen mit Erwartungswert µ und E[ X 1 ] <. Dann genügt diese Folge dem Gesetz der grossen Zahlen, das heisst, es gilt für jedes ɛ > 0: [ lim P 1 n n n ] X i µ > ɛ = 0. i=1 Diesen Ausdruck liest man am besten von innen nach aussen! 152
5 2 wichtige Anwendungen des LLN 1. Arithmetisches Mittel 2. Relative Häufigkeiten 153
6 7.2 CLT (Central Limit Theorem; Zentraler Grenzwertsatz) Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ nσ, (7.3) einfacherer Fall (µ = 0, σ = 1) 1 n n k=1 X k, falls n und welche Voraussetzungen werden wir sinnvollerweise machen? Erinnert Sie der Ausdruck n k=1 X k nµ nσ an etwas, was wir gerade durchgenommen haben? 154
7 Mit n X k nµ k=1 haben wir in einem ersten Schritt offenbar einfach zentriert (den Erwartungswert abgezogen - er ist jetzt 0), dann in einem zweiten Schritt mit nσ normiert und dabei n k=1 X k nµ nσ erhalten. Die Varianz ist jetzt 1. Zusammen nennt man diese beiden Schritte standardisieren. And then a miracle occurs..., denn das Ding hat am Schluss (bei n = ) eine Normalverteilung N (0, 1). Das Überraschende am CLT ist, dass mit wenigen Voraussetzungen (v.a. keine über die Verteilung der X k s) immer eine Normalverteilung als Limesverteilung resultiert. 155
8 Das nµ verstehen wir relativ einfach; warum gerade nσ im Nenner? Dazu folgende Rechnung: Gesucht ist eine Funktion g(n), sodass die Varianz nicht von n abhängt. V [ 1 g(n) n i=1 X i ] = 1 g(n) 2 V [ n = 1 g(n) 2 i=1 X i ] n V [X i ] i=1 = 1 g(n) 2 n σ2 ; wenn wir g(n) := n wählen, haben wir eine konstante Varianz. Dies ist notwendig, damit (7.3) überhaupt konvergieren kann! Wir betrachten jetzt die beiden Ausdrücke CLT1 und CLT2; sie illustrieren alle 3 Aspekte: man muss zentrieren, normieren und erhält eine Normalverteilung im Limes. Die Binomialverteilung Bin(n,p) ist eine Summe von iid Be(p) - die Voraussetzungen des nachfolgenden CLT sind also erfüllt: 156
9 Theorem 7.2 [Zentraler Grenzwertsatz] Sei X k, k 1, eine Folge von iid Zufallsgrössen mit E[X 1 ] =: µ und 0 < V [X 1 ] =: σ 2 <. Dann gilt für a R beliebig: [ n k=1 P X k nµ nσ ] a P [N (0, 1) a] wenn n. Mit P [N (0, 1) a] meinen wir die Wahrscheinlichkeit, dass eine Standard-Normal-verteilte Zufallsgrösse Werte kleiner oder gleich a annimmt. Die Verteilungsfunktion der zentrierten und normierten Summe (7.3) konvergiert also in jedem Punkt gegen die Verteilungsfunktion der Standard-Normal-Verteilung. Bemerkung zu Theorem 7.2: Ab welchem n darf man die Normalverteilung brauchen? Nichttriviale, allgemeine Fehler-Abschätzungen, welche nur von n 157
10 abhängen und für alle Verteilungen gelten, existieren nicht. Wenn die X k s aber Be(p)-Zufallsgrössen sind, so sagt eine Praktikerregel, dass np(1 p) 9 gelten sollte, damit man mit gutem Gewissen die Normalverteilung benutzen darf (vgl CLT1, CLT2). Wir lösen dazu gleich eine Aufgabe: Sie werden von Räubern im Wald zu einem Münzwurfspiel eingeladen. Wenn in 100 Würfen mehr Kopf als Zahl kommt, dürfen Sie von den Räubern ausgeraubt werden (Merke: Transparenz ist sehr wichtig für das Funktionieren von Märkten). Das Resultat ist nach 100 Würfen 65 zu Ihren Ungunsten. Sie fragen sich jetzt (bisschen spät), ob die Münze fair war oder nicht. Dazu überlegen Sie sich, wie gross bei einer fairen Münze wohl die Wahrscheinlichkeit ist, 65 mal (oder mehr) 158
11 Kopf zu werfen. Leider haben Sie keine Bin(100, 0.5)-Verteilungstabelle dabei. Rettung naht: Sie erinnern sich nämlich Gott sei Dank an den CLT: Beachten Sie bitte: 1. Wir machen diese Rechnungen unter der Annahme p = Wir berechnen die Wahrscheinlichkeit, 65 mal oder mehr Kopf zu werfen. Diese Denkweise wird in Kapitel 9 und weiteren kultiviert werden. Grund für häufigen Einsatz der Normalverteilung? 159
12 7.3 Zusammenhänge bei Verteilungen II: Limesverteilungen In 6.3 Zusammenhänge bei Verteilungen I, haben wir uns gefragt, wie Summen von unabhängigen Zufallsgrössen verteilt sind. Jetzt geben wir eine Verteilung an (Binomial), welche zu einer anderen Verteilung wird (Poisson), wenn wir gezielt einen Parameter gegen gehen lassen. Wenn man die Wahrscheinlichkeitsfunktion (die Werte von P [X = k], k 0) einer Binomial- und einer Poissonverteilung mit gleichem Erwartungswert vergleicht, so sieht man, dass der Unterschied immer kleiner wird, je grösser n in der Binomial-Verteilung ist (Storrer (39.3), (39.5)). Im folgenden Satz ist λ konstant. p ist klein und wird immer kleiner; deshalb indexieren wir es mit einem n: p n. Weil der Erwartungswert einer Po(λ)-Zufallsgrösse gleich λ ist und der Erwartungs- 160
13 wert einer Bin(n, p) gleich np, fordern wird (damit sicher mal die Erwartungswerte übereinstimmen): np = λ - oder eben np n = λ. Damit muss natürlich gelten: p n := λ/n. Dies ist für die Formulierung des Satzes wichtig, nicht aber für die Anwendungen. Satz 7.3 [Konvergenz der Binomial- gegen die Poisson-Verteilung] Sei X n Bin(n, p n )-Zufallsgrössen. Es gelte für alle n genügend gross: np n eine Folge von = λ > 0 (Erwartungswerte jeweils gleich). λ ist konstant! Dann gilt für r N 0 fest: λ λr P [X n = r] e r! für n. Damit haben wir im Limes eine Poisson- Verteilung mit Parameter λ. 161
14 Vorteil: einfachere Formel bei Poisson als bei Binomial (Binomialkoeffizient!) Wie wird das ganze in der Praxis eingesetzt? Storrer (39.5). 162
15 7.4 Nachtrag: Motivation der Poisson-Verteilung Wegen 7.3 ist es offenbar so, dass die Poisson-Verteilung dort sinnvoll ist, wo eine grosse Zahl von unabhängigen Versuchen mit je kleiner Erfolgswahrscheinlichkeit vorhanden sind. Versuch und Erfolg sind dabei nicht allzu eng zu verstehen - ein Beispiel aus der Versicherungsmathematik soll dies illustrieren: Es gibt ein paar Millionen Gebäude in der Schweiz. Versuch ist, ob es in einem Jahr zum Brand kommt (=Erfolg) oder nicht. n ist sicher sehr gross und (Gott sei Dank) das p sehr klein. Solche Schadenzahlen (nicht die versicherte Summe!) werden mit Poisson-Zufallsgrössen modelliert. Flugzeugabstürze einer Airline werden auch so modelliert, mit unterschiedlichem λ von Airline zu Airline. Sie finden weitere Beispiele im Storrer, Kapitel
16 7.5 Mind-Mapping Verteilungen Damit haben wir den Stoff von Storrer Kapitel (und bisschen mehr) vollständig behandelt und ich empfehle Ihnen, diese Kapitel noch vollständig durchzulesen. 164
Einführung in die Statistik Kapitel 5: n (Konvergenz, LLN, CLT)
Einführung in die Statistik Kapitel 5: n (Konvergenz, LLN, CLT) Jung Kyu Canci Universität Basel HS2015 1 / 44 Literatur Kapitel 5 Statistik in Cartoons : Kapitel 5, Seite 114 in Kapitel 6 Krengel : 3.6
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrEinführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie
Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 1 Repetition Wahrscheinlichkeitstheorie (WT) Bitte arbeiten Sie dieses Kapitel wenn notwendig vor Semesterbeginn durch. Es ist eine Zusammenfassung der aktuellsten
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrStatistische Methoden
Statistische Methoden Dr. C.J. Luchsinger 1 Repetition: Wahrscheinlichkeitstheorie Literatur Kapitel 1 * Cartoon Guide: Kapitel 3-5 * Krengel: 1-3, 5, 10-12 * Stahel: Kapitel 4-6 1.1 Wahrscheinlichkeit
MehrTabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen
Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrHypergeometrische Verteilung
Hypergeometrische Verteilung Typischer Anwendungsfall: Ziehen ohne Zurücklegen Durch den Ziehungsprozess wird die Wahrscheinlichkeit des auch hier zu Grunde liegenden Bernoulli-Experimentes verändert.
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrÜ b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 9. Testen von Hypothesen Literatur Kapitel 9 * Statistik in Cartoons: Kapitel 8 * Stahel: Kapitel 8 und 10 * Storrer: Kapitel 44-47 Ziele dieses
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrA: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:
5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger Paar Bemerkungen zum Aufbau der Wissenschaften / Wissenschaftsphilosophie: 103 Statistik (sehr enge Fassung): dort, wo wir direkt mit Daten arbeiten: x 1,
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrÜbung zur Vorlesung Statistik I WS Übungsblatt 6
Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrVorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz...
Inhaltsverzeichnis Vorwort... 2 Zum Einstieg... 3 1 Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße... 5 1.2 Erwartungswert und Varianz... 7 2 Wahrscheinlichkeitsverteilungen
MehrWebinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie
Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom
Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrBinomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec
Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Mehr11. Nichtparametrische Tests
11. Nichtparametrische Tests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 In Kapitel 8 und 9 haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
MehrMathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung
Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrErwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?
Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße Von Florian Modler In diesem Artikel möchte ich einen kleinen weiteren Exkurs zu meiner Serie Vier Wahrscheinlichkeitsverteilungen geben
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
Mehrfalls rote Kugel im 1. Zug gezogen Die Ziehungen sind daher nicht unabhängig voneinander. Damit liegt kein Bernoulli-Prozess
6.4 Hypergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln sind nicht rot. Wir entnehmen n Kugeln, d.h. Stichproben vom Umfang n.
Mehr1 1. Übung. Einleitung. 1.1 Urnenmodelle. 1.2 Beispiele. 1.3 Aufgaben
Einleitung Dieses sind die kompletten Präsenzaufgaben, die bei der Übung zur Vorlesung Einführung in die Stochastik im Sommersemester 2007 gerechnet wurden. Bei Rückfragen und Anmerkungen bitte an brune(at)upb.de
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrElementare Wahrscheinlichkeitsrechnung
Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit
MehrStatistik II SoSe 2006 immer von 8:00-9:30 Uhr
Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Was machen wir in der Vorlesung? Testen und Lineares Modell Was machen wir zu Beginn: Wir wiederholen und vertiefen einige Teile aus der Statistik I: Konvergenzarten
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehr1.6 Der Vorzeichentest
.6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrI. Zahlen, Rechenregeln & Kombinatorik
XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
MehrWie sch atzt man effizient?
Vorlesung 8a Wie schätzt man Wie schätzt man effizient? Die Maximum-Likelihood Methode Die Maximum-Likelihood Methode BEISPIEL 1 BEISPIEL 1 Panther A BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion
Mehr1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen
6.4 Hyergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln nicht rot. Wir entnehmen n Kugeln, d.h. eine Stichrobe des Umfangs n. Dabei
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrKapitel VII. Punkt- und Intervallschätzung bei Bernoulli-Versuchen
Kapitel VII Punkt- und Intervallschätzung bei Bernoulli-Versuchen Einführungsbeispiel: Jemand wirft einen korrekten Würfel 60 mal. Wie oft etwa wird er die 6 würfeln? Klar: etwa 10 mal, es kann aber auch
MehrBasiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrMonotone Approximationen durch die Stirlingsche Formel. Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings
Monotone Approximationen durch die Stirlingsche Formel Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings Formel für n!: e n n e n n! e n n+/2 e n Genauer zeigen wir, dass die Folge
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrKapitel 13. Grundbegriffe statistischer Tests
Kapitel 13 Grundbegriffe statistischer Tests Oft hat man eine Vermutung über die Verteilung einer Zufallsvariablen X. Diese Vermutung formuliert man als Hypothese H 0.Sokönnte man daran interessiert sein
MehrÜ b u n g s b l a t t 10
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrTaylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe
Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer
MehrEntscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
MehrTesten von Hypothesen
Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5
MehrWeierstraß-Institut für Angewandte Analysis und Stochastik Von der Binomialverteilung zur Normalverteilung
Weierstraß-Institut für Angewandte Analysis und Stochastik Von der Binomialverteilung zur Normalverteilung Wolfgang König (WIAS und TU Berlin) Mohrenstraße 39 10117 Berlin Tel. 030 20372 0 www.wias-berlin.de
Mehr