Wichtige Definitionen und Aussagen
|
|
- Marie Martin
- vor 6 Jahren
- Abrufe
Transkript
1 Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge heißen Ergebnisse Diese fasst man in der Ergebnismenge Ω zusammen Bei Zufallsexperimenten mit endlicher Ergebnismenge Ω bezeichnen wir eine beliebige Teilmenge von Ω als Ereignis Einelementige Teilmengen von Ω heißen auch Elementarereignisse Die Ergebnismenge Ω ist ebenfalls ein Ereignis und wird auch sicheres Ereignis genannt Die leere Menge heißt hingegen auch unmögliches Ereignis Das zu einem Ereignis E komplementäre Ereignis Ω\E wird auch mit E oder E c bezeichnet Verknüpfung von Ereignissen: Sind E 1 und E zwei Ereignisse, so bezeichnet E 1 E die Menge aller Ergebnisse ω, die eintreten, wenn E 1 oder E eintritt, dh E 1 E = {ω Ω ω E 1 oder ω E }, und E 1 E die Menge aller Ergebnisse ω, die eintreten, wenn E 1 und E eintreten, dh E 1 E = {ω Ω ω E 1 und ω E } Laplace-Wahrscheinlichkeit: Die Laplace-Wahrscheinlichkeit für das Eintreten eines Ereignisses E Ω einer endlichen Ergebnismenge Ω ist definiert durch P (E) = Anzahl der für E günstigen Ausgänge Anzahl aller möglichen Ausgänge = E Ω Bernoulli-Experiment: Als Bernoulli-Experiment bezeichnet man ein Zufallsexperiment, bei dem man sich nur dafür interessiert, ob ein bestimmtes Ereignis eintritt oder nicht Eigenschaften der Laplace-Wahrscheinlichkeit: 1 Nichtnegativität: Für jedes Ereignis E Ω ist P (E) 0 Normiertheit: Es gilt P (Ω) = 1 3 Sind E 1 und E zwei Ereignisse, so ist P (E 1 E ) = P (E E 1 ) P (E 1 ) und P (E 1 E ) P (E ) 4 Sind E 1, E,, E n 1, E n paarweise disjunkte Ereignisse (dh alle Ereignisse besitzen verschiedene Elemente), dann ist P (E 1 E n ) = n P (E i ) i=1 5 P (E) = P (E c ) = 1 P (E) 1
2 bedingte Wahrscheinlichkeit: Seien E und F Ereignisse mit P (E) > 0 Dann heißt P (F E) = P (E F ) P (E) = P (F E) P (E) die bedingte Wahrscheinlichkeit von F unter der Bedingung E (oder kurz die Wahrscheinlichkeit von F gegeben E) Unabhängigkeit von Ereignissen: Zwei Ereignisse E und F heißen unabhängig, wenn P (E F ) = P (E) P (F ) Ist P (E) > 0 (bzw P (F ) > 0), so ist die Bedingung äquivalent zu P (F E) = P (F ) (bzw P (E F ) = P (E)) Satz von der totalen Wahrscheinlichkeit: Sind E i (i = 1,, n) paarweise disjunkte Ereignisse mit P (E i ) > 0 und Ω = E 1 E n, dann gilt für jedes Ereignis F Ω P (F ) = n P (F E i ) P (E i ) i=1 Formel von Bayes: Sind E i (i = 1,, n) paarweise disjunkte Ereignisse mit P (E i ) > 0 und Ω = E 1 E n, dann gilt für ein Ereignis F Ω mit P (F ) > 0 P (E i F ) = P (F E i) P (E i ) P (F ) = P (F E i ) P (E i ) n j=1 P (F E j) P (E j ) Zufallsvariable: Sei Ω ein Ergebnisraum Eine Zufallsvariable X ist eine Funktion, die jedem Ergebnis ω Ω einen Wert X(ω) zuordnet Nimmt in einem Experiment die Zufallsvariable den Wert x an, so wird x auch als Realisation von X bezeichnet Die Menge aller möglichen Realisationen wird auch mit X bezeichnet diskrete Wahrscheinlichkeitsverteilung: Sei X eine Zufallsvariable, die nur endlich oder abzählbar unendlich viele Realisationen x 1, x, X besitzt, dann heißt die Funktion f mit der Eigenschaft f(x i ) = P (X = x i ) und f(x i ) = 1 diskrete Wahrscheinlichkeitsverteilung von X Dichte: Eine reellwertige Funktion f auf R mit a) f(s) ds = 1 und i
3 b) f(s) 0 für alle s R heißt Wahrscheinlichkeitsdichte oder kurz Dichte Eine Zufallsvariable X besitzt die Dichte f, wenn P (a < X b) = b a f(s) ds für alle a, b R mit a < b Verteilungsfunktion: Ist X eine reellwertige Zufallsvariable, so heißt die Funktion F mit F (x) = P (X x) Verteilungsfunktion von X Besitzt X eine Dichte f, so berechnet sich die Verteilungsfunktion durch F (x) = P (X x) = x f(t) dt Unabhängigkeit von Zufallsvariablen: Zufallsvariablen X 1,, X n heißen unabhängig, wenn P ((X 1 x 1 ) (X n x n )) = P (X 1 x 1 ) P (X n x n ) Sind die Zufallsvariablen diskret, so ist dies äquivalent zu P ((X 1 = x 1 ) (X n = x n )) = P (X 1 = x 1 ) P (X n = x n ) Erwartungswert a) Für eine diskrete Zufallsvariable X mit n Realisationen x i (i = 1,, n) heißt die Zahl n E[X] = x i P (X = x i ) Erwartungswert von X i=1 b) Für eine diskrete Zufallsvariable X mit Realisationen x i (i N) und i N x i P (X = x i ) < heißt die Zahl E[X] = i N x i P (X = x i ) Erwartungswert von X c) Für eine Zufallsvariable X mit Wahrscheinlichkeitsdichte f und heißt die Zahl E[X] = Erwartungswert von X xf(x) dx x f(x) dx < Der Erwartungswert einer diskreten Zufallsvariable X lässt sich auch schreiben als E[X] = X(ω)P ({ω}) ω Ω Der Erwartungswert ist linear, dh es gilt E[aX + by ] = ae[x] + be[y ] 3
4 Varianz, Standardabweichung: Ist X eine reellwertige Zufallsvariable mit E[X ] <, so heißt σ X = V ar(x) = E[(X E[X]) ] die Varianz von X und σ X = σx die Standardabweichung von X Ist X diskret, so gilt V ar(x) = (x i E[X]) P (X = x i ) i Besitzt X eine Dichte f, so gilt V ar(x) = (x E[X]) f(x) dx Allgemein gilt die Verschiebungsformel V ar(x) = E[X ] (E[X]) -Quantil: Sei X eine Zufallsvariable und 0 < a < 1 Dann heißt jede Zahl ξ R mit P (X ξ ) und P (X ξ ) 1 ein -Quantil von X Ein 1 -Quantil von X wird auch Median von X genannt Besitzt X die Dichte f, so ist ξ bestimmt durch = P (X ξ ) = ξ f(x) dx Kovarianz, Korrelationskoeffizient: Sind X und Y zwei reellwertige Zufallsvariablen mit E[X ] < und E[Y ] <, so heißt cov(x, Y ) = E [ (X E[X])(Y E[Y ]) ] die Kovarianz von X und Y Der Wert ϱ X,Y = cov(x, Y ) σ X σ Y wird als Korrellationskoeffizient bezeichnet Es gilt cov(x, Y ) = E[XY ] E[X] E[Y ] X und Y heißen positiv korreliert, wenn cov(x, Y ) > 0, und negativ korreliert, wenn cov(x, Y ) < 0 Zentraler Grenzwertsatz: Seien X 1,, X n unabhängige und identisch verteilte Zufallsvariablen mit Erwartungswert µ und endlicher Varianz σ Dann ist die Summe Σ n = n i=1 X i annähernd normalverteilt mit Erwartungswert nµ und Varianz nσ Dies ist gleichbedeutend dazu, dass Z n = Σ n nµ σ annähernd standardnormalverteilt ist 4
5 Mathematisches Stichprobenmittel und Stichprobenvarianz: Sind X 1,, X n unabhängige und identisch verteilte Zufallsvariablen, so heißt X M = 1 n n i=1 X i mathematisches Stichprobenmittel Die Zufallsvariable S = 1 n n 1 i=1 (X i X M ) heißt dann auch mathematische Stichprobenvarianz Konfidenzintervall für den Erwartungswert einer Zufallsvariable X: Das Intervall [X M d, X M + d] mit P (X M d E[X] X M + d) = 1 heißt Konfidenzintervall für E[X] zum Konfidenzniveau 1 Das Intervall [x M d, x M + d], in dem die Zufallsvariable X M durch eine Realisation x M ersetzt wurde, nennen wir zur Unterscheidung konkretes Konfidenzintervall Wichtige Konfidenzintervalle: 1 X N(µ, σ ) mit bekanntem σ : [ X M σ z 1, X M + σ ] z n 1, n wobei z 1 das ( ) 1 -Quantil der Standardnormalverteilung bezeichnet X N(µ, σ ) mit unbekanntem oder nur geschätztem σ : [ X M S t n 1,1, X M + S ] t n n 1,1, n wobei t n 1,1 das ( ) 1 -Quantil der tn 1 -Verteilung bezeichnet 3 X beliebig: Für große n ist (X M µ) annähernd standardnormalverteilt (nach S dem Zentralen Grenzwertsatz) Für große n erhalten wir also das Konfidenzintervall [ X M S z 1, X M + S ] z n 1, n wobei z 1 das ( ) 1 -Quantil der Standardnormalverteilung bezeichnet Maximum-Likelihood-Schätzer: Ist X eine diskrete (bzw stetige) Zufallsvariable mit zugehöriger Verteilung (bzw Dichte) f, die von einem (unbekannten) Parameter λ abhängt, und X 1,, X n eine mathematische Stichprobe, dann heißt L λ (x 1,, x n ) = f λ (x 1 ) f λ (x n ) Likelihood-Funktion zu X Der Parameter λ max, für den die Funktion L λ maximal wird, bezeichnet man als Maximum-Likelihood-Schätzer für λ Kleinste-Quadrate-Schätzer: Wenn zwischen zwei Zufallsvariablen X und Y ein Zusammenhang Y = ax + b + ε 5
6 mit (zufälligem) Fehler ε besteht, dann kann man die Koeffizienten a und b durch die Kleinste-Quadrate-Schätzer â = S n XY i=1 = (X i X)(Y i Ȳ ) SX n i=1 (X i X) und ˆb = Y âx schätzen Konfidenzintervall für Varianzen: Sei X N(µ, σ ) und X 1,, X n eine mathematische Stichprobe zu X, dh X 1,, X n sind unabhängig und N(µ, σ)-verteilt Dann ist [ ] (n 1)S (n 1)S, χ n 1;1 χ n 1; ein Konfidenzintervall zum Niveau 1 für die Varianz σ Hypothese, Test: Eine Hypothese ist eine (auf Beobachtungen bzw Auswertungen von Experimenten basierende) Vermutung über die Verteilung einer Zufallsvariable Eine Entscheidungsregel, ob die Hypothese (abhängig von der Stichprobe) angenommen oder verworfen werden soll, bezeichnet man als Test Um eine (Null-)Hypothese H 0 gegen eine Alternativhypothese (oder kurz Alternative) H 1 zu testen, zerlegt man die Menge aller möglichen Stichprobenergebnisse in zwei disjunkte Teilmengen A und S und legt fest: Falls ω A, wird H 0 angenommen (A Annahmebereich) Falls ω S, wird H 0 verworfen (S Verwerfungsbereich, kritischer Bereich) Fehler 1 Art und Fehler Art: Ein Fehler 1 Art liegt vor, wenn eine wahre Hypothese verworfen wird Ein Fehler Art liegt vor, wenn eine falsche Hypothese angenommen wird Gütefunktion, Niveau eines Tests: Im Falle einer parametrischen Verteilung P ϑ, ϑ Θ, und eines Testproblems der Form H 0 : ϑ Θ 0 gegen H 1 : ϑθ 1 = Θ\Θ 0 nennt man die Funktion β(ϑ) = P ϑ (S) Gütefunktion des Tests Der Test hat das Niveau, wenn β(ϑ) für alle ϑ Θ 0 Gauß-Test: Sei X N(µ, σ ) mit bekannter Varianz σ Für eine Stichprobe mit Umfang n gibt es nun drei mögliche Gauß-Tests: 1 H 0 : µ µ 0, H 1 : µ > µ 0 x M µ 0 + z 1 σ n H 0 : µ µ 0, H 1 : µ < µ 0 x M µ 0 z 1 σ n 6
7 3 H 0 : µ = µ 0, H 1 : µ µ 0 µ 0 z 1 σ x M µ 0 + z 1 σ Dabei bezeichne z 1 das (1 )-Quantil und z 1 das ( ) 1 -Quantil der Standardnormalverteilung Binomial-Test: Sei X B 1,p mit unbekanntem p Für hinreichend großen Stichprobenumfang n (Faustregel: n p o (1 p 0 ) > 9) gibt es (approximativ) folgende mögliche Binomial- Tests: 1 H 0 : p p 0, H 1 : p > p 0 x M p 0 + z 1 p0 (1 p 0 ) H 0 : p p 0, H 1 : p < p 0 x M p 0 z 1 p0 (1 p 0 ) 3 H 0 : p = p 0, H 1 : p p 0 p 0 z 1 p0 (1 p 0 ) x M p 0 + z 1 p0 (1 p 0 ) Dabei bezeichne z 1 das (1 )-Quantil und z 1 das ( ) 1 -Quantil der Standardnormalverteilung t-test: Sei X N(µ, σ ) mit unbekannter Varianz σ Für eine Stichprobe vom Umfang n gibt es drei mögliche t-tests: 1 H 0 : µ µ 0, H 1 : µ > µ 0 s x M µ 0 + t n 1;1 n H 0 : µ µ 0, H 1 : µ < µ 0 s x M µ 0 t n 1;1 n 7
8 3 H 0 : µ = µ 0, H 1 : µ µ 0 µ 0 t n 1;1 s x M µ 0 + t n 1;1 s Dabei bezeichne t n 1;1 das (1 )-Quantil und t n 1;1 das ( ) 1 -Quantil der t n 1 -Verteilung t-test für abhängige Stichproben: Dieser Test dient zum Vergleich der Mittelwerte zweier Zufallsvariablen X und Y Man geht wie folgt vor: 1 Man beobachtet die Wertepaare (x i, y i ) (i = 1,, n), wobei x i Realisationen von X und y i Realisationen von Y seien Bilde d i = x i y i (i = 1,, n) und berechne den Mittelwert d und die Stichprobenvarianz s d Die Werte d i (i = 1,, n) sind Realisationen der Zufallsvariablen D i (i = 1,, n) mit Erwartungswert µ = µ X µ Y Bilde D und S D 3 Wenn D i N(µ, σ D ), dann ist T = D d s s von T 4 Es gibt folgende Tests zum Signifikanzniveau : a) H 0 : µ = 0, H 1 : µ 0 RT t n 1;1 b) H 0 : µ 0, H 1 : µ > 0 RT t n 1;1 c) H 0 : µ 0, H 1 : µ < 0 RT t n 1;1 S D t n 1 RT bezeichne die Realisation χ -Anpassungstest: Situation: Wir vermuten, dass eine Zufallsvariable X einer bestimmten Verteilung folgt, deren freie Parameter wir bereits geschätzt haben Der χ -Test funktioniert nun folgendermaßen: Man teilt den Wertebereich X der Zufallsvariable X in geeignete disjunkte Klassen K 1,, K k ein und bestimmt die Klassenhäufigkeiten n 1,, n k mit n = k i=1 n i Dabei gibt n i an, wie viele der Stichprobenergebnisse x j in der Klasse K i enthalten sind Gemäß der Verteilungsannahme berechnet man p i = P (X K i ) (i = 1,, k) Man gibt sich ein Irrtumsniveau vor und liest das (1 )-Quantil der χ k r 1 - Verteilung aus Tabellen ab Dabei steht k für die Anzahl der Klassen und r für die Anzahl der Schätzungen H 0 : X besitzt die vermutete Verteilung k (n i np i ) T χ = χ np k r 1;1 i i=1 8
3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrKapitel 3 Schließende Statistik
Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrTesten von Hypothesen, Beurteilende Statistik
Testen von Hypothesen, Beurteilende Statistik Was ist ein Test? Ein Test ist ein Verfahren, mit dem man anhand von Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrScheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik
Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik
MehrTheorie - Statistik und Wahrscheinlichkeitstheorie. 27. Mai 2008
Theorie - Statistik und Wahrscheinlichkeitstheorie 27. Mai 2008 Inhaltsverzeichnis 1. Was ist eine Zufallsvariable?......................... 4 2. Wie ist Freiheitsgrad definiert?.......................
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrStatistische Tests für unbekannte Parameter
Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung
MehrInhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...
Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R... 3 1.1 Installieren und Starten von R... 3 1.2 R-Befehleausführen... 3 1.3 R-Workspace speichern... 4 1.4 R-History sichern........ 4 1.5
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrHeute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung
Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrAppendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie
Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie Vorbemerkung: Die folgenden Seiten sind nicht zur Abschreckung gedacht, sondern als Ergänzung zu den Darstellungen, die
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrBiometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1
Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrNachhol-Klausur - Schätzen und Testen - Wintersemester 2013/14
Prof. Dr. Rainer Schwabe 08.07.2014 Otto-von-Guericke-Universität Magdeburg Institut für Mathematische Stochastik Nachhol-Klausur - Schätzen und Testen - Wintersemester 2013/14 Name:, Vorname: Matr.-Nr.
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik
MehrDie ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.
.3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrPrüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003
Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Aufgabenstellung und Ergebnisse Dr. Martin Becker Hinweise für die
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
MehrStatistik für Ökonomen
Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS 2., überarbeitete Auflage 4ü Springer Gabler Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R '! 3 1.1 Installieren
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr