Material der Folien zur Vorlesung Statistik für Ingenieure Wintersemester 2016/2017

Größe: px
Ab Seite anzeigen:

Download "Material der Folien zur Vorlesung Statistik für Ingenieure Wintersemester 2016/2017"

Transkript

1 Material der Folien zur Vorlesung Statistik für Ingenieure Wintersemester 2016/2017 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg (Sachsen), Institut für Stochastik 10. Februar 2017 (Hinweise und Bemerkungen bitte an: Inhaltsverzeichnis 1 Einführung 2 2 Grundlagen der Wahrscheinlichkeitsrechnung Zufällige Ereignisse und Wahrscheinlichkeiten Klassische Wahrscheinlichkeitsdefinition (Laplace-Modell) Stochastische Unabhängigkeit Bedingte Wahrscheinlichkeiten Zufallsgrößen Zufallsgrößen und ihre Verteilung Charakteristische Größen von Verteilungen Wichtige diskrete Wahrscheinlichkeitsverteilungen Diskrete Gleichverteilung Bernoulli-Verteilung Binomialverteilung Hypergeometrische Verteilung Geometrische Verteilung Poissonverteilung Wichtige stetige Verteilungen Exponentialverteilung Normalverteilung (Gauß-Verteilung) Stetige Gleichverteilung Gammaverteilung

2 3.4.5 Weibullverteilung Logarithmische Normalverteilung Weitere stetige Verteilungen Transformation von Zufallsgrößen Zufallsvektoren Deskriptive Statistik Grundbegriffe der Statistik Grafiken und statistische Maßzahlen (Kenngrößen, Parameter) für Daten Grafiken für univariate stetige Daten (a) Punktdiagramm Grafiken für univariate diskrete Daten (a) Balkendiagramm Kenngrößen und Parameter zur Beschreibung univariater Daten Weitere Grafiken für univariate stetige Daten Kenngrößen für kategorielle Daten Grafiken, Kenngrößen für multivariate stetige Daten Grafiken für multivariate diskrete Daten Graphiken für gemischte multivariate Daten Schließende Statistik Statistische Tests (Signifikanztests) Tests für eine Stichprobe mit stetiger Skala Tests für eine gepaarte (verbundene) Stichprobe (stetige Skala) Tests für zwei oder mehr (unabhängige) Stichproben (stetige Skala) Weitere ausgewählte statistische Tests b) Korrelations- und Abhängigkeitstests c) Pearson-Korrelationstest Bsp- Pearson-Korrelationstest Weitere Bemerkungen zu Tests

3 1 Einführung Situationen, Beobachtungen, Messungen, Experimente,..., bei denen Ergebnisse nicht genau vorhergesagt werden können, aber diese Unsicherheit auch nicht vernachlässigt werden kann. Beispiele: Glücksspiele; Messung physikalischer Größen (zufällige Messungenauigkeiten); Vorhersage der Lebensdauer von Bauteilen, Geräten; Vorhersage von Wetter- oder Klimadaten; Vorhersage von Aktienkursen; Vorhersage von auszuzahlenden Beträgen bei Versicherungen. Kleinere oder größere Datenmengen, die sinnvoll ausgewertet werden sollten und auf deren Basis dann begründete Entscheidungen gefällt werden müssen. Beispiel: Zeiten der störungsfreien Arbeit in Stunden zwischen aufeinanderfolgenden Ausfällen der Klimaanlagen in Flugzeugen (Boing 720). Quelle: Cox & Snell: Applied Statistics, Principles and Examples; entnommen aus Proschan (1963). 1: 413; 14; 58; 37; 100; 65; 9; 169; 447; 184; 36; 201; 118; 34; 31; 18; 18; 67; 57; 62; 7; 22; 34 2: 90; 10; 60; 186; 61; 49; 14; 24; 56; 20; 79; 84; 44; 59; 29; 118; 25; 156; 310; 76; 26; 44; 23; 62; 130; 208; 70; 101; 208 3: 74; 57; 48; 29; 502; 12; 70; 21; 29; 386; 59; 27; 153; 26; : 359; 9; 12; 270; 603; 3; 104; 2; 438 9: 487; 18; 100; 7; 98; 5; 85; 91; 43; 230; 3; : 102; 209; 14; 57; 54; 32; 67; 59; 134; 152; 27; 14; 230; 66; 61; 34 Eine Möglichkeit (und gängige Praxis): Quantifizierung der Unsicherheiten mit stochastischen bzw. statistischen mathematischen Modellen und statistischen Berechnungen. Mathematische Disziplin: Stochastik (von griech. στ oχαστ ικóζ jemand, der im Vermuten geschickt ist ). In dieser Vorlesung: 3

4 Elemente der Wahrscheinlichkeitsrechnung (zufällige Ereignisse, Wahrscheinlichkeiten, Zufallsgrößen,... ); Elemente der Statistik (Datenanalyse, statistische Tests,... ). Wichtig: Regelmäßige aktive Teilnahme an Vorlesungen und Übungen und selbstständiges Lernen und Üben! (Modulbeschreibung: 45 h Präsenzzeit und 60 h Selbststudium.) Organisatorisches Informationen zum Modul: 2 Grundlagen der Wahrscheinlichkeitsrechnung 2.1 Zufällige Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch (Zufallsexperiment, Zufallssituation): Vorgang unter genau festgelegten Bedingungen, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang oder Ergebnis (innerhalb einer Menge möglicher Ergebnisse) ungewiß ist. Zufälliges Ereignis (kurz Ereignis): Teilmenge möglicher Ausgänge, nach Realisierung des zufälligen Versuches muss man entscheiden können, ob ein zufälliges Ereignis eingetreten ist oder nicht. Bsp.: Versuch Ereignis Werfen eines Spielwürfels Werfen einer 6 Kontrolle einer Warenlieferung 3 Ausschussteile auszuzahlende Versicherungsbeträge e Bezeichnung der Ereignisse: A, B, A 1, A 2, B i,.... (Wichtig: Bei Lösung von Aufgaben bzw. Modellierung genaue Definitionen der betrachteten zufälligen Ereignisse!) Operationen mit Ereignissen, besondere Ereignisse Geg.: zufällige Ereignisse A, B, C, A 1, A 2,... zu einem Zufallsversuch. Zu A komplementäres (entgegengesetztes) Ereignis A c ( = A = A ) : tritt genau dann ein, wenn A nicht eintritt. Vereinigung A B : A oder B (oder beide) treten ein; analog: A 1 A 2 A 3... : mindestens eines der Ereignisse A 1, A 2, A 3,... tritt ein. 4

5 Durchschnitt A B : A und B treten (gemeinsam) ein; analog: A 1 A 2 A 3... : die Ereignisse A 1, A 2, A 3,... treten gemeinsam (bei einer Realisierung des Zufallsversuchs) ein. Sicheres Ereignis Ω : tritt immer ein (auch Ergebnisraum genannt). Unmögliches Ereignis : tritt niemals ein. A und B sind unvereinbar (sind disjunkt, schließen einander aus) : sie können nicht gemeinsam eintreten, d.h. A B =. Das Ereignis A zieht das Ereignis B nach sich, A B : wenn A eintritt, dann tritt auch B ein. Einige Rechenregeln für Ereignisse Das sichere Ereignis Ω kann als Menge der möglichen Versuchsergebnisse aufgefasst werden, die einelementigen Teilmengen sind dann die Elementarereignisse {ω 1 }, {ω 2 },.... Rechenregeln wie in der Mengenlehre, Skizzen können helfen. Für alle Ereignisse A zu einem zufälligen Versuch gilt: A Ω. A B = B A, A B = B A (Kommutativität). A (B C) = (A B) C, A (B C) = (A B) C (Assoziativität). A (B C) = (A B) (A C), A (B C) = (A B) (A C) (Distributivität). A A c = Ω, A A c =. Regeln von de Morgan: (analog auch für größere Anzahl) (A B) c = A c B c, (A B) c = A c B c. Zerlegung (vollständiges Ereignissystem) Die zufälligen Ereignisse A 1, A 2,..., A n bilden eine Zerlegung von Ω (bilden ein vollständiges Ereignissystem), wenn bei jeder Realisierung des Zufallsversuches genau eines der Ereignisse A 1, A 2,..., A n eintritt, d.h. die Ereignisse A i sind paarweise unvereinbar (A i A j =, falls i j) und es gilt n A 1 A 2... A n = A i = Ω (Fallunterscheidung). i=1 Einfachster Fall: Ω = A A c für ein zufälliges Ereignis A. 5

6 Übungsaufgabe Die Arbeit eines Kraftwerkes werde durch drei unabhängig voneinander arbeitende Kontrollsysteme (kurz System ) überwacht, die jedoch auch einer gewissen Störanfälligkeit unterliegen. Es bezeichne S i das Ereignis, dass das i-te System störungsfrei arbeitet (i = 1, 2, 3). Drücken Sie folgende Ereignisse mit Hilfe der Ereignisse S 1, S 2 und S 3 aus: A ={ Alle Systeme arbeiten störungsfrei. } B ={ Kein System arbeitet störungsfrei. } C ={ Mindestens ein System arbeitet störungsfrei. } D ={ Genau ein System arbeitet störungsfrei. } E ={ Höchstens zwei Systeme sind gestört. } Wahrscheinlichkeiten In einem stochastischen Modell wird jedem zufälligen Ereignis zu einem Zufallsversuch eine Zahl zwischen 0 und 1 zugewiesen, die sogenannte Wahrscheinlichkeit (für das Eintreten des Ereignisses). Hintergrund: Eigenschaften der relativen Häufigkeiten h n (A) = H n(a), n mit H n (A) als absolute Häufigkeit des Eintretens des zufälligen Ereignisses A in n unabhängigen Versuchswiederholungen. Für A B Ω gilt 0 h n (A) h n (B) h n (Ω) = 1. Für A B = gilt h n (A B) = h n (A) + h n (B). Erfahrungstatsache: Für n konvergiert h n (A) oft gegen eine feste reelle Zahl (Stabilisierung der relativen Häufigkeiten). Axiome von Kolmogorow Axiomatische Definition von Kolmogorow Bezeichnung: P(A) Wahrscheinlichkeit des Ereignisses A. Axiome: 1. 0 P(A) 1 ; 2. P(Ω) = 1 ; 6

7 3. P(A 1 A 2...) = P(A 1 ) + P(A 2 ) +..., falls die Ereignisse A i paarweise unvereinbar sind, d.h. A i A j = (i j). Bemerkung: Jede Zuweisung der Wahrscheinlichkeitswerte zu den zufälligen Ereignissen zu einem Zufallsversuch, die diese Axiome erfüllt, ist aus mathematischer Sicht korrekt (unabhängig davon, ob sie die Realität gut beschreibt). Folgerungen: Beispielaufgabe P(A B) = P(A) + P(B), falls A B = (Additionssatz); P(A B) = P(A) + P(B) P(A B) ; P(A c ) = 1 P(A) ; A B P(A) P(B). Für die Ereignisse A und B seien folgende Wahrscheinlichkeiten bekannt: P(A) = 0.25, P(B) = 0.45, P(A B) = 0.5. Berechnen Sie P (A B c ), P (A c B c ) und P ((A B c ) (A c B))! 2.2 Klassische Wahrscheinlichkeitsdefinition (Laplace-Modell) Gilt für Zufallsversuche mit endlich vielen möglichen Versuchsergebnissen (n elementare Versuchsausgänge oder Elementarereignisse), die alle gleichwahrscheinlich sind (keines wird bevorzugt, alle haben dieselbe Chance einzutreten). Beispiele: Würfeln mit einem fairen oder gerechten Würfel, n = 6, Elementarereignisse sind {1}, {2}, {3}, {4}, {5}, {6}. Zahlenlotto 6 aus 49, n = Anzahl der möglichen Tipps mit 6 aus 49 Zahlen. Aus den Axiomen für Wahrscheinlichkeiten folgt dann die einzige mögliche Definition von Wahrscheinlichkeiten in dieser Situation (die sogenannte klassische Wahrscheinlichkeitsdefinition). Klassische Wahrscheinlichkeitsdefinition Für jedes der n Elementarereignisse gilt unter obigen Bedingungen: P(Elementarereignis) = 1 n. 7

8 Für ein beliebiges Ereignis A gilt unter obigen Bedingungen: Anzahl der Elementarereignisse in A P(A) = bzw. n Anzahl der für A günstigen Fälle P(A) = Anzahl aller möglichen gleichwahrscheinlichen Fälle. Beispiel: Zweimaliges Würfeln mit einem fairen Würfel, A = { Augensumme mindestens 10 }. Bei Wahrscheinlichkeitsberechnungen im Zusammenhang mit der klassischen Wahrscheinlichkeitsdefinition werden oft kombinatorische Formeln genutzt. 2.3 Stochastische Unabhängigkeit Definition: Zwei zufällige Ereignisse A und B zu einem Zufallsversuch heißen (stochastisch) unabhängig, wenn gilt P(A B) = P(A) P(B). Zufällige Ereignisse A 1,..., A n zu einem Zufallsversuch heißen paarweise unabhängig, falls alle Paare von ausgewählten Ereignissen unabhängig sind, d.h. P(A i A j ) = P(A i ) P(A j ) für alle i j. Diese Ereignisse heißen in Gesamtheit oder total oder vollständig (stochastisch) unabhängig, falls eine entsprechende Formel für alle möglichen Auswahlen (nicht nur von Paaren) gilt, d.h. für alle 2 k n, 1 i 1 <... < i k n gilt P(A i1... A ik ) = P(A i1 )... P(A ik ). Beispiel und Eigenschaften unabhängiger Ereignisse Beispiel: Zweifacher Münzwurf mit symmetrischer Münze A = { 1. Wurf Zahl }, B = { 2. Wurf Zahl }, P(A) = 1 2, P(B) = 1 2, P(A B) = 1 4 = Satz A und B seien unabhängige Ereignisse zu einem Zufallsversuch. Dann sind auch die zufälligen Ereignisse A und das Komplement von B, also B c, stochastisch unabhängig. Ebenso sind in diesem Fall A c und B sowie auch A c und B c jeweils stochastisch unabhängige Ereignisse. folgt im Allgemei- Aus der paarweisen Unabhängigkeit der Ereignisse A 1,..., A n nen nicht deren totale Unabhängigkeit. Die Unabhängigkeit von Ereignissen (im Allg. die totale) wird der Einfachheit halber häufig vorausgesetzt, gezwungenermaßen oft auch dann, wenn sie sachlich schwer begründbar ist. 8

9 Anwendung in Zuverlässigkeitstheorie Betrachten Serien- (Reihen-) und Parallelsysteme von Elementen (Bauteilen, Teilsystemen etc.), die vollständig unabhängig voneinander funktionstüchtig sind oder ausfallen. 2 Elemente E 1, E 2, F i = { Element E i funktioniert }, P(F i ) = p i, F i stochastisch unabhängig (i = 1, 2). Das Seriensystem funktioniert, wenn sowohl E 1 als auch E 2 funktionieren, d.h. der Ausfall bereits eines Elements zum Systemausfall führt: P(F 1 F 2 ) = P(F 1 ) P(F 2 ) = p 1 p 2. Das Parallelsystem funktioniert, wenn E 1 oder E 2 oder beide Elemente funktionieren (mindestens ein Element funktioniert): Redundante Systeme P(F 1 F 2 ) = 1 P (F 1 c F 2 c ) = 1 (1 p 1 ) (1 p 2 ) = p 1 + p 2 p 1 p 2. Seriensysteme aus vielen Elementen erfordern oft eine sehr hohe Funktionswahrscheinlichkeit der Arbeitselemente, die meist nicht realisierbar ist. Deshalb werden Reserveelemente eingebaut. Das entstehende System ist dann kein Seriensystem mehr und ist strukturell redundant (lateinisch: redundantia = Überfülle). Es gibt 3 Arten der strukturellen Redundanz: Kalte Redundanz (unbelastete Redundanz oder Reserve): Im Reservezustand sind die Elemente keinerlei Beanspruchungen ausgesetzt, können also nicht ausfallen. Warme Redundanz (erleichterte Redundanz oder Reserve): Die Reserveelemente sind geringeren Beanspruchungen ausgesetzt, die Ausfallwahrscheinlichkeit ist geringer als die der Arbeitselemente. Heiße Redundanz (belastete Redundanz oder Reserve): Die Reserveelemente sind den gleichen Beanspruchungen ausgesetzt wie die Arbeitselemente, besitzen also auch entsprechende Ausfallwahrscheinlichkeiten. 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen zu berücksichtigen, welche die Zufälligkeit einschränken. Beispiel: Zufälliges Ziehen einer Kugel aus einer Urne 9

10 Insgesamt 11 weiße und 6 schwarze Kugeln; von den 17 Kugeln sind 8 Kugeln (6 weiße und 2 schwarze) markiert; die restlichen 9 Kugeln (5 weiße und 4 schwarze) sind unmarkiert. Ereignis S = { gezogene Kugel ist schwarz } ; Ereignis M = { gezogene Kugel ist markiert } ; Ereignis U = { gezogene Kugel ist unmarkiert }. Ohne Bedingung: P(S) = 6 2 4, P(S M) =, P(S U) = Einschränkung auf markierte Kugeln: P(S M) = 2, P(M) = 8 P(S M), d.h. P(S M) = P(M) Einschränkung auf unmarkierte Kugeln: P(S U) = 4, P(U) = 9 P(S U), d.h. P(S U) = P(U) Allgemeine Definition bedingter Wahrscheinlichkeiten Bedingte Wahrscheinlichkeit von A unter der Bedingung B: P(A B) = P(A B) P(B), falls P(B) 0. Wichtig: Im Allgemeinen gilt P(A B) P(B A)! Bei fester Bedingung B kann man wie mit (unbedingten) Wahrscheinlichkeiten rechnen, z.b. P(A c B) = 1 P(A B). Sind zwei zufällige Ereignisse A und B stochastisch unabhängig, dann gelten (falls P(B) > 0 bzw. P(A) > 0) P(A B) = P(A) bzw. P(B A) = P(B), d.h. die bedingten Wahrscheinlichkeiten sind gleich den unbedingten Wahrscheinlichkeiten der beiden Ereignisse. Entsprechende Formeln gelten auch für mehr als 2 in Gesamtheit unabhängige Ereignisse. Multiplikationsregeln Multiplikationsregel: P(A B) = P(A B) P(B). Erweiterte Multiplikationsregel: Sind A 1,..., A n zufällige Ereignisse mit P(A 1... A n 1 ) > 0, dann gilt P(A 1 A 2... A n ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 )... P(A n A 1 A 2... A n 1 ). 10

11 Übungsbeispiel: In einer Urne befinden sich 7 rote und 3 schwarze Kugeln. Es werden nacheinander 4 Kugeln zufällig ohne Zurücklegen entnommen. Wie groß ist die Wahrscheinlichkeit für das Ereignis A, dass alle 4 gezogenen Kugeln rot sind? Formel der totalen Wahrscheinlichkeit Berechnung der totalen (unbedingten) Wahrscheinlichkeit aus den bedingten Wahrscheinlichkeiten als gewichtetes Mittel! Sei B 1,..., B n eine Zerlegung von Ω mit P(B i ) 0, i = 1,..., n. Dann gilt die Formel der totalen Wahrscheinlichkeit: für ein beliebiges zufälliges Ereignis A Ω ist n P(A) = P(A B i )P(B i ). Bei Zerlegung Ω = B B c : i=1 P(A) = P(A B)P(B) + P(A B c )P(B c ). Im Beispiel mit dem Ziehen einer Kugel : Übungsaufgabe P(S) = P(S M) P(M) + P(S U) P(U), 6 17 = Drei Zulieferer liefern eine Komponente zur Produktion eines Erzeugnisses im Anzahlverhältnis 5 : 3 : 2. Die Fehlerquote betrage bei Komponenten der 1. Zulieferfirma 7%, bei Komponenten der 2. Zulieferfirma 4% und bei Komponenten der 3. Zulieferfirma 2%. Wie groß ist die Wahrscheinlichkeit dafür, dass eine aus der Gesamtliefermenge rein zufällig ausgewählte Komponente fehlerhaft ist? Formel von Bayes Unter den Bedingungen des Satzes der totalen Wahrscheinlichkeit und unter der Voraussetzung P(A) > 0 gilt die Formel von Bayes P(B i A) = P(A B i)p(b i ) P(A) = P(A B i)p(b i ) n. P(A B j )P(B j ) j=1 P(B i ) heißen auch a-priori-wahrscheinlichkeiten. P(B i A) heißen auch a-posteriori-wahrscheinlichkeiten, sie liefern eine Korrektur der ursprünglichen Wahrscheinlichkeiten, wenn bekannt ist, dass das zufällige Ereignis A eingetreten ist oder dies angenommen wird. 11

12 Übungsaufgabe Für die Situation der obigen Übungsaufgabe mit den 3 Zulieferbetrieben wurde eine Komponente aus der Gesamtzuliefermenge rein zufällig ausgewählt und überprüft. Dabei wurde festgestellt, dass die Komponente defekt ist. Mit welcher Wahrscheinlichkeit stammte diese Komponente von der 1. Zulieferfirma? Beispiel Diagnoseverfahren Diagnoseverfahren liefern im Allg. nicht 100%ig richtige Ergebnisse: Ein Fehler wird nicht erkannt. Ein Fehler wird fälschlicherweise angezeigt. Resultierende Frage: Wie groß ist die Wahrscheinlichkeit, dass ein zufällig ausgewählter und als fehlerhaft angezeigter Gegenstand tatsächlich fehlerhaft ist? Beispiel: F = { Gegenstand ist tatsächlich fehlerhaft }, P(F ) = A = { Gegenstand wird als fehlerhaft angezeigt }. Wahrscheinlichkeit für eine Fehlererkennung: P(A F ) = 0.9. Wahrscheinlichkeit für die Identifizierung eines einwandfreien Gegenstandes: P(A c F c ) = Ges.: P(F A). 3 Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind Zahlenwerte Ergebnisse von Zufallsversuchen. Oft ist es auch in anderen Fällen für eine mathematische Behandlung günstig, den Versuchsergebnissen Zahlen zuzuordnen (etwa 1 für Erfolg und 0 für Misserfolg ). Beschreibung von Ergebnissen eines Zufallsversuches durch eine Zufallsgröße (oder mehrere Zufallsgrößen X 1, X 2,..., X n ). X Beispiele: Zufällige Zeit X (Lebensdauer, Ausfallzeiten,... ) mit möglichen Werten {x R : x 0}. Messergebnis X (Länge, Kraft, Temperatur,... ) mit entsprechenden Zahlenwerten (ohne Maßeinheit) als möglichen Werten. 12

13 Zufällige Anzahl X (von Schäden, Konkursen,... ) mit möglichen Werten {0, 1, 2,...}. Augenzahl X beim Würfeln mit möglichen Werten {1, 2, 3, 4, 5, 6}. Mathematische Definition einer Zufallsgröße Mathematische Definition einer Zufallsgröße: Eine Abbildung (Funktion) X : Ω R heißt Zufallsgröße (reelle Zufallsvariable), falls für jedes Intervall (a, b) R, a < b, die Menge {ω Ω : a < X(ω) < b} ein zufälliges Ereignis ist ( Messbarkeitsbedingung ; dabei wird ein System von zufälligen Ereignissen mit bestimmten natürlichen Eigenschaften als gegeben vorausgesetzt). Es gilt: Sind X, Y Zufallsgrößen zu einem Zufallsversuch, dann sind auch X +Y, X Y, X Y, X/Y, falls Y 0, a X mit a R und ähnliche durch mathematische Operationen gebildete Größen Zufallsgrößen (d.h. die Messbarkeitsbedingung bleibt erhalten). Grundtypen von Zufallsgrößen Für Zufallsgrößen interessieren vor allem Wahrscheinlichkeiten der Art P(X b), P(a < X < b), P(a X b) oder ähnliche. Diese bilden die Verteilung oder Wahrscheinlichkeitsverteilung der Zufallsgröße. Abgeleitete Kenngrößen, wie zum Beispiel Erwartungswert oder Varianz liefern ebenfalls wichtige Informationen. Zwei wichtige Grundtypen von Zufallsgrößen (mit zum Teil unterschiedlichen mathematischen Hilfsmitteln bei Berechnungen oder Untersuchungen) sind: Zufallsgrößen mit diskreter Verteilung (diskrete Zufallsgrößen) und Zufallsgrößen mit (absolut) stetiger Verteilung (stetige Zufallsgrößen). Zufallsgrößen mit diskreter Verteilung Definition: Eine Zufallsgröße X heißt diskret, wenn sie nur endlich viele oder abzählbar unendlich viele mögliche Werte x 1, x 2,... annehmen kann. Die Zuordnung p i := P(X = x i ), i = 1, 2,..., heißt Wahrscheinlichkeitsfunktion der diskreten Zufallsgröße. Sie wird meistens durch eine Verteilungstabelle gegeben: 13

14 Werte x i x 1 x 2 x 3... Wahrscheinlichkeiten p i p 1 p 2 p 3... Die Bestimmung der Wahrscheinlichkeiten p i erfolgt durch Berechnung aus Grundannahmen (typische Verteilungen) oder experimentell mittels statistischer Methoden. Wahrscheinlichkeiten bei diskreten Verteilungen Beispiel: Gerechtes Würfeln, Zufallsgröße X : Augenzahl. x i p i 1 6 Für die Wahrscheinlichkeiten p i gelten : 0 p i 1 ; i p i = 1. Für beliebige Mengen I R gilt P(X I) = x i I p i, z.b. für reelle Zahlen a < b P(a < X < b) = a<x i <b Beispiel: Zweifacher Würfelwurf, Zufallsgröße X : Augensumme, Ges.: P(X 4). Zufallsgrößen mit stetiger Verteilung Definition: Eine Zufallsgröße X heißt stetig, wenn es eine integrierbare reelle Funktion f X : R R gibt, so dass P(a X b) = für beliebige reelle Zahlen a b gilt. b a f X (x) dx Die Funktion f X heißt Dichtefunktion (oder Verteilungsdichte) der Zufallsgröße X und besitzt die Eigenschaften: 1. f X (x) 0 für alle x R ; 2. Bemerkung: sein! f X (x) dx = 1. Eine Dichtefunktion muss nicht unbedingt stetig oder beschränkt Eine Dichtefunktion gibt die Verteilung der Wahrscheinlichkeitsmasse auf der reellen Achse an. 14 p i.

15 Beispiel Zufallsgröße mit stetiger Verteilung Beispiel: Rein zufällige Auswahl eines Punktes (Wertes) X aus dem Intervall [0, 1] (auf dem Intervall [0, 1] gleichverteilte oder gleichmäßig verteilte Zufallsgröße). Für 0 a < b 1 gilt P(a X b) = b a. { 1, 0 x 1, Die Dichtefunktion ist f X (x) = 0, sonst. Verteilungsfunktion einer Zufallsgröße Die Verteilungen von beliebigen Zufallsgrößen können vollständig durch die Verteilungsfunktion der jeweiligen Zufallsgröße beschrieben werden. Definition: Die Funktion F X einer reellen Variablen mit reellen Funktionswerten, die durch F X (x) = P(X < x) = P( < X < x), x R, definiert wird, heißt Verteilungsfunktion der Zufallsgröße X. Der Funktionswert ist für jede reelle Zahl x die Wahrscheinlichkeit dafür, dass die Zufallsgröße X einen Wert annimmt, der kleiner als x ist. Bemerkung: Mitunter wird die Verteilungsfunktion einer Zufallsgröße X auch durch F X (x) = P(X x), x R, definiert, insbesondere in der Zuverlässigkeitstheorie. Verteilungsfunktion einer diskreten Zufallsgröße Für übliche diskrete Zufallsgrößen ist die Verteilungsfunktion eine Treppenfunktion mit Sprüngen der Höhe p i an den Werten x i. 15

16 Beispiel: Verteilungsfunktion F X der Zufallsgröße X : Augenzahl beim Würfeln mit einem gerechten Würfel. Verteilungsfunktion einer stetigen Zufallsgröße Für stetige Zufallsgrößen ist die Verteilungsfunktion eine in allen Punkten stetige Funktion. Beispiel: Verteilungsfunktion F X einer Zufallsgröße X, die auf [0, 1] gleichverteilt ist. Allgemeine Eigenschaften von Verteilungsfunktionen Eine Verteilungsfunktion F X ist monoton nicht fallend. Es gilt lim F X(x) = 0. x 16

17 Es gilt lim F X(x) = 1. x + Es gilt für beliebige reelle Zahlen a < b : Für stetige Zufallsgrößen gelten P(a X < b) = F X (b) F X (a). P(a X < b) = P(a < X < b) = P(a < X b) = P(a X b). Außerdem gelten für stetige Verteilungen F X (x) = x f X (t) dt, x R und f X (x) = F X(x) an den Stellen x R, in denen die Ableitung existiert. 3.2 Charakteristische Größen von Verteilungen Die Gesamtinformation, die mit einer Wahrscheinlichkeitsverteilung gegeben wird (oder gegeben werden muss) ist häufig zu umfangreich. Deshalb nutzt man Kenngrößen, die in praktischen Situationen gut zu nutzen sind. Die beiden wichtigsten Gruppen von Kenngrößen sind die der Lageparameter und der Streuungsparameter. Die am häufigsten genutzte Kenngröße ist der Erwartungswert EX einer Zufallsgröße X (auch Mittelwert der Zufallsgröße genannt). Der Erwartungswert ist ein Lageparameter, eine (nichtzufällige) reelle Zahl und beschreibt die Lage des Schwerpunkts der Wahrscheinlichkeitsmasse. Definition Erwartungswert einer Zufallsgröße Definition: Für eine diskrete Zufallsgröße X mit möglichen Werten x 1, x 2,... und zugehörigen Wahrscheinlichkeiten p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... wird der Erwartungswert definiert durch EX = i x i p i. wird der Erwar- Für eine stetige Zufallsgröße X mit der Dichtefunktion f X tungswert definiert durch EX = x f X (x) dx. Beispiele: Zufallsgrößen X 1 Augenzahl beim Würfeln mit einem gerechten Würfel. X 2 gleichmäßig verteilt auf dem Intervall [0, 1]. 17

18 Beispiele: Erwartungswert einer Zufallsgröße X 1 Augenzahl beim Würfeln X 2 gleichverteilt auf [0, 1] Einzelwahrscheinlichkeiten Dichtefunktion und Erwartungswert und Erwartungswert Eigenschaften von Erwartungswerten Nicht jede Zufallsgröße besitzt einen Erwartungswert. Linearitätseigenschaft von Erwartungswerten: für Zufallsgrößen X, Y und reelle Zahlen a, b gelten E(a + bx) = a + bex ; E(X + Y ) = EX + EY. Ist g : R R eine (z.b. stetige) Funktion und X eine Zufallsgröße, dann kann man den Erwartungswert der Zufallsgröße Y = g(x) wie folgt berechnen, ohne erst die Verteilung von Y zu bestimmen: EY = Eg(X) = i g(x i )p i für diskrete ZG X ; EY = Eg(X) = g(x)f X (x) dx für stetige ZG X. Varianz und Standardabweichung einer Zufallsgröße (ZG) Die wichtigste Kenngröße für die Variabilität von Zufallsgrößen ist die Varianz (auch Streuung oder Dispersion) der Zufallsgröße. Definition: Zahl Die Varianz VarX der Zufallsgröße X ist die nichtnegative reelle VarX = E (X EX) 2 (x i EX) 2 p i, diskrete ZG ; i = (x EX) 2 f X (x) dx, stetige ZG. 18

19 Die Varianz, falls sie existiert, gibt die erwartete quadratische Abweichung der Zufallsgröße von ihrem Erwartungswert an. Definition: Die Standardabweichung σ X der Zufallsgröße X ist die positive Quadratwurzel aus der Varianz der Zufallsgröße: σ X = VarX. Eigenschaften von Varianzen und Standardabweichungen Varianz und Standardabweichung sind Streuungsparameter. Die Varianz lässt sich meistens bequemer mit Hilfe der Formel berechnen. VarX = E ( X 2) (EX) 2 Ist a eine reelle Zahl und X eine Zufallsgröße, dann gelten Var(aX) = a 2 VarX, Var(a + X) = VarX, σ (ax) = a σ X, σ (a+x) = σ X. Es gilt genau dann VarX = σ X = 0, wenn es eine reelle Zahl x 0 P(X = x 0 ) = 1 gilt. Die Zufallsgröße X heißt dann einpunktverteilt. gibt, so dass Beispielberechnung Varianzen ZG X 1 : Augenzahl beim Würfeln mit einem gerechten Würfel. EX 2 = VarX = 91 6 ( = 91 6 ) 2 = = ZG X 2 : gleichmäßig verteilt auf dem Intervall [0, 1]. 1 EX 2 = x 2 1 dx = VarX = 1 ( ) = =

20 Variationskoeffizient Definition: Für eine Zufallsgröße X mit EX > 0 wird der Variationskoeffizient V X definiert durch V X = σ X EX. Mit dem Variationskoeffizienten wird die Streuung der möglichen Werte zum mittleren Wert (Erwartungswert) in Beziehung gesetzt. Der Variationskoeffizient ist einheitenunabhängig und hilft er beim Vergleich der Stärke der zufälligen Schwankungen der Werte von unterschiedlichen Zufallsvariablen, insbesondere wenn diese in unterschiedlichen Einheiten gemessen wurden. Der Variationskoeffizient kann für solche Zufallsgrößen verwendet werden, bei denen die Quotientenbildung der möglichen Werte auch inhaltlich sinnvoll ist. Quantile einer stetigen Zufallsgröße Für 0 < q < 1 heißt die reelle Zahl x q ein q Quantil der stetigen Zufallsgröße X, wenn X Werte links von x q mit einer Wahrscheinlichkeit q annimmt, d.h. ist eine Lösung der Gleichung x q xq f X (x) dx = q bzw. F X (x q ) = q. q Quantile können auch für diskrete und andere Zufallsgrößen betrachtet werden. Wichtige Quantile sind: das 0.5 Quantil, es heißt Median von X ; das 0.25 bzw Quantil, dies sind die sogenannten Viertelquantile oder Quartile von X (das untere bzw. das obere) ; die α bzw. (1 α) Quantile für kleine Werte α, sie spielen bei statistischen Fragen eine große Rolle. Beispiel Exponentialverteilung Eine Zufallsgröße X heißt exponentialverteilt mit Parameter λ > 0, falls für die Verteilungsfunktion F X bzw. die Verteilungsdichte f X gilt: F X (x) = { 0, x 0, 1 exp( λx), x > 0, f X (x) = { 0, x 0, λ exp( λx), x > 0. 20

21 Verteilungsfunktion (λ = 2) Dichtefunktion (λ = 2) Quantile für Exponentialverteilung Es sei X exponentialverteilt mit Parameter λ = 2, d.h. { 0, x 0, F X (x) = P(X < x) = 1 exp( 2x), x > 0. Dann gilt für das q Quantil x q (mit 0 < q < 1) : F X (x q ) = 1 exp( 2x q ) = q, also x q = 1 ln (1 q). 2 Verteilungsfunktion Dichtefunktion q x q Wichtige diskrete Wahrscheinlichkeitsverteilungen Diskrete Gleichverteilung Zufallsgröße X j). Wahrscheinlichkeitsfunktion: mit endlich vielen möglichen Werten x 1, x 2,..., x n (x i x j, i p i = P(X = x i ) = 1, i = 1, 2,..., n. n Im Spezialfall x 1 = 1, x 2 = 2,..., x n = n gelten EX = n und VarX = n

22 Anwendung: Laplace-Experiment. Bezeichnung: X U({x 1, x 2,..., x n }) Bernoulli-Verteilung Parameter: p [0, 1]. Zufallsgröße X mit 2 möglichen Werten x 1 = 1, x 2 = 0. Wahrscheinlichkeitsfunktion: P(X = 1) = p, P(X = 0) = 1 p. Kenngrößen: EX = p und VarX = p(1 p). Bezeichnung: X B(p). Anwendung: Bernoulli-Experiment: Experiment mit zwei möglichen Versuchsausgängen, die durch die Ereignisse A bzw. A c beschrieben werden. Das Ereignis A tritt mit einer Wahrscheinlichkeit p = P(A) ein. { 1, wenn ω A ; Die Zufallsgröße X wird dann wie folgt definiert X(ω) = 0, wenn ω A Binomialverteilung Parameter: n N, 0 p 1. Zufallsgröße X mit möglichen Werten x 0 = 0, x 1 = 1,..., x n = n. Wahrscheinlichkeitsfunktion: ( ) n p i = P(X = i) = p i (1 p) n i, i = 0, 1,..., n. i Kenngrößen: EX = np und VarX = np(1 p). Bezeichnung: X Bin(n, p). Eigenschaften: Bin(1, p) = B(p) ; X 1 Bin(n 1, p), X 2 Bin(n 2, p), unabhängig X 1 + X 2 Bin(n 1 + n 2, p) ; Insbesondere X 1 B(p),..., X n B(p), unabhängig X X n Bin(n, p). 22

23 Wahrscheinlichkeitsfunktionen von Binomialverteilungen Typische Situation für Binomialverteilung Typische Situation: Der Zufallsversuch besteht aus n unabhängigen und gleichartigen Teilversuchen. Bei jedem Teilversuch kann ein bestimmtes Ereignis mit einer Wahrscheinlichkeit p eintreten oder (mit Wahrscheinlichkeit 1 p) nicht. Mit der Zufallsgröße X zählt man die Anzahl der Teilversuche, bei denen das interessierende Ereignis eingetreten ist. X ist also die zufällige Anzahl der eingetretenen Ereignisse unter obigen Bedingungen. Typische Anwendung: Stichprobenentnahme mit Zurücklegen in der Qualitätskontrolle (X = Anzahl von Ausschussteilen in einer Stichprobe). Beispielaufgabe Binomialverteilung Ein idealer Würfel wird 20 mal geworfen. Wie groß ist die Wahrscheinlichkeit dafür, dass mindestens zwei mal eine Sechs geworfen wird? Zufallsgröße X = Anzahl der geworfenen Sechsen bei 20 Würfen dieses Würfels. 23

24 Die Zufallsgröße X ist binomialverteilt. Die Wahrscheinlichkeit für das Werfen einer Sechs bei einem Würfelwurf beträgt 1/6, dies ist der Parameter p. Der Parameter n beschreibt die Anzahl der Wiederholungen des Einzelversuchs, hier also n = 20. Gesucht ist P(X 2) Hypergeometrische Verteilung Parameter: N, M, n N, M N, n N. Zufallsgröße X mit möglichen Werten x k = k N 0, mit max{0, n (N M)} k min{m, n}. Wahrscheinlichkeitsfunktion: ( M ) ( k N M ) n k p k = P(X = k) = ( N, n) Kenngrößen: max{0, n (N M)} k min{m, n}. EX = n M N ; VarX = n M N N M N N n N 1. Bezeichnung: X Hyp(N, M, n). Wahrscheinlichkeitsfunktionen hypergeom. Verteilungen 24

25 Typische Situation für die hypergeometrische Verteilung Typische Situation: Unter N Dingen befinden sich M ausgezeichnete; von den N Dingen werden n zufällig ausgewählt (ohne Zurücklegen); die Zufallsgröße X repräsentiert die zufällige Anzahl der ausgezeichneten Dinge unter den n ausgewählten. Anwendungsbeispiele: Stichprobennahme ohne Zurücklegen, z.b. bei der Qualitätskontrolle; Anzahl der richtigen Zahlen bei einem Tipp im Lottospiel; Ist das Verhältnis n N sehr klein (< 0.05), so gilt ( Hyp(N, M, n) Bin n, M ). N Beispielaufgabe hypergeometrische Verteilung Ein Kunde übernimmt alle 50 gelieferten Schaltkreise, wenn in einer Stichprobe von 10 Schaltkreisen höchstens ein nicht voll funktionsfähiger Schaltkreis enthalten ist. Ansonsten wird die gesamte Lieferung verworfen. Man berechne die Wahrscheinlichkeit dafür, dass die 50 Schaltkreise a) abgenommen werden, obwohl diese 12 nicht voll funktionsfähige Schaltkreise enthalten, b) zurückgewiesen werden, obwohl nur 3 nicht voll funktionsfähige Schaltkreise enthalten sind! Zufallsgröße X... Anzahl der nicht voll funktionsfähigen Schaltkreise in der Stichprobe. 25

26 Die Zufallsgröße X ist hypergeometrisch verteilt. N = 50, n = 10, M = 12 bzw. M = 3. Ges. P(X 1) bzw. P(X > 1) Geometrische Verteilung Parameter: 0 < p < 1. Zufallsgröße X mit möglichen Werten k = 1, 2, 3,.... Wahrscheinlichkeitsfunktion: p k = P(X = k) = p(1 p) k 1, k = 1, 2, 3,.... Kenngrößen: EX = 1 p und VarX = 1 p p 2. Bezeichnung: X Geo(p). Anwendung: Gleichartige unabhängige Teilversuche, bei denen jeweils Erfolg mit Wahrscheinlichkeit p oder Misserfolg mit Wahrscheinlichkeit 1 p eintreten können, werden so lange durchgeführt, bis zum ersten Mal Erfolg eingetreten ist. Der Wert von X ist gleich der Anzahl der durchgeführten Teilversuche. Geometrische Verteilungen, Beispielaufgabe Beispielaufgabe: Ein Relais falle mit einer Wahrscheinlichkeit von bei einem Schaltvorgang zufällig aus, wobei diese Ausfälle unabhängig voneiander eintreten sollen. Wie groß ist die Wahrscheinlichkeit dafür, dass der erste Ausfall nicht vor dem tausendsten Schaltvorgang passiert? 26

27 Verallgemeinerungen: negative Binomialverteilung Werden in derselben Situation die Teilversuche solange wiederholt, bis der r te Erfolg eingetreten ist (r N), besitzt die zufällige Anzahl X der durchgeführten Teilversuche eine negative Binomialverteilung mit den Parametern r und p. Dann gelten ( ) k 1 P(X = k) = p r (1 p) k r, k = r, r + 1,..., r 1 EX = r r(1 p) und VarX =. p p 2 Bei anderen Varianten der geometrischen und der negativen Binomialverteilung wird die Anzahl der Misserfolge (Fehlversuche) und nicht die Anzahl der Teilversuche als Zufallgröße betrachtet. Darauf sollte man bei Formeln aus der Literatur bzw. bei Nutzung von Statistikprogrammen achten Poissonverteilung Parameter: λ > 0 (die Intensität der Poissonverteilung). Zufallsgröße X mit möglichen Werten k = 0, 1, 2,.... Wahrscheinlichkeitsfunktion: p k = P(X = k) = λk k! e λ, k = 0, 1, 2,.... Kenngrößen: EX = λ und VarX = λ. Bezeichnung: X Poi(λ). Eigenschaft: X 1 + X 2 Poi(λ 1 + λ 2 ). X 1 Poi(λ 1 ), X 2 Poi(λ 2 ), unabhängig Wahrscheinlichkeitsfunktionen von Poissonverteilungen 27

28 Anwendungen der Poissonverteilung Typische Anwendung: Poissonverteilte Zufallsgrößen beschreiben häufig die Anzahl von bestimmten Ereignissen ( Poissonereignisse, z.b. Schadensfälle) in festen Zeitintervallen, wenn die Ereignisse zu zufälligen Zeitpunkten eintreten (auch analog an zufälligen Orten oder ähnliches) und folgendes gilt: Die Wahrscheinlichkeit für das Eintreten einer bestimmten Anzahl dieser Poissonereignisse hängt nur von der Länge des betrachteten Zeitintervalls ab, nicht wann dieses beginnt oder endet (Stationarität). Die zufälligen Anzahlen der eintretenden Poissonereignisse sind für sich nicht überschneidende Zeitintervalle stochastisch unabhängig (Nachwirkungsfreiheit). Die betrachteten Poissonereignisse treten einzeln ein, nicht gleichzeitig, die zufälligen Anzahlen ändern sich somit von Moment zu Moment höchstens um den Wert 1 (Ordinarität). Beispiele: Anzahl von Telefonanrufen, Anzahl von emittierten Teilchen in Physik (radioaktiver Zerfall), Anzahl von Unfällen, Anzahl von Schadensfällen, Anzahl von Niveauüberschreitungen. Poissonverteilung und Binomialverteilung Ist eine zufällige Zählgröße X binomialverteilt, der Parameter n aber groß und der Parameter p klein (Faustregel: n 30, p 0.05 und gleichzeitig np 10, sogenannte seltene Ereignisse ), dann kann man die Wahrscheinlichkeiten näherungsweise mit Hilfe einer Poissonverteilung mit Parameter λ = np berechnen, d.h. ( n P(X = k) = )p k (1 p) n k λk k k! e λ (dies folgt aus dem Grenzwertsatz von Poisson). 28

29 Übungsaufgaben Poissonverteilung An einer Tankstelle kommen werktags zwischen 16:00 und 18:00 Uhr durchschnittlich 4 Fahrzeuge pro Minute an. Wie groß ist die Wahrscheinlichkeit dafür, dass während einer Minute im betrachteten Zeitbereich mindestens 3 Fahrzeuge ankommen, wenn man davon ausgeht, dass die zufällige Anzahl der ankommenden Fahrzeuge poissonverteilt ist? Es werden 50 Erzeugnisse aus einer Lieferung mit einer Ausschusswahrscheinlichkeit von 0.01 untersucht. Wie groß ist die Wahrscheinlichkeit dafür, dass sich höchstens ein fehlerhaftes Erzeugnis unter den 50 Erzeugnissen befindet? Zusatz zur Poissonverteilung Ergebnisse der berühmten Rutherfordschen und Geigerschen Versuche: Anzahlen der α Teilchen, die von radioaktiven Substanzen in n = 2608 Zeitabschnitten von 7.5 Sekunden emittiert wurden i n i np i Durchschnittliche Anzahl: λ = n i i n = 3.87 ; p i = λi i! e λ. Quelle: Fisz, Wahrscheinlichkeitsrechnung und mathematische Statistik, Berlin Wichtige stetige Verteilungen Exponentialverteilung Parameter: λ > 0. 29

30 Zufallsgröße X mit Dichtefunktion f X bzw. Verteilungsfunktion F X f X (x) = { 0, x < 0, λe λx, x 0 ; F X (x) = { 0, x < 0, 1 e λx, x 0. Beispiele: λ = 0.5 (blau), λ = 1 (rot), λ = 5 (grün). Kenngrößen: Bezeichnung: X Exp(λ). EX = 1 λ, VarX = 1 λ 2 und x 0.5 = ln 2 λ λ. Exponentialverteilte Zufallsgrößen nehmen nur nichtnegative Werte an, daher sind sie prinzipiell zur Modellierung von zufälligen Lebensdauern oder Wartezeiten geeignet. Beispielaufgabe: Die zufällige Lebensdauer eines Bauteils sei exponentialverteilt, dabei betrage die erwartete Lebensdauer 3 Jahre. Wie groß ist die Wahrscheinlichkeit, dass das Bauteil länger als 6 Jahre funktioniert? Exponentialverteilung als Lebensdauerverteilung Wird die zufällige Lebensdauer eines Bauteils durch eine Exponentialverteilung modelliert, dann werden Alterungseffekte nicht mit berücksichtigt (sogenannte Gedächtnislosigkeit der Exponentialverteilung). Angenommen, das Bauteil hat schon das Alter x 0 > 0 erreicht. Dann gilt für die Restlebensdauer X x0 und x > 0 P(X x0 x) = P (X x 0 + x X x 0 ) = P(X x 0 + x) P(X x 0 ) = e λ(x 0+x) e λx 0 = e λx = P(X > x). 30

31 Damit kann die Exponentialverteilung als Lebensdauerverteilung nur dann ein gutes Modell sein, wenn äußere Ereignisse das Leben beenden und keine Alterung vorliegt. Zusammenhang von Exponential- und Poissonverteilung Es werden bestimmte Ereignisse betrachtet, die zu zufälligen Zeitpunkten T 1, T 2,... mit einer Intensität λ > 0 (mittlere Anzahl der Ereignisse pro Zeiteinheit) eintreten. Bezeichnet man mit N t die zufällige Anzahl der eingetretenen Ereignisse im Zeitintervall [0, t], dann sind die Zufallsgrößen N t für verschiedene Zeitpunkte t genau dann Poisson-verteilt mit Parameter µ = λt, falls die zufälligen Zeitabstände zwischen zwei aufeinanderfolgenden Ereignissen stochastisch unabhängig und exponentialverteilt mit dem Parameter λ sind. Die zufälligen Zeitmomente T 1, T 2, T 3,... bilden dann einen sogenannten Poissonschen Ereignisstrom. Die Zufallsgrößen (N t, t 0) definieren dann einen sogenannten Poissonprozess Normalverteilung (Gauß-Verteilung) Parameter: µ R, σ 2 > 0. Zufallsgröße X mit Dichtefunktion f X bzw. Verteilungsfunktion F X f X (x) = 1 2πσ e (x µ)2 2σ 2, F X (x) = 1 2πσ x e (t µ)2 2σ 2 dt, x R. Kenngrößen: EX = µ und VarX = σ 2. Bezeichnung: X N(µ, σ 2 ). Eigenschaft: X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2), unabhängig, a 1, a 2 R a 1 X 1 + a 2 X 2 N(a 1 µ 1 + a 2 µ 2, a 2 1σ a 2 2σ 2 2) (Additionssatz). Die Dichtefunktion ist symmetrisch bezüglich der Geraden für den Median auch x 0.5 = µ. x = µ, deshalb gilt Dichte- und Verteilungsfunktionen Normalverteilung links: µ = 0, σ = 0.5 (blau), σ = 1 (rot), σ = 2 (grün) ; rechts: µ = 2, σ = 0.5 (blau), µ = 0, σ = 1 (rot), µ = 1, σ = 2 (grün). 31

32 Standardnormalverteilung Die Zufallsgröße X ist standardnormalverteilt, falls X normalverteilt ist und µ = EX = 0 sowie σ 2 = VarX = 1 gelten, d.h. X N(0, 1). Die Dichte-bzw. Verteilungsfunktion sind dann φ(x) = 1 2π e x2 2 bzw. Φ(x) = 1 2π x e t2 2 dt, x R. Ist die Zufallsgröße X normalverteilt mit Erwartungswert µ und Varianz σ 2, dann ist die standardisierte Zufallsgröße Z := X µ σ standardnormalverteilt, d.h. normalverteilt mit Erwartungswert 0 und Varianz 1. Berechnung von Wahrscheinlichkeiten Geg.: X N(µ, σ 2 ), a < b. Ges.: P(a X b). 32

33 Wegen Z = X µ N(0, 1) gilt σ ( a µ P(a X b) = P X µ b µ ) σ σ σ ( a µ = P Z b µ ) σ σ ( ) ( ) b µ a µ = Φ Φ. σ σ Die Funktionswerte von Φ können aus einer Tabelle abgelesen werden oder mit einem Taschenrechner o.ä. berechnet werden. Es gilt Φ( x) = 1 Φ(x) für beliebige reelle Zahlen x. Rechenbeispiel Normalverteilung Geg.: X N(30, 25). Ges.: P(28 X 35). k σ Regeln für Normalverteilung Frage: Wie groß ist die Wahrscheinlichkeit dafür, dass der Wert einer Zufallsgröße X N(µ, σ 2 ) um mehr als 3 σ vom Erwartungswert ( Sollwert ) µ abweicht? Antwort: ( X µ P( X µ > 3σ) = P σ ) > 3 = P( Z > 3) = 2 P(Z > 3) = 2 (1 Φ(3)) = 2 ( ) = Folglich und analog gilt: 3 σ Regel: Innerhalb von µ ± 3σ liegen ca % der Messwerte. 2 σ Regel: Innerhalb von µ ± 2σ liegen ca. 95.5% der Messwerte. 1 σ Regel: Innerhalb von µ ± σ liegen ca. 68.3% der Messwerte. Umgekehrte Fragestellung Frage: In welchem Intervall I = [µ c; µ + c] liegen im Mittel (z.b.) 90% der Messwerte für X N(µ, σ 2 )? Ges.: c, so dass P( X µ c) =

34 Lsg: ( X µ 0.9 = P( X µ c) = P σ c σ ) ( = P Z c ) ( = P c σ σ Z c σ ( c ) Φ = σ 2 = 0.95 c σ = z 0.95 = c = σ. (0.95-Quantil) ) ( c ) = 2Φ 1 σ D.h., zwischen µ 1.645σ und µ σ liegen im Mittel 90% der Messwerte. Unabhängigkeit von Zufallsgrößen Die Zufallsgrößen X 1,..., X n heißen (stochastisch) unabhängig, wenn für beliebige reelle Zahlen a 1 < b 1,..., a n < b n gilt P(a 1 X 1 < b 1,..., a n X n < b n ) = P(a 1 X 1 < b 1 )... P(a n X n < b n ). Zufallsgrößen, die z.b. zu unterschiedlichen, sich nicht beeinflussenden Teilversuchen gehören, können als unabhängig angesehen werden. Oft wird die Unabhängigkeit von Zufallsgrößen aber auch angenommen, um überhaupt etwas berechnen zu können. Sind zwei Zufallsgrößen X und Y stochastisch unabhängig, dann gilt E(X Y ) = EX EY. Satz: Sind zwei Zufallsgrößen X und Y stochastisch unabhängig, dann gilt für deren Summe Var(X + Y ) = VarX + VarY. Diese Eigenschaft gilt aber im Allgemeinen nicht für abhängige Zufallsgrößen! Summen von unabhängigen normalverteilten Zufallsgrößen Eigenschaft: X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2), unabhängig, a 1, a 2 R a 1 X 1 + a 2 X 2 N(a 1 µ 1 + a 2 µ 2, a 2 1σ a 2 2σ 2 2) (Additionssatz). Die Summe S n = n X i i=1 von n unabhängigen N(µ, σ 2 )-verteilten Zufallsgrößen X 1,..., X n ist normalverteilt mit Erwartungswert nµ und Varianz nσ 2. Näherungsweise gilt eine ähnliche Aussage auch für Zufallsgrößen mit anderen Verteilungen. 34

35 Zentraler Grenzwertsatz Häufig ergeben sich Zufallsgrößen (z.b. Messfehler) durch (additive) Überlagerung vieler kleiner stochastischer Einflüsse. Der zentrale Grenzwertsatz bewirkt dann, dass man diese Größen (näherungsweise) als normalverteilt ansehen kann. Für unabhängige, identisch verteilte Zufallsgrößen X 1, X 2,... mit EX i = µ, VarX i = σ 2 > 0 konvergiert die Verteilung der standardisierten Summe gegen die Standardnormalverteilung, d.h. es gilt für z R ( ) ( ) Sn ES n Sn nµ P < z = P < z Φ(z), VarSn nσ 2 n ( ) x nµ bzw. für große n gilt: P (S n < x) Φ. nσ 2 Spezialfall: Satz von Moivre-Laplace Sind X 1,..., X n identisch Bernoulli-verteilt, d.h. X i Bin(1, p), so gilt für die Summe S n Bin(n, p) und nach dem zentralen Grenzwertsatz gilt für z R : ( ) S n np P < z Φ(z), np(1 p) n bzw. für große n ( ) n > 9 gilt p(1 p) ( ) x np P (S n < x) Φ np(1 p) (Satz von Moivre-Laplace). Beispiel Zentraler Grenzwertsatz Eine Weinkellerei lädt 200 Kunden zur Weinverkostung ein. Es kommt erfahrungsgemäß mit 60% der Kunden zu einem Verkaufsabschluss. Wie groß sind die Wahrscheinlichkeiten, dass genau 130 bzw. mehr als 130 Kunden abschließen? ZG X = Anzahl der Abschlüsse Bin(200, 0.6) E(X) = 120, Var(X) = 48. P(X = 130) = ( ) = , P(X > 130) =

36 Approximation mittels Normalverteilung P(X = 130) = P(129.5 < X < 130.5) ( ) ( ) Φ Φ ( ) P(X > 130) = 1 P(X < 130.5) 1 Φ Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße X mit Dichtefunktion f X f X (x) = { 1 b a a x b ; 0, sonst, bzw. Verteilungsfunktion F X 0, x < a ; x a F X (x) =, a x b ; b a 1, x > b. Beispiel: a = 0, b = 1. Charakteristiken der stetigen Gleichverteilung Kenngrößen: EX = a + b 2 = x 0.5 und VarX = (b a)2 12. Bezeichnung: X U[a, b]. Für Teilintervalle [c, d] [a, b] gilt P(c X d) = d c b a = Länge von [c, d] Länge von [a, b] (wird genutzt bei der geometrischen Wahrscheinlichkeitsdefinition). Stetige Verteilung über dem Intervall [a, b], wobei kein Teilintervall einer bestimmten Länge vor anderen Teilintervallen derselben Länge bevorzugt wird. 36

37 Pseudozufallszahlen Um zufällige Modelle am Computer zu realisieren, erzeugen Rechnerprogramme Pseudozufallszahlen (auch kurz Zufallszahlen genannt), die sich wie Realisierungen von unabhängigen, auf dem Intervall [0, 1] gleichverteilten Zufallsgrößen verhalten werden bei Monte-Carlo-Simulationen verwendet. Daraus lassen sich mit Hilfe der folgenden Eigenschaft Realisierungen von Zufallsgrößen mit anderen Verteilungen erzeugen. Satz: Sind u 1, u 2,... gleichverteilte Zufallszahlen auf [0, 1] und ist F X die Verteilungsfunktion einer reellen Zufallsgröße X mit der Umkehrfunktion F 1 X, dann sind x i = F 1 X (u i), i = 1, 2,... nach F X verteilte Zufallszahlen (Inversionsmethode). Es existieren noch weitere Transformationsmethoden, um für häufig gebrauchte Verteilungen, wie z.b. die Normalverteilung, entsprechende Zufallszahlen zu generieren Gammaverteilung Parameter: λ > 0 (Skalenparameter), p > 0 (Formparameter). { 0, x < 0 ; Dichtefunktion: f X (x) = λ p Γ(p) xp 1 e λx, x 0. Gammafunktion: Γ(1) = 1, Γ(p) = (p 1)Γ(p 1) Γ(n) = (n 1)! für n N. Allgemeine Definition: Γ(p) = 0 e t t p 1 dt (p > 0). Kenngrößen: EX = p λ und VarX = p λ 2. Bezeichnug: X Gam(p, λ). Anwendung: Lebensdauerverteilung, flexibler als Exponentialvert. (Exponentialverteilung ergibt sich als Spezialfall für p = 1). Spezielle Gammaverteilungen Beispiel: links p = 2, λ = 1 (rot), λ = 0.5 (blau), λ = 5 (grün); rechts λ = 1, p = 2 (rot), p = 0.9 (blau), p = 5 (grün). 37

38 X i Gam(p i, λ), i = 1, 2, unabh. X 1 + X 2 Gam(p 1 + p 2, λ). X i Exp(λ), i = 1,..., n, unabhängig X i Gam(n, λ) Spezialfall p = n N Erlangverteilung Die Wartezeit bis zum Eintreten des n ten Poissonereignisses kann z.b. durch eine erlangverteilte Zufallsgröße beschrieben werden (Parameter: n, λ) Weibullverteilung Parameter: β > 0 (Skalenparam.), m > 0 (Formparam.), α R. { 0, x α ; Dichtefunktion: f X (x) = ( ) m 1 e ( x α β ) m, x > α. m β x α β { 0, x < α ; Verteilungsfunktion: F X (x) = x α 1 e ( β ) m, x α. ( Erwartungswert: EX = α + β Γ ). m ( Varianz: VarX = β [Γ ) ( Γ )]. m m Median: x 0.5 = α + β (ln 2) 1/m. Spezialfälle: α = 0 sogenannte zweiparametrische Weibullverteilung α = 0, m = 1, β = 1 λ Exponentialverteilung Exp(λ). Beispiele: α = 0, links: m = 1.5, β = 1 (rot), β = 0.5 (blau), β = 5 (grün); rechts: β = 1, m = 1 (rot), m = 0.9 (blau), m = 5 (grün). 38

39 Die Weibullverteilung ist durch die 3 Parameter anpassungsfähig. Eine Weibullverteilung kann als Grenzverteilung für das Minimum einer großen Zahl von unabhängigen Zufallsgrößen auftreten (Verteilung des schwächsten Kettengliedes), deshalb sind Lebensdauern von Systemen oft weibullverteilt. Für m < 1 bzw. m > 1 werden Früh- bzw. Verschleißausfälle besonders gewichtet. Historische Bemerkung In der mechanischen Verfahrenstechnik findet die Weibull-Verteilung Anwendung als eine spezielle Partikelgrößenverteilung. Hier wird sie RRSB-Verteilung (nach Rosin, Rammler, Sperling und Bennet) bezeichnet. Siehe dazu z.b.: Paul Otto Rosin-Gedenkschrift anlässlich des Jubiläums 80 Jahre RRSB-Verteilung 2013, Schriften des IEC, Heft 6, September 2015, TU Bergakademie Freiberg, Insitut für Energieverfahrenstechnik und Chemieingenieurwesen Logarithmische Normalverteilung Die Zufallsgröße X unterliegt einer logarithmischen Normalverteilung (ist lognormalverteilt) falls ln X N(µ, σ 2 ) gilt. { 0, x 0 ; Dichtefunktion: f X (x) = (ln x µ)2 1 2πσx e 2σ 2, x > 0. σ2 µ+ Erwartungswert: EX = e 2. ( ) Varianz: VarX = e 2µ+σ2 e σ2 1. Median: x 0.5 = e µ. Bezeichnung: X LogN(µ, σ 2 ). 39

40 Beispiele: µ = 0, σ = 1 (rot), µ = 2, σ = 0.5 (blau), µ = 1, σ = 2 (grün). Typische Anwendungen: bei Zeitstudien und Lebensdaueranalysen in ökonomischen, technischen und biologischen Vorgängen; bei Untersuchungen in der analytischen Chemie, wie Konzentrations- und Reinheitsprüfungen; für zufällige nichtnegative Materialparameter, z.b. Permeabilitäten; als Grenzverteilung für Produkte unabhängiger positiver Zufallsgrößen (unter bestimmten Bedingungen) Weitere stetige Verteilungen Statistische Prüfverteilungen, u.a. χ 2 -Verteilung (Chi-Quadrat-Verteilung); t-verteilung (Student-Verteilung); F -Verteilung (Fisher-Verteilung). Logistische Verteilung (dient u.a. zur Beschreibung von Wachstumsprozessen mit einer Sättigungstendenz). Betaverteilungen 1. und 2. Art. Extremwertverteilungen Transformation von Zufallsgrößen Häufig müssen bei der Untersuchung stochastischer Modelle Zufallsgrößen transformiert werden. Wichtige Transformationen sind die Bildung von Summe, Minimum oder Maximum von mehreren Zufallsgrößen. 40

41 Ist X eine Zufallsgröße mit Verteilungsfunktion F X und g : R R eine stetige, streng monoton wachsende Funktion (z.b. g(x) = e x ), dann ist Y := g(x) eine Zufallsgröße mit Verteilungsfunktion F Y (y) = P(Y < y) = P(g(X) < y) = P(X < g 1 (y)) = F X (g 1 (y)) (g 1 ist die Umkehrfunktion (inverse Funktion) von g). Die Dichtefunktion (falls sie existiert) kann z.b. durch Differentiation bestimmt werden. Summe unabhängiger Zufallsgrößen, Faltung Oft müssen unabhängige Zufallsgrößen addiert werden und folglich muss die Verteilung einer Summe von unabhängigen Zufallsgrößen bestimmt werden. Die zugehörige Operation für die Verteilungen (Verteilungsdichten, Verteilungsfunktionen) nennt man Faltung. Sind X und Y unabhängige stetige Zufallsgrößen mit Verteilungsdichten f X bzw. f Y, dann gilt für die Verteilungsdichte f S der Summe S = X + Y : f S (z) = f X (z y)f Y (y) dy = f Y (z x)f X (x) dx. In wichtigen Fällen ergeben sich wieder spezielle Verteilungen. Maximum unabhängiger Zufallsgrößen Auch bei der Bildung des Minimums oder Maximums von Zufallsgrößen kann für die Berechnung der entsprechenden Verteilungsfunktion die Unabhängigkeit ausgenutzt werden. Sind X i unabhängige Zufallsgrößen mit Verteilungsfunktionen F Xi, i = 1,... n, dann gilt für das Maximum X (n) ( n ) F X(n) (x) = P(X (n) < x) = P {X i < x} = i=1 n P(X i < x) = i=1 n F Xi (x), i=1 x R Sind die Zufallsgrößen X i, i = 1,..., n, unabhängig und identisch verteilt (i.i.d.) mit Verteilungsfunktion F X, dann gilt F X(n) (x) = F n X(x), x R. 41

42 Minimum unabhängiger Zufallsgrößen Analog gilt für das Minimum X (1) unter obigen Bedingungen ( n ) 1 F X(1) (x) = P(X (1) x) = P {X i x} = n P(X i x) = i=1 i=1 n (1 F Xi (x)), x R. Sind die Zufallsgrößen X i, i = 1,..., n, unabhängig und identisch verteilt (i.i.d.) mit Verteilungsfunktion F X, dann gilt i=1 F X(1) (x) = 1 (1 F X (x)) n, x R. Beispiele für solche zufälligen Extremwerte sind Höchstwasserstände (wichtig für Dämme); minimale Festigkeiten (der einzelnen Kettenglieder einer Kette). 3.6 Zufallsvektoren Bei den meisten stochastischen Modellen ist nicht nur eine Zufallsgröße von Interesse, sondern eine endliche oder sogar unendliche Anzahl unterschiedlicher Zufallsgrößen. n Zufallsgrößen X 1,..., X n kann man zum (n dimensionalen) Zufallsvektor (X 1,..., X n ) zusammenfassen. Viele Eigenschaften kann man an zweidimensionalen Zufallsvektoren (X, Y ) sehen bzw. untersuchen, so dass wir diesen Fall hier näher betrachten. Jede Realisierung des Zufallsvektors ist dann ein Punkt (x, y) im zweidimensionalen Euklidischen Raum R 2. Die in einer konkreten Zufallssituation auftretende Realisierung kann man im Allgemeinen nicht vorausberechnen, man kann nur Wahrscheinlichkeiten dafür angeben, dass Realisierungen des Zufallsvektors in interssierenden Mengen liegen, diese bilden die Wahrscheinlichkeitsverteilung oder kurz Verteilung des Zufallsvektors. Verteilungsfunktion eines Zufallsvektors Die Verteilung des Zufallsvektors (X, Y ) kann durch die gemeinsame (oder Verbund-)Verteilungsfunktion beschrieben werden: Für x, y R gilt F (X,Y ) (x, y) = P({X < x} {Y < y}) = P(X < x, Y < y). Diese Verbundverteilungsfunktionen haben ähnliche Eigenschaften wie die Verteilungsfunktionen reeller Zufallsgrößen, unter anderem 42

43 0 F (X,Y ) (x, y) 1, (x, y) R 2 ; lim F (X,Y )(x, y) = lim F (X,Y )(x, y) = 0 ; x y lim x,y F (X,Y )(x, y) = 1 ; die Funktion F (X,Y ) (x, y) ist bezüglich jeder Variable monoton nicht fallend. Verteilungsdichte eines stetigen Zufallsvektors Für stetige Zufallsvektoren (Zufallsvektoren mit absolut stetiger Verteilung) kann die Verteilung auch durch die Verteilungsdichte f (X,Y ) (s, t), (s, t) R 2, bestimmt werden: F (X,Y ) (x, y) = x y f (X,Y ) (s, t) dtds. Dann gilt für geeignete Teilmengen B R 2 : P((X, Y ) B) = f (X,Y ) (s, t) dtds. Für Verteilungsdichten von stetigen Zufallsvektoren gilt: f (X,Y ) (s, t) 0, (s, t) R 2 ; f (X,Y ) (s, t) dtds = 1. Beispiel: versteckter Schatz Ein Schatz wurde in einem Quadrat der Kantenlänge 1 km an einem zufälligen Ort versteckt. Die zufälligen Koordinaten (X, Y ) wurden von einem Computerprogramm mit Hilfe von Pseudozufallszahlen so bestimmt, dass für die zugehörige Verteilungsdichte mit einer Konstanten c > 0 gilt: { c (1 + s t), (s, t) [0, 1] [0, 1], f (X,Y ) (s, t) = 0, sonst. Berechnen Sie den Wert der Konstanten c ; die Verteilungsfunktion des Zufallsvektors (X, Y ) für Argumente (x, y) mit 0 x 1, 0 y 1 ; die Wahrscheinlichkeit, dass das Versteck im oberen rechten Teilquadrat 0.5 x 1, 0.5 y 1 zu finden ist! B 43

44 Dichtefunktion (links) und Verteilungsfunktion (rechts) des Zufallsvektors (X, Y ). Verbundverteilung und Randverteilungen Die gemeinsame Verteilung des Zufallsvektors (X, Y ), gegeben z.b. durch die Verbundverteilungsfunktion oder die gemeinsame Verteilungsdichte, bestimmt eindeutig die Verteilungen der Komponenten X und Y (die Randverteilungen), wenn diese als einzelne Zufallsgrößen betrachtet werden. So gelten: F X (x) = P(X < x) = lim y F (X,Y ) (x, y), x R ; F Y (y) = P(Y < y) = lim x F (X,Y ) (x, y), y R ; falls die Verteilungsdichte für den Zufallsvektor (X, Y ) existiert, existieren auch die Dichtefunktionen für X und Y und es gelten f X (s) = f Y (t) = Momente von Zufallsvektoren f (X,Y ) (s, t) dt, s R, f (X,Y ) (s, t) ds, t R. sowie Wichtige von der Verteilung eines Zufallsvektors abgeleitete Kenngrößen sind die Momente des Zufallsvektors. Für den stetigen Zufallsvektor (X, Y ) und nichtnegative ganze Zahlen k, l ist E [ X k Y l] = s k t l f (X,Y ) (s, t) dsdt ein (im Allgemeinen gemischtes) Moment der Ordnung k + l (falls es existiert). 44

45 Momente erster Ordnung sind (falls sie existieren) EX = EY = Zweite Momente von Zufallsvektoren sf (X,Y ) (s, t) dsdt = tf (X,Y ) (s, t) dsdt = sf X (s) ds ; tf Y (t) dt. Neben den zweiten Momenten E[X 2 ] und E[Y 2 ] für X bzw. Y und den Varianzen VarX und VarY (als zentralen zweiten Momenten ) können noch das zweite gemischte Moment E[XY ] = stf (X,Y ) (s, t) dsdt und das entsprechende zentrale zweite gemischte Moment, welches Kovarianz genannt wird, definiert werden, Cov (X, Y ) = E[(X EX)(Y EY )] = = E[XY ] EX EY. (s EX)(t EY )f (X,Y ) (s, t) dsdt Korrelationskoeffizient und Unkorreliertheit von ZG Gilt für ZG X und Y jeweils 0 < VarX <, 0 < VarY <, dann definiert man den Korrelationskoeffizient von X und Y als ρ X,Y = Corr (X, Y ) = Cov (X, Y ) VarX VarY. Es gilt immer 1 ρ X,Y 1. Der Korrelationskoeffizient ist ein Maß für die Stärke eines linearen Zusammenhangs zwischen X und Y : ρ X,Y = 1 perfekter positiver linearer Zusammenhang zwischen X und Y, d.h. Y = a + bx mit b > 0 ; ρ X,Y = 1 perfekter negativer linearer Zusammenhang zwischen X und Y, d.h. Y = a + bx mit b < 0. Die Zufallsgrößen X und Y heißen unkorreliert, falls Cov (X, Y ) = 0 gilt (dann gilt auch ρ X,Y = 0), andernfalls nennt man sie korreliert. 45

46 Eigenschaften der Kovarianz Sind zwei Zufallsgrößen X und Y stochastisch unabhängig, dann gilt E(X Y ) = EX EY ; damit sind X und Y auch unkorreliert. Die Umkehrung gilt im Allgemeinen nicht. Die Kovarianz ist symmetrisch, d.h. Cov (X, Y ) = Cov (Y, X). Die Kovarianz ist linear in beiden Komponenten, d.h. Es gilt VarX = Cov (X, X). Es gilt Cov (X + Y, Z) = Cov (X, Z) + Cov (Y, Z). Var(X + Y ) = VarX + VarY + 2Cov (X, Y ). Sind zwei Zufallsgrößen X und Y unkorreliert (insbesondere wenn sie stochastisch unabhängig sind), dann gilt für deren Summe Var[X + Y ] = VarX + VarY. Beispiel: zweidimensionale Normalverteilung Ein stetiger Zufallsvektor (X, Y ) besitzt eine zweidimensionale Normalverteilung, wenn seine Dichtefunktion lautet [ f (X,Y ) (s, t) = c e 1 2(1 ρ 2 ) mit c = (s µ X ) 2 σ 2 X 1 2πσ X σ Y 1 ρ 2. ] 2ρ (s µ X )(t µ Y ) + (t µ Y )2 σ X σ Y σ Y 2 Dann gelten: EX = µ X, EY = µ Y, VarX = σx 2, VarY = σ2 Y ρ X,Y = ρ ( 1, 1)., Corr (X, Y ) = Die einzelnen Komponenten X und Y des Zufallsvektors sind normalverteilte Zufallsgrößen mit den oben angegebenen Parametern. In diesem Fall sind X und Y genau dann unabhängig, wenn sie unkorreliert sind, d.h. wenn Corr (X, Y ) = ρ = 0 gilt. 46

47 Dichtefunktionsgrafiken Normalverteilungen in R 2 Dichtefunktionen von normalverteilten Zufallsvektoren (X, Y ) mit EX = EY = 0, VarX = VarY = 1 sowie ρ = 0 (links), ρ = 0.5 (mitte) und ρ = 0.9 (rechts). 4 Deskriptive Statistik 4.1 Grundbegriffe der Statistik Der Begriff Statistik wurde Ende des 17. Jahrhunderts geprägt für die verbale oder numerische Beschreibung eines bestimmten Staates oder den Inbegriff der Staatsmerkwürdigkeiten eines Landes oder Volkes (er hat dieselbe Wortwurzel wie Staat oder Staatsmann ). Heute hat dieser Begriff viele verschiedene Bedeutungen, z.b. für eine tabellarische oder grafische Darstellung von erhobenen Daten; einen Fachausdruck für eine Stichprobenfunktion; eine methodische Hilfswissenschaft zur quantitativen Untersuchung von Massenerscheinungen. Hier soll mit dem Begriff Statistik eine Zusammenfassung von Methoden verstanden werden, die zur zahlenmäßigen oder grafischen Analyse von Daten dienen soll, insbesondere im Zusammenhang mit Massenerscheinungen und zufallsbehafteten Vorgängen. Teilgebiete der Statistik Die beschreibende oder deskriptive Statistik behandelt zum Beispiel beschreibende Aussagen über statistische Daten, deren Veranschaulichung oder Möglichkeiten der Datenreduktion. Eng damit verwandt ist die explorative Datenanalyse, bei der zum Beispiel Daten auf Unstimmigkeiten hin untersucht werden oder Modellvorstellungen über die den Daten zugrundeliegenden Gesetzmäßigkeiten entwickelt werden. 47

48 Die Methoden der schließenden oder beurteilenden Statistik dienen zum Beispiel zur Ableitung von statistisch gesicherten Aussagen über die den Daten zugrunde liegenden Sachverhalte, etwa die Schätzung von Kenngrößen oder die Durchführung von statistischen Tests. Insbesondere in der schließenden Statistik werden Methoden verwendet, deren (Weiter-)Entwicklung und Begründung durch die mathematische Statistik erfolgt. Insgesamt bestehen enge Beziehungen zwischen Statistik und Wahrscheinlichkeitstheorie. Vorgehen bei statistischen Untersuchungen Studienplanung (Vorbereitung und Planung): u.a. mit der exakten Formulierung des Untersuchungsziels; der Festlegung der Art der Untersuchung, der Bestimmung der Stichprobengröße; der Klärung organisatorischer und technischer Fragen (z.b. über die Verwendung welcher Tests, Ein- bzw. Ausschlusskriterien); der Berücksichtigung der entstehenden Kosten. Durchführung (Erhebung, Datenerfassung): Man unterscheidet Primärdaten (die Daten werden eigens für den Untersuchungszweck erhoben mittels Vollerhebungen oder Teilerhebungen) bzw. Sekundärdaten (vorhandenes Datenmaterial wird genutzt). Erhebungsarten bei primärstatistischen Untersuchungen sind z.b. die schriftliche bzw. mündliche Befragung; die Beobachtung; das Experiment; die automatische Erfassung. Datenmanagement (Datenkontrolle und -aufbereitung): Hier können z.b. die Verkodierung, die Vorgehensweise mit Ausreißern oder Prüfungen zur sachlichen Richtigkeit (Plausibilität), Vollzähligkeit oder Vollständigkeit eine Rolle spielen. Analyse (Datenauswertung und-analyse): z.b. Beschreibung der Stichprobe (deskriptive Statistik); Schluss auf die Grundgesamtheit (schließende, induktive, analytische, beurteilende Statistik). Präsentation, Interpretation und Diskussion der Ergebnisse: z.b. zur Ableitung von Kernaussagen aus der Analyse der Daten. 48

49 Untersuchungseinheiten, Grundgesamtheit und Stichprobe Daten werden an gewissen Objekten (den Untersuchungseinheiten oder statistischen Einheiten) beobachtet, z.b. die Wirksamkeit eines Medikaments an Patienten; Lebensdauern an elektronischen Geräten; Ankunftsraten an Bahnkunden. Eine Untersuchungseinheit ist ein Einzelobjekt einer statistischen Untersuchung. Eine Grundgesamtheit ist eine Menge von Untersuchungseinheiten, für die vom Untersuchungsziel her eine Frage geklärt werden soll. Sie muss durch übereinstimmende Identifikationskriterien der betrachteten Untersuchungseinheiten zeitlich, räumlich und sachlich eindeutig abgegrenzt werden. Eine Stichprobe ist die Teilmenge der Grundgesamtheit, die bei einer statistischen Untersuchung (Teilerhebung) erfasst wird. Merkmale und Merkmalsausprägungen Eigentlich interessieren nicht die Untersuchungseinheiten selbst, sondern bestimmte Eigenschaften der Untersuchungseinheiten (sogenannte Merkmale). Z.B. interessiert nicht der Patient selbst, sondern ob oder wie das Medikament bei ihm wirkt; bei Umfragen interessiert nicht der Passant, sondern seine Meinung. Ein Merkmal ist eine Größe oder Eigenschaft einer Untersuchungseinheit, die auf Grund der interessierenden Fragestellung erhoben bzw. gemessen wird. Eine Merkmalsausprägung ist ein möglicher Wert, den ein Merkmal annehmen kann. Eine Untersuchungseinheit wird auch Merkmalsträger genannt. Beispiel Mietspiegel Nettomiete abhängig von Merkmalen wie Art: Altbau, Neubau,... ; Lage: Innenstadt, Stadtrand,... ; Größe: 40m 2, 95m 2,... ; Baujahr: }{{} 1932, 1965, 1983, 1995,.... }{{} Merkmale Ausprägungen In der Regel werden mehrere Merkmale an einem Merkmalsträger beobachtet; z.b. Merkmalsträger: Wetter zu einem bestimmten Zeitpunkt an einem bestimmten Ort; 49

50 Merkmale: Temperatur, Niederschlagsmenge, Luftdruck, Bewölkung, Luftfeuchtigkeit, Sicht,.... Merkmalsausprägungen müssen keine Zahlen sein, z.b. Bewölkung: wolkenlos, heiter, leicht bewölkt, wolkig, bedeckt,... ; Autofarbe: rot, grün, schwarz,.... Bezeichnungen und Klassifikationen von Merkmalen Bezeichnungen: Grundgesamtheit: Ω. Untersuchungseinheit: ω oder i. Merkmale: X, Y, Z oder auch X 1, X 2, X 3,.... Menge der Merkmalsausprägungen: S. Merkmalsausprägungen oder -werte: x = X(ω) oder x i = X(i). Mathematisch betrachtet ist ein Merkmal eine Funktion X : Ω S, die jeder Untersuchungseinheit die zugehörige Merkmalsausprägung zuordnet. Klassifikationen von Merkmalen: zum Beispiel qualitative Merkmale, Rangmerkmale und quantitative Merkmale; diskrete, stetige und spezielle Merkmale. Merkmalstypen Qualitatives Merkmal: es gibt weder eine natürliche Ordnung der Ausprägungen, noch ist es sinnvoll, Abstände oder Verhältnisse der Ausprägungen zu betrachten; Ausprägungen werden meist verbal beschrieben. Rangmerkmal: es gibt eine natürliche Ordnung der Ausprägungen, aber es ist nicht sinnvoll, Abstände oder Verhältnisse zu betrachten; Ausprägungen werden verbal oder durch ganze Zahlen beschrieben. Quantitatives Merkmal: Ausprägungen sind Zahlen, es gibt eine natürliche Ordnung, Abstände oder Verhältnisse sind interpretierbar. Diskretes Merkmal: Ausprägungen sind isolierte Zustände, die Menge der möglichen Ausprägungen ist höchstens abzählbar. Stetiges Merkmal: Ausprägungen (Werte) sind Zahlen, sie liegen dicht, zwischen je zwei Ausprägungen ist stets eine weitere möglich. Beachte: Jede praktische Messung bei stetigen Merkmalen ist durch die jeweilige Grenze der Messgenauigkeit bedingt diskret. 50

51 Merkmalstypen (Beispiele) Merkmal Ausprägungen Art Geschlecht m / w keine Ordnung qualitativ Automarke Fiat, Toyota,... keine Ordnung qualitativ Prüfungsnote 1, 2, 3, 4, 5 Ordnung, Rangmerkmal Abst. nicht interpr. Beliebtheit von sehr, mäßig, nicht Ordnung, Rangmerkmal Politikern Abst. nicht interpr. Anzahl Kinder 0, 1, 2, 3,... Ordnung, quantitativ, in einer Familie Abst. interpr., diskret keine Auspr. zw. 2 anderen mögl. Regenmenge 20mm, 50mm,... Ordnung, quantitativ, an einem Tag Abst. interpr., stetig Verhältn. interpr., zwischen 2 Auspr. immer weitere mögl. Skalenniveaus Je nach Art des Merkmals werden die Merkmalsausprägungen anhand verschiedener Skalen gemessen: Nominalskala (lat. nomen = Name); Ordinalskala (lat. ordinare = ordnen, auch Rangskala); Intervallskala; Verhältnisskala (auch Ratioskala, Rationalskala, Proportionalskala); Absolutskala. Intervall-, Verhältnis- und Absolutskala werden auch in dem Oberbegriff metrische Skala (oder Kardinalskala; griech. metron = Maß) zusammengefasst. Auch feinere oder andere Unterteilungen und spezielle Skalen werden genutzt. Nominalskala Die Merkmalsausprägungen entsprechen begrifflichen Kategorien. Es gibt keine natürliche Ordnungsrelation. Sind nur zwei Ausprägungen vorhanden, spricht man auch von dichotomen Merkmalen, z.b. Geschlecht ( männlich, weiblich ); Zustimmung ( Ja, Nein ). 51

52 Gibt es eine vor der Datenerhebung feststehende Einteilung der Grundgesamtheit in endlich viele disjunkte Klassen und wird jede Untersuchungseinheit eindeutig in eine der Klassen eingeordnet, spricht man auch von einer kategoriellen Skala. Die Ausprägungen heißen dann auch Kategorien oder Stufen des Merkmals. Beispiele sind Ordinalskala Familienstand ( ledig, verheiratet, geschieden, verwitwet ); Status ( Eigentümer, Hauptmieter, Untermieter ); Status ( Azubi, Geselle, Meister ); Behandlung ( Placebo, altes Medikament, neues Medikament ). Zwischen den Merkmalsausprägungen besteht eine natürliche Reihenfolge (Ordnungsrelation, Anordnung). Abstände zwischen zwei Ausprägungen (oder Quotienten) haben keine inhaltliche Bedeutung. Beispiele sind Höchster Schulabschluss ( Keiner, Hauptschule, Mittlere Reife, Hochschulreife ); Status ( Eigentümer, Hauptmieter, Untermieter ); Status ( Azubi, Geselle, Meister ); Bewertung ( gut, mittel, schlecht ). Eine Ordinalskala mit ganzzahligen Ordungsziffern (Rängen, Rangziffern), die mit 1 beginnend in ununterbrochener Reihenfolge hintereinander stehen, heißt auch Rangskala, z.b. Rangplätze in der Bundesliga. Intervallskala Merkmalsausprägungen (Merkmalswerte) sind reelle Zahlen. Neben der Ordnungsrelation zwischen den Merkmalsausprägungen lassen sich auch deren Abstände interpretieren. Es existiert allerdings ein willkürlich gesetzter Nullpunkt. Beispiel: Temperatur in C. Quotienten dürfen nicht gebildet werden, so ist z.b. die Aussage 20 C ist doppelt so warm wie 10 C sinnlos. Eine Intervallskala wird auch reelle Skala genannt. 52

53 Verhältnisskala Bei einer Verhältnisskala (auch ratio, positiv reell, relativen Skala) können nur positive Zahlen beobachtet werden. Zusätzlich zu den Eigenschaften der Intervallskala gibt es einen natürlichen Nullpunkt. Multiplikation und Division sind inhaltlich sinnvolle Operationen, der Quotient von zwei Werten ist inhaltlich sinnvoll (4 ist doppelt so groß wie 2). Beispiele: Gewichte, Längen. Bei stetigen Merkmalen in der relativen Skala kann man überlegen (und eventuell versuchen), durch Logarithmieren der Daten zu einer reellen Skala zu gelangen. Oft kann man dann zugrundeliegende Gesetzmäßigkeiten viel besser erkennen. Absolutskala Zusätzlich zu den Forderungen der Verhältnisskala ist neben dem natürlichen Nullpunkt hier auch eine natürliche Einheit zwingend vorgeschrieben. Dies ist zum Beispiel bei Merkmalen der Fall, wenn die Merkmalsausprägungen Anzahlen sind. Beispiel Anzahl von Kindern in einem Haushalt. Bemerkung Auch andere bzw. weitere Einteilungen und spezielle Skalen werden genutzt, z.b. die Anteilskala. Bei einer Variable in der Anteilskala (auch Wahrscheinlichkeitsskala) können nur Werte zwischen 0 und 1 beobachtet werden. Die Werte sind als Anteile interpretierbar. Durch die natürliche Beschränkung auf das Intervall [0, 1] können die Werte nicht beliebig addiert werden und der Rest bis zur 1 spielt immer eine Rolle. Sind nur kleine Anteile von Interesse, kann oft mit einer Ratio-Skala gearbeitet werden, sind auch größere Anteile wichtig, sollte man mit der Anteilskala rechnen. Das Problem der Repräsentativität Die Repräsentativität spielt für statistische Auswertungen und Aussagen eine sehr große Rolle. Dabei können unter anderem zwei Probleme bei Teilerhebungen von Bedeutung sein. Das Auswahlverfahren der Individuen aus der Grundgesamtheit (das Ziehen der Stichprobe). Dieses sollte so organisiert sein, dass 53

54 jedes Individuum die gleiche Chance hat, ausgewählt zu werden und dass die Individuen unabhängig voneinander ausgewählt werden. Zu beachten ist, dass zu jedem Individuum auch mehrere Merkmale beobachtet werden können. Die Erhebung einer Stichprobe aus Zufallsexperimenten. Dabei sollte gewährleistet sein, dass die Versuche unter gleichbleibenden Versuchsbedingungen durchgeführt werden und dass die Zufallsexperimente unabhängig voneinander durchgeführt werden. Auch in diesem Fall können mehrere Merkmale von Interesse sein. Verbundene Stichproben Liegen zwei oder mehr Stichproben vor, deren Werte einander paarweise zugeordnet sind, spricht man von einer gepaarten Stichprobe bzw. von verbundenen Stichproben. Diese entstehen zum Beispiel dann, wenn man zwei oder mehr Merkmale an einund demselben statistischen Objekt beobachtet. Beispiele: Messwerte für die Wirkungen jeweils zweier Medikamente für ein- und dieselben Patienten; Anzahl von Bestellungen einer Kundengruppe vor (1. Stichprobe) und nach (2. Stichprobe) einer Werbeaktion. Verbundene (mathematische) Stichproben werden durch unabhängige Zufallsvektoren (X 1, Y 1 ),..., (X n, Y n ) modelliert. Erste Analyseschritte für einen neuen Datensatz Eine Datenauswertung beginnt mit folgenden Analyseschritten: Wie liegen die Daten vor? Datenmatrix, Datentafel, unvorbereitet,.... Welche Variablen gibt es und was bedeuten sie? Dazugehörige Beschreibung beachten. Welche Skala haben die einzelnen Variablen? diskret: nominal, kategoriell, ordinal, Intervall, Anzahl; stetig: reell, ratio, Anteil, (Anzahlverstetigung, z.b. Preise); speziell: irgendwie anders. 54

55 Ein-, Zwei-, oder Mehrstichprobensituation, verbundene (gepaarte) oder gepoolte Größen in der Stichprobe? Eine Grundgesamtheit, zwei oder mehrere bzw. ein Zufallsexperiment, zwei oder mehrere? Was sind die Grundgesamtheiten? Welche wünschen wir uns? Für welche sind die Daten wohl repräsentativ? Sind die Daten für die Grundgesamtheit repräsentativ? Wie sind die Daten zustandegekommen, gab es eine unabhängige und gleichwahrscheinliche Auswahl der statistischen Individuen und/oder unabhängige Zufallsexperimente unter gleichbleibenden Bedingungen, so dass die Variablen als unabhängig und identisch verteilt angesehen werden können? Nutzung von Statistik-Computerprogrammen Statistische Untersuchungen werden heutzutage im Allgemeinen unter Verwendung von Statistik-Computerprogrammen durchgeführt. Im Rahmen dieser Vorlesung werden entsprechende Vorgehensweisen mit Hilfe des Programmpakets R illustriert. Es können natürlich nicht alle Details im Zusammenhang mit diesem Programmpaket in den Übungen geübt werden, deshalb sind hier selbstständige Bemühungen wünschenswert. Die Interpretation der Ausgabeinformationen der Computerprogramme und die prinzipielle Vorgehensweise (die Schritte, die nacheinander und in Abhängigkeit von bereits erzielten Ergebnissen durchzuführen sind) sind jedoch Bestandteil der Vorlesung und auch der Übung und gehören zum Prüfungsstoff. Das Programmpaket R R ist ein freies Statistik-Softwarepaket. Es kann unter kostenlos heruntergeladen werden. R ist ein kommandozeilenorientiertes Programm. Man gibt Befehle ein, die sofort ausgeführt werden und oft Ausgabeinformationen erzeugen. Mit Hilfe von Skripten können aufeinanderfolgende Befehlsketten zur Verarbeitungen vorbereitet und dann jedes Mal bei Bedarf ausgeführt werden. Durch die Mitarbeit vieler Personen wächst der Umfang der Programme und damit der Umfang der mit R bearbeitbaren Probleme ständig. 55

56 Beispieldatensatz Iris Der Datensatz enthält Werte von jeweils 50 Blumen von 3 Blumenarten Iris setosa (Borsten-Schwertlilie), Iris versicolor (Schwertlilie) und Iris virginica (Virginische oder Blaue Sumpfschwertlilie). Zu jeder Blume wurden jeweils die folgenden Informationen erhoben: die Länge des Kelchblattes in cm ( Sepal.Length ); die Breite des Kelchblattes in cm ( Sepal.Width ); die Länge des Blütenblattes in cm ( Petal.Length ); die Breite des Blütenblattes in cm ( Petal.Width ); die Blumenart ( Species ). Die Daten können in R wie folgt geladen werden: > data(iris). Informationen zum Datensatz erhält man in R durch > help(iris). Datenmatrix als Darstellungsform für statistische Daten Eine Darstellung der von den Untersuchungseinheiten erhobenen gleichartigen Daten in einer Tabelle mit Zeilen und Spalten ist eine Datenmatrix. Von jeder Untersuchungseinheit werden die gleichen Merkmale erhoben. Die Informationen zu einer Untersuchungseinheit werden in einer Zeile dargestellt. Die zu den einzelnen Zeilen gehörenden Individuen bezeichnet man auch als Fälle und die zugehörigen Daten (individuelle) Datensätze. Die zu einem Merkmal gehörende Information wird jeweils in einer Spalte dargestellt. Die Spalten bezeichnet man auch als Variable und die Spaltenüberschrift als den Namen der Variable. Am Schnittpunkt der i ten Zeile mit der j ten Spalte ist also der Beobachtungswert x ij für die j te Variable beim i ten Individuum eingetragen. Zur modellbasierten Analyse werden die Werte x ij als Realisierungen von Zufallsgrößen X ij angesehen. Datenliste Gibt es nur Beobachtungen zu einem Merkmal, können die Beobachtungswerte in einer Datenliste angegeben werden. Beispiel: R-Datensatz morley (Lichtgeschwindigkeitsmessungen) > data(morley) > help(morley) 56

57 > morley > lightspeeds=morley$speed > lightspeeds[1:20] [1] [8] [15] Datentafel Die Datentafel ist eine alternative Darstellung der Daten zur Datenmatrix, wenn nur diskrete Merkmale auftreten und die statistische Information durch Anzahlen von Untersuchungseinheiten angegeben werden kann. Eine Datentafel enthält die Anzahl der Untersuchungseinheiten mit der gegebenen Faktorkombination in der jeweiligen Zelle. Beispiel Datentafel für Datensatz Titanic Ein Beispieldatensatz in R ist der Datensatz Titanic : > data(titanic) > help(titanic) > Titanic > ftable(titanic,col.vars=c("class","survived")) Class 1st 2nd 3rd Crew Survived No Yes No Yes No Yes No Yes Sex Age Male Child Adult Female Child Adult Grafiken und statistische Maßzahlen (Kenngrößen, Parameter) für Daten Grafiken und statistische Maßzahlen dienen dazu, einen Überblick über die vorliegenden Daten zu erhalten, Vorstellungen über mögliche zugrundeliegende Verteilungen, Eigenschaften oder Besonderheiten zu entwickeln oder einfache Beschreibungen der Daten mit wenigen, möglichst aussagekräftigen Kenngrößen zu ermöglichen. In Abhängigkeit von den Skalenniveaus und anderen Eigenschaften der Daten (wie z.b. univariate, bivariate oder multivariate Datensätze) können unterschiedliche Grafiken und Kenngrößen genutzt werden. 57

58 Im Rahmen dieser Vorlesung werden nicht alle Möglichkeiten vorgestellt, sondern nur eine Auswahl von häufiger verwendeten bzw. aussagekräftigen Grafiken und Maßzahlen. Fragestellungen im Zusammenhang mit den Grafiken Für welche Daten eignet sich die Grafik? Wie ist die Grafik aufgebaut? Wie interpretiert man die Grafik? Welche Informationen kann die Grafik liefern und warum? Welche Informationen kann die Grafik nicht liefern und warum? Versucht man mit einer vorliegenden Grafik zu täuschen, etwas bestimmtes zu suggerieren? (Zitat, zu finden z.b. in Benesch, Schlüsselkonzepte zur Statistik, Springer, 2013, S.2: Die Statistik ist dem Politiker, was die Laterne dem Betrunkenen ist: Sie dient zum Festhalten, nicht der Erleuchtung. ; siehe dazu zum Beispiel auch die Unstatistiken des Monats unter Grafiken für univariate stetige Daten (a) Punktdiagramm Ein Punktdiagramm kann für ein stetiges Merkmal erstellt werden. Dabei werden die Beobachtungswerte durch Punkte auf einem geeigneten Abschnitt der reellen Zahlengeraden markiert. Man erhält einen Überblick über den Bereich, in dem Beobachtungswerte liegen und wie stark sie streuen. Teilweise kann man Teilbereiche erkennen, in denen sich die Beobachtungswerte häufen oder seltener vorkommen. Ebenfalls kann man sehr große oder sehr kleine Beobachtungswerte, die von der Masse der Werte relativ weit entfernt sind und eventuell als Ausreißer zu behandeln sind, erkennen. Die Zusatzinformationen zum Datensatz muss ggf. mit genutzt werden (falls Daten transformiert sind etc.). 58

59 Punktdiagramm für Datensatz morley > data(morley) > lightspeeds=morley$speed > stripchart(lightspeeds, main="punktdiagramm Lichtgeschwindigkeitsmessungen") Punktdiagramm Lichtgeschwindigkeitsmessungen Probleme mit Punktdiagrammen Zusammenfallende oder sehr nah beieinander liegende Beobachtungswerte sind im Diagramm nicht mehr unterscheidbar, so dass Punkte durch Überdeckung verloren gehen können. Dieses Problem kann man beheben, indem man die Punktpositionen in die ungenutzte Richtung (vertikal bei horizontalen Punktdiagrammen) durch systematisches Stapeln (gestapeltes Punktdiagramm) oder durch zufälliges Verzittern (verzittertes Punktdiagramm) verschiebt. Ein verzittertes Punktdiagramm sieht nach jedem Neuzeichnen anders aus. Beim gestapelten Punktdiagramm können Muster vorgegaukelt werden, die aber nur sehr zufällig und damit wenig aussagekräftig sind. Die Verteilung der Punkte kann nicht immer gut erfasst werden. Gestapeltes Punktdiagramm für Beispiel > stripchart(lightspeeds,method="stack", main="gestapeltes Punktdiagramm Lichtgeschwi 59

60 Gestapeltes Punktdiagramm Lichtgeschwindigkeitsmessungen Verzittertes Punktdiagramm für Beispiel > stripchart(lightspeeds,method="jitter", main="verzittertes Punktdiagramm Lichtgeschwindigkeitsmessungen") Verzittertes Punktdiagramm Lichtgeschwindigkeitsmessungen

61 (b) Histogramm Ausgangspunkt ist eine Klasseneinteilung der Beobachtungswerte. Dazu wird ein Intervall, in dem alle Beobachtungswerte liegen, in eine endliche Anzahl disjunkter Teilintervalle, die sogenannten Klassen oder Gruppen zerlegt. Jede Klasse ist dann eindeutig durch die Klassenmitte und die Klassenbreite bzw. durch die untere und obere Klassengrenze bestimmt. Die Anzahl der Klassen sollte nicht zu klein und nicht zu groß sein. Die Klassenbreiten sollten übereinstimmen (ggf. mit Ausnahme der Randklassen). Nach Festlegung einer Klasseneinteilung werden die absoluten Klassenhäufigkeiten bestimmt, d.h. für jede Klasse wird die Anzahl der Beobachtungswerte in der Klasse gezählt. Dann werden in einem Koordinatensystem aneinanderstoßende Rechtecke mit Flächeninhalten proportional zur Klassenhäufigkeit und Klassenintervallen als Basis gezeichnet. Histogramm für Beispiel Lichtgeschwindigkeiten > hist(lightspeeds) Histogram of lightspeeds Frequency lightspeeds 61

62 Histogramm und gestapeltes Punktdiagramm für Beispiel > hist(lightspeeds) > stripchart(lightspeeds,method="stack",add=t,col=2) Histogram of lightspeeds Frequency lightspeeds Histogramm mit 3 Klassen und Beispielpunktdiagramm > b=c(299600,299800,300000,300200) > hist(lightspeeds,breaks=b) > stripchart(lightspeeds,method="stack",add=t,col=2) 62

63 Histogram of lightspeeds Frequency lightspeeds Histogramm mit 50 Klassen und Beispielpunktdiagramm > b=c(seq(299600,300100,by=10)) > hist(lightspeeds,breaks=b) > stripchart(lightspeeds,method="stack",add=t,col=2) Histogram of lightspeeds Frequency lightspeeds 63

64 Bemerkungen zu Histogrammen Die Gestalt eines Histogramms hängt stark von der gewählten Klasseneinteilung (und auch des gewählten Gesamtintervalls) ab, deshalb sollte man ggf. etwas experimentieren, um ein möglichst aussagekräftiges Histogramm zu erzeugen. Durch die Klasseneinteilung geht Information verloren. Man kann ggf. Ausreißer am linken oder rechten Rand erkennen. Man kann eventuell Verteilungseigenschaften, wie Symmetrie oder Schiefe, erkennen (oder erahnen). Bei übereinstimmenden Klassenbreiten sind die Höhen der Rechtecke proportional zu den Häufigkeiten. Statt der absoluten Häufigkeiten können die Höhen der Rechtecke auch so normiert werden, dass der Gesamtflächeninhalt unter allen Rechtecken gleich 1 ist. Dann ist ein (meist nicht sehr belastbarer) Vergleich mit einer Verteilungsdichte möglich. Beispielhistogramm mit Normalverteilungsdichteschätzung > hist(lightspeeds,freq=f) > curve(dnorm(x,mean(lightspeeds),sd(lightspeeds)),add=t,col=2) Histogram of lightspeeds Density lightspeeds 64

65 4.2.2 Grafiken für univariate diskrete Daten (a) Balkendiagramm Bei Balkendiagrammen werden die Anzahlen der Beobachtungswerte in den einzelnen Kategorien (Klassen) durch gleich breite Balken flächen- und auch höhenproportional dargestellt. Im Unterschied zum Histogramm für stetige Daten haben die Balken beim Balkendiagramm einen Abstand, um den diskreten Charakter der Daten zu unterstreichen. Sowohl beim Histogramm als auch beim Balkendiagramm werden aber Häufigkeiten oder Anteile flächenproportional dargestellt. Bei der Anzeige ordinaler Daten sollte die Reihenfolge der Balken der natürlichen Ordnung der Merkmalsausprägungen entsprechen. Beispiel Datensatz Titanic R Befehle Funktion zur Gewinnung von Summenanzahlen z.b. > margin=function(x,...) apply(x,pmatch(c(...),names(dimnames(x))), sum) > margin(titanic,"survived") No Yes Erzeugung der Balkendiagramme > opar=par(mfrow=c(1,3)) > barplot(margin(titanic,"survived"),main="survived") > barplot(margin(titanic,"sex"),main="sex") > barplot(margin(titanic,"class"),main="class") > par(opar) 65

66 Balkendiagramme im Beispiel Titanic Survived Sex Class No Yes Male Female 1st 2nd 3rd Crew (b) Kreisdiagramm Die Anzahlen (oder Anteile) der Beobachtungswerte in den einzelnen Kategorien (Klassen) können ggf. auch durch ein Kreisdiagramm (Tortendiagramm, Kuchendiagramm) flächenproportional (hier auch winkelproportional) dargestellt werden. R Befehle zur Erzeugung der Kreisdiagramme im Beispiel: > opar=par(mfrow=c(1,3)) > pie(margin(titanic,"survived"),main="survived") > pie(margin(titanic,"sex"),main="sex") > pie(margin(titanic,"class"),main="class") > par(opar) 66

67 Beispielkreisdiagramme Survived Sex Class No Male 3rd 2nd 1st Yes Female Crew Kenngrößen und Parameter zur Beschreibung univariater Daten Lageparameter Mittelwerte (arithmetisch, geometrisch, harmonisch) empirischer Median empirische Quantile (Quartile, Dezentile,... ) Variabililitätsparameter (Streuparameter) empirische Varianz empirische Standardabweichung Spannweite empirischer (Inter-)Quartilsabstand IQR empirischer Variationskoeffizient empirische geometrische Standardabweichung 67

68 Formparameter empirische Schiefe empirische Wölbung (a) Arithmetischer Mittelwert ist der arithmetische Mittelwert de- Für reelle Beobachtungswerte x 1, x 2,..., x n finiert durch x = 1 n n x i = 1 n (x 1 + x x n ). i=1 In der Statistik wird er als Realisierung des Stichprobenmittelwerts (eine spezielle Stichproben- oder Schätzfunktion) X = 1 n n X i = 1 n (X 1 + X X n ) i=1 einer mathematischen Stichprobe (X 1, X 2,..., X n ) (unabhängige und identisch verteilte Zufallsgrößen) betrachtet. Unter geeigneten Voraussetzungen liefert er eine erwartungstreue und konsistente Schätzfunktion für den Erwartungswert der X i : ÊX = X. Unterschied zwischen konkreter und mathematischer Stichprobe Liegen n beobachtete Werte x 1,..., x n eines Merkmals X vor, so bilden diese eine konkrete Stichprobe vom Umfang n. Man betrachtet jeden beobachteten Wert x i als Realisierung einer Zufallsgröße X i, wobei die X i (i = 1,..., n) alle unabhängig und identisch verteilt (engl.: i.i.d.) mit F Xi = F X seien. Die Zufallsgröße X i beschreibt also das zufällige Ergebnis der i-ten Messung, des i-ten Zufallsexperiments oder der i-ten Auswahl eines Merkmalsträgers, je nachdem wie die konkrete Stichprobe zustande gekommen ist. Die Zufallsgrößen X 1,..., X n bilden die mathematische Stichprobe. Arithmetischer Mittelwert in R Der Befehl in R zur Berechnung des (arithmetischen) Mittelwertes ist mean(). > mean(lightspeeds) [1]

69 Histogram of lightspeeds Ein Histogramm mit Mittelwertslinie kann dann z.b. so erzeugt werden: > hist(lightspeeds) > abline(v=mean(lightspeeds),col=2) Frequency lightspeeds (b) Geometrischer Mittelwert Für nichtnegative reelle Beobachtungswerte (einer ratio-skala) x 1, x 2,..., x n der geometrische Mittelwert definiert durch x G = n n x i = (x 1 x 2... x n ) 1 n. i=1 ist Bemerkung: Es gilt immer x G x. Anwendung findet er zum Beispiel, wenn eine logarithmische Skala (Transformation) sinnvoll ist oder die Merkmalsausprägungen relative Änderungen sind, so bei der Mittelung von Wachstumsfaktoren. In R kann man die Exponentialfunktion zur Berechnung von geometrischen Mittelwerten nutzen: ( ) 1 n x G = exp ln(x i ). n Beispiel zum geometrischen Mittelwert Beispiel: Zeitpunkt Zustandswert Merkmalswert=Wachstumsfaktor x 1 = 0.81 x 2 = x G = aber x = (obwohl insgesamt keine Änderung des Zustandswerts zum Ausgangszeitpunkt vorliegt). In R ergibt zum Beispiel: > x=c(81/100,100/81) > exp(mean(log(x))) 69 i=1

70 [1] 1 > mean(x) [1] Bemerkung: des Vektors x. log(x) berechnet in R den Vektor der natürlichen Logarithmen (c) Harmonischer Mittelwert In manchen Situationen ist für nur positive (oder nur negative) Beobachtungswerte x 1, x 2,..., x n der harmonische Mittelwert x H = n n besser geeignet, so z.b. bei Mittelwertbildung von Verhältniszahlen (bei gleichem Zähler) wie Durchschittsgeschwindigkeiten (gleichlange Teilstrecken) oder Durchschnittspreisen (gleiche Geldbeträge). i=1 Gilt x i > 0 für alle i = 1,..., n, dann gilt immer 1 x i x H x G x. Im Fall von x 1 = x 2 =... = x n = x > 0 erhält man Beispiel zum harmonischen Mittelwert x H = x G = x = x. Beispiel: Konstante Geschwindigkeiten auf jeweiligen Teilstrecken Teil-/Gesamtstrecke Streckenlänge in km Zeit in h Geschwindigkeit in km/h x 1 = 50 x 2 = = x H = = 66.66, aber x = 75 und x G = In R (ab dem Zeichen # beginnt ein Kommentar): > x=c(50,100) > 1/mean(1/x) # Harmonisches Mittel [1] > mean(x) # Arithmetisches Mittel [1] 75 > exp(mean(log(x))) # Geometrisches Mittel [1]

71 (d) Empirischer Median Der empirische Median oder Zentralwert der Beobachtungsreihe x 1, x 2,..., x n ist dadurch gekennzeichnet, dass jeweils 50 % der Beobachtungswerte einen Wert größer oder gleich bzw. kleiner oder gleich dem empirischen Median annehmen. Sind x (1) x (2)... x (n) die der Größe nach geordneten Beobachtungswerte, kann der (empirische) Median x bestimmt werden durch x ( n+1 2 ), falls n ungerade, x = Beispiele zum empirischen Median 1 2 ( x ( n 2 ) + x ( n 2 +1) ), falls n gerade. Beobachtungswerte 4, 5, 1, 3, 6, 7, 8 n = 7, x = 5, x = Beobachtungswerte 4, 5, 1, 3, 6, 7 n = 6, x = 4.5, x = Beobachtungswerte 4, 5, 1, 3, 6, 7, 800 n = 7, x = 5, x = 118. Der Median ist weniger empfindlich gegenüber Ausreißern in der Beobachtungsreihe, d.h. Werte, die weit von den übrigen entfernt liegen, beeinflussen den Median nicht (oder kaum). Dies trifft auf den arithmetischen Mittelwert im Allgemeinen nicht zu. In R: > median(lightspeeds) [1] Der Median kann sogar für Daten auf einer nur ordinalen Skala genutzt werden (wenn z.b. die Addition, die zur Bildung des arithmetischen Mittelwerts notwendig ist, gar keinen Sinn macht). Histogramm mit Mittelwert (rot) und Median (blau) > hist(lightspeeds) > abline(v=mean(lightspeeds),col=2) > abline(v=median(lightspeeds),col=4) 71

72 Histogram of lightspeeds Frequency lightspeeds (e) Empirische Quantile Ein Ordnen der Datenreihe x 1, x 2,..., x n der Größe nach ergibt die geordnete Datenreihe (geordnete Stichprobe, Variationsreihe) x min := x (1) x (2)... x (n 1) x (n) =: x max. Andere Bezeichnungen für die Variationsreihe sind x 1 x 2... x n x 1:n x 2:n... x n:n. oder Das empirisches p Quantil mit 0 < p < 1 ist ein Zahlenwert ˆx p (oder bezeichnet mit x p ) für den gilt, dass p 100% der Werte in der Variationsreihe kleiner oder gleich ˆx p und (1 p) 100% der Werte größer oder gleich ˆx p sind. x (k), falls np keine ganze Zahl ist, k ist ˆx p = dann die auf np folgende ganze Zahl; ( ) x(k) + x (k+1), falls np =: k eine ganze Zahl ist. Beispiel zu empirischen Quantilen Beobachtungswerte: 1, 3, 7, 2, 20, 9, 15, 2, 11, 10. Variationsreihe: Quantil : p = 0.05, np = 0.5 k = 1, ˆx 0.05 = x (1) = Quantil : p = 0.10, np = 1 = k ˆx 0.05 = 1 2 (x (1) + x (2) ) =

73 0.20 Quantil : p = 0.20, np = 2 = k ˆx 0.20 = 1 2 (x (2) + x (3) ) = Quantil : p = 0.25, np = 2.5 k = 3, ˆx 0.25 = x (3) = Quantil : p = 0.50, np = 5 = k ˆx 0.50 = 1 2 (x (5) + x (6) ) = 8 = x. Spezielle Quantile Das 0.5 Quantil ist der Median. Das 0.25 Quantil heißt auch unteres oder erstes Quartil (oder auch unterer Viertelwert). Das 0.75 Quantil heißt auch oberes oder drittes Quartil (oder auch oberer Viertelwert). Das n Quantil mit n {1, 2, 3, 4, 5, 6, 7, 8, 9} heißt auch n tes Dezentil. 10 Als 0 Quantil kann man das Minumum x min = x (1) Als 1 Quantil kann man das Maximum x max = x (n) ansehen. ansehen. Berechnung von Quantilen mit R Der Befehl quantile() erzeugt als Ausgabe eine Tabelle mit Werten für das Minimum, das Maximum, den Median und die Quartile. Damit die Quantile nach der oben angegebenen Formel berechnet werden, muss type=2 angegeben werden. Beispiel: > quantile(lightspeeds,type=2) 0% 25% 50% 75% 100% > quantile(lightspeeds) 0% 25% 50% 75% 100% Sollen für bestimmte Niveaus p die zugehörigen Quantile berechnet werden, können diese dem Befehl mit übergeben werden. 73

74 Beispiele: > quantile(lightspeeds,c(0.1,0.2,0.3)) 10% 20% 30% > quantile(lightspeeds,c(0.1,0.2,0.3),type=2) 10% 20% 30% > quantile(lightspeeds,seq(0.85,0.95,0.05)) 85% 90% 95% > quantile(lightspeeds,seq(0.85,0.95,0.05),type=2) 85% 90% 95% (f) Empirische Varianz Für reelle Beobachtungswerte x 1, x 2,..., x n ist die empirische Varianz ( s 2 = 1 n n ) (x i x) 2 = 1 x 2 i nx 2. n 1 n 1 i=1 In der Statistik wird sie als Realisierung des Stichprobenvarianz S 2 = 1 n 1 i=1 n (X i X) 2 i=1 einer mathematischen Stichprobe (X 1, X 2,..., X n ) betrachtet. Diese liefert unter geeigneten Voraussetzungen durch die Wahl des Nenners n 1 eine erwartungstreue und konsistente Schätzfunktion für die Varianz der Zufallsgrößen X i : VarX = S 2. Exkurs zur Parameterschätzung Es wird eine Annahme über die den Beobachtungen zugrunde liegende Verteilung getroffen, z.b. X N(µ, σ 2 ) oder X B(p). Ein unbekanter Parameter ϑ der Verteilung soll aus den Daten geschätzt werden. Als Schätzfunktion verwendet man eine geeignete Funktion der mathematischen Stichprobe (Stichprobenfunktion) ϑ n = f(x 1,..., X n ). 74

75 Wünschenschenswerte Eigenschaften einer Schätzfunktion sind: Erwartungstreue: E ϑ n = ϑ (im Mittel trifft die Schätzung den wahren Parameter); Konsistenz: lim n ϑn = ϑ (die Schätzung konvergiert gegen den wahren Parameterwert mit wachsendem Stichprobenumfang). (g) Empirische Standardabweichung So wie die (theoretische) Standardabweichung einer Zufallsgröße als Quadratwurzel aus der Varianz definiert wird, ist die empirische Standardabweichung die Quadratwurzel aus der empirischen Varianz: s = s 2 = 1 n (x i x) n 1 2. Sowohl die empirische Varianz als auch die empirische Standardabweichung sind empfindlich gegenüber Ausreißern. Beide Maßzahlen können nur bei bestimmten Verteilungen, wie z.b. der Normalverteilung, gut interpretiert werden. Bei Merkmalswerten mit (physikalischen etc.) Maßeinheiten kommt bei der empirischen Varianz diese Maßeinheit im Quadrat vor, bei der empirischen Standardabweichung die Maßeinheit selber. (h) Spannweite Die Spannweite (oder Variationsbreite) ist die Differenz der extremalen Werte, i=1 = x max x min = x (n) x (1). Sie gibt folglich die Länge des kleinsten Intervalls an, in das alle Beobachtungswerte fallen. Die Spannweite ist empfindlich gegenüber Ausreißern, da sie nur von den extremen Werten abhängt. Berechnung der bisher behandelten drei Streumaße in R: > var(lightspeeds) # empirische Varianz [1] > sd(lightspeeds) # empirische Standardabweichung [1] > max(lightspeeds)-min(lightspeeds) # Spannweite [1]

76 (i) Empirischer Interquartilsabstand Der empirische Interquartilsabstand ist die Differenz des oberen und des unteren Quartils, IQR(x) = ˆx 0.75 ˆx Da die sehr großen und sehr kleinen Beobachtungswerte bei der Berechnung des Interquartilsabstands keine Rolle spielen, ist er relativ unempfindlich gegenüber Ausreißern. In dem Intervall der Länge des Interquartilabstandes vom unteren zum oberen Quartil liegt die Hälfte der Beobachtungswerte. Beispielberechnung in R: > IQR(lightspeeds) [1] 85 > IQR(lightspeeds,type=2) [1] 90 (j) Empirischer Variationskoeffizient Für Merkmalswerte in der Verhältnisskala können Streumaße durch Quotientenbildung in Bezug zu Lagemaßen gebracht werden. Dadurch entstehen einheitenlose Maßzahlen, die z.b. zum Vergleich unterschiedlicher Daten genutzt werden können. Der empirische Variationskoeffizient ist definiert durch v(x) = s x, er ist eine Schätzung für den theoretischen Variationskoeffizienten. Beispielberechnung in R: > sd(lightspeeds)/mean(lightspeeds) [1] (k) Geometrische Standardabweichung Die (theoretische) geometrische Standardabweichung einer positiven Zufallsgröße X ist definiert durch ( ) exp Var (ln(x)), den entsprechenden empirischen Wert für eine Datenreihe dazu erhält man, in dem man die Standardabweichung durch die empirische Standardabweichung ersetzt. Beispielberechnung in R: > exp(sd(log(lightspeeds))) [1]

77 (l) Schiefe (engl. skewness ) als Formparameter Oft spielt auch die Form z.b. der Verteilungsdichte bei Untersuchungen oder bei der Modellierung eine Rolle. Die Schiefe der Zufallsvariablen X wird definiert als E(X EX)3. (VarX) 3/2 n ( ) 3 xi x. Die empirische Schiefe für eine konkrete Stichprobe x 1,..., x n ist 1 n Rechtsschief (oder linkssteil) ist eine Verteilung, wenn die Dichte nach rechts hin langsamer ausläuft, dann ist der Schiefeparameter positiv. Analog ist der Schiefeparameter bei linksschiefen (bzw. rechtssteilen) Verteilungen negativ. Eine Rolle spielt häufig auch, ob eine Dichtefunktion (oder Häufigkeitsverteilung) ein ausgeprägtes Maximum ( eingipflige Verteilung ), oder mehrere derartige Maxima ( mehrgipflige Verteilung ) besitzt oder keine dieser Situationen vorliegt. (m) Wölbung und Exzess als Formparameter Die Wölbung oder Kurtosis ist eine Maßzahl für die Steilheit oder Spitzigkeit einer eingipfligen Dichtefunktion. Verteilungen mit geringer Wölbung streuen relativ gleichmäßig; bei Verteilungen mit hoher Wölbung resultiert die Streuung mehr aus extremen, aber seltenen Ereignissen. i=1 s Die Wölbung der Zufallsgröße X ist 1 n ( ) 4 xi x. n s i=1 E(X EX)4 (VarX) 2, die empirische Wölbung E(X EX)4 Der Exzess (auch: Überkurtosis) ist definiert als (VarX) 2 Vergleich mit der Wölbung einer Normalverteilung. 3, so erfolgt ein Eingipflige Verteilungen mit einem positiven Exzess haben im Vergleich zur Normalverteilung spitzere Verteilungen ( steilgipflig im Gegensatz zu normalgipflig bzw. flachgipflig ). Grafik einer zweigipfligen Verteilung Mehrgipflige Verteilungen ergeben sich zum Beispiel oft durch Mischungen mehrerer eingipfliger Verteilungen. Im Beispiel wurde eine Normalverteilung mit Erwartungswert - 5 und Varianz 1 (Dichte f 1 ) mit einer solchen mit Erwartungswert 5 (Dichte f 2 ) gemischt, die Dichte der gemischten Zufallsgröße ist hier f = 0.5f f 2. 77

78 Grafiken zur Schiefe und zum Exzess links: Dichte ein lognormalverteilten Zufallsgröße exp(x) mit X N(0, ) : rechtsschiefe Verteilung mit Schiefe 1.75 ; rechts: Dichte einer Normalverteilung und einer t Verteilung mit 5 Freiheitsgraden, Erwartungswerte 0 ; Varianzen 5, Exzess Normalverteilung: 0, t Verteilung : Weitere Grafiken für univariate stetige Daten (a) Box-Plots Ein Box-Plot (Box-Whisker-Plot, Kasten-Diagramm) ist eine aussagekräftige grafische Darstellung der Fünfer-Charakteristik, bestehend aus Median x = ˆx 0.5, den empirischen Quartilen (Viertelwerten) ˆx 0.25 und ˆx 0.75 und den Ausreißergrenzen A u, A o. Die Ausreißergrenzen werden dabei definiert durch A u = ˆx IQR(x) und A o = ˆx IQR(x). 78

79 Dies betrifft die sogenannten inneren Zäune ; ( inner fences ) für manche Fragen verwendet man auch die sogenannten äußere Zäune ( outer fences ), definiert durch ±3 IQR(x). Die Grenzen für die Box ( hinges, Tukeys Scharniere (Türangel)) werden durch das untere und das obere Quartil bestimmt. Eine gerade Linie kennzeichnet innerhalb der Box den Median. Die untere Begrenzungslinie wird dabei nicht durch die untere Ausreißergrenze definiert, sondern durch den kleinsten Beobachtungswert, der A u ist. Analog wird die obere Begrenzungslinie definiert durch den größten Beobachtungswert, der A o ist. Diese Grenzen heißen auch Whisker-Grenzen ( whisker : Schnurrhaare der Katze). Ausreißer (d.h. Datenwerte außerhalb der Ausreißergrenzen) werden extra durch Punkte angegeben. Erzeugung von Box-Plots in R Beispielhaft in R: > boxplot(lightspeeds) erzeugt ein vertikales Box-Plot vom Datensatz lightspeeds, ein horizontales Box- Plot wird erzeugt durch > boxplot(lightspeeds,horizontal=true) Die Kenngrößen in diesem Datensatz waren: Median x = ˆx 0.5 = ; unteres Quartil ˆx 0.25 = ; oberes Quartil ˆx 0.75 = ; Quartilsabstand IQR(x) = 90 ; untere Ausreißergrenze obere Ausreißergrenze A u = ˆx IQR(x) = ; A o = ˆx IQR(x) = Vertikales Box-Plot für Beispiel Lichtgeschwindigkeiten > boxplot(lightspeeds,main="box-plot Lichtgeschwindigkeiten") 79

80 Box Plot Lichtgeschwindigkeiten Horizontales Box-Plot für Beispiel Lichtgeschwindigkeiten > boxplot(lightspeeds,horizontal=t, main="box-plot Lichtgeschwindigkeiten") Box Plot Lichtgeschwindigkeiten

81 Horizontales Box-Plot mit Punktdiagramm für Beispiel > boxplot(lightspeeds,horizontal=t, main="box-plot Lichtgeschwindigkeiten") > stripchart(lightspeeds,method="stack",col=2,add=true) Box Plot Lichtgeschwindigkeiten Daten für Box-Plots in R Die Zahlenwerte für das Box-Whisker-Plot, aus denen sich die grafische Darstellung ergibt, können durch den Funktionsaufruf boxplot()$stats abgefragt werden. Im Beispiel: > boxplot(lightspeeds)$stats [,1] [1,] [2,] [3,] [4,] [5,] Gekerbte Box-Whisker-Plots Als zusätzliche Information werden manchmal zusätzlich Kerben ( notches ) zur Kennzeichnung eines 95%-Konfidenzintervalles für den Median (unter Normalverteilungsannahme berechnet) mit eingezeichnet. 81

82 Ein 95%-Konfidenzintervall für den Median ist dabei ein zufälliges Intervall, welches unter der bestimmten Verteilungsannahme den tatsächlichen oder wahren Median mit einer Wahrscheinlichkeit von 0.95 überdeckt. Für vorliegende Beobachtungswerte kann dann ein konkretes Intervall berechnet werden. In R kann ein solches gekerbtes Box-Plot durch den zusätzlichen Parameter notch=true im Befehl boxplot() erzeugt werden. Die Zahlenwerte dazu können mit boxplot()$conf abgefragt werden. Gekerbtes Box-Plot für Beispiel Lichtgeschwindigkeiten > boxplot(lightspeeds,main="box-plot Lichtgeschwindigkeiten", notch=true) > boxplot(lightspeeds)$conf [,1] [1,] [2,] gekerbtes Box Plot Lichtgeschwindigkeiten Weitere Bemerkungen zu Box-Plots Mit Box-Plots können Informationen gewonnen werden über die Lage der Daten (durch den Median); die Streuung der Daten (durch den Interquartilsabstand); besondere Werte (durch die extra Angabe der Ausreißer); den Bereich der Datenwerte (durch die Zäune und die extra Angabe der Ausreißer); ggf. die Symmetrie (Symmetrie in der Box und den Zäunen). 82

83 Die folgenden Details können zum Beispiel im Allgemeinen nicht aus einem Box- Plot abgelesen werden: die Anzahl der Beobachtungen; Bindungen oder Werthäufungen; Mittelwert und empirische Varianz; die allgemeine Verteilungsform. Bei einer kleinen Anzahl von Beobachtungswerten sind Box-Plots nicht sehr aussagekräftig. (b) Q-Q-Plots Ein Q-Q-Plot oder (empirisches) Quantile-Quantile-Plot dient z.b. zum Vergleich der Beobachtungswerte x 1,..., x n mit einer theoretischen Verteilung. Dazu werden in ein kartesisches Koordinatensystem in der Ebene Punkte mit theoretischen Quantilen x p als Abszissenkoordinaten (x-werte) und empirischen Quantilen ˆx p (oder den Werten der geordneten Stichprobe) als Ordinatenkoordinaten (y-werte) für bestimmte Niveaus p eingezeichnet. Beispielniveaus: p i = i oder p n+1 i = i 0.5, i = 1,..., n. n Sind die Beobachtungswerte x 1,..., x n Realisierungen von unabhängigen Zufallsgrößen mit der gewählten theoretischen Verteilung, dann liegen die Punkte etwa auf einer Geraden mit Anstieg 1 durch den Koordinatenursprung. Starke Abweichungen von der Geraden signalisieren ein Nichtzutreffen der Verteilung. Erstes Beispiel Q-Q-Plot: Gleichverteilung U[0,1] > xu=c(seq(0.1,0.9,by=0.1)) > xu [1] > qqplot(qunif(ppoints(9),min=0,max=1),xu, xlab="theoret. Quantile U[0,1]", + main="q-q-plot xu gegen U[0,1]") 83

84 Q Q Plot xu gegen U[0,1] xu Theoret. Quantile U[0,1] Q-Q-Plot Lichtgeschwindigkeiten gegen Normalverteilung mit geschätzten Parametern > qqplot(qnorm(ppoints(100),mean=mean(lightspeeds), sd=sd(lightspeeds)), + lightspeeds,xlab="theoret. Quantile", + main="q-q-plot Lichtgeschw. gegen Normalvert.") > curve(1*x,299600,301000,col=2,add=true) Q Q Plot Lichtgeschw. gegen Normalvert. lightspeeds Theoret. Quantile Q-Q-Plots gegen Normalverteilung Bei manchen Verteilungen müssen für Q-Q-Plots nicht alle Parameter der angenommenen theoretischen Verteilung schon aus den Daten bestimmt werden, son- 84

85 dern es reicht aus, die Daten mit einer Verteilung vom gegebenen Typ zu vergleichen. Dies ist zum Beispiel für die Normalverteilung richtig, hier kann man die empirischen Quantile der Beobachtungswerte z.b. mit den theoretischen Quantilen der Standardnormalverteilung vergleichen. Folgen die Beobachtungswerte einer beliebigen Normalverteilung, liegen die Punkte etwa auf einer Geraden (nicht unbedingt mit Anstieg 1 und durch den Koordinatenursprung). Dies folgt aus der Beziehung z p = x p µ σ X N(µ, σ 2 ) und z p für Z N(0, 1). zwischen den Quantilen x p für Diese Eigenschaft kann allerdings nicht für jeden Verteilungstyp genutzt werden, z.b. nicht für die Lognormalverteilung. Q-Q-Plot Lichtgeschw. gegen Normalverteilung N(0, 1) > qqnorm(lightspeeds, main="q-q-plot Lichtgeschwindigkeiten gegen N(0,1)") Q Q Plot Lichtgeschwindigkeiten gegen N(0,1) Sample Quantiles Theoretical Quantiles Q-Q-Plot Lichtgeschw. gegen Lognormalverteilung Vergleich mit theoretischer Verteilung von exp(x) mit X N(0, 1). > qqplot(qlnorm(ppoints(100),meanlog=0,sdlog=1), + lightspeeds,xlab="theoret. Quantile", + main="q-q-plot Lichtgeschw. gegen Lognormalvert.") 85

86 Q Q Plot Lichtgeschw. gegen Lognormalvert. lightspeeds Theoret. Quantile Q-Q-Plot Lichtgeschw. gegen Exponentialverteilung mit geschätztem Erwartungswert > qqplot(qexp(ppoints(100),rate=1/mean(lightspeeds)), + lightspeeds,xlab="theoret. Quantile", + main="q-q-plot Lichtgeschw. gegen Exponentialvert.") Q Q Plot Lichtgeschw. gegen Exponentialvert. lightspeeds Theoret. Quantile Bemerkungen zu Q-Q-Plots Ist der Anstieg der Kurve im Q-Q-Plot an einem oder beiden Enden wesentlich steiler als im Mittelteil, deutet dies auf eine extremere Verteilung der Extremwerte hin, als dies nach der angenommenen Verteilung erwartet wird. Dann könnten 86

87 z.b. Verteilungen mit schweren Enden geeignet sein (bei denen eine Annäherung der Funktionswerte der Verteilungsfunktion an 0 bzw. 1 eher durch eine Potenzstatt eine Exponentialfunktion beschrieben wird). Ist jedoch der Anstieg der Kurve im Q-Q-Plot an einem oder beiden Enden wesentlich flacher als im Mittelteil, ist eher eine Verteilung mit einer schnelleren Konvergenz der Funktionswerte der Verteilungsfunktion an 0 bzw. 1 als bei der angenommenen Verteilung oder eine Verteilung mit begrenztem Wertebereich geeignet. Ausreißer sind ggf. durch einzelne, weit von der Kurve entfernte Punkte an den Rändern sichtbar. Weitere Bemerkungen zu Q-Q-Plots Klare Bogenformen weisen bei einer symmetrischen theoretischen Verteilung auf eine schiefe Verteilung hin. Liegen mehrere aufeinanderfolgende Punkte auf einer waagerechten Linie zusammen, entsprechen diese übereinstimmenden Beobachtungswerten. Das Mehrfachauftreten übereinstimmender Beobachtungswerte wird auch als Bindung bezeichnet. Sie können zum Beispiel hindeuten auf gerundete Beobachtungswerte; eine ungenaue Datenerhebung; das Ersetzen von fehlenden Werten durch Standardwerte; spezielle Werte mit positiver Wahrscheinlichkeit, wenn also nicht wirklich eine stetige Verteilung vorliegt. (c) Empirische Verteilungsfunktion Die empirische Verteilungsfunktion ˆF (x) ist eine Schätzung der theoretischen Verteilungsfunktion F X (x) = P(X < x) (bzw. F X (x) = P(X x)) aus den Beobachtungswerten x 1,..., x n. Es gilt ˆF (x) = Anzahl der i mit x i < x (bzw. x), x R. n Eine empirische Verteilungsfunktion ist eine stückweise konstante Funktion mit Sprüngen und den anderen Eigenschaften einer Verteilungsfunktion. Bindungen erzeugen höhere Sprünge. Man kann Quantile aus der empirischen Verteilungsfunktion ablesen. 87

88 Die empirischen Verteilungsfunktionen konvergieren für n unter üblichen Bedingungen gegen die Verteilungsfunktion F X (x) ( Hauptsatz der mathematischen Statistik, Satz von Gliwenko ). Empirische Verteilungsfunktion Lichtgeschwindigkeiten > plot(ecdf(lightspeeds),main="empir. Verteilungsfkt. Lichtgeschw.") Empir. Verteilungsfkt. Lichtgeschw. Fn(x) x Empirische Verteilungsfunktion Lichtgeschwindigkeiten und Normalverteilung (mit geschätzten Parametern) > plot(ecdf(lightspeeds),main="empir. Verteilungsfkt. Lichtgeschw.") > curve(pnorm(x,mean=mean(lightspeeds), sd=sd(lightspeeds)),add=true,col=2) 88

89 Empir. Verteilungsfkt. Lichtgeschw. Fn(x) x Kenngrößen für kategorielle Daten Für eine diskrete Wahrscheinlichkeitsverteilung ist der Modalwert (auch Modus oder Mode) die Merkmalsausprägung, die mit der größten Wahrscheinlichkeit auftreten kann. Es kann auch mehrere derartige Ausprägungen geben, sie treten dann alle mit derselben Wahrscheinlichkeit auf. Entsprechend ist für einen Datensatz der empirische Modalwert die Merkmalsausprägung (bzw. sind die Merkmalsausprägungen), die am häufigsten vorkommt (bzw. vorkommen). Für diskrete Daten können außerdem die Anteile als Kenngrößen von Interesse sein, zur Berechnung dieser werden die absoluten Häufigkeiten der Merkmalswerte pro Merkmalsausprägung durch die Gesamtzahl der Beobachtungen geteilt. Im Beispiel: > margin(titanic,"survived")/sum(titanic) No Yes Grafiken, Kenngrößen für multivariate stetige Daten (a) Streudiagramm Für bivariate stetige Daten (eine verbundene zweidimensionale Stichprobe) können die Datenpunkte in einem Streudiagramm dargestellt werden, d.h. als Punkte in einem kartesischen Koordinatensystem. Wie das Punktdiagramm ist auch das Streudiagramm anfällig gegenüber Bindungen, die durch Überlagerung unsichtbar werden. 89

90 Kenngrößen kann man aus dem Streudiagramm im Allgemeinen schlecht schätzen. Man kann im Allgemeinen schlecht Ausreißer im Streudiagramm identifizieren. Die Lage des Nullpunktes und die Achseneinheiten und Grenzen können den Eindruck den ein Streudiagramm macht stark beeinflussen. Beispiel Streudiagramm im Datensatz Iris > data(iris) > plot(iris$sepal.length,iris$sepal.width, xlab="sepal.length", + ylab="sepal.width") Sepal.Length Sepal.Width Einzelne Punktdiagramme im Beispiel > stripchart(iris$sepal.length,method="stack", xlab="sepal.length") > stripchart(iris$sepal.width,method="stack", xlab="sepal.width") 90

91 Sepal.Length Sepal.Width (b) Der empirische (gewöhnliche) Korrelationskoeffizient Für eine konkrete Stichprobe (x 1, y 1 ),...,, (x n, y n ) definiert man den empirischen Korrelationskoeffizienten r X,Y = n (x i x) (y i y) i=1 n. (x i x) 2 n (y i y) 2 i=1 Er ist eine Schätzung des theoretischen Korrelationskoeffizienten und wird auch gewöhnlicher oder (Bravais-)Pearsonscher Korrelationskoeffizient genannt und es gilt auch i=1 r X,Y = n x i y i n x y i=1 ( n ) ( n ) x 2 i n. x2 yi 2 n y2 i=1 i=1 Eigenschaften des gewöhnlichen Korrelationskoeffizienten Es gelten r X,Y = r Y,X und 1 r X,Y 1. Der gewöhnliche Korrelationskoeffizient r X,Y ist ein Maß für die Stärke und Richtung des linearen Zusammenhanges zwischen den x und y Werten der Stichprobenwerte (x i, y i ), i = 1,..., n. r X,Y > 0 bedeutet unter anderem, dass großen x Werten eher große y Werte entsprechen und umgekehrt. Man spricht dann von positiver oder gleichsinniger Korrelation. 91

92 r X,Y < 0 bedeutet unter anderem, dass großen x Werten eher kleine y Werte entsprechen und umgekehrt. Man spricht dann von negativer oder ungleichsinniger Korrelation. Für Werte r X,Y nahe bei 1 liegt eine stark ausgeprägte lineare Beziehung zwischen den x und y Werten vor. Insbesondere im Fall von normalverteilten Zufallsvektoren können die gewöhnlichen Korrelationskoeffizienten gut interpretiert und für statistische Schlüsse genutzt werden. Streudiagramme für simulierte Werte Streudiagramme (Scatterplots) von 1000 simulierten Realisierungen von normalverteilten Zufallsvektoren (X, Y ) mit EX = EY = 0, VarX = VarY = 1 sowie ρ = 1 (links), ρ = 0 (mitte) und ρ = 1 (rechts). ρ = ±0.3 (links), ρ = ±0.5 (mitte), ρ = ±0.9 (rechts). 92

93 (c) Rangkorrelation Möchte man statistische Aussagen über den Zusammenhang zweier nichtnormalverteilter Merkmale X und Y treffen (eventuell auch nur ordinal messbar), kann man den Rangkorrelationskoeffizienten von Spearman r (S) nutzen. Der Zusammenhang bezieht sich dann auf die Ordnungsbeziehung (nicht einen linearen X,Y Zusammenhang). Man bestimmt einzeln für die x Werte und die y Werte der vektoriellen Stichprobe Ränge R(x i ) bzw. R(y i ), i = 1,..., n. Zur Bestimmung der Ränge werden die Werte der Größe nach geordnet, der kleinste erhält Rang 1, der zweitkleinste Rang 2 usw. Treten Bindungen (also übereinstimmende Werte in jeweils einer Datenreihe) auf, wird der arithmetische Mittelwert der zugehörigen Rangzahlen als Rang gewählt. Beispiel: Wert Rang Spearmanscher Rangkorrelationskoeffizient Der Spearmansche Rangkorrelationskoeffizient wird berechnet, indem in der Formel für den gewöhnlichen Korrelationskoeffizienten die Werte der Zufallsgrößen und Mittelwerte durch die Werte der Ränge und entsprechend der Mittelwerte der Ränge ersetzt werden, also die Ränge selbst als Merkmalswerte betrachtet werden, r (S) X,Y = n i=1 n i=1 ( ) ( ) R(x i ) R(x) R(y i ) R(y) ( ) 2 n R(x i ) R(x) i=1 ( ) 2. R(y i ) R(y) Liegen sowohl in der Stichprobe x 1,..., x n keine Bindungen vor, gilt auch Eigenschaften von r (S) X,Y Es gilt r (S) X,Y 1. r (S) X,Y = 1 6 als auch in der Stichprobe y 1,..., y n n (R(x i ) R(y i )) 2 i=1 n(n 2 1) r (S) ist ein Maß für die Stärke des monotonen Zusammenhangs von X und Y, X,Y das Vorzeichen von r (S) ist ein Maß für die Richtung des monotonen Zusammenhangs von X und Y X,Y.. 93

94 Im Fall von r (S) = 1 besteht eine streng monotone Beziehung zwischen X und X,Y Y. Übersteigt der Betrag des Spearmanschen Korrelationskoeffizienten den Betrag des Pearsonschen Korrelationskoeffizienten deutlich, so liegt vermutlich ein nichtlinearer monotoner (oder antitoner) Zusammenhang vor oder es gibt Ausreißer. Übersteigt der Betrag des Pearsonschen Korrelationskoeffizienten den Betrag des Spearmanschen Korrelationskoeffizienten deutlich, so liegen vermutlich Ausreißer vor. Rangverfahren Die Nutzung des Spearmanschen Korrelationskoeffizienten gehört zu den Rangverfahren, bei denen die Daten durch ihre Ränge ersetzt werden. Dies hat den Vorteil, dass die (meist unbekannte) Verteilung keine große Rolle mehr spielt. Als Nachteile bei einem solchen Vorgehen kann man nennen: Man nutzt (viel) weniger Information. Die Interpretation von Kenngrößen etc. ist schwieriger. Die Bestimmung der Ränge (und dann zu nutzende Formeln, Eigenschaften, etc.) kann problematischer sein. Im Beispiel: > cor(iris$sepal.length,iris$sepal.width) [1] > cor(iris$sepal.length,iris$sepal.width, method="spearman") [1] (d) Q-Q-Plot zum Vergleich zweier Merkmale Einen Q-Q-Plot kann man auch zum Vergleich der beiden empirischen Randverteilungen einer zweidimensionalen Stichprobe (x 1, y 1 ),..., (x n, y n ) nutzen. Dazu berechnet man die empirischen Quantile für beide Komponenten extra (wie für den Vergleich eines Merkmals mit einer theoretischen Verteilung), bildet entsprechende Wertepaare und zeichnet diese als Punkte in ein kartesisches Koordinatensystem. Liegen diese Punkte etwa auf einer Geraden mit Anstieg 1 durch den Koordinatenursprung, stimmen die Verteilungen der beiden Komponenten näherungsweise überein, liegen sie etwa auf einer anderen Geraden sind die Verteilungen der beiden Merkmalsgrößen näherungsweise durch eine lineare Transformation (eigentlich: linear affine Transformation) miteinander verbunden. 94

95 Beispiel Q-Q-Plot zum Vergleich zweier Merkmale > qqplot(iris$sepal.length,iris$petal.length, xlab="sepal.length", + ylab="petal.length",main="q-q-plot Vergleich zweier Merkmale") Q Q Plot Vergleich zweier Merkmale Petal.Length Sepal.Length (e) Streudiagrammmatrix Zum Veranschaulichung von mehr als zwei stetigen Merkmalen kann man z.b. eine Streudiagrammmatrix nutzen. Dazu werden die Streudiagramme für je zwei unterschiedliche Merkmale erzeugt und in Matrixform angeordnet. Für den R-Beispieldatensatz Iris erhält man z.b. mit dem R-Befehl > pairs(list(iris$sepal.length,iris$sepal.width, + iris$petal.length,iris$petal.width), + labels=list("sepal.length","sepal.width", + "Petal.Length","Petal.Width")) die auf der nächsten Folie gezeigte Matrix. 95

96 Beispiel Streudiagrammmatrix Sepal.Length Sepal.Width Petal.Length Petal.Width Grafiken für multivariate diskrete Daten (a) Gestapelte Balkendiagramme Bei gestapelten Balkendiagrammen werden Rechtecke mit Flächeninhalten proportional zu den Anzahlen entsprechend der Ausprägungen einer zweiten Variablen übereinander abgetragen. Damit können sowohl absolute Häufigkeiten als auch die bedingte Verteilung der zweiten Variable gegeben die erste Variable wahrgenommen werden. Beide können aber vom Auge nicht direkt quantitativ bewertet werden. Die Reihenfolge der Variablen ist für die Darstellung wesentlich. Bei ordinalen Daten sollte man die Reihenfolge der Merkmalsausprägungen beachten. In den Beispielen wird der Datensatz Titanic genutzt. > X=apply(Titanic,c(2,3),sum) > X 96

97 Age Sex Child Adult Male Female Beispiel gestapelte Balkendiagramme > barplot(x,main="passagiere der Titanic (dunkel: männlich, hell: weiblich)") # links > barplot(t(x),main="passagiere der Titanic (dunkel:kind, hell:erwachsener)") # rechts Passagiere der Titanic (dunkel: männlich, hell: weiblich) Passagiere der Titanic (dunkel: Kind, hell: Erwachsener) Child Adult Male Female (b) Parallele Balkendiagramme Bei parallelen Balkendiagrammen werden die Rechtecke zu den verschiedenen Merkmalsausprägungen der zweiten Variablen nebeneinander gezeichnet. Damit erlauben sie einen direkten Vergleich der absoluten Häufigkeiten, bedingte Verteilungen können aber im Allgemeinen nicht so gut wahrgenommen werden. Beispiel parallele Balkendiagramme > barplot(x,main="passagiere der Titanic (dunkel: männlich, hell: weiblich)") + beside=true) # links > barplot(t(x),main="passagiere der Titanic (dunkel:kind, hell:erwachsener)") + beside=true) # rechts 97

98 Passagiere der Titanic (dunkel: männlich, hell: weiblich) Passagiere der Titanic (dunkel: Kind, hell: Erwachsener) Child Adult Male Female (c) Mosaikplots Mosaikplots eignen sich besonders gut zur gleichzeitigen arstellung mehrerer kategorieller Variablen. Bedingte Verteilungen sind besser wahrzunehmen. Beispiel Mosaikplots > mosaicplot(x,main="passagiere der Titanic",color=c(2,4)) # links > mosaicplot(t(x),main="passagiere der Titanic",color=c(2,4)) # rechts 98

99 Beispiel Mosaikplot mit mehr als 2 Variablen > mosaicplot(titanic,main="passagiere der Titanic") Passagiere der Titanic Child No 1st 2nd 3rd Crew Adult Child Adult Child Adult Child Adult Female Yes No Sex Male Yes Class Graphiken für gemischte multivariate Daten (a) Parallele Punktdiagramme Bei der Darstellung eines Datensatzes mit einer diskreten und einer stetigen Variablen können zum Beispiel parallele Darstellungen der stetigen Variablen für jede Merkmalsausprägung der diskreten Variablen genutzt werden. Ein Beispiel liefern parallele Punktdiagramme, bei denen Punktdiagramme nebenoder übereinander gezeichnet werden, so dass ein guter anschaulicher Vergleich möglich ist. Im Beispiel nutzen wir den R-Datensatz Iris. Beispiel paralleles Punktdiagramm > data(iris) > stripchart(split(iris$sepal.length,iris$species), + method="stack",main="sepal.length") 99

100 Sepal.Length setosa versicolor virginica (b) Parallele Box-Plots Das Verfahren bei den Punktdiagrammen kann auch für Box-Plots genutzt werden. Werden dabei gekerbte Box-Plots genutzt und kann man näherungsweise von normalverteilten Daten ausgehen, kann man mitunter noch aus der Anschauung heraus Aussagen über den Median treffen: Überlappen sich die Kerben nicht, kann man mit einer geringen Irrtumswahrscheinlichkeit von unterschiedlichen Medianen ausgehen. Ein objektiverer Vergleich kann durch statistische Tests erfolgen. Beispiel paralleles Box-Plot > data(iris) > boxplot(split(iris$sepal.length,iris$species), main="sepal.length") 100

101 Sepal.Length setosa versicolor virginica Beispiel gekerbtes paralleles Box-Plot > data(iris) > boxplot(split(iris$sepal.length,iris$species), main="sepal.length", + notch=true) Sepal.Length setosa versicolor virginica 101

102 (d) Weitere Möglichkeiten Farben, Symbole und Beschriftungen eignen sich, um eine oder mehrere kategorielle Information(en) zusätzlich zu jeder stetigen Graphik, welche die Fälle durch separate Punkte trennt, hinzuzufügen, zum Beispiel: > plot(iris$sepal.length,iris$sepal.width, + col=c("red","green","blue")[iris$species], + main="kelchblatt",xlab="länge",ylab="breite") Kelchblatt Breite Länge 5 Schließende Statistik 5.1 Statistische Tests (Signifikanztests) Mit Hilfe von statistischen Tests (Signifikanztests) überprüft man, ob die vorhandenen Daten mit bestimmten Annahmen an die Verteilung der zugehörigen Zufallsgrößen verträglich sind. Dabei muss man berücksichtigen, dass bedingt durch die Zufallssituation und die zufällige Streuung der Realisierungen der Zufallsgrößen im Allgemeinen keine 100%-ig richtigen Entscheidungen (die Annahmen an die Verteilung stimmen / stimmen nicht) getroffen werden können, sondern dass jede Entscheidung auch fehlerhaft sein kann. Deshalb versucht man die Wahrscheinlichkeit dafür, dass die Entscheidung fehlerhaft ist, zu kontrollieren. Beispielaufgabe: Waschmittelpackungen Bei einem Verbrauchertest für Waschmittel werde auch die Abfüllmenge kontrolliert. Dabei ergaben sich bei 10 zufällig ausgewählten 5 kg Packungen einer bestimmten Sorte folgende Abfüllmengen (in kg) : 4.6, 4.95, 4.8, 4.9, 4.75, 5.05, 4.9, 5.1, 4.85,

103 Ist auf der Basis dieser Beobachtungswerte die Auffassung vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten? Wir modellieren die tatsächliche Abfüllmenge (in kg) einer Waschmittelpackung als Zufallsgröße X. Berechnete Schätzwerte für den Erwartungswert, die Standardabweichung und die Varianz der Merkmalsgröße sind: Überlegungen zur Beispielaufgabe Der Erwartungswert µ ist unbekannt. x = 4.885, s = 0.145, s 2 = Zu überprüfen ist die Richtigkeit der Vermutung, dass der Erwartungswert µ kleiner ist als der Sollwert µ 0 = 5. Dies kann aber nicht einfach aus der Tatsache gefolgert werden. x = < 5 = µ 0 Man kann schließlich zufällig eine Stichprobe mit geringen Abfüllmengen erwischt haben. Grundlegende Überlegungen zu statistischen Tests Aufstellen der Hypothesen: Man formuliert 2 Hypothesen, die Nullhypothese H 0 H A (oft auch mit H 1 bezeichnet) und die Alternativhypothese z.b. H 0 : µ = µ 0 und H A : µ µ 0 oder H 0 : µ = µ 0 und H A : µ < µ 0. Beachte: Die Hypothese, die statistisch abgesichert werden soll, sollte als Alternativhypothese formuliert werden! 2 mögliche Entscheidungen beim Testen: 1. H 0 wird verworfen : Es gibt in der erhobenen Stichprobe starke Hinweise darauf, dass H 0 nicht gelten kann, also H A gelten muss. Diese Hinweise sind so stark, dass man nicht von einem zufälligen Zustandekommen ausgehen kann. 2. H 0 wird nicht verworfen : Man hat keine Hinweise gefunden, die gegen H 0 sprechen. Alle aufgetretenen Effekte könnten genausogut zufallsbedingt sein. Statistisches Testproblem: Aufgabenstellung zwischen der Gültigkeit von H 0 und H A zu unterscheiden. 103

104 Statistischer Test: formale Entscheidungsregel für eine der zwei Möglichkeiten. Mögliche Fehler beim Testen: Fehler 1. Art: man verwirft H 0, obwohl H 0 richtig ist. Fehler 2. Art: man verwirft H 0 nicht, obwohl H 0 falsch ist. Tests sind so zu konstruieren, dass beide Fehler möglichst klein sind. Aber es können nicht beide Fehler gleichzeitig kontrolliert werden. Man gibt sich eine (relativ kleine) obere Schranke für die Wahrscheinlichkeit des Fehlers 1. Art vor, die nicht überschritten werden soll das sogenannte Signifikanzniveau α. Übliche Werte für das Signifikanzniveau α sind 0.05 oder In der Regel wird ein statistischer Test so konstruiert, dass er unter allen Tests, für die die Wahrscheinlichkeit des Fehlers 1. Art das gegebene Signifikanzniveau nicht überschreitet, den Fehler 2. Art minimiert. Wie erhält man eine Entscheidungsregel für ein gegebenes Testproblem? Im obigen Beispiel würde man intuitiv so vorgehen: Liegt die Schätzung x für µ über oder nur knapp unter µ 0 = 5, so kann man nicht mit hinreichender Sicherheit schließen, dass H 0 : µ µ 0 = 5 nicht gilt. Liegt hingegen x unter einem kritischen Wert deutlich unter µ 0 = 5, so kann man die Nullhypothese verwerfen. Wie weit der kritische Wert unter µ 0 liegen muss, hängt vom Signifikanzniveau α und dem Stichprobenumfang ab. Allgemeine Struktur der Entscheidungsregel Im Allgemeinen besteht die Entscheidungsregel für ein Testproblem aus einer Testgröße T und einem kritischen Bereich K α. Testgröße T : ist eine Stichprobenfunktion (d.h. eine Funktion der mathematischen Stichprobe X 1,..., X n ), also eine Zufallsgröße; ist bei Parametertests oft eine Schätzfunktion für den zu testenden Parameter oder davon abgeleitet (im Beispiel X); hat eine bekannte Verteilung bei Gültigkeit der Nullhypothese. 104

105 Setzt man statt der mathematischen Stichprobe eine konkrete Stichprobe x 1,..., x n ein, so erhält man eine reelle Zahl t als Realisierung der Zufallsgröße T. Kritischer Bereich (Ablehnungsbereich) K α : ist von α abhängig; wird so konstruiert, dass P(T K α H 0 ) α gilt. Im Beispiel ist K α = {t R : t < t α }, wobei t α der oben erwähnte kritische Wert ist. Entscheidung beim Test Die Entscheidung lautet dann: ist t K α, so wird H 0 verworfen, andernfalls nicht. Alternative Entscheidungsregel (zumeist in statistischer Software umgesetzt): Berechnung eines p-werts : p = min{α : t K α } ; H 0 wird verworfen, wenn p α, bei p > α wird H 0 beibehalten. Allgemeiner Testablauf Allgemeiner Ablauf eines statistischen Tests: 1. Aufstellen der Hypothesen 2. Festlegen des Signifikanzniveaus α 3. Bestimmen der Testgröße T 4. Berechnung der Realisierung t der Testgröße T auf der Basis der konkreten Stichprobe (x 1,..., x n ) 5. Bestimmen des kritischen Bereichs K α bzw. des p-wertes 6. Testentscheidung: t K α p α Ablehnung von H 0 ; t K α p > α Stichprobe spricht nicht gegen H Schlussfolgerung für die gegebene Aufgabenstellung Im Beispiel : Die Vermutung, dass das Gewicht der Waschmittelpackungen systematisch geringer als 5 kg ist, ist (nicht) statistisch abgesichert. 105

106 Interpretation der Testergebnisse Beim Testen wird nur die Wahrscheinlichkeit für den Fehler 1. Art kontrolliert, d.h. P(H 0 ablehnen H 0 ist wahr) α. Wenn also H 0 entscheiden. tatsächlich gilt, wird man sich nur in α 100% der Fälle für H A Die Entscheidung für H A ist in diesem Sinn statistisch abgesichert. Bei einer Entscheidung gegen H 0 und damit für H A spricht man von einem signifikanten Ergebnis. Die Wahrscheinlichkeit für den Fehler 2. Art wird nicht kontrolliert. Eine Entscheidung H 0 beizubehalten ist nicht statistisch abgesichert. Kann man H 0 nicht verwerfen, bedeutet das daher nicht, dass man sich aktiv für H 0 entscheidet; es spricht nur nichts gegen H 0. Auswahl eines geeigneten Tests Da es eine Vielzahl unterschiedlicher Tests gibt, ist die Auswahl eines geeigneten Tests eine wichtige Aufgabe. Bei dieser Auswahl spielen unter anderem eine Rolle das Skalenniveau des Merkmals oder der Merkmale; die Stichprobensituation: eine Stichprobe von reellen Werten / eine vektorielle Stichprobe (eine gepaarte oder verbundene Stichprobe) / zwei (unabhängige) Stichproben / mehr als zwei (unabhängige) Stichproben; Vorkenntnisse (z.b. durch vorangegangene Tests) oder Annahmen an die Verteilung der Merkmalszufallsgröße(n); die zu lösende Aufgabenstellung, z.b. im Hinblick auf mögliche unterschiedliche Alternativhypothesen zu einer gewählten Nullhypothese. Viele Tests sind in Statistikcomputerprogrammen verfügbar, auch in R. Dann ist neben der Auswahl eines geeigneten Tests auch wichtig, die Vorgehensweise bzw. den Aufruf zu kennen und die Ergebnisse richtig auszuwerten Tests für eine Stichprobe mit stetiger Skala a) Shapiro-Wilk-Test Mit dem Shapiro-Wilk-Test überprüft man, ob die Daten mit einer Normalverteilung verträglich sind. Geg.: konkrete Stichprobe x 1,..., x n. 106

107 Vor.: Merkmalszufallsgröße X auf stetiger Skala; repräsentative Stichprobe. Hyp.: H 0 : X ist normalverteilt ; H 1 : X ist nicht normalverteilt R-Aufruf: shapiro.test() Bem.: Die Parameter der vermuteten Normalverteilung (Erwartungswert und Varianz) müssen nicht bekannt sein. Der Test reagiert sensibel auf Ausreißer. Der Test ist relativ anfällig gegenüber Bindungen, deshalb sollten die Werte nicht stark gerundet sein. Die Teststärke ist insbesondere bei kleinen Stichprobenumfängen größer als bei allgemeinen Anpassungstests, wie dem Kolmogorow-Smirnow-Test oder dem χ 2 Anpassungstest. Bsp. Shapiro-Wilk-Test für exponentialverteilte Daten > x1=rexp(50) # Simulation der exponentialverteilten Werte > shapiro.test(x1) Shapiro-Wilk normality test data: x1 W = , p-value = 4.249e-05 # W ist Wert der Teststatistik > hist(x1) # Histogramm > qqnorm(x1) # Q-Q-Plot bzgl. Normalverteilung Histogram of x1 Normal Q Q Plot Frequency Sample Quantiles x Theoretical Quantiles 107

108 Bsp. Shapiro-Wilk-Test für normalverteilte Daten > x2=rnorm(50) # Simulation der normalverteilten Werte > shapiro.test(x2) Shapiro-Wilk normality test data: x2 W = , p-value = # W ist Wert der Teststatistik > hist(x2) # Histogramm > qqnorm(x2) # Q-Q-Plot bzgl. Normalverteilung Histogram of x2 Normal Q Q Plot Frequency Sample Quantiles x Theoretical Quantiles b) Kolmogorow-Smirnow-Test Mit dem Kolmogorow-Smirnow-Test überprüft man, ob die Daten mit einer vorgebenen Verteilung verträglich sind. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: Merkmalszufallsgröße X auf stetiger Skala; repräsentative Stichprobe. Hyp.: H 0 : F X = F 0 (Verteilungsfunktion von X ist F 0 ) ; H 1 : F X F 0 (Verteilungsfunktion von X ist nicht F 0 ). R-Aufruf: ks.test(,) Bem.: Die Verteilungsfunktion F 0 muss vollständig bekannt sein, insbesondere alle Parameter. Es gibt Varianten des Tests für spezielle Fälle mit geschätzten Parametern. Der Test ist relativ anfällig gegenüber Bindungen, deshalb sollten die Werte nicht stark gerundet sein. 108

109 Bsp. Kolmogorow-Smirnow-Test mit R > x1=rexp(50) # Simulation der exponentialverteilten Werte (Parameter=1) > ks.test(x1,"pexp") # Test auf Exponentialverteilung mit Parameter=1 One-sample Kolmogorov-Smirnov test data: x1 D = , p-value = alternative hypothesis: two-sided # D ist Wert der Teststatistik > ks.test(x1,"pexp",2) # Test auf Exponentialverteilung mit Parameter=2 One-sample Kolmogorov-Smirnov test data: x1 D = , p-value = alternative hypothesis: two-sided # D ist Wert der Teststatistik > x2=rnorm(50) # Simulation der normalverteilten Werte > ks.test(x2,"pnorm") One-sample Kolmogorov-Smirnov test data: x2 D = , p-value = alternative hypothesis: two-sided # D ist Wert der Teststatistik c) χ 2 Anpassungstest Mit dem χ 2 Anpassungstest überprüft man, ob die Daten mit einer vorgebenen Verteilung verträglich sind. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: Merkmalszufallsgröße X auf stetiger Skala (auch für andere möglich); repräsentative Stichprobe. Hyp.: H 0 : F X = F 0 (Verteilungsfunktion von X ist F 0 ) ; H 1 : F X F 0 (Verteilungsfunktion von X ist nicht F 0 ). R-Aufruf: chisq.test(,) Bemerkungen zum χ 2 Anpassungstest Der χ 2 Anpassungstest für stetige Daten basiert auf einer Klasseneinteilung der Stichprobe und dem Vergleich der theoretischen Häufigkeiten der Werte in den Klassen mit den empirischen Häufigkeiten. 109

110 Die Testgröße ist unter H 0 asymptotisch χ 2 verteilt, dies ist eine häufiger vorkommende statistische Prüfverteilung mit einem Parameter, der Anzahl der Freiheitsgrade genannt wird. Sie kann nur nichtnegative Werte annehmen. Die theoretische Häufigkeit sollte pro Klasse mindestens 5 sein. Der Wert der Testgröße (und damit ggf. das Testergebnis) hängt von der gewählten Klasseneinteilung ab, außerdem ist es nur ein asymptotischer Test. Bsp. χ 2 Anpassungstest mit R > x2=rnorm(50) # Simulation der normalverteilten Werte > x2_cut=cut(x2,breaks=c(-3,-2,-1,0,1,2)) # Klasseneinteilung > table(x2_cut) x2_cut (-3,-2] (-2,-1] (-1,0] (0,1] (1,2] > freq_emp=vector() # Vektor der empirischen Häufigkeiten > for(i in 1:5) freq_emp[i]=table(x2_cut)[[i]] > freq_emp [1] > freq_th=c(pnorm(-2)-pnorm(-3),pnorm(-1)-pnorm(-2), pnorm(0)-pnorm(-1), + pnorm(1)-pnorm(0),pnorm(2)-pnorm(1)) > freq_th # Vektor der theoretischen Häufigkeiten [1] > chisq.test(freq_emp,freq_th) Pearson s Chi-squared test data: freq_emp and freq_th X-squared = 10, df = 8, p-value = Warnmeldung: In chisq.test(freq_emp, freq_th) : Chi-Quadrat-Approximation kann inkorrekt sein d) Ein-Stichproben-t-Test Mit dem Ein-Stichproben-t-Test werden Annahmen über den Erwartungswert einer normalverteilten Grundgesamtheit bei unbekannter Varianz überprüft. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: normalverteilte Merkmalszufallsgröße X mit unbekanntem Erwartungswert µ und unbekannter Varianz σ 2 ; repräsentative Stichprobe. 110

111 Hyp.: H 0 : µ = µ 0 (µ 0 ist gegebene (Soll-)Größe) ; H 1 : µ µ 0 (zweiseitig) bzw. µ < µ 0 oder µ > µ 0 (einseitig). R-Aufruf: t.test() Bem.: Die Testgröße ist hier T = X µ 0 n, diese ist unter H0 t verteilt S mit n 1 Freiheitsgraden. Die t Verteilung oder Student-Verteilung ist eine weitere oft genutzte statistische Prüfverteilung mit einem Parameter ( Anzahl der Freiheitsgrade ). Bsp. Ein-Stichproben-t-Test mit R Simulation von Realisierungen N(0, 1)-verteilter Zufallsgrößen. x=rnorm(50) Zweiseitiger t Test für H 0 : µ = 0, H 1 : µ 0 : > t.test(x) One Sample t-test data: x t = , df = 49, p-value = alternative hypothesis: true mean is not equal to 0 95 percent confidence interval: sample estimates: mean of x Bsp. Ein-Stichproben-t-Test (einseitig) mit R Einseitiger t Test für H 0 : µ = 0, H 1 : µ < 0 : > t.test(x,alternative="less") One Sample t-test data: x t = , df = 49, p-value = alternative hypothesis: true mean is less than 0 111

112 95 percent confidence interval: -Inf sample estimates: mean of x Einseitiger t Test für H 0 : µ = 0, H 1 : µ > 0 : > t.test(x,alternative="greater") One Sample t-test data: x t = , df = 49, p-value = alternative hypothesis: true mean is greater than 0 95 percent confidence interval: Inf sample estimates: mean of x Zweiseitiger t Test für H 0 : µ = 1, H 1 : µ 1 : > t.test(x,mu=1) One Sample t-test data: x t = , df = 49, p-value = 7.546e-10 alternative hypothesis: true mean is not equal to 1 95 percent confidence interval: sample estimates: mean of x

113 Zweiseitiger t Test für H 0 : µ = 0.1, H 1 : µ 0.1 : > t.test(x,mu=-0.1) One Sample t-test data: x t = , df = 49, p-value = alternative hypothesis: true mean is not equal to percent confidence interval: sample estimates: mean of x e) χ 2 -Test auf Streuung Mit dem χ 2 -Test auf Streuung werden Annahmen über die Varianz einer normalverteilten Grundgesamtheit bei unbekanntem Erwartungswert überprüft. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: normalverteilte Merkmalszufallsgröße X mit unbekanntem Erwartungswert µ und unbekannter Varianz σ 2 ; repräsentative Stichprobe. Hyp.: H 0 : σ 2 = σ0 2 (σ0 2 ist eine gegebene (Soll-)Größe) ; H 1 : σ 2 σ0 2 (zweiseitig) bzw. σ 2 < σ0 2 oder σ 2 > σ0 2 (einseitig). R-Aufruf: sigma.test() aus Zusatzpaket TeachingDemos. Die Testgröße ist hier T = Freiheitsgraden. (n 1)S2 σ 2 0, diese ist unter H 0 χ 2 verteilt mit n 1 Bsp. 1 χ 2 -Test auf Streuung mit R Voraussetzung ist, dass das Programmpaket TeachingDemos vorher installiert wurde. > require(teachingdemos) # Laden des Programmpakets > x=rnorm(50) # Simulation der normalverteilten Werte > sigma.test(x) One sample Chi-squared test for variance data: x 113

114 X-squared = , df = 49, p-value = alternative hypothesis: true variance is not equal to 1 95 percent confidence interval: sample estimates: var of x Bsp. 2 χ 2 -Test auf Streuung mit R > require(teachingdemos) # Laden des Programmpakets > x=rnorm(50) # Simulation der normalverteilten Werte > sigma.test(x,sigmasq=1.5,alternative="less") One sample Chi-squared test for variance data: x X-squared = , df = 49, p-value = alternative hypothesis: true variance is less than percent confidence interval: sample estimates: var of x f) Vorzeichentest Der Vorzeichentest oder Zeichentest dient als Test über den Median einer stetigen Verteilung. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: Merkmalszufallsgröße X auf stetiger Skala; repräsentative Stichprobe. Hyp.: H 0 : X 0.5 = m (m ist ein vorgebener Wert für den Median) ; H 1 : X 0.5 m. R-Aufruf: binom.test(table(x<m)) (für Datenvektor x). Die Testgröße ist die Anzahl der Stichprobenwerte, die größer oder gleich dem hypothetischen Wert m für den Median sind. Sie ist unter H 0 binomialverteilt mit den Parametern n und p = 0.5. Der Test heißt deshalb auch Binomialtest (bzw. ist ein Spezialfall davon). 114

115 Bsp. Vorzeichentest Der Vorzeichentest wird auf simulierte exponentialverteilte mit Parameter λ = 1 Daten angewandt. Der theoretische Median einer solchen exponentialverteilten Zufallsgröße ist X 0.5 = ln(2) = >x=rexp(30) > binom.test(table(x<log(2))) Exact binomial test data: table(x < log(2)) # Simulation der exponentialverteilten Werte number of successes = 14, number of trials = 30, p-value = alternative hypothesis: true probability of success is not equal to percent confidence interval: sample estimates: probability of success Bei einem Test auf den (falschen) hypothetischen Medianwert m = 1 erhält man für diese Stichprobe folgenden Ausdruck. > binom.test(table(x<1)) Exact binomial test data: table(x < 1) number of successes = 9, number of trials = 30, p-value = alternative hypothesis: true probability of success is not equal to percent confidence interval: sample estimates: probability of success

116 Bsp. Bsp. Vorzeichentest Erläuterung Zur Erläuterung der R-Befehle seien hier die Stichprobe und Zwischenergebnisse mit angegeben. > x [1] [6] [11] [16] [21] [26] > x<1 [1] TRUE FALSE TRUE FALSE TRUE FALSE TRUE TRUE FALSE TRUE [11] TRUE TRUE FALSE TRUE TRUE TRUE FALSE TRUE TRUE FALSE [21] TRUE TRUE TRUE FALSE TRUE TRUE TRUE TRUE FALSE TRUE > table(x<1) FALSE TRUE 9 21 Die Erfolgsanzahl im Test (hier 9, die erste der durch table(x<1) zurückgegebene Zahl) ist also die Anzahl der Stichprobenwerte, für die die Bedingung (hier x < 1) nicht erfüllt ist. Vorzeichentest (einseitig) Einseitige Tests können auch durchgeführt werden. > binom.test(table(x<1),alternative="less") Exact binomial test data: table(x < 1) number of successes = 9, number of trials = 30, p-value = alternative hypothesis: true probability of success is less than percent confidence interval: sample estimates: probability of success

117 Hier wird zum Niveau 0.05 die Hypothese H 0 : P(X 1) = 0.5 abgelehnt und die Alternative H 1 : P(X 1) < 0.5 angenommen. Dies bedeutet auch für den Median, dass er signifikant kleiner als 1 ist. g) Wilcoxon-Vorzeichen-Rang-Test Beim Wilcoxon-Vorzeichen-Rang-Test werden Hypothesen über das Symmetriezentrum (und damit den Median) einer stetigen Verteilung geprüft. Geg.: konkrete Stichprobe x 1,..., x n. Vor.: Merkmalszufallsgröße X mit stetiger und symmetrischer Verteilung ; repräsentative Stichprobe. Hyp.: H 0 : X 0.5 = m (m ist ein vorgebener Wert für den Median); H 1 : X 0.5 m. R-Aufruf: wilcox.test(). Die Testgröße nutzt Rangzahlen der Werte x i m, i = 1,..., n und damit mehr Informationen als der Vorzeichentest. Bindungen können problematisch sein. Bsp. Wilcoxon-Vorzeichen-Rang-Test Der Vorzeichentest wird auf simulierte t verteilte (mit 10 Freiheitsgraden) Daten angewandt. Dies ist eine symmetrische stetige Verteilung mit dem theoretischen Median X 0.5 = 0. >x=rt(n=50,df=10) > wilcox.test(x) # Simulation von 50 t-verteilten Werten Wilcoxon signed rank test with continuity correction data: x V = 627, p-value = alternative hypothesis: true location is not equal to 0 # Annahme Ein Test auf den (falschen) Median m = 1 ergibt: > wilcox.test(x,mu=1) Wilcoxon signed rank test with continuity correction data: x 117

118 V = 207, p-value = 3.312e-05 alternative hypothesis: true location is not equal to 1 # Ablehnung Tests für eine gepaarte (verbundene) Stichprobe (stetige Skala) Gegeben sei nun eine konkrete Stichprobe (x i, y i ), i = 1,..., n als Realisierungen von unabhängigen und identisch verteilten stetigen Zufallsvektoren (X i, Y i ), i = 1,..., n. Für jedes i beziehen sich die Werte x i und y i auf ein und dasselbe statistische Individuum, so dass die Zufallsgrößen X i und Y i nicht als unabhängig angesehen werden können. Macht die Differenzbildung D i = X i Y i, i = 1,..., n inhaltlich Sinn, dann können die Tests aus auf die neu berechnete Stichprobe d 1,..., d n (die nun univariat ist) angewandt werden, man untersucht somit ein Einstichprobenproblem. Dabei sind insbesondere die Tests bezüglich der Lageparameter von Interesse, da dadurch eine eventuelle Verschiebung der Verteilung der Y i zu den Größen X i mit Hilfe eines Tests auf einen Median oder Erwartungswert 0 der Verteilung der Differenzzufallsgrößen D i, i = 1,..., n überprüft werden kann. a) Gepaarter t Test Mit dem Ein-Stichproben-t-Test für D = X Y oder dem gepaarten t Test für X und Y wird die Gleichheit der Erwartungswerte von X und Y bei einer normalverteilten Differenz D = X Y mit unbekannter Varianz überprüft. Geg.: konkrete gepaarte Stichprobe (x 1, y 1 )..., (x n, y n ). Vor.: normalverteilte Zufallsgröße D = X Y mit unbekannter Varianz σ 2 ; repräsentative Stichprobe. Hyp.: H 0 : EX = EY, H 1 : EX EY (zweiseitiger Test) bzw. H 1 : EX < EY oder H 1 : EX > EY (einseitige Tests). R-Aufruf: t.test(x,y,paired=true) bei Datenvektoren x und y. Ausreißer in den Daten können Probleme bereiten. Bsp. 1 gepaarter t Test Simulation einer gepaarten Stichprobe durch Beziehung: fester Wert 2 + simulierte normalverteilte zufällige Fehler für die x und y Werte jeweils. 118

119 > x=2+rnorm(30,sd=0.1) > y=2+rnorm(30,sd=0.1) Berechnung der Differenzen und Shapiro-Wilk-Test auf Normalverteilung. > d=x-y > shapiro.test(d) Shapiro-Wilk normality test data: d W = , p-value = # Annahme Durchführung des Ein-Stichproben-t-Tests für d und des äquivalenten gepaarten t Tests für x und y. > t.test(d) One Sample t-test data: d t = , df = 29, p-value = alternative hypothesis: true mean is not equal to 0 95 percent confidence interval: sample estimates: mean of x # Annahme > t.test(x,y,paired=true) Paired t-test data: x and y t = , df = 29, p-value = # Annahme alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: sample estimates: mean of the differences

120 Bsp. 2 gepaarter t Test Simulation einer gepaarten Stichprobe durch Beziehungen 2 (bei x) bzw. 3 (bei y) + simulierte normalverteilte zufällige Fehler. > x=2+rnorm(30,sd=0.1) > y=3+rnorm(30,sd=0.05) Berechnung der Differenzen und Shapiro-Wilk-Test auf Normalverteilung. > d=x-y > shapiro.test(d) Shapiro-Wilk normality test data: d W = , p-value = # Annahme Durchführung des Ein-Stichproben-t-Tests für d und des äquivalenten gepaarten t Tests für x und y. > t.test(d) One Sample t-test data: d t = , df = 29, p-value < 2.2e-16 alternative hypothesis: true mean is not equal to 0 95 percent confidence interval: sample estimates: mean of x # Ablehnung > t.test(x,y,paired=true) Paired t-test data: x and y t = , df = 29, p-value < 2.2e-16 # Ablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: sample estimates: 120

121 mean of the differences b) Vorzeichentest für eine gepaarte Stichprobe Bsp. Der Vorzeichentest für eine gepaarte Stichprobe ist ein Test über den Median 0 der stetigen Verteilung von D = X Y. Bei Ablehnung der Nullhypothese kann man folglich auf eine unterschiedliche mittlere Lage der x und der y Werte schließen. Geg.: konkrete gepaarte Stichprobe (x 1, y 1 )..., (x n, y n ). Vor.: Die Zufallsgröße D = X Y besitzt eine stetige Verteilung; es liegt eine repräsentative gepaarte Stichprobe vor. Hypothesen: H 0 : D 0.5 = 0, H 1 : D R-Aufruf: binom.test(table(x<y)) bei Datenvektoren x und y. Bindungen können problematisch sein. Vorzeichentest für eine gepaarte Stichprobe Das Vorgehen ist analog zum 2. Anwendungsbeispiel für den gepaarten t Test, jedoch mit exponentialverteilten Fehlern. > x=2+rexp(30) # verschobene Exponentialverteilung > y=3+rexp(30) # verschobene Exponentialverteilung > shapiro.test(x-y) # Test auf Normalverteilung Shapiro-Wilk normality test data: x - y W = , p-value = # Ablehnung Vorzeichentest für eine gepaarte Stichprobe. > binom.test(table(x<y)) Exact binomial test data: table(x < y) number of successes = 7, number of trials = 30, p-value = alternative hypothesis: true probability of success is not equal to

122 95 percent confidence interval: sample estimates: probability of success c) Gepaarter Wilcoxon-Vorzeichen-Rang-Test Der gepaarte Wilcoxon-Vorzeichen-Rang-Test ist ein Test über das Symmetriezentrum 0 (und damit den Median 0) der stetigen Verteilung von D = X Y. Bei Ablehnung der Nullhypothese kann man folglich auf eine unterschiedliche mittlere Lage der x und der y Werte schließen. Geg.: konkrete gepaarte Stichprobe (x 1, y 1 )..., (x n, y n ). Vor.: Die Zufallsgröße D = X Y besitzt eine stetige und symmetrische Verteilung; es liegt eine repräsentative gepaarte Stichprobe vor. Hyp.: H 0 : Die Verteilung von D = X Y ist symmetrisch um 0 ; H 1 : Die Verteilung von D = X Y ist symmetrisch um c 0. R-Aufruf: wilcox.test(x,y,paired=true) bei Datenvektoren x und y. Bindungen können problematisch sein. Bsp. gepaarter Wilcoxon-Vorzeichen-Rang-Test Das Vorgehen ist analog zum 2. Anwendungsbeispiel für den gepaarten t Test, jedoch werden hier t verteilte Fehler verwendet. > x=2+0.1*rt(30,df=10) # t-verteilung mit 10 Freiheitsgraden > y=3+0.1*rt(30,df=10) # t-verteilung ist symmetrisch > d=x-y > shapiro.test(d) # Test auf Normalverteilung data: d Shapiro-Wilk normality test W = , p-value = # Ablehnung 122

123 Die Anwendung des Wilcoxon-Vorzeichen-Rang-Tests auf die Differenzen bzw. gepaart ergibt > wilcox.test(d) data: d Wilcoxon signed rank test V = 0, p-value = 1.863e-09 alternative hypothesis: true location is not equal to 0 > wilcox.test(x,y,paired=true) Wilcoxon signed rank test data: x and y V = 0, p-value = 1.863e-09 alternative hypothesis: true location shift is not equal to 0 # Ablehnung # Ablehnung Tests für zwei oder mehr (unabhängige) Stichproben (stetige Skala) Von besonderer Bedeutung sind statistische Tests bezüglich der Lageparameter für die (unabhängigen) Zufallsgrößen X, Y bei zwei Stichproben bzw. X 1,..., X k bei mehreren Stichproben. Um derartige Tests anwenden zu können, müssen im Allgemeinen vorher Annahmen über die Verteilungen der Einzelzufallsgrößen und teilweise auch über die Gleichheit der Varianzen überprüft werden. Es können wieder spezielle Tests verwendet werden, falls die Merkmalszufallsgrößen normalverteilt sind. Im Fall von nichtnormalverteilten Zufallsgrößen können oft rangbasierte (sogenannte verteilungsfreie) Tests verwendet werden. Diese können auch für normalverteilte Daten verwendet werden, sind dann aber nicht so effektiv wie die speziellen Tests. a) Anpassungstests für mehrere Stichproben (stetige Skala) Statistische Tests über die Verteilung werden in dieser Situation oft so durchgeführt, dass für jede beteiligte reelle Stichprobe ein geeigneter Anpassungstest durchgeführt wird. Damit können beim Test auf Normalverteilung zwei (bzw. k) einzelne Shapiro- Wilk-Tests für X und Y im Zweistichprobenfall (bzw. X 1,..., X k im k Stichprobenfall) durchgeführt werden. 123

124 Analog können für andere Verteilungen zwei (bzw. k) einzelne χ 2 Anpassungstests oder Kolmogorow-Smirnow-Tests durchgeführt werden. Da bei der Durchführung mehrerer Tests, die nur zusammen eine Gesamtaussage erlauben, eine vorgegebene Wahrscheinlichkeit für einen Fehler 1. Art für die Gesamtaussage nicht mit dem entsprechenden Niveau der einzelnen beteiligten Tests übereinstimmt, sollte man in einer solchen Situation die sogenannte Bonferroni-Methode oder Bonferroni-Korrektur anwenden. b) Bonferroni-Methode oder Bonferroni-Korrektur Angenommen eine Hypothese setzt sich aus k Einzelhypothesen wie folgt zusammen: H 0 : H H k 0, H 1 : H H k 1. Sind z.b. die k Zufallsgrößen X 1,..., X k gegeben, erhält man die Hypothesen H 0 : alle k ZG sind normalverteilt, H 1 : mind. eine ZG X i in obiger Weise aus den Einzelhypothesen ist nicht normalverteit H i 0 : X i ist normalverteilt, H i 1 : X i ist nicht normalverteilt. Man führt nun k Tests bezüglich der Einzelhypothesen H i durch, und entscheidet dann wie folgt: Man verwirft H 0, wenn mindestens ein Einzeltest die Nullhypothese H0 i sonst behält man H 0 bei. verwirft, Führt man die Einzeltest jeweils zum Signifikanzniveau α durch und bezeichne A j, j = 1,..., k, das zufällige Ereignis, dass der j te Test seine Nullhypothese ablehnt, so gilt unter der Annahme der Unabhängigkeit der Ereignisse A i und kleinem α : α = P(H 0 wird verworfen H 0 wahr) = P(A 1... A k H 0 wahr) = 1 P(A 1 c... A k c H 0 wahr) = 1 P(A c 1 H 0 wahr)... P(A c k H 0 wahr) ( ) k = 1 (1 α) k = k α α ( 1) k α k 2 k α. Folglich sollte man als Niveau der Einzeltests α = α k wählen. 124

125 c) F Test für Varianzen zweier normalverteilter Merkmale Der F Test dient zum Vergleich der Varianzen zweier unabhängiger normalverteilter Merkmale mit unbekannten Erwartungswerten. Geg.: 2 Stichproben x 1,..., x n und y 1,..., y m (die Stichprobenumfänge können unterschiedlich sein). Vor.: Die Zufallsgrößen X und Y sind unabhängig und normalverteilt mit (unbekannten) Erwartungswerten µ X und µ Y und Varianzen σ 2 X und σ2 Y ; repräsentative Stichproben. Hyp.: H 0 : σ 2 X = σ2 Y, H 1 : σ 2 X σ2 Y (zweiseitiger Test). R-Aufruf: var.test(,). Ausreißer in den Daten können Probleme bereiten. Die Testgröße ist F = S2 X S 2 Y Freiheitsgraden. Einseitige Tests sind auch möglich., sie ist unter H 0 F verteilt mit (n 1, m 1) Bsp. F Test für Varianzen zweier normalverteilter Merkmale (α = 0.05) Simulation der Stichproben und Test auf Normalverteilung (mit Bonferroni- Korrektur). > x=rnorm(30) > y=rnorm(40) > shapiro.test(x) Shapiro-Wilk normality test data: x W = , p-value = # >0.05/2, also Annahme > shapiro.test(y) Shapiro-Wilk normality test data: y W = , p-value = # >0.05/2, also Annahme Durchführung F Test. 125

126 > var.test(x,y) F test to compare two variances data: x and y F = 1.166, num df = 29, denom df = 39, p-value = alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: sample estimates: ratio of variances d) Bartlett-Test für Varianzen von Normalverteilungen Der Bartlett-Test dient zum Vergleich der Varianzen mehrerer unabhängiger normalverteilter Merkmale. Geg.: k Stichproben x 11,..., x 1n1 usw. bis x k1,..., x knk (die Stichprobenumfänge können unterschiedlich sein). Vor: Die Zufallsgrößen X i, i = 1,..., k sind unabhängig und normalverteilt mit (unbekannten) Erwartungswerten µ i und Varianzen σ 2 i jeweils; repräsentative Stichproben. Hyp.: H 0 : σ 2 1 =... = σ 2 k, H 1 : σ 2 i σ 2 j für mindestens ein Paar (i, j). R-Aufruf: bartlett.test(). Ausreißer in den Daten können Probleme bereiten. Der Test ist ein asymptotischer Test, als Faustregel wird n i 5, i = 1,..., k, empfohlen. Einseitige Tests sind hier nicht möglich. Bsp. Bartlett-Test für Varianzen Simulation der Stichproben und Test auf Normalverteilung (mit Bonferroni- Korrektur). > x1=rnorm(30) # N(0,1) > x2=rnorm(30) # N(0,1) > x3=rnorm(50,mean=1,sd=2) # N(1,4) 126

127 > shapiro.test(x1) Shapiro-Wilk normality test data: x1 W = , p-value = # >0.05/3, also Annahme > shapiro.test(x2) Shapiro-Wilk normality test data: x2 W = , p-value = # >0.05/3, also Annahme > shapiro.test(x3) Shapiro-Wilk normality test data: x3 W = , p-value = # >0.05/3, also Annahme Durchführung Bartlett-Test. > bartlett.test(list(x1,x2,x3)) Bartlett test of homogeneity of variances data: list(x1, x2, x3) Bartlett s K-squared = , df = 2, p-value = 1.486e-05 e) Fligner-Test für Varianzen stetiger Merkmale Der Fligner-Test oder Fligner-Killeen-Median-Test dient zum Vergleich der Varianzen mehrerer unabhängiger stetig verteilter Merkmale. Geg.: k 2 Stichproben x 11,..., x 1n1 usw. bis x k1,..., x knk (die Stichprobenumfänge können unterschiedlich sein). Vor.: Die Zufallsgrößen X i, i = 1,..., k, sind unabhängig und stetig verteilt mit Varianzen σi 2 jeweils; repräsentative Stichproben. Hyp.: H 0 : σ 2 1 =... = σ 2 k, H 1 : σ 2 i σ 2 j für mindestens ein Paar (i, j). R-Aufruf: fligner.test(). Der Test ist ein rangbasierter Test, so dass Probleme bei Bindungen auftreten könnten. Einseitige Tests sind hier nicht möglich. 127

128 Bsp. Fligner-Test für Varianzen stetiger Merkmale Simulation exponentialverteilter Stichproben (unterschiedliche Varianzen) und Test auf Normalverteilung, um den stärkeren Bartlett-Test auszuschließen. > x1=rexp(30) > x2=1+2*rexp(40) # oder x2=1+rexp(40,rate=1/2) > x3=2+3*rexp(50) # oder x3=2+rexp(40,rate=1/3) > shapiro.test(x1) Shapiro-Wilk normality test data: x1 W = , p-value = # <0.05/3, also Ablehnung Durchführung Fligner-Test, da die Voraussetzungen für den Bartlett-Test nicht erfüllt sind. > fligner.test(list(x1,x2,x3)) Fligner-Killeen test of homogeneity of variances data: list(x1, x2, x3) Fligner-Killeen:med chi-squared = , df = 2, p-value = f) Zwei-Stichproben-t-Test Mit dem Zwei-Stichproben-t-Test wird die Gleichheit der Erwartungswerte zweier normalverteilter Merkmale mit unbekannter, aber übereinstimmender Varianz überprüft. Geg.: 2 konkrete Stichproben x 1,..., x n und y 1,..., y m (die Stichprobenumfänge können unterschiedlich sein). Vor.: Unabhängige normalverteilte Merkmalszufallsgrößen X und Y mit unbekannten Erwartungswerten µ X bzw. µ Y und unbekannter gleicher Varianz σ 2 ; repräsentative Stichproben. Hyp.: H 0 : µ X = µ Y, H 1 : µ X µ Y (zweiseitig) bzw. H 1 : µ X < µ Y oder H 1 : µ X > µ Y (einseitige Tests). R-Aufruf: t.test(x,y,var.equal=true) bei Datenvektoren x und y. Ausreißer in den Daten können Probleme bereiten. 128

129 Bsp. Zwei-Stichproben-t-Test Simulation unabhängiger normalverteilter Stichproben mit unterschiedlichen Erwartungswerten und Test auf Normalverteilung. > x=rnorm(30) # N(0,1) > y=rnorm(40,mean=1,sd=1) # N(1,1) > shapiro.test(x) Shapiro-Wilk normality test data: x W = , p-value = # >0.05/2, also Annahme > shapiro.test(y) Shapiro-Wilk normality test data: y W = , p-value = # >0.05/2, also Annahme Test auf Gleichheit der Varianzen und Zwei-Stichproben-t-Test. > var.test(x,y) F test to compare two variances data: x and y F = , num df = 29, denom df = 39, p-value = # >0.05 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: sample estimates: ratio of variances > t.test(x,y,var.equal=true) Two Sample t-test data: x and y t = , df = 68, p-value = # Ablehnung 129

130 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: sample estimates: mean of x mean of y g) Welchs-t-Test Mit Welchs-t-Test wird die Gleichheit der Erwartungswerte zweier normalverteilter Merkmale mit unbekannten Varianzen überprüft. Geg.: 2 konkrete Stichproben x 1,..., x n und y 1,..., y m (die Stichprobenumfänge können unterschiedlich sein). Vor.: Unabhängige normalverteilte Merkmalszufallsgrößen X und Y mit unbekannten Erwartungswerten µ X bzw. µ Y und unbekannten Varianzen σ 2 X bzw. σ 2 ; repräsentative Stichproben. Y Hyp.: H 0 : µ X = µ Y, H 1 : µ X µ Y (zweiseitig) bzw. H 1 : µ X < µ Y oder H 1 : µ X > µ Y (einseitige Tests). R-Aufruf: t.test(x,y) oder t.test(x,y,var.equal=false) bei Datenvektoren x und y. Ausreißer in den Daten können Probleme bereiten. Der Test ist ein asymptotischer Test. Bsp. Welchs-t-Test Simulation unabhängiger normalverteilter Stichproben mit unterschiedlichen Erwartungswerten und Varianzen und Test auf Normalverteilung. > x=rnorm(30) # N(0,1) > y=rnorm(40,mean=1,sd=0.5) # N(1,0.25) > shapiro.test(x) Shapiro-Wilk normality test data: x W = , p-value = # >0.05/2, also Annahme > shapiro.test(y) 130

131 Shapiro-Wilk normality test data: y W = , p-value = # >0.05/2, also Annahme Test auf Gleichheit der Varianzen und (da Ablehnung) Welchs-t-Test. > var.test(x,y) F test to compare two variances data: x and y F = , num df = 29, denom df = 39, p-value = 8.677e-06 # Ablehnung alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: sample estimates: ratio of variances > t.test(x,y) # oder t.test(x,y,var.equal=false) Welch Two Sample t-test data: x and y t = , df = , p-value = 1.402e-05 # Ablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: sample estimates: mean of x mean of y

132 h) Einfache Varianzanalyse (ANOVA) Bsp. Die einfache Varianzanalyse (ANOVA, von analysis of variance ) dient zum Test auf Gleichheit der Erwartungswerte mehrerer unabhängiger normalverteilter Merkmale. Geg.: k Stichproben x 11,..., x 1n1 usw. bis x k1,..., x knk (die Stichprobenumfänge können unterschiedlich sein). Vor.: Die Zufallsgrößen X i, i = 1,..., k, sind unabhängig und normalverteilt mit Erwartungswerten µ i jeweils und Varianz σ 2 (unbekannt, aber übereinstimmend); repräsentative Stichproben. Hyp.: H 0 : µ 1 =... = µ k, H 1 : µ i µ j für mindestens ein Paar (i, j). R-Aufruf: anova(). Der p Wert kann unter Pr(>F) abgelesen werden. Ausreißer in den Daten können Probleme bereiten. Einseitige Tests sind hier nicht möglich. Einfache Varianzanalyse Wir wenden die einfache Varianzanalyse auf die Breite des Kelchblattes ( Sepal.Width ) des Iris-Beispieldatensatzes an. Dabei erhält man 3 unabhängige Stichproben, wenn man dieses Merkmal jeweils für eine der 3 untersuchten Arten beobachtet. > data(iris) > shapiro.test(iris$sepal.width[1:50]) Shapiro-Wilk normality test # Laden, dann Tests auf Normalverteilung data: iris$sepal.width[1:50] W = , p-value = # >0.05/3, Annahme > shapiro.test(iris$sepal.width[51:100]) Shapiro-Wilk normality test data: iris$sepal.width[51:100] W = , p-value = # >0.05/3, Annahme > shapiro.test(iris$sepal.width[101:150]) Shapiro-Wilk normality test 132

133 data: iris$sepal.width[101:150] W = , p-value = # >0.05/3, Annahme Test auf Gleichheit der Varianzen. > bartlett.test(sepal.width Species,data=iris) Bartlett test of homogeneity of variances data: Sepal.Width by Species Bartlett s K-squared = , df = 2, p-value = # Annahme ANOVA. > anova(lm(sepal.width Species,data=iris)) Analysis of Variance Table Response: Sepal.Width Df Sum Sq Mean Sq F value Pr(>F) Species < 2.2e-16 *** Residuals Signif. codes: 0 *** ** 0.01 * Bemerkung: Im anova-aufruf steht lm() für linear model. Parallele Box-Plots zum Anwendungsbeispiel > boxplot(sepal.width Species,data=iris,notch=TRUE) 133

134 setosa versicolor virginica. i) Wilcoxon-Rang-Summen-Test Mit dem Wilcoxon-Rang-Summen-Test vergleicht man die Lageparameter zweier Merkmale mit stetiger Verteilung miteinander. Geg.: 2 konkrete Stichproben x 1,..., x n und y 1,..., y m (die Stichprobenumfänge können unterschiedlich sein). Vor.: unabhängige stetig verteilte Zufallsgrößen X und Y mit Verteilungsfunktionen F X (x) und F Y (x) = F X (x + c), x R ; repräsentative Stichproben. Hyp.: H 0 : c = 0, d.h. F X (x) = F Y (x) für alle x R, H 1 : c 0, d.h. F X (x) = F Y (x c) für alle x R. R-Aufruf: wilcox.test(x,y) bei Datenvektoren x und y. Wird die Nullhypothese abgelehnt, kann man auf unterschiedliche Lageparameter schließen. Auch einseitige Tests sind möglich. Dieser Test ist ein rangbasierter Test. Bindungen können problematisch sein. Bsp. Wilcoxon-Rang-Summen-Test Simulation unabhängiger exponentialverteilter Beobachtungswerte mit unterschiedlichen Erwartungswerten (Medianen,... ), dann Test auf Normalverteilung. 134

135 > x=rexp(30) > y=1+rexp(40) > shapiro.test(x) Shapiro-Wilk normality test data: x W = , p-value = 4.223e-06 # keine Normalverteilung Wilcoxon-Rang-Summen-Test. > wilcox.test(x,y) Wilcoxon rank sum test data: x and y W = 66, p-value = 5.848e-13 # Ablehnung alternative hypothesis: true location shift is not equal to 0 j) Kruskal-Wallis-Test Der Kruskal-Wallis-Test dient zum Vergleich der Lage mehrerer stetiger Merkmale, er verallgemeinert den Wilcoxon-Rang- Summen-Test. Geg.: k Stichproben x 11,..., x 1n1 usw. bis x k1,..., x knk. Vor.: Die Zufallsgrößen X i, i = 1,..., k, sind unabhängig und stetig verteilt mit Verteilungsfunktionen F i jeweils, so dass gilt F i (x) = F j (x + c ij ) für alle x R mit Konstanten c ij R ; repräsentative Stichproben. Hyp.: H 0 : c ij = 0 für alle i j, H 1 : c ij 0 für mindestens ein Paar (i, j). R-Aufruf: kruskal.test(). Dieser Test ist ein rangbasierter Test. Bindungen können problematisch sein. Bsp. Kruskal-Wallis-Test Simulation exponentialverteilter Stichproben (unterschiedliche Varianzen) und Test auf Normalverteilung, um die ANOVA auszuschließen. > x1=rexp(30) > x2=rexp(40) > x3=1+rexp(50) 135

136 > shapiro.test(x1) Shapiro-Wilk normality test data: x1 W = , p-value = # <0.05/3, also Ablehnung Kruskal-Wallis-Test. > kruskal.test(list(x1,x2,x3)) Kruskal-Wallis rank sum test data: list(x1, x2, x3) Kruskal-Wallis chi-squared = , df = 2, p-value = 5.15e Weitere ausgewählte statistische Tests a) Binomialtest Bsp. Der Binomialtest ist ein Test für die Erfolgswahrscheinlichkeit (den Parameter p) einer Bernoulli-verteilten Zufallsgröße (und damit einer diskreten Zufallsgröße). Geg.: Anzahl k der Erfolge in einer konkreten Stichprobe vom Umfang n. Vor.: Die Merkmalszufallsgröße X ist Bernoulli-verteilt mit unbekanntem Parameter p ; eine repräsentative Stichprobe liegt zugrunde. Hyp.: H 0 : p = p 0 (p 0 ist ein vorgebener Wert für die Erfolgswahrscheinlichkeit), H 1 : p p 0 (zweiseitig) bzw. H 1 : p < p 0 oder H 1 : p > p 0 (einseitig). R-Aufruf: binom.test(k,n,p 0 ) Binomialtest In einer Stichprobe von 100 Erzeugnissen wurden bei der Qualitätskontrolle 6 Ausschussteile gefunden. Kann man in dieser Situation von einer maximalen Sollausschussquote von 5% ausgehen oder muss man von einer größeren ausgehen? > binom.test(6,100,0.05,alternative="greater") Exact binomial test data: 6 and 100 number of successes = 6, number of trials = 100, p-value =

137 alternative hypothesis: true probability of success is greater than percent confidence interval: sample estimates: probability of success 0.06 Keine Ablehnung (Annahme) von H 0 : p = 0.05, d.h. die Ausschussquote ist nicht signifikant größer als 5% b) Korrelations- und Abhängigkeitstests Zwei weitere wichtige Gruppen von Tests sind die Korrelations- und Abhängigkeitstests. Für mehrdimensional normalverteilte Daten kann man den Pearson-Korrelationstest nutzen, um den Vorgabewert ϱ 0 = 0 für den gewöhnlichen Korrelationskoeffizienten zu überprüfen. Wird die Hypothese H 0 : Corr (X, Y ) = 0 abgelehnt, werden die normalverteilten Merkmale X und Y nicht als unabhängig angesehen. Für nichtnormalverteilte Zufallsvektoren kann man mit dem Spearman-Korrelationstest den Vorgabewert 0 für den Spearmanschen Rangkorrelationskoeffizienten r (S) X,Y und damit die Unabhängigkeit der Merkmale überprüfen. Die Unabhängigkeit zweier kategorieller Merkmale überprüft man mit dem χ 2 - Unabhängigkeitstest oder mit Fishers exaktem Test, falls dichotome Merkmale vorliegen c) Pearson-Korrelationstest Mit dem Pearson-Korrelationstest überprüft man, ob der (gewöhnliche oder Pearson-) Korrelationskoeffizient Corr (X, Y ) = ρ (X,Y ) eines normalverteilten Zufallsvektors (X, Y ) Null ist (dann sind die Komponenten X und Y auch stochastisch unabhängige Zufallsgrößen). Geg.: konkrete Stichprobe (x 1, y 1 ),..., (x n, y n ). Vor.: Der Zufallsvektor (X, Y ) hat eine zweidimensionale Normalverteilung mit unbekannten Parametern; repräsentative Stichprobe. Hyp.: H 0 : Corr (X, Y ) = 0, H 1 : Corr (X, Y ) 0 (zweiseitig) bzw. H 1 : Corr (X, Y ) < 0 oder H 1 : Corr (X, Y ) > 0 (einseitig). R-Aufruf: cor.test(x,y) (bei Datenvektoren x und y). Ausreißer in den Daten können Probleme bereiten. 137

138 5.1.7 Bsp- Pearson-Korrelationstest > x=rnorm(50) # Simulation N(0,1) > y=rnorm(50) # Simulation N(0,1) > shapiro.test(x) # Test auf Normalverteilung X Shapiro-Wilk normality test data: x W = , p-value = # >0.05/2, Annahme > shapiro.test(y) # Test auf Normalverteilung X Shapiro-Wilk normality test data: y W = , p-value = # >0.05/2, Annahme > cor.test(x,y) Pearson s product-moment correlation data: x and y t = , df = 48, p-value = # Annahme alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: sample estimates: cor Der Zufallsvektor (X + Y, Y ) ist, falls X und Y unabhängige standardnormalverteilte Zufallsgrößen sind, wieder ein normalverteilter Zufallsvektor, der Korrelationskoeffizient zwischen X + Y und Y ist jetzt positiv. > shapiro.test(x+y) # Test auf Normalverteilung X+Y Shapiro-Wilk normality test data: x + y W = , p-value = # >0.05/2, Annahme > cor.test(x+y,y,alternative="greater") 138

139 Pearson s product-moment correlation data: x + y and y t = , df = 48, p-value = 1.668e-10 # Ablehnung alternative hypothesis: true correlation is greater than 0 95 percent confidence interval: sample estimates: cor d) Spearman-Korrelationstest Mit dem Spearman-Korrelationstest überprüft man, ob der Spearmansche Rangkorrelationskoeffizient ϱ (S) (X, Y ) eines Zufallsvektors (X, Y ) Null ist. Wird diese Hypothese nicht angenommen, werden die Komponenten X und Y als stochastisch abhängige Zufallsgrößen angesehen. Geg.: konkrete Stichprobe (x 1, y 1 ),..., (x n, y n ). Vor.: Der Zufallsvektor (X, Y ) hat eine zweidimensionale stetige Verteilung; repräsentative Stichprobe. Hyp.: H 0 : ϱ (S) (X, Y ) = 0, H 1 : ϱ (S) (X, Y ) 0 (zweiseitig) bzw. H 1 : ϱ (S) (X, Y ) < 0 oder H 1 : ϱ (S) (X, Y ) > 0 (einseitig). R-Aufruf: cor.test(x,y,method="spearman") (bei Datenvektoren x und y). Bindungen können problematisch sein. Bsp. Spearman-Korrelationstest > x=rlnorm(50) # Simulation lognormale Werte > y=rlnorm(50) # unabhängige lognormale Werte > shapiro.test(x) # Test auf Normalverteilung Shapiro-Wilk normality test data: x W = , p-value = 1.396e-07 > cor.test(x,y,method="spearman") Spearman s rank correlation rho # <0.05/2, Ablehnung 139

140 data: x and y S = 21748, p-value = alternative hypothesis: true rho is not equal to 0 sample estimates: rho # Annahme e) χ 2 -Test auf Unabhängigkeit in Kontingenztafeln Der χ 2 -Test auf Unabhängigkeit in Kontingenztafeln oder χ 2 -Unabhängigkeitstest testet auf Unabhängigkeit zweier kategorieller Merkmale. Geg.: konkrete Stichprobe (x 1, y 1 ),..., (x n, y n ) oder Kontingenztafel, d.h. Tabelle mit den Häufigkeiten der Wertekombinationen in der Stichprobe. Vor.: kategorielle Merkmale X und Y ; repräsentative Stichprobe. Hyp.: H 0 : X und Y H 1 : X und Y sind stochastisch unabhängig; sind stochastisch abhängig. R-Aufruf: chisq.test(x,y) oder chisq.test(table(x,y)) (bei Datenvektoren x und y). Der Test ist ein asymptotischer Test. Die theoretischen Häufigkeiten von Merkmalskombinationen sollten unter H 0 möglichst den Wert 5 nicht unterschreiten. Bsp. χ 2 -Test auf Unabhängigkeit in Kontingenztafeln > x=sample(c("a","b","c"),200,true,c(0.2,0.2,0.6)) > y=sample(c("u","v","w"),200,true,c(0.5,0.2,0.3)) > table(x,y) y x u v w a b c > chisq.test(table(x,y)) Pearson s Chi-squared test data: table(x, y) X-squared = , df = 4, p-value = # Annahme > chisq.test(x,y) # andere Form des Aufrufes Pearson s Chi-squared test 140

141 data: table(x, y) X-squared = , df = 4, p-value = f) Fishers exakter Test Mit Fishers exaktem Test prüft man die Unabhängigkeit zweier dichotomer Merkmale. Geg.: konkrete Stichprobe (x 1, y 1 ),..., (x n, y n ) oder 2 2 Kontingenztafel, d.h. Tabelle (mit 2 Datenzeilen und -spalten) mit den Häufigkeiten der Wertekombinationen in der Stichprobe (auch Vierfeldertafel genannt). Vor.: Dichotome Merkmale X und Y (nur zwei mögliche Werte jeweils); repräsentative Stichprobe. Hyp.: H 0 : X und Y H 1 : X und Y sind stochastisch unabhängig; sind stochastisch abhängig. R-Aufruf: fisher.test(x,y) oder fisher.test(table(x,y)) (bei Datenvektoren x und y). Bsp. Fishers exakter Test > x=sample(c("a","b"),40,true,c(0.3,0.7)) > y=sample(c("u","v"),40,true,c(0.8,0.2)) > table(x,y) y x u v a 10 1 b 20 9 > fisher.test(x,y) Fisher s Exact Test for Count Data data: x and y p-value = alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: sample estimates: odds ratio # identische Ausgabe bei Aufruf > fisher.test(table(x,y)) # Annahme 141

142 5.1.8 Weitere Bemerkungen zu Tests Statistische Tests, bei denen die Testgrößen mit Hilfe von X oder/und S 2 berechnet werden (dies sind z.b. oft Tests mit Normalverteilungsvoraussetzung), haben oft Probleme, wenn bei größerem Stichprobenumfang Ausreißer in den Daten zu finden sind. Gibt es nicht zu viele Ausreißer und liegen diese nicht weit von den Ausreißergrenzen entfernt, kann man aber häufig noch mit diesen Tests arbeiten. Analog verfälschen Bindungen (die z.b. durch Rundung der Realisierungen stetiger Zufallsgrößen entstehen) die Ergebnisse von rangbasierten Tests. Für eine Reihe von Tests gibt es deshalb zu berücksichtigende Korrekturterme, um trotzdem zuverlässige Resultate zu erzielen. Ist bei einem einseitigen Test der p Wert größer als 0.5, sollte man noch einmal alles genau überprüfen, oft hat sich dann ein Fehler eingeschlichen bzw. Ausreißer verfälschen die Ergebnisse (oder das Testergebnis ist trivial). Homoskedastizität und Heteroskedastizität Bei einigen statistischen Tests und Modellen wird überprüft (siehe F Test, Bartlettoder Fligner-Test) bzw. vorausgesetzt oder verlangt (siehe Zwei-Stichproben-t- Test oder ANOVA), dass die Varianzen beteiligter Zufallsgrößen übereinstimmen. Dieses nennt man auch Homoskedastizität oder Varianzhomogenität. Im Falle unterschiedlicher Varianzen der relevanten Zufallsgrößen spricht man dagegen auch von Heteroskedastizität oder Varianzheterogenität bzw. Varianzinhomogenität. 142

143 143

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Aufgabenstellung und Ergebnisse Dr. Martin Becker Hinweise für die

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Grundwissen zur Stochastik

Grundwissen zur Stochastik Grundwissen zur Stochastik Inhalt: ABHÄNGIGE EREIGNISSE...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON ERGEBNISSEN...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON MERKMALEN IN VIERFELDERTAFELN...2 ABSOLUTE HÄUFIGKEIT...2

Mehr

Stochastische Unabhängigkeit. 01. Dezember 2014

Stochastische Unabhängigkeit. 01. Dezember 2014 Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

2. Übung zur Vorlesung Statistik 2

2. Übung zur Vorlesung Statistik 2 2. Übung zur Vorlesung Statistik 2 Aufgabe 1 Welche der folgenden grafischen Darstellungen und Tabellen zeigen keine (Einzel-)Wahrscheinlichkeitsverteilung? Kreuzen Sie die richtigen Antworten an und begründen

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Wahrscheinlichkeitstheorie (Klausuraufgaben) Marcel Bliem Marco Boßle Jörg Hörner Mathematik Online Herbst 2010 Bliem/Boßle/Hörner (MO) PV-Kurs HM 3 1 / 7

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2010/11.

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2010/11. Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2010/11 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

(8 + 2 Punkte) = = 0.75

(8 + 2 Punkte) = = 0.75 Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern. 10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung

Mehr

Übungen zu Wahrscheinlichkeitstheorie und Statistik

Übungen zu Wahrscheinlichkeitstheorie und Statistik Übungen zu Wahrscheinlichkeitstheorie und Statistik SS 2012 (Vorlesung von Prof. Reinhard Bürger) 1) Man gebe für die folgenden Experimente Wahrscheinlichkeitsmodelle an: (a) Wurf mit einer homogenen Münze,

Mehr

11 Unabhängige Ereignisse

11 Unabhängige Ereignisse 11 Unabhängige Ereignisse In engem Zusammenhang mit dem Begriff der bedingten Wahrscheinlichkeit steht der Begriff der Unabhängigkeit von Ereignissen. Wir klären zuerst, was man unter unabhängigen Ereignissen

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung? Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße Von Florian Modler In diesem Artikel möchte ich einen kleinen weiteren Exkurs zu meiner Serie Vier Wahrscheinlichkeitsverteilungen geben

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,

Mehr

Stochastik für Wirtschaftswissenschaftler

Stochastik für Wirtschaftswissenschaftler Stochastik für Wirtschaftswissenschaftler Hartmut Lanzinger Wintersemester 0/ Inhaltsverzeichnis Wahrscheinlichkeiten Einführung.......................................... Laplacesche Wahrscheinlichkeitsräume...........................

Mehr

Ist P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments,

Ist P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments, . Binomialverteilung ==================================================================.1 Bernoulli-Experimente und Bernoullikette -----------------------------------------------------------------------------------------------------------------

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren. 1. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen)

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren. 1. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen) Dr. Jürgen Senger INDUKTIVE STATISTIK Wahrscheinlichkeitstheorie, Schätz- und Testverfahren ÜUNG. - LÖSUNGEN. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen Die Urne enthält 4 weiße und 8 rote Kugeln.

Mehr