Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Größe: px
Ab Seite anzeigen:

Download "Mini-Skript Wahrscheinlichkeitstheorie und Statistik"

Transkript

1 Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit Rechenregeln für Wahrscheinlichkeiten Interpretation von Wahrscheinlichkeiten Unabhängigkeit von Ereignissen Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Satz der totalen Wahrscheinlichkeit und Satz von Bayes Zufallsvariablen und Wahrscheinlichkeitsverteilungen Definition einer Zufallsvariablen Wahrscheinlichkeitsverteilung auf R Arten von Zufallsvariablen Erwartungswert und Varianz Die wichtigsten diskreten Verteilungen Stetige Verteilungen Wahrscheinlichkeitsdichte Die wichtigsten stetigen Verteilungen Transformationen Simulation von Zufallsvariablen Mehrere Zufallsvariablen und Funktionen davon Die i.i.d. Annahme Funktionen von Zufallsvariablen Das Gesetz der Grossen Zahlen und der Zentrale Grenzwertsatz Gemeinsame und bedingte Verteilungen Diskreter Fall Stetiger Fall Gemeinsame Dichte Randdichte und bedingte Dichte

2 6.3 Erwartungswert bei mehreren Zufallsvariablen Kovarianz und Korrelation Zweidimensionale Normalverteilung Dichte einer Summe von zwei Zufallsvariablen Mehr als 2 Zufallsvariablen Deskriptive Statistik Kennzahlen Histogramm und Boxplot Normal- und QQ-Plot Schliessende Statistik: Konzepte und erste Anwendungen für diskrete Zufallsvariablen Daten als Realisierungen von Zufallsvariablen Erste Konzepte Punktschätzungen Momentenmethode Maximum-Likelihood Schätzer Eigenschaften von Schätzern Das Testproblem Zusammenfassung eines statistischen Tests Macht eines Tests P-Wert Vertrauensintervalle Mehrere Beobachtungen Statistik bei normalverteilten Daten Schätzungen Tests Z-Test (σ bekannt) t-test (σ unbekannt) Vergleich zweier Stichproben Gepaarte und ungepaarte Stichproben Gepaarte Vergleiche Zwei-Stichproben Tests

3 1 1 Der Begriff der Wahrscheinlichkeit Stochastik befasst sich mit Zufallsexperimenten: deren Ergebnisse sind unter gleichen Versuchsbedingungen verschieden. Beispiele: Kartenziehen, Würfeln, Roulette Simulation komplexe Phänomene (zumindest approximativ): Börse, Data-Mining, Genetik, Wetter Ergebnisse von Zufallsexperimenten werden in Ereignisse zusammengefasst. Wir definieren Ereignisraum (Grundraum) Ω: Menge aller möglichen Ergebnisse des Zufallsexperiments Elementarereignisse ω: Elemente von Ω, also die möglichen Ergebnisse des Zufallsexperiments Ereignis: Teilmenge von Ω Operationen der Mengenlehre haben natürliche Interpretation in der Sprache der Ereignisse. So haben wir beispielsweise A B bedeutet A und B. A B bedeutet A oder B ( oder zu verstehen als und/oder ). A c bedeutet nicht A. A \ B = A B c bedeutet A ohne B. A und B heissen disjunkt (d.h. A und B schliessen sich gegenseitig aus), falls A B =, wobei wir mit die leere Menge bezeichnen. Es gelten die De Morgan sche Regeln (A B) c = A c B c (A B) c = A c B c. Das Vorgehen der Stochastik zur Lösung eines Problems kann in drei Schritte unterteilt werden: 1. Man bestimmt die Wahrscheinlichkeiten gewisser Ereignisse A i. Dabei sind Expertenwissen, Daten und Plausibilitäten wichtig. 2. Man berechnet aus den Wahrscheinlichkeiten P (A i ) die Wahrscheinlichkeiten von gewissen anderen Ereignissen B j gemäss den Gesetzen der Wahrscheinlichkeitstheorie (oft vereinfachend unter Unabhängigkeitsannahme). 3. Man interpretiert die Wahrscheinlichkeiten P (B j ) im Hinblick auf die Problemstellung.

4 2 Das Bestimmen von Wahrscheinlichkeiten (siehe Schritt 1) wird oft konkreter formalisiert. Beispiel: Kombinatorische Abzählung bei endlichem Ω. Die Wahrscheinlichkeit von einem Ereignis A ist gegeben durch P (A) = A ( ) Anzahl günstige Fälle =. Ω Anzahl mögliche Fälle Dies ist das Laplace-Modell. Dem Laplace-Modell liegt die uniforme Verteilung von Elementarereignissen ω zugrunde: P ( {ω} ) = 1 Ω (ω Ω). Andere Wahrscheinlichkeitsverteilungen werden mit Hilfe des Konzepts von Zufallsvariablen (siehe Kapitel 3) eingeführt. Es sei aber bereits hier festgehalten: die Stochastik geht weit über das Laplace-Modell hinaus. Für viele Anwendungen ist das Laplace-Modell ungeeignet. 1.1 Rechenregeln für Wahrscheinlichkeiten Die drei grundlegenden Regeln (Axiome) sind 1. P (A) 0: Wahrscheinlichkeiten sind immer nicht-negativ. 2. P (Ω) = 1: sicheres Ereignis Ω hat Wahrscheinlichkeit eins. 3. P (A B) = P (A) + P (B) für alle Ereignisse A, B, die sich gegenseitig ausschliessen (d.h. A B = ). Weitere Regeln werden daraus abgeleitet, z.b. P (A c ) = 1 P (A) für jedes Ereignis A, P (A B) = P (A) + P (B) P (A B) für je zwei Ereignisse A und B, P (A 1... A n ) P (A 1 ) P (A n ) für je n Ereignisse A 1,..., A n, P (B) P (A) für je zwei Ereignisse A und B mit B A. P (A \ B) = P (A) P (B) für je zwei Ereignisse A und B mit B A. 1.2 Interpretation von Wahrscheinlichkeiten Die beiden wichtigsten Interpretationen sind die Idealisierung der relativen Häufigkeiten bei vielen unabhängigen Wiederholungen (frequentistisch) und das (subjektive) Mass für den Glauben, dass ein Ereignis eintreten wird (Bayes sch). Frequentistisch: betrachte die relative Häufigkeit eines Ereignis A in n unabhängigen Wiederholungen desselben Experiments, f n [A] = (Anzahl Auftreten des Ereignis A in n Experimenten)/n. Dieses Mass f n [ ] basiert auf Daten oder Beobachtungen. Falls n gross ist, so gilt f n [A] n P (A), wobei P (A) ein Mass in einem Modell ist (keine Experimente oder Daten). Die Statistik befasst sich grösstenteils damit, wie man von Daten auf ein Modell (induktiv) schliessen kann, siehe später.

5 3 1.3 Unabhängigkeit von Ereignissen Wenn zwischen zwei Ereignissen A und B kein kausaler Zusammenhang besteht (d.h. es gibt keine gemeinsamen Ursachen oder Ausschliessungen), dann werden sie unabhängig genannt. Genauer: Zwei Ereignisse A und B heissen (stochastisch) unabhängig 1 wenn P (A B) = P (A) P (B). (1) Die n Ereignisse A 1,... A n heissen unabhängig, wenn für jedes k n und alle 1 i 1 <... < i k n gilt P (A i1... A ik ) = P (A i1 ) P (A ik ). Achtung: Unabhängige Ereignisse sind nicht disjunkt und disjunkte Ereignisse sind nicht unabhängig (ausser wenn ein Ereignis Wahrscheinlichkeit 0 hat). Unabhängigkeit hängt ab von den Wahrscheinlichkeiten, während Disjunktheit nur ein mengentheoretischer Begriff ist. 2 Bedingte Wahrscheinlichkeiten Oft besteht ein Zufallsexperiment aus verschiedenen Stufen, und man erfährt das Resultat auch entsprechend diesen Stufen. Im einfachsten Fall erfährt man in der ersten Stufe, ob ein bestimmtes Ereignis B eingetreten ist oder nicht, und in der zweiten Stufe erfährt man, welches Ergebnis ω eingetreten ist. 2.1 Bedingte Wahrscheinlichkeiten Im Allgemeinen wird die Information aus der ersten Stufe die Unsicherheit über die zweite Stufe verändern. Diese modifizierte Unsicherheit wird gemessen durch die bedingte Wahrscheinlichkeit von A gegeben B bzw. B c, definiert durch P (A B) := P (A B) P (B) bzw. P (A B c ) := P (A Bc ) P (B c. ) Dass diese Definition sinnvoll ist, kann man anhand der Entsprechung von Wahrscheinlichkeiten und relativen Häufigkeiten sehen. Insbesondere gilt für 2 Ereignisse A, B mit P (A) 0 und P (B) 0: A, B unabhängig P (A B) = P (A) P (B A) = P (B). (2) 2.2 Satz der totalen Wahrscheinlichkeit und Satz von Bayes Die obige Definition kann man aber auch als P (A B) = P (A B) P (B) lesen, d.h. P (A B) ist bestimmt durch P (A B) und P (B). In vielen Anwendungen wird dieser Weg beschritten. Man legt die Wahrscheinlichkeiten für die erste Stufe P (B) und die bedingten Wahrscheinlichkeiten P (A B) und P (A B c ) für die zweite Stufe gegeben die erste fest (aufgrund von Daten, Plausibilität und subjektiven Einschätzungen). Dann lassen sich die übrigen Wahrscheinlichkeiten berechnen. Es gilt zum Beispiel der folgende Satz. 1 Eine andere (vielleicht sogar intuitivere) Charakterisierung der Unabhängigkeit zweier Ereignisse ist in Formel (2) gegeben.

6 4 Satz der totalen Wahrscheinlichkeit (I) P (A) = P (A B) + P (A B c ) = P (A B) P (B) + P (A B c ) P (B c ). Dieses Vorgehen wird besonders anschaulich, wenn man das Experiment als Baum darstellt. Wenn man dagegen von den Wahrscheinlichkeiten der Durchschnitte ausgeht, wählt man besser eine Matrixdarstellung. Wenn die einzelnen Stufen komplizierter sind, geht alles analog. Betrachte den Fall mit k Ereignissen auf der ersten Stufe B 1,... B k, wobei B i B j = falls i j und B 1... B k = Ω. Satz der totalen Wahrscheinlichkeit (II) P (A) = k P (A B i ) P (B i ). In manchen Situationen erhält man die Information über die verschiedenen Stufen aber nicht in der ursprünglichen Reihenfolge, d.h. man kennt zuerst das Ergebnis der zweiten Stufe, weiss also z.b. dass A eingetreten ist. In einem solchen Fall will man die bedingten Wahrscheinlichkeiten der ersten Stufe gegeben die zweite Stufe P (B i A) berechnen. Das Ergebnis liefert der folgende Satz: Satz von Bayes P (B i A) = P (A B i ) P (B i ) P (A B 1 ) P (B 1 ) + + P (A B k ) P (B k ). Oft ist das numerische Resultat einer solchen Berechnung stark verschieden von dem, was man naiverweise erwartet. Der Satz von Bayes ist vor allem in der subjektiven Wahrscheinlichkeitstheorie sehr wichtig: Wenn man für die verschiedenen Möglichkeiten B 1,... B k subjektive Wahrscheinlichkeiten festlegt und danach erfährt, dass A eingetreten ist, dann muss man die subjektiven Wahrscheinlichkeiten gemäss diesem Satz modifizieren. 3 Zufallsvariablen und Wahrscheinlichkeitsverteilungen Ergebnisse eines physikalischen Versuchs (Zufallsexperiment) sind oft Zahlen (Messungen). Diese werden als Beobachtung von so genannten Zufallsvariablen interpretiert, d.h. beobachtet wird nicht das ω welches bei einem Zufallsexperiment herauskommt, sondern die Werte aller beobachteten Zufallsvariablen. 3.1 Definition einer Zufallsvariablen Eine Zufallsvariable X ist ein Zufallsexperiment mit möglichen Werten in R, bzw. in einer Teilmenge von R, z.b. N 0 = {0, 1,...}. Deren Wert ist im Voraus nicht bekannt, sondern hängt vom Ergebnis eines Zufallsexperiments ab. Mathematisch ist eine Zufallsvariable einfach nur eine Funktion von Ω nach R: X : Ω R ω X(ω). Das heisst dem Ergebnis ω des Zufallsexperiments wird die Zahl X(ω) zugewiesen.

7 5 Konvention: Wir verwenden Grossbuchstaben X für die Zufallsvariable (Funktion) und Kleinbuchstaben x für die realisierten Werte. {X = x} ist also das Ereignis, dass die Zufallsvariable X den Wert x annimmt, siehe auch unten. Beispiel: Wert einer zufällig gezogenen Jasskarte. Ω = {Jasskarten}; ein ω Ω ist z.b. ein Schilten-As; Zufallsvariable X : As irgendeiner Farbe 11 König irgendeiner Farbe 4... Brettchen irgendeiner Farbe Wahrscheinlichkeitsverteilung auf R Eine Zufallsvariable X legt eine Wahrscheinlichkeit Q auf R fest, die sogenannte Verteilung von X: Q(B) = P ( {ω; X(ω) B} ) = P (X B) (B R). (Wir könnten auch direkt den Grundraum Ω = R wählen und dann eine Wahrscheinlichkeit Q( ) für geeignete Ereignisse B R definieren). Beispiel: Wert einer zufällig gezogenen Jasskarte (Fortsetzung). In obigem Beispiel ist bespielsweise Q(11) = P (As irgendeiner Farbe) = 4/36. Die kumulative Verteilungsfunktion ist definiert als F (b) = P (X b) = Q ( (, b] ). Sie enthält dieselbe Information wie die Verteilung Q( ), ist aber einfacher darzustellen. Die kumulative Verteilungsfunktion F hat folgende Eigenschaften: F ist monoton steigend lim x F (x) = 0 und lim x F (x) = 1 F ist rechts-stetig. Die Umkehrung der Verteilungsfunktion stellen die sogenannten Quantile dar. Für α (0, 1) ist das α-quantil von X definiert als das kleinste x R für welches F (x) α gilt, also q α := q(α) := min{x R F (x) α} (α (0, 1)). Das 1 2 -Quantil von X heisst auch Median von X. Falls F stetig und streng monoton steigend ist, gilt F (q α ) = α bzw. äquivalent dazu q α = F 1 (α).

8 6 3.3 Arten von Zufallsvariablen Eine Zufallsvariable X heisst diskret, falls die Menge W der möglichen Werte von X endlich oder abzählbar ist. Mögliche Wertebereiche sind zum Beispiel W = {0, 1, 2,..., 100} oder W = N 0 = {0, 1, 2,...}. Die Verteilung einer diskreten Zufallsvariablen ist festgelegt durch die Angabe der sogenannten Wahrscheinlichkeitsfunktion: p(x) := P (X = x) (x W ). Offensichtlich ist die kumulative Verteilungsfunktion eine Treppenfunktion mit Sprüngen an den Stellen x W mit Sprunghöhen p(x), also nicht stetig. Ferner gilt P (X B) = x B p(x). Man summiert also einfach nur die Einzelwahrscheinlichkeiten auf. Eine Zufallsvariable X heisst stetig, falls die Menge der möglichen Werte W ein Intervall enthält. Zum Beispiel W = [0, 1] oder W = R. 3.4 Erwartungswert und Varianz Eine Verteilung einer Zufallsvariablen X kann durch mindestens zwei Kennzahlen zusammengefasst werden, eine für die Lage (der Erwartungswert E [X] = µ X ) und eine für die Streuung (die Standardabweichung σ X, bzw. die Varianz Var (X)). Der Erwartungswert einer diskreten Zufallsvariable X ist definiert durch µ X := E [X] := x W xp(x), für den Erwartungswert einer transformierten diskreten Zufallsvariablen Y = f(x) ergibt sich daraus E [Y ] = E [f(x)] = x W f(x)p(x). In der frequentistischen Interpretation ist der Erwartungswert eine Idealisierung des arithmetischen Mittels der Werte einer Zufallsvariablen bei vielen Wiederholungen. Also: E [X] ist eine Kennzahl im Modell der Wahrscheinlichkeitstheorie. Die Varianz einer diskreten Zufallsvariable X ist definiert durch Var (X) := E [ (X E [X]) 2] = x W(x µ X ) 2 p(x). Die Standardabweichung ist die Wurzel aus der Varianz, d.h. σ X := Var (X). Wie der Erwartungswert hat die Standardabweichung die gleichen Einheiten wie die Zufallsvariable X (im Gegensatz zur Varianz, die die quadrierten Einheiten hat) und ist ein Mass dafür, wie weit entfernt eine Realisierung der Zufallsvariablen X im Mittel von ihrem Erwartungswert entfernt ist. Je grösser also die Standardabweichung ist, desto grösser ist die Streuung um den Erwartungswert.

9 7 Die folgenden Rechenregeln werden immer wieder gebraucht: E [a + bx] = a + be [X], a, b R Var (X) = E [ X 2] E [X] 2 Var (a + bx) = b 2 Var (X). 3.5 Die wichtigsten diskreten Verteilungen Die Binomialverteilung (mit den Parametern n und p), mit Bin (n, p) bezeichnet, ist die Verteilung der Anzahl Erfolge bei n unabhängigen Wiederholungen eines Experiments mit Erfolgswahrscheinlichkeit p. Hier ist W = {0, 1,..., n}, p(x) = ( ) n p x (1 p) n x x E [X] = np Var (X) = np(1 p). Die Poissonverteilung (mit Parameter λ), mit Pois (λ) bezeichnet, ist eine Approximation der Binomialverteilung für grosses n und kleines p, mit np = λ. Hier ist W = {0, 1,...}, λ λx p(x) = e x! E [X] = λ Var (X) = λ. Die Anzahl Ausfälle einer Komponente oder eines Systems in einem Intervall der Länge t ist oft in erster Näherung Poisson-verteilt mit Parameter λt. Die geometrische Verteilung (mit Parameter p), mit Geom (p) bezeichnet, ist die Verteilung der Anzahl Wiederholungen, bis ein Ereignis mit Wahrscheinlichhkeit p eintritt. Hier ist W = {1, 2,...}, p(x) = p(1 p) x 1 E [X] = 1 p Var (X) = 1 p p 2. 4 Stetige Verteilungen Bei einer stetigen Zufallsvariablen X ist P (X = x) = 0 für jedes feste x. Wir betrachten nur Fälle, wo P (x < X x + h) für kleine h ungefähr proportional zu h ist. Die Proportionalitätskonstante heisst die Dichte f von X. 4.1 Wahrscheinlichkeitsdichte Die Dichte einer stetigen Verteilung P ist definiert als P (x < X x + h) F (x + h) F (x) f(x) = lim = lim. h 0 h h 0 h

10 8 Dabei sind wir stillschweigend davon ausgegangen, dass die Ableitung der kumulativen Verteilungsfunktion existiert. Zwischen der Dichte f und der kumulativen Verteilungsfunktion F bestehen die folgenden Beziehungen: f(x) = F (x) F (x) = x f(u) du. Hat man also eine Dichte, so erhält man durch integrieren die kumulative Verteilungsfunktion. Umgekehrt erhält man durch Ableiten der kumulativen Verteilungsfunktion die Dichte. Damit die Funktion f( ) eine Dichte ist, muss gelten f(x) 0, sowie f(x) dx = 1. Erwartungswert und Varianz berechnen sich gemäss E [X] = µ X = xf(x) dx Var (X) = σ 2 X = Es gelten die gleichen Rechenregeln wie im diskreten Fall (Kapitel 3.4). (x µ X ) 2 f(x) dx. 4.2 Die wichtigsten stetigen Verteilungen Die uniforme Verteilung (mit den Parametern a, b), mit Uni (a, b) bezeichnet, tritt z.b. auf bei Rundungsfehlern und als Formalisierung der völligen Ignoranz. Hier ist W = [a, b], f(x) = F (x) = { 1 b a a x b 0 sonst 0 x < a x a b a a x b 1 x > b. Für Erwartungswert und Varianz gilt E [X] = a + b 2 (b a)2 Var (X) =. 12 Die Exponentialverteilung (mit Parameter λ), mit Exp (λ) bezeichnet, ist das einfachste Modell für Wartezeiten auf Ausfälle und eine stetige Version der geometrischen Verteilung. Hier ist W = [0, ), für x 0. Das führt zu f(x) = λe λx F (x) = 1 e λx E [X] = 1/λ Var (X) = 1/λ 2.

11 9 Wenn die Zeiten zwischen den Ausfällen eines Systems Exponential(λ)-verteilt sind, dann ist die Anzahl Ausfälle in einem Intervall der Länge t Pois (λt)-verteilt. Die Normal- oder Gauss-Verteilung (mit den Parametern µ, σ), mit N ( µ, σ 2) bezeichnet, ist die häufigste Verteilung für Messwerte. Hier ist W = R sowie { f(x) = 1 exp 1 ( ) } 2 x µ 2πσ 2 σ mit E [X] = µ Var (X) = σ 2. Die N (0, 1)-Verteilung, auch mit Standardnormalverteilung bezeichnet, ist ein wichtiger Sonderfall, weshalb es für deren Verteilungsfunktion sogar ein eigenes Symbol gibt, sie wird mit Φ bezeichnet, d.h. Φ(x) := F N (0,1) (x), x R. Deren Umkehrfunktion (d.h. die Quantile) kürzen wir hier ab mit z α := Φ 1 (α), α [0, 1]. Die Verteilungsfunktion F einer N (µ, σ 2 ) verteilten Zufallsvariable ist nicht geschlossen darstellbar. Sie wird aus der Verteilungsfunktion Φ der Standardnormalverteilung (welche tabelliert ist) berechnet mittels der Formel ( ) x µ F (x) = Φ σ für x R. 4.3 Transformationen Bei stetigen Verteilungen spielen Transformationen Y = g(x) eine wichtige Rolle. Falls g linear ist, d.h. g(x) = a + bx mit b > 0, dann gilt ( ) y a F Y (y) = F X b f Y (y) = 1 ( ) y a b f X. b Natürlich haben wir dann wie früher E [Y ] = a + be [X] σ Y = b σ X = bσ X. Durch Skalenänderungen kann man also alle Exponentialverteilungen ineinander überführen. Ebenso können durch lineare Transformationen alle Normalverteilungen ineinander überführt werden. Ist g eine (beliebige) differenzierbare, streng monotone Funktion, so hat Y = g(x) Dichte f Y (y) = 1 g (g 1 (y)) f ( X g 1 (y) ).

12 10 Für beliebiges g gilt zudem E [Y ] = E [g(x)] = g(x)f(x) dx. Wenn X N ( µ, σ 2) normalverteilt ist, dann heisst Y = e X lognormal-verteilt. Es gilt z.b. E [Y ] = exp(µ + σ 2 /2). Falls g konvex ist, so gilt die Jensen sche Ungleichung E [g(x)] g (E [X]). 4.4 Simulation von Zufallsvariablen Wenn U uniform auf [0, 1] verteilt ist und F eine beliebige kumulative Verteilungsfunktion ist, dann ist die Verteilungsfunktion von X = F 1 (U) gleich F. Dies ist ein wichtiges Faktum um Verteilungen, respektive Realisierungen von Zufallsvariablen, zu simulieren: 1. Erzeuge Realisation u von uniform verteilter Zufallsvariable U Uni (0, 1). Dies wird mittels einem Standard-Paket gemacht. 2. Berechne x = F 1 (u). Gemäss obigem Faktum ist dann x eine Realisation einer Zufallsvariablen X mit kumulativer Verteilungsfunktion F. Diese Methode ist nicht immer rechentechnisch effizient. 5 Mehrere Zufallsvariablen und Funktionen davon Das Ziel ist hier, genaueres über den Unterschied von P (A) und der relativen Häufigkeit f n [A] von A, respektive von E [X] und dem arithmetischen Mittel, bei n Wiederholungen zu sagen. 5.1 Die i.i.d. Annahme Dabei müssen wir präzisieren, was eine Wiederholung ist. Die n-fache Wiederholung eines Zufallsexperimentes ist selber wieder ein Zufallsexperiment. Wenn A ein Ereignis im ursprünglichen Experiment ist, bezeichnen wir mit A i das Ereignis A tritt bei der i-ten Wiederholung ein. Dann ist es sinnvoll, folgendes anzunehmen: A 1,... A n sind unabhängig: Unabhängigkeit der Ereignisse P (A 1 ) =... = P (A n ) = P (A): gleiche Wahrscheinlichkeiten. Ebenso, wenn X die ursprüngliche Zufallsvariable ist, dann soll X i die Zufallsvariable der i-ten Wiederholung bezeichnen. Die i.i.d. Annahme verlangt folgendes: X 1,..., X n sind unabhängig alle X i haben dieselbe Verteilung. Die Abkürzung i.i.d. kommt vom Englischen: independent and identically distributed. Unabhängigkeit von Zufallsvariablen heisst, dass zum Beispiel P (X i A und X j B) = P (X i A) P (X j B)

13 11 für alle i j und für alle A R, B R, und analog für Trippel etc. Die i.i.d. Annahme ist ein Postulat, welches in der Praxis in vielen Fällen vernünftig scheint. Die Annahme bringt erhebliche Vereinfachungen, um mit mehreren Zufallsvariablen zu rechnen. 5.2 Funktionen von Zufallsvariablen Ausgehend von X 1,..., X n kann man neue Zufallsvariablen Y = g(x 1,..., X n ) bilden. Hier betrachten wir die wichtigen Spezialfälle Summe und arithmetisches Mittel S n = X X n X n = S n /n. Wir nehmen stets an, dass X 1,... X n i.i.d. sind. Wenn X i = 1 falls ein bestimmtes Ereignis bei der i-ten Wiederholung eintritt und X i = 0 sonst, dann ist X n nichts anderes als die relative Häufigkeit dieses Ereignisses. Die Verteilung von S n ist im Allgemeinen schwierig exakt zu bestimmen, mit den folgenden Ausnahmen: 1. Wenn X i {0, 1} wie oben, dann ist S n Bin (n, p) mit p = P (X i = 1). 2. Wenn X i Pois (λ), dann ist S n Pois (nλ). 3. Wenn X i N ( µ, σ 2), dann ist S n N ( nµ, nσ 2). Einfacher sind die Berechnungen von Erwartungswert, Varianz und Standardabweichung. E [S n ] = ne [X i ] Var (S n ) = n Var (X i ) σ Sn = n σ Xi E [ ] X n = E [Xi ] Var ( ) 1 X n = n Var (X i) σ Xn = 1 σ Xi. n Für die Varianz und die Standardabweichung ist die Unabhängigkeitsannahme zentral. Die Standardabweichung der Summe wächst also, aber langsamer als die Anzahl Beobachtungen. D.h. auf einer relativen Skala haben wir eine kleinere Streuung für wachsendes n. Die Standardabweichung des arithmetischen Mittels nimmt ab mit dem Faktor 1/ n. Um die Genauigkeit des arithmetischen Mittels zu verdoppeln (d.h. die Standardabweichung zu halbieren), braucht man viermal so viele Beobachtungen. 5.3 Das Gesetz der Grossen Zahlen und der Zentrale Grenzwertsatz Von den obigen Formeln über Erwartungswert und Varianz wissen wir, dass: E [ X n ] = E [Xi ]: das heisst X n hat denselben Erwartungswert wie die einzelnen Variablen X i. Var ( X n ) 0 (n ): das heisst, Xn besitzt keine Variabilität mehr im Limes. Diese beiden Punkte implizieren den folgenden Satz. Gesetz der Grossen Zahlen (GGZ) Seien X 1,..., X n i.i.d. mit Erwartungswert µ. Dann gilt X n n µ.

14 12 Ein Spezialfall davon ist f n [A] n P (A). Der Begriff der Konvergenz muss für Zufallsvariablen geeignet definiert werden. Zur Berechnung der genäherten Verteilung von S n und X n (dies ist ein bedeutend präziseres Resultat als das GGZ) stützt man sich auf den folgenden berühmten Satz. Zentraler Grenzwertsatz (ZGS) Seien X 1,..., X n i.i.d. mit Erwartungswert µ und Varianz σ 2, dann ist S n N ( nµ, nσ 2) ) X n N (µ, σ2 n für grosse n. Wie gut diese Approximationen für ein gegebenes n sind, hängt von der Verteilung der X i ab. Mit der sogenannten Chebychev-Ungleichung P ( X n µ > c ) σ2 nc 2 ist man stets auf der sicheren Seite. Dafür ist diese aber meistens ziemlich grob (d.h. die rechte Seite ist zu gross). Immer wenn eine Zufallsvariable als eine Summe von vielen kleinen Effekten aufgefasst werden kann, ist sie wegen des Zentralen Grenzwertsatzes in erster Näherung normalverteilt. Das wichtigste Beispiel dafür sind Messfehler. Wenn sich die Effekte eher multiplizieren als addieren, kommt man zur Lognormal-Verteilung. 6 Gemeinsame und bedingte Verteilungen 6.1 Diskreter Fall Die gemeinsame Verteilung zweier diskreter Zufallsvariablen X und Y ist eindeutig charakterisiert durch ihre gemeinsame Wahrscheinlichkeitsfunktion von X und Y, d.h. die Werte P (X = x, Y = y) (x W X, y W Y ), weshalb diese dann auch die gemeinsame Verteilung von X und Y genannt wird. In diesem gemeinsamen Zusammenhang nennt man dann die einzelnen Verteilungen P (X = x) (x W X ) von X und P (Y = y) (y W Y ) von Y die Randverteilungen (der gemeinsamen Zufallsvariable (X, Y )). Sie lassen sich aus der gemeinsamen Verteilung berechnen durch P (X = x) = y W y P (X = x, Y = y) (x W x ), und analog für Y. Aus den Randverteilungen auf die gemeinsame Verteilung zu schliessen geht aber nur im Falle der Unabhängigkeit von X und Y, denn es gilt: Zwei diskrete Zufallsvariablen X und Y sind unabhängig genau dann wenn P (X = x, Y = y) = P (X = x) P (Y = y) (x W X, y W Y ).

15 13 In diesem Fall ist die gemeinsame Verteilung durch die Randverteilungen vollständig bestimmt und man erhält sie einfach durch Multiplikation. Schlussendlich definiert man noch die bedingte Verteilung von X gegeben Y = y durch die Werte P (X = x Y = y) (y W Y ). Der Satz von der totalen Wahrscheinlichkeit lässt sich dann schreiben als P (X = x) = y W Y P (X = x Y = y) P (Y = y) (x W X ), und kommt immer dann zum Einsatz, wenn man die Verteilung von X berechnen will, aber nur dessen bedingte Verteilung gegeben Y und die Verteilung von Y kennt. Bei mehr als zwei Stufen bzw. Zufallsvariablen geht alles analog. Die Bäume werden einfach länger und die Matrizen werden zu Feldern in höheren Dimensionen. Das Ganze wird aber sehr rasch unübersichtlich, und es gibt sehr viele Wahrscheinlichkeiten, die man zu Beginn festlegen muss. Eine wesentliche Vereinfachung erhält man, wenn man annimmt, dass jede Stufe zwar von der unmittelbar vorangehenden, aber nicht von den weiter zurückliegenden Stufen abhängt. Das führt auf die sogenannten Markovketten, deren Verhalten durch eine Startverteilung und eine Übergangsmatrix gegeben ist. 6.2 Stetiger Fall Bei zwei oder mehreren stetigen Zufallsvariablen kann die gemeinsame und bedingte Verteilung nicht mehr mit Bäumen oder Matrizen dargestellt werden Gemeinsame Dichte Die gemeinsame Dichte f X,Y (, ) von zwei stetigen Zufallsvariablen X und Y ist in Ingenieurnotation gegeben durch P (x X x + dx, y Y y + dy) = f X,Y (x, y) dx dy. Die Darstellung als Ableitung einer geeigneten kumulativen Verteilungsfunktion ist nicht sehr instruktiv. Daraus kann man allgemein Wahrscheinlichkeiten durch Integration berechnen: P ((X, Y ) A) = f X,Y (x, y) dx dy (A R 2 ). A Wie im eindimensionalen Fall integriert man also einfach die Dichte über das gewünschte Gebiet A Randdichte und bedingte Dichte Wie im diskreten Fall bezeichnen wir mit der Randverteilung die Verteilung der einzelnen Komponenten. Wir tun also so, als ob wir nur eine Komponente X bzw. Y sehen würden. Aus der gemeinsamen Dichte erhält man die Randdichte von X bzw. Y f X (x) = f X,Y (x, y) dy f Y (y) = f X,Y (x, y) dx.

16 14 Für die bedingte Verteilung von Y gegeben X = x wird die bedingte Dichte benützt, definiert durch f Y X=x (y) := f Y (y X = x) := f X,Y (x, y). f X (x) Aus den obigen Definitionen ist klar, dass alle wahrscheinlichkeitstheoretischen Aspekte von zwei Zufallsvariablen X und Y durch deren gemeinsame Dichte f X,Y (x, y) vollständig bestimmt sind. Ferner sind X und Y unabhängig genau dann wenn f X,Y (x, y) = f X (x)f Y (y) (x, y R 2 ). (3) In diesem Fall genügt das Konzept von 1-dimensionalen Dichten: die gemeinsame Dichte kann dann sehr einfach mittels Multiplikation berechnet werden. 6.3 Erwartungswert bei mehreren Zufallsvariablen Den Erwartungswert einer transformierten Zufallsvariable Z = g(x, Y ) mit g : R 2 R können wir berechnen als E [g(x, Y )] = g(x, y)f X,Y (x, y) dx dy. Im diskreten Fall lautet die entsprechende Formel: E [g(x, Y )] = g(x i, y j )P (X = x i, Y = y j ). i j Der Erwartungswert der Zufallsvariablen Y gegeben X = x ist E [Y X = x] = 6.4 Kovarianz und Korrelation yf Y X=x (y) dy. Da die gemeinsame Verteilung von abhängigen Zufallsvariablen i.a. kompliziert ist, begnügt man sich oft mit einer vereinfachenden Kennzahl zur Beschreibung der Abhängigkeit. Die Kovarianz von X und Y sowie die Korrelation von X und Y sind wie folgt definiert: Cov (X, Y ) := E [(X µ X )(Y µ Y )], Corr (X, Y ) := ρ XY := Unmittelbar aus der Definition folgt sofort sowie die wichtige Formel Var (X) = Cov (X, X), Cov (X, Y ) = E [XY ] E [X] E [Y ] Cov (X, Y ) σ X σ Y. zur praktischen Berechnung der Kovarianz. 2 Ferner ist die Kovarianz bilinear, d.h. es gilt m n m n Cov a i X i, b j Y j = a i b j Cov (X i, Y j ), j=1 j=1 2 Das ist ein Verallgemeinerung der entsprechenden Formel für die Varianz, denn daraus folgt sofort Var (X) = Cov (X, X) = E [ X 2] E [X] 2.

17 15 und symmetrisch, d.h. Cov (X, Y ) = Cov (Y, X). Für die Varianz der Summe erhalten wir also ( m ) m m Var X i = Var (X i ) + 2 Cov (X i, X j ). Weitere Rechenregeln sind i,j=1 i<j Cov (a + bx, c + dy ) = bd Cov (X, Y ) Corr (a + bx, c + dy ) = sign(b) sign(d) Corr (X, Y ) Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X, Y ). Falls die X i unabhängig (oder noch allgemeiner unkorreliert) sind, ist die Varianz der Summe gleich der Summe der Varianzen Var (X X m ) = Var (X 1 ) + + Var (X m ) (X 1,..., X n unabhängig). Die Korrelation misst Stärke und Richtung der linearen Abhängigkeit zwischen X und Y. Es gilt Corr (X, Y ) = +1 genau dann wenn Y = a + bx für ein a R und ein b > 0 Corr (X, Y ) = 1 genau dann wenn Y = a + bx für ein a R und ein b < 0. Im Gegensatz zur Kovarianz ist die Korrelation eine dimensionslose Grösse. Ferner gilt X und Y unabhängig = Corr (X, Y ) = 0. (4) Die Umkehrung gilt i.a. nicht. Ein Spezialfall, wo auch die Umkehrung gilt, wird in Kapitel 6.5 diskutiert. 6.5 Zweidimensionale Normalverteilung Die wichtigste zweidimensionale Verteilung ist die Normalverteilung mit Erwartungswerten (µ X, µ Y ) und Kovarianzmatrix Σ wobei Σ 11 = Var (X), Σ 22 = Var (Y ) und Σ 12 = Σ 21 = Cov (X, Y ). Sie hat die Dichte f X,Y (x, y) = { 1 2π det(σ) exp 1 ( 2 (x µ X, y µ Y ) Σ 1 x µx y µ Y )}. Wir sehen von dieser Formel: Wenn Cov (X, Y ) = 0 wird Σ eine Diagonalmatrix und man kann nachrechnen, dass dann die Bedingung (3) gilt. Das heisst: im Falle der zweidimensionalen Normalverteilung gilt auch die Umkehrung von (4). Zudem: die Rand- sowie die bedingten Verteilungen sind wieder (1-dimensionale) normalverteilte Zufallsvariablen. 6.6 Dichte einer Summe von zwei Zufallsvariablen Seien X, Y Zufallsvariablen mit gemeinsamer Dichte f X,Y (, ). Dann hat die neue Zufallsvariable S = X + Y Dichte f S (s) = f X,Y (x, s x) dx. Falls X und Y unabhängig sind, zerfällt die gemeinsame Dichte in das Produkt der Randdichten und wir haben f S (s) = f X (x)f Y (s x) dy.

18 16 Man spricht auch von der Faltung der beiden Funktionen f X und f Y. Wenn wir nur am Erwartungswert (oder an der Varianz) von S interessiert sind, brauchen wir natürlich den Umweg über die Dichte nicht zu machen und können direkt wie in Kapitel 6.3 bzw. 6.4 vorgehen. 6.7 Mehr als 2 Zufallsvariablen Alle diese Begriffe und Definitionen lassen sich natürlich auf mehr als zwei Zufallsvariablen verallgemeinern. Die Formeln sehen im Wesentlichen gleich aus, vor allem wenn man die Sprache der Linearen Algebra verwendet. Ausblick: Wenn man eine dynamische Grösse während eines Zeitintervalls misst, erhält man einen stochastischen Prozess {X(t); t [a, b]}. Die linearen Abhängigkeiten zwischen den Werten zu verschiedenen Zeitpunkten werden dann durch die sogenannte Autokovarianzfunktion beschrieben. 7 Deskriptive Statistik In der Statistik will man aus beobachteten Daten Schlüsse ziehen. Meist nimmt man an, dass die Daten Realisierungen von Zufallsvariablen sind (siehe Kap. 8.1), deren Verteilung man aufgrund der Daten bestimmen möchte. In einem ersten Schritt geht es aber zunächst einmal darum, die vorhandenen Daten übersichtlich darzustellen und zusammenzufassen. Dies ist das Thema der beschreibenden oder deskriptiven Statistik. 7.1 Kennzahlen Wie früher benützen wir Kleinbuchstaben für die realisierten Werte der Zufallsvariablen. Für die numerische Zusammenfassung von Daten gibt es diverse Kennzahlen. Das arithmetische Mittel x = 1 n (x x n ) ist eine Kennzahl für die Lage der Daten (Schwerpunkt!). Die empirische Standardabweichung s ist die Wurzel aus der empirischen Varianz s 2 = 1 n 1 n (x i x) 2 und Kennzahl für die Streuung der Daten. Eine Begründung für den Nenner n 1 statt n folgt später. Um weitere Kennzahlen zu definieren, führen wir die geordneten Werte ein. x (1) x (2)... x (n) Das empirische α-quantil (0 < α < 1) ist x (k), wobei k die kleinste ganze Zahl ist, sd. k > αn. Wenn αn eine ganze Zahl ist, nimmt man 1 2 (x (αn) + x (αn+1) ). Es gibt auch leicht andere Definitionen des empirischen Quantils. Der empirische Median ist das 50%-Quantil und ist eine Kennzahl für die Lage.

19 17 Die Quartilsdifferenz ist das empirische 75%-Quantil minus das empirisches 25%-Quantil und ist eine Kennzahl für die Streuung. Einen ganz anderen Aspekt erfasst man, wenn man die Werte gegen den Beobachtungszeitpunkt aufträgt. Damit kann man Trends und andere Arten von systematischen Veränderungen in der Zeit erkennen. 7.2 Histogramm und Boxplot Wenn man n Werte x 1,..., x n einer Variablen hat, dann gibt es als grafische Darstellungen das Histogramm, den Boxplot und die empirische kumulative Verteilungsfunktion. Beim Histogramm bilden wir Klassen (c k 1, c k ] und berechnen die Häufigkeiten h k, d.h. die Anzahl Werte in diesem Intervall. Dann trägt man über den Klassen Balken auf, deren Höhe proportional ist zu h k c k c k 1. D.h. die Fläche ist dann proportional zu der Anzahl Beobachtungen. Wenn man überall die gleiche Klassenbreite c k c k 1 wählt, so kann man auch direkt die Anzahlen auftragen. Beim Boxplot hat man ein Rechteck, das vom 25%- und vom 75%-Quantil begrenzt ist, und Linien, die von diesem Rechteck bis zum kleinsten- bzw. grössten normalen Wert gehen (per Definition ist ein normaler Wert höchstens 1.5 mal die Quartilsdifferenz von einem der beiden Quartile entfernt). Zusätzlich gibt man noch Ausreisser durch Sterne und den Median durch einen Strich an. Der Boxplot ist vor allem dann geeignet, wenn man die Verteilungen einer Variablen in verschiedenen Gruppen (die im allgemeinen verschiedenen Versuchsbedingungen entsprechen) vergleichen will. Die empirische kumulative Verteilungsfunktion ist eine Treppenfunktion, die an den Stellen x (i) von (i 1)/n auf i/n springt. Für eine glattere Version verbindet man die Punkte (x (i), (i 0.5)/n) durch Geraden. 7.3 Normal- und QQ-Plot Der Normal- und QQ-Plot ( Quantil-Quantil-Plot ) sind oft viel geeignetere grafische Mittel als die empirische kumulative Verteilungsfunktion. Die empirischen Quantile für α k = (k 0.5)/n sind gerade die geordneten Beobachtungen x (k) (x (1) x (2)... x (n) ). Der QQ-Plot trägt die Punkte F 1 (α k ) (die theoretischen Quantile einer kumulativen Verteilung F ) gegen x (k) (die empirischen Quantile) auf. Wir interpretieren die Daten x 1,..., x n als Realisierungen von X 1,..., X n i.i.d F, siehe Kap. 8.1 Falls nun die wahre Verteilung F mit der gewählten Verteilung F im QQ-Plot übereinstimmt, so liefert der QQ-Plot approximativ eine Gerade durch Null mit Steigung 45 Grad. Man kann also Abweichungen der Daten von einer gewählten Modell-Verteilung so grafisch überprüfen. Der Normal-Plot ist ein QQ-Plot, bei dem die Modellverteilung F die Standardnormalverteilung N (0, 1) ist. Wenn die wahre Verteilung F eine Normalverteilung N ( µ, σ 2) ist, so liefert der Normal-Plot approximativ eine Gerade, welche jedoch im allgemeinen nicht durch den Nullpunkt geht und nicht Steigung 45 Grad hat. Das heisst: der Normal-Plot liefert eine gute Überprüfung für eine beliebige Normalverteilung, auch wenn die Modell-Verteilung als Standard- Normal gewählt wird. D.h. wir können überprüfen, ob eine Normalverteilung geeignet ist, ohne uns um die Parameter kümmern zu müssen. Im Normal- und QQ-Plot kann man insbesondere sehen, ob eine Transformation der Daten angebracht ist, oder ob es Ausreisser gibt, die man besonders behandeln sollte.

20 18 Abbildung 1: Histogramm, Boxplot und Normal-Plot für 2 Datensätze der Stichprobengrösse Im Grunde genommen ist der QQ-Plot bereits mehr als bloss deskriptive Statistik. Es ist ein grafisches Werkzeug, um eventuelle Abweichungen von einem Modell festzustellen: vergleiche mit dem Formalismus des statistischen Tests in Kap. 8.4.

21 19 8 Schliessende Statistik: Konzepte und erste Anwendungen für diskrete Zufallsvariablen 8.1 Daten als Realisierungen von Zufallsvariablen In der schliessenden Statistik wollen wir anhand von konkreten Daten (Beobachtungen) Aussagen über ein Wahrscheinlichkeitsmodell machen. Dass man dies tun kann, scheint auf den ersten Blick erstaunlich zu sein: man benützt die induktive Logik, um probabilistische Aussagen (d.h. Aussagen, welche mit typischerweise hoher Wahrscheinlichkeit gelten) zu machen. Grundlegend für die schliessende Statistik ist die Annahme, dass Daten Realisierungen von Zufallsvariablen sind. Das heisst: eine Beobachtung (oder Messung ) x ist entstanden, indem ein ω Ω zufällig gezogen wurde, so dass die Zufallsvariable X den Wert X(ω) = x angenommen hat. Bei mehreren Daten geht alles analog: n Beobachtungen x 1,..., x n werden aufgefasst als Realisierungen von Zufallsvariablen X 1,..., X n, welche die Werte X i = x i (i = 1,..., n) angenommen haben. 8.2 Erste Konzepte Wir betrachten folgende Situation. Gegeben ist eine Beobachtung x (eine Realisierung) einer Bin (n, p)- oder einer Pois (λ)-verteilten Zufallsvariablen X: z.b. Anzahl Ausfälle bei n Wiederholungen oder während einer Beobachtungsdauer t, wobei dann λ = µt und µ die erwartete Anzahl Ausfälle pro Zeiteinheit ist. Wir möchten daraus Rückschlüsse auf den unbekannten Parameter p bzw. λ ziehen. Genauer geht es um folgende drei Fragestellungen: Welches ist der plausibelste Wert des unbekannten Parameters ( Punktschätzung)? Ist ein bestimmter vorgegebener Parameterwert p 0, bzw. λ 0 (z.b. ein Sollwert) mit der Beobachtung verträglich ( Test)? Was ist der Bereich von plausiblen Parameterwerten ( Vertrauensintervall)? Die Punktschätzer sind hier wie folgt: intuitiv sinnvoll sind p = X/n bzw. λ = X bzw. µ = X/t. Die Schätzer sind also wiederum Zufallsvariablen. Die realisierte Schätzung ist dann p = x/n, λ = x bzw. µ = x/t, d.h. man ersetzt X durch dessen Realisierung x. Die realisierte Schätzung ist natürlich in der Regel nicht gleich dem unbekannten ( wahren ) Wert p, λ bzw. µ, aber hoffentlich nahe daran. Bemerkung: Wenn wir einem Parameter einen Hut aufsetzen, bezeichnen wir damit den Schätzer für den entsprechenden Modellparameter. Die Notation p, λ und µ unterscheidet leider nicht zwischen dem Schätzer als Zufallsvariable und seinem realisierten Wert, welcher eine numerische Zahl ist. 8.3 Punktschätzungen Wir betrachten folgendes Problem: Gegeben sei wieder eine Zufallsvariable X, von der wir zwar die Art der Verteilung kennen, aber nicht den dazugehörigen Parameter(vektor) 3 θ. Basierend auf n unabhängigen Beobachtungen x 1,..., x n von X, die wir wie immer als eine Realisierung 3 Die Art der Verteilung kann z.b. die Normalverteilung sein, der (unbekannte oder teilweise unbekannte) Parametervektor ist dann θ = (θ 1, θ 2 ) = (µ, σ 2 ), kann aber auch durch explizite Angabe der Dichtefunktion (bzw. Wahrscheinlichkeitsfunktion im diskreten Fall) gegeben sein, z.b. f X (x) = (θ 1)x θ 1 [1, ) (x) mit dem Parameter θ.

22 20 der i.i.d. Zufallsvariablen X 1,..., X n (mit der selben Verteilung wie X) interpretieren, soll nun der unbekannte Parameter θ geschätzt werden. Sei θ ein reeller Parameter einer Wahrscheinlichkeitsverteilung auf R. Ein Schätzer für θ (zur Stichprobengrösse n) ist eine Funktion θ : R n R, d.h. θ = θ(x 1,..., x n ) oder als Zufallsvariable interpretiert θ = θ(x1,..., X n ). Man beachte, dass bei der Verwendung von griechischen Buchstaben keine Unterscheidung mehr zwischen Realisierung (Kleinbuchstaben) und Zufallsvariable (Grossbuchstaben) gemacht wird Momentenmethode Das k-te Moment von X ist definiert durch µ k := E [ X k]. Das erste Moment entspricht also dem Erwartungswert. Die Momentenmethode nimmt an, dass wir den unbekannten Parametervektor (θ 1,..., θ r ) durch die ersten p Momente von X ausdrücken können, d.h. allgemein θ j = g j (µ 1,..., µ p ) (j = 1,... r), (5) die j-te Komponente von θ ist also gegeben durch die Funktion g j : R p R. Beispiel: Bei der Normalverteilung ist der Parametervektor θ = (θ 1, θ 2 ) = (µ, σ 2 ), und es gilt θ 1 = µ = E [X] = µ 1 sowie θ 2 = σ 2 = E [ X 2] E [X] 2 = µ 2 µ 2 1. Es ist also r = p = 2 mit g 1 (x, y) = x und g 2 (x, y) = y x 2. Ausgehend von Gleichung (5) werden nun die wahren µ k ersetzt durch deren Schätzungen µ k := 1 n n xk i, wenn man diese noch als Zufallsvariable schreibt, dann erhält man einen Momentenschätzer für die einzelnen Komponenten von θ durch θ j = g j ( µ 1,..., µ p ) (j = 1,..., r) wobei µ k = 1 n n Xi k (k = 1,..., p). Rezeptartige Vorgangsweise: Gegeben ist eine Zufallsvariable X, deren Verteilung von einem unbekannten (zu schätzenden) Parameter θ abhängt. Man berechnet zunächst das erste Moment von X, wenn dieses von θ abhängt, dann löst man die Gleichung nach θ auf, d.h. man schreibt θ als Funktion des ersten Momentes, dann wird das erste Moment durch dessen Schätzer ersetzt und man erhält einen Momentenschätzer für θ. Falls das erste Moment nicht von θ abhängt, berechnet man das zweite Moment usw. Es ist aber auch möglich, dass sämtliche Momente von θ abhängen, man erhält dann ein Gleichungssystem oder aber auch mehrere (unterschiedliche) Momentenschätzer für θ (siehe unten). Beispiel: Sei X Pois (λ) mit unbekanntem Parameter λ. Das erste Moment von X ist µ 1 = E [X] = λ, oder anders geschrieben, λ = µ 1. Nun wird µ 1 durch dessen Schätzung µ 1 = 1 n n x i ersetzt. Als Zufallsvariable geschrieben erhält man einen Momentenschätzer für λ durch λ = µ 1 = X n = 1 n n X i. Einen weiteren Momentenschätzer für λ erhalten wir durch Berechung des zweiten Momentes von X: µ 2 = E [ X 2] = Var (X) + E [X] 2 = λ + µ 2 1, woraus nun λ = µ 2 µ 2 1 folgt, und wir erhalten den Momentenschätzer λ = µ 2 µ 2 1 = 1 n n Xi 2 (X n ) 2.

23 21 Man zieht aber λ = X n vor, denn dies ist auch der sogenannte Maximum-Likelihood Schätzer, welcher im Allgemeinen genauer ist. Der Momentenschätzer ist einfach, aber nicht immer die optimale (im Sinne einer zu definierenden besten Genauigkeit für den unbekannten Parameter) Methode. Überdies ist der Momentenschätzer nicht eindeutig, wie wir am obigen Beispiel gesehen haben Maximum-Likelihood Schätzer Sei zunächst X diskret. Um die Abhängigkeit vom unbekannten Parameter θ zu betonen, bezeichnen wir die Wahrscheinlichkeitsfunktion p X (x) von X mit p X (x θ). Die Wahrscheinlichkeit, dass tatsächlich das Ereignis {X 1 = x 1,..., X n = x n } eintritt, ist wegen der Unabhängigkeit gegeben durch L(θ) := p X1,...,X n (x 1,..., x n θ) = n p X (x i θ) = p X (x 1 θ) p X (x n θ). Dies ist die sogenannte Likelihoodfunktion 4 zur gegebenen Stichprobe x 1,..., x n. Die Maximum-Likelihood Methode basiert nun darauf, diese Wahrscheinlichkeit zu maximieren, also jenen Parameter θ zu finden, für den die Wahrscheinlichkeit, dass die gegebene Stichprobe x 1,..., x n eintritt, am grössten (maximal) ist. Daher der Name Maximum-Likelihood Methode. Da der Logarithmus monoton wachsend ist, kann man äquivalent zu obiger Maximierungsaufgabe auch den Logarithmus maximieren, was meist einfacher ist. Die log-likelihoodfunktion ist definiert durch l(θ) := log L(θ) = n log p(x i θ) = log (p X (x 1 θ)) + + log (p X (x n θ)). Die Maximierungsaufgabe löst man wie aus der Analysis bekannt durch Ableiten (nach dem Parameter θ) und Nullsetzen. Um die Abhängigkeit von der Stichprobe x 1,..., x n zu betonen, schreibt man auch l(θ; x 1,..., x n ) := log (p X (x 1 θ)) + + log (p X (x n θ)). Man muss dann die Gleichung θ l(θ; x 1,..., x n ) = 0 nach θ auflösen und erhält das Ergebnis bzw. als Zufallsvariable ausgedrückt θ = θ(x 1,..., x n ) θ = θ(x 1,..., X n ) als allgemeinen Maximum-Likelihood Schätzer von θ (zum Stichprobenumfang n). Im stetigen Fall geht im Wesentlichen alles analog und man braucht nur den Buchstaben p durch f und Wahrscheinlichkeit durch Wahrscheinlichkeitsdichte zu ersetzen. D.h. statt Wahrscheinlichkeiten hat man dann Dichten, und es wird jener Parameter θ gesucht, für den die gemeinsame Dichte der X 1,..., X n an der Stelle x 1,..., x n am grössten ist. 4 Aus dem Englischen: Likelihood = Wahrscheinlichkeit.

24 22 Beispiel (Fortsetzung): X Pois (λ). Die Wahrscheinlichkeitsfunktion ist Die log-likelihoodfunktion ist somit l(λ) = λ λx p X (x λ) = e x! n (x i log(λ) log(x i!) λ) = (x N). n (x i log(λ) λ) C, C = n log(x i!). Beachte, dass die Konstante C keinen Einfluss auf die Maximierung von l(λ) hat. Leitet man l(λ) ab und setzt l (λ) = 0, so erhält man den Maximum-Likelihood Schätzer λ = X n = 1 n n X i. Dies ist der selbe Schätzer wie bei der Momentenmethode. Die Maximum-Likelihood Methode liefert aber nicht zwangsläufig das gleiche Resultat wie die Momentenmethode Eigenschaften von Schätzern Wir haben gesehen, dass ein Schätzer für den Parameter θ als eine aus den Zufallsvariablen X 1,..., X n zusammengesetzte Zufallsvariable interpretiert werden kann, also θ = θ(x 1,..., X n ), wobei der zu schätzende Parameter θ meist eine Kenngrösse der Verteilung der X i ist. Man kann sich nun fragen, wie eigentlich der Erwartungswert dieser Zufallsvariable (also des Schätzers) aussieht. Intuitiv wünschenswert wäre es, wenn dieser am besten gleich dem zu schätzenden Parameter entspricht, woraus sich folgende Definition ergibt: Ein Schätzer θ für den Parameter θ heisst erwartungstreu, wenn ] ] E [ θ = E [ θ(x1,..., X n ) = θ. Im Allgemeinen kann der Erwartungswert aber auch von der Stichprobengrösse n abhängen, woraus sich noch weitere Eigenschaften ergeben. Zum Beispiel heisst ein Schätzer asymptotisch erwartungstreu, wenn sein Erwartungswert für wachsende Stichprobengrösse n gegen den zu schätzenden Parameter konvergiert. 8.4 Das Testproblem Beim Testproblem beschränken wir uns hier der Einfachheit halber auf die Binomialverteilung. Wir nehmen an, dass wir eine Beobachtung x {0,..., n} haben, die wir als Realisierung einer Bin (n, p)-verteilten Zufallsvariable X interpretieren, wobei n fix und bekannt ist, und p der unbekannte Parameter ist. Diesen unbekannten Parameter wollen wir mit einem (von der Problemstellung abhängigen) Wert p 0 vergleichen (testen). Genauer gesagt wollen wir überprüfen, ob sich entweder p p 0, p < p 0 oder p > p 0 statistisch (aufgrund der gegebenen Beobachtung x) bestätigen lassen. Man kann sich z.b. vorstellen, dass p 0 die Erfolgswahrscheinlichkeit von einem etablierten Reparaturverfahren ist. Sie haben nun eine neues Verfahren entwickelt und wollen zeigen, dass dieses besser ist, d.h. dass gilt p > p 0. Sie müssen also Skeptiker und Kritiker überzeugen, die nicht daran glauben. Dazu nehmen wir zuerst an, es sei p = p 0 (d.h. wir nehmen die Position der Skeptiker ein) und überprüfen, ob die Beobachtung x damit verträglich ist.

25 23 Die Annahme p = p 0 wird Nullhypothese genannt und man schreibt H 0 : p = p 0. Die entsprechende Vermutung (was sie zeigen wollen) wird Alternativhypothese genannt und mit H A bezeichnet. Allgemein möglich sind H A : p p 0 p > p 0 p < p 0 (zweiseitig) (einseitig nach oben) (einseitig nach unten). Wir beschränken uns nun auf den Fall H A : p > p 0, d.h. wir sind nur an Abweichungen nach oben interessiert. Qualitativ betrachtet scheint es plausibel, dass wir die Nullhypothese H 0 : p = p 0 ablehnen, falls x zu gross ist, d.h. falls x c für ein bestimmtes c. Die explizite Wahl von c ist nun wie folgt. Wir nehmen erstmals an, dass die Nullhypothese stimmt. Dann ist die Wahrscheinlichkeit, die Nullhypothese fälschlicherweise abzulehnen (d.h. ein sogenannter Fehler 1. Art) P p0 (X c) = n k=c ( ) n p k k 0(1 p 0 ) n k. Wir sollten also c nicht zu klein wählen. Umgekehrt möchten wir aber auch c nicht zu gross wählen, weil wir sonst zu häufig einen Fehler 2. Art begehen: kein Verwerfen der Nullhypothese H 0, obwohl sie falsch ist. Man schliesst einen Kompromiss, indem man das kleinste c = c(α) nimmt, so dass P p0 (X c) α. Dabei ist α eine im Voraus festgelegte (kleine) Zahl, das sogenannte Signifikanzniveau. Obige Ungleichung besagt, dass die Wahrscheinlichkeit eines Fehlers 1. Art mit dem Signifikanzniveau α kontrolliert ist. Die Wahrscheinlichkeit für einen Fehler 2. Art ist nicht explizit kontrolliert, weil man nur einen Fehler direkt kontrollieren kann. Da man mit dem Test Skeptiker überzeugen will, ist es wichtiger, den Fehler 1. Art zu kontrollieren. Nach obigen Überlegungen kommt man zum Rezept, dass H 0 verworfen wird, falls x c α. Man hat dann die Alternativhypothese nachgewiesen. Falls wir die Nullhypothese nicht verwerfen können, ist das (leider) kein Nachweis für die Nullhypothese: Absence of evidence is not evidence of absence. Im Fall, wo man nach Abweichungen nach unten interessiert ist, d.h. H A : p < p 0, geht alles analog. Bei zweiseitiger Alternative H A : p p 0, verwerfen wir die Nullhypothese H 0 : p = p 0, wenn x c 1 oder x c 2. Hier wählt man c 1 möglichst gross und c 2 möglichst klein unter den Einschränkungen, dass c 1 k=0 ( ) n p k k 0(1 p 0 ) n k α/2 und n k=c 2 ( ) n p k k 0(1 p 0 ) n k α/ Zusammenfassung eines statistischen Tests Die Durchführung eines statistischen Tests kann zumindest teilweise rezeptartig erfolgen. 1. Lege die Nullhypothese H 0 : θ = θ 0 fest. θ bezeichnet hier allgemein einen Parameter in einem Modell.

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8 . Aufgabe: Für zwei verschiedene Aktien wurde der relative Kurszuwachs (in % beobachtet. Aus den jeweils 20 Quartaldaten ergaben sich die folgenden Box-Plots. Box-and-Whisker Plot Aktie Aktie 2-0,2 0,8,8

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Manche sagen: Ja, manche sagen: Nein Wie soll man das objektiv feststellen? Kann man Geschmack objektiv messen? - Geschmack ist subjektiv

Mehr

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip Sommersemester 2010 KLAUSUR Statistik B Hinweise zur Bearbeitung: Bei allen Teilaufgaben

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Melanie Kaspar, Prof. Dr. B. Grabowski 1 7. Hypothesentests Ausgangssituation: Man muss sich zwischen 2 Möglichkeiten (=Hypothesen) entscheiden. Diese Entscheidung soll mit Hilfe von Beobachtungen ( Stichprobe ) getroffen werden. Die Hypothesen

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Teil I Beschreibende Statistik 29

Teil I Beschreibende Statistik 29 Vorwort zur 2. Auflage 15 Vorwort 15 Kapitel 0 Einführung 19 0.1 Methoden und Aufgaben der Statistik............................. 20 0.2 Ablauf statistischer Untersuchungen..............................

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Grundlagen der Inferenzstatistik

Grundlagen der Inferenzstatistik Grundlagen der Inferenzstatistik (Induktive Statistik oder schließende Statistik) Dr. Winfried Zinn 1 Deskriptive Statistik versus Inferenzstatistik Die Deskriptive Statistik stellt Kenngrößen zur Verfügung,

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

Quantilsschätzung als Werkzeug zur VaR-Berechnung

Quantilsschätzung als Werkzeug zur VaR-Berechnung Quantilsschätzung als Werkzeug zur VaR-Berechnung Ralf Lister, Aktuar, lister@actuarial-files.com Zusammenfassung: Zwei Fälle werden betrachtet und die jeweiligen VaR-Werte errechnet. Im ersten Fall wird

Mehr

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775, Aufgabenpool für angewandte Mathematik / 1. Jahrgang V B, C, D Drinks Ein gastronomischer Betrieb kauft 300 Dosen Energydrinks (0,3 l) und 400 Liter Flaschen Mineralwasser und zahlt dafür 50, Euro. Einen

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

3.1. Die komplexen Zahlen

3.1. Die komplexen Zahlen 3.1. Die komplexen Zahlen Es gibt viele Wege, um komplexe Zahlen einzuführen. Wir gehen hier den wohl einfachsten, indem wir C R als komplexe Zahlenebene und die Punkte dieser Ebene als komplexe Zahlen

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten! Mathefritz 5 Terme und Gleichungen Meine Mathe-Seite im Internet kostenlose Matheaufgaben, Skripte, Mathebücher Lernspiele, Lerntipps, Quiz und noch viel mehr http:// www.mathefritz.de Seite 1 Copyright

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 15: Reguläre Ausdrücke und rechtslineare Grammatiken Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/25 Was kann man mit endlichen

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

Umgekehrte Kurvendiskussion

Umgekehrte Kurvendiskussion Umgekehrte Kurvendiskussion Bei einer Kurvendiskussion haben wir eine Funktionsgleichung vorgegeben und versuchen ihre 'Besonderheiten' herauszufinden: Nullstellen, Extremwerte, Wendepunkte, Polstellen

Mehr

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Verteilungsmodelle. Verteilungsfunktion und Dichte von T Verteilungsmodelle Verteilungsfunktion und Dichte von T Survivalfunktion von T Hazardrate von T Beziehungen zwischen F(t), S(t), f(t) und h(t) Vorüberlegung zu Lebensdauerverteilungen Die Exponentialverteilung

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Vorkurs Mathematik Übungen zu Polynomgleichungen

Vorkurs Mathematik Übungen zu Polynomgleichungen Vorkurs Mathematik Übungen zu en 1 Aufgaben Lineare Gleichungen Aufgabe 1.1 Ein Freund von Ihnen möchte einen neuen Mobilfunkvertrag abschließen. Es gibt zwei verschiedene Angebote: Anbieter 1: monatl.

Mehr

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Vorüberlegung In einem seriellen Stromkreis addieren sich die Teilspannungen zur Gesamtspannung Bei einer Gesamtspannung U ges, der

Mehr

Programmiersprachen und Übersetzer

Programmiersprachen und Übersetzer Programmiersprachen und Übersetzer Sommersemester 2010 19. April 2010 Theoretische Grundlagen Problem Wie kann man eine unendliche Menge von (syntaktisch) korrekten Programmen definieren? Lösung Wie auch

Mehr

5.Unsicherheit. 5.1WahrscheinlichkeitundRisiko

5.Unsicherheit. 5.1WahrscheinlichkeitundRisiko 1 5.Unsicherheit Bisher sind wir von vollständiger Planungssicherheit seitens der Entscheidungsträger ausgegangen. Dies trifft in vielen Fällen natürlich nicht den Kern eines Entscheidungsproblems.Wennz.B.eineEntscheidungfürdenKaufvonAktiengetroffen

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

i x k k=1 i u i x i v i 1 0,2 24 24 0,08 2 0,4 30 54 0,18 3 0,6 54 108 0,36 4 0,8 72 180 0,60 5 1,0 120 300 1,00 2,22 G = 1 + 1 n 2 n i=1

i x k k=1 i u i x i v i 1 0,2 24 24 0,08 2 0,4 30 54 0,18 3 0,6 54 108 0,36 4 0,8 72 180 0,60 5 1,0 120 300 1,00 2,22 G = 1 + 1 n 2 n i=1 1. Aufgabe: Der E-Commerce-Umsatz (in Millionen Euro) der fünf größten Online- Shopping-Clubs liegt wie folgt vor: Club Nr. Umsatz 1 120 2 72 3 54 4 30 5 24 a) Bestimmen Sie den Ginikoeffizienten. b) Zeichnen

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr