2. Prinzipien der Datenreduktion

Ähnliche Dokumente
Extremwertverteilungen

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Statistische Methoden

Monte Carlo Methoden in Kreditrisiko-Management

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Stochastische Eingangsprüfung,

Statistische Thermodynamik I Lösungen zur Serie 1

Extrema von Funktionen in zwei Variablen

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Die Optimalität von Randomisationstests

Vorlesung. Funktionen/Abbildungen 1

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Modulabschlussklausur Analysis II

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Kapitel 4: Binäre Regression

Optimalitätskriterien

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Mathematik 1 für Wirtschaftsinformatik

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Numerische Verfahren und Grundlagen der Analysis

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners

Einfache Ausdrücke Datentypen Rekursive funktionale Sprache Franz Wotawa Institut für Softwaretechnologie

Ergänzungen zur Analysis I

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Monte-Carlo Simulation

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

$ % + 0 sonst. " p für X =1 $

Mathematischer Vorbereitungskurs für Ökonomen

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Elemente der Analysis II

Lineare Gleichungssysteme

Bestimmung einer ersten

Grundprinzipien der Bayes-Statistik

Gleichungen - Aufgabenstellung und Lösungsstrategien

Charakteristikenmethode im Beispiel

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Teil II. Nichtlineare Optimierung

7 Rechnen mit Polynomen

Beispiel Zusammengesetzte Zufallsvariablen

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

8. Februar Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

Ausarbeitung des Seminarvortrags zum Thema

Planungsblatt Mathematik für die 4E

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

11. Primfaktorzerlegungen

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Terme stehen für Namen von Objekten des Diskursbereichs (Subjekte, Objekte des natürlichsprachlichen Satzes)

4. Versicherungsangebot

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Martingale. Kapitel Martingale in diskreter Zeit Definition und Beispiele

Einführung in die Statistik

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie

Varianzanalyse ANOVA

1 Stochastische Prozesse in stetiger Zeit

Computer Vision: Optische Flüsse

34 5. FINANZMATHEMATIK

Skalare Differentialgleichungen

Einführung in die Algebra

Formale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni Formale Methoden II p.1/30

Algorithmen II Vorlesung am

Gleichungen und Ungleichungen

Credit Risk+: Eine Einführung

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

3. Die Eigenschaften der reellen Zahlen II: Geordnete Körper

Formelsammlung Mathematik

Die Binomialverteilung


5.1 Drei wichtige Beweistechniken Erklärungen zu den Beweistechniken... 56

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412

Kapitel 7 Dr. Jérôme Kunegis. Logische Kalküle. WeST Web Science & Technologies

Messwerte und deren Auswertungen

Abhängigkeiten zwischen Großschäden

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Künstliche Intelligenz Maschinelles Lernen

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Risikomessung und Value at Risk Wintersemester 2013/14

Lösungen zum 3. Aufgabenblatt

17. Penalty- und Barriere-Methoden

Übungen zur Numerischen Mathematik 2 Sommersemester Übungsblatt 13

NP-Vollständigkeit. Krautgartner Martin ( ) Markgraf Waldomir ( ) Rattensberger Martin ( ) Rieder Caroline ( )

BONUS MALUS SYSTEME UND MARKOV KETTEN

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl

Rechnerpraktikum zur Optimierung III

Angewandte Stochastik

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Lebensdauer eines x-jährigen

Klausur für Studiengänge INF und IST

Mathematik für Wirtschaftswissenschaftler Beispiele, Graken, Beweise. c Uwe Jensen

Codierungstheorie Rudolf Scharlau, SoSe

Frohe Weihnachten und ein gutes neues Jahr!

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Korrelation (II) Korrelation und Kausalität

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise:

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Transkript:

2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete Stichprobe x 1,..., x n eine lange Liste von Zahlen die nur schwer zu interpretieren ist. Man möchte die Information in dieser Stichprobe zusammenfassen, indem man einige besondere, zentrale Größen bestimmt (Statistiken, also Funktionen der Stichprobe). Beispielsweise könnte man empirisches Mittel und Varianz, Minimum und Maximum verwenden, um die Eigentümlichkeiten der Stichprobe damit zu charakterisieren. 58

Sei jetzt X = (X 1,..., X n ) und x = (x 1,..., x n ) die beobachteten Werte. Jede Statistik T (X) definiert eine Form der Datenreduktion oder Datenzusammenfassung. Verwendet man den beobachteten Wert T (x) anstelle der gesamten beobachteten Stichprobe, so wird man 2 Stichproben x und y als identisch behandeln, falls T (x) = T (y) gilt; obwohl sich die tatsächlichen Werte x 1,..., x n von y 1,..., y n unterscheiden. 59

Datenreduktion in Termen einer Statistik kann auch als Partitionierung des Stichprobenraums χ gesehen werden. Sei τ = {t : t = T (x) für beliebiges x χ} das Bild von χ unter T (x). Dann partitioniert T (x) den Stichprobenraum in Mengen A t, t τ, mit A t = {x : T (x) = t}. Die Statistik fasst nun alle Daten zusammen und zeigt nur an, dass T (x) = t x A t. Wir interessieren uns für Reduktionsmethoden, die keine bedeutende Informationen über den unbekannten Parameter θ vernachlässigen. 60

2.1 Das Suffizienz-Prinzip Eine suffiziente Statistik für den Parameter θ ist eine Statistik, die alle relevante Information der Stichprobe über θ beinhaltet. Jede zusätzliche Information in der Stichprobe wäre für θ irrelevant. Suffizienz Prinzip: Falls T (X) eine suffiziente Statistik für θ ist, dann sollte jegliche Folgerung über θ von der Stichprobe X nur von T (X) abhängen. Dies hat zur Folge, dass für zwei Stichprobenpunkte x und y mit T (x) = T (y) die Folgerung über θ dieselbe ist, unabhängig davon ob X = x oder X = y beobachtet wurde. Definition 2.1.1: Eine Statistik T (X) ist suffizient für θ, falls die bedingte Verteilung von X, gegeben der Wert von T (X), nicht von θ abhängt. 61

Direkte Konsequenz: Satz 2.1.1: Bezeichne p(x θ) die gemeinsame Dichte oder Wahrscheinlichkeitsfunktion der Stichprobe X und sei q(t θ) die Dichte oder Wahrscheinlichkeitsfunktion von T (X). Dann ist T (X) eine suffiziente Statistik für den Parameter θ, falls für jedes x im Stichprobenraum der Quotient p(x θ) q(t (x) θ) konstant ist, als Funktion in θ betrachtet. Damit ist es möglich zu verifizieren, ob eine Statistik T (X) suffizient ist für einen Parameter θ. 62

Beispiel 2.1.1: Seien X 1,..., X n iid Bernoulli(θ)-Variablen, mit 0 < θ < 1. Frage: ist T (X) = i X i suffizient für θ? Bekannterweise ist T (X) Binomial(n, θ). Sei t = i x i, dann gilt p(x θ) q(t (x) θ) = = n θx i(1 θ) 1 x i ( n t) θt (1 θ) n t = 1 ( n ), i x i θ i x i(1 θ) i (1 x i) ) θ i x i(1 θ) n i x i ( n i x i was konstant ist in θ. Daher ist T (X) eine suffiziente Statistik für θ. 63

Beispiel 2.1.2: Seien X 1,..., X n iid Normal(µ, σ 2 ), mit 0 < σ 2 bekannt. Zeige, dass T (X) = X suffizient ist für µ. n ( p(x µ) = f(x µ) = 2πσ 2 ) 1/2 exp { (x i µ) 2 } 2σ 2 = ( } 2πσ 2) n/2 n (x i µ) exp { 2 2σ 2 = ( } 2πσ 2) n/2 n 1 exp { 2σ 2(x i x + x µ) 2 = ( { [ 2πσ 2) n/2 exp 1 n ]} 2σ 2 (x i x) 2 + n(x µ) 2, da i (x i x)(x µ) = (x µ) i (x i x) = 0 gilt. 64

Weiters gilt bekanntlich X Normal(µ, σ 2 /n), also q(x µ) = (2πσ 2 /n) 1/2 exp { 1 } 2σ 2 (x µ)2 /n. Wir erhalten somit für θ = µ { f(x θ) q(t (x) θ) = n 1/2 (2πσ 2 ) (n 1)/2 exp 1 2σ 2 was wiederum konstant ist in µ. } n (x i x) 2, Es ist ziemlich unhandlich, die Definition einer suffizienten Statistik unter einem Modell zum Auffinden einer solchen zu verwenden. Der nächste Satz (Halmos und Savage, 1949) erlaubt das Finden einer suffizienten Statistik, indem die gemeinsame Dichte- oder Wahrscheinlichkeitsfunktion der Stichprobe näher betrachtet wird. 65

Satz 2.1.2: (Faktorisierungssatz) Sei f(x θ) die gemeinsame Dichte oder Wahrscheinlichkeitsfunktion einer Stichprobe X. Eine Statistik T (X) ist eine suffiziente Statistik für θ, genau dann wenn Funktionen g(t θ) und h(x) existieren, sodass für alle Stichprobenpunkte x und für alle Parameter θ gilt f(x θ) = g(t (x) θ) h(x). Verwende Faktorisierungssatz zur Konstruktion von suffizienten Statistiken: Beispiel 2.1.2 (Fortsetzung): X i iid Normal(µ, σ 2 ), mit 0 < σ 2 bekannt. Gemeinsame Dichte f(x µ) = ( { } 2πσ 2) n/2 exp 1 n { 2σ 2 (x i x) 2 exp n 2σ2(x µ)2} }{{}}{{} g(t (x) µ) mit T (X)=X h(x) unabhängig von µ. 66

Satz 2.1.2 erfordert, dass die Identität f(x θ) = g(t (x) θ)h(x) für alle x und θ hält. Falls die Menge der x, für die f(x θ) positiv ist, von θ abhängt, dann ist Vorsicht geboten. Die Funktionen h( ) und g( ) müssen derart definiert sein, dass ihr Produkt gerade dort Null ist wo auch f( ) Null ist. Beispiel 2.1.3: X 1,..., X n iid aus der diskreten Gleichverteilung auf {1, 2,..., θ}. Der Parameter ist daher ein positiver Integer und die Wahrscheinlichkeitsfunktion eines X i ist { 1/θ falls x = 1,..., θ f(x θ) = 0 sonst. Als gemeinsame Wahrscheinlichkeitsfunktion von x = (x 1,..., x n ) ergibt sich f(x θ) = { θ n x i {1,..., θ} für i = 1,..., n 0 sonst. Die Einschränkung x i {1,..., θ} für i = 1,..., n kann ersetzt werden durch x i {1, 2,... } für i = 1,..., n, und max i (x i ) θ. Der Teil x i {1, 2,... } für i = 1,..., n ist darin unabhängig von θ. 67

Wir definieren T (x) = max i (x i ) h(x) = g(t θ) = und die Faktorisierung hält für alle x und θ. { 1 xi {1, 2,... } für i = 1,..., n 0 sonst { θ n t θ 0 sonst f(x θ) = g(t (x) θ)h(x) Die größte Ordnungsstatistik T (X) = max i (X i ) ist somit suffizient für den Parameter θ. Klarer wird dies noch mittels Indikatoren. 68

Bezeichne N = {1, 2,... } die Menge positiver Integer und sei N θ = {1, 2,..., θ}. Die gemeinsame Wahrscheinlichkeitsfunktion von X 1,..., X n ist damit f(x θ) = n θ 1 I Nθ (x i ) = θ n n I Nθ (x i ). Mit T (x) = max i (x i ) gilt n I Nθ (x i ) = ( n ) I N (x i ) I Nθ (T (x)) und damit ( n ) f(x θ) = θ n I Nθ (T (x)) I N (x i ) Also ist T (X) = max i (X i ) suffizient für θ.. 69

Manchmal kann aber auch die relevante Stichproben-Information nicht nur in einer Zahl zusammengefasst sein und es sind mehrere Zahlen dazu erforderlich. Dann ist die suffiziente Statistik ein Vektor T (X) = (T 1 (X),..., T r (X)). Dies ist oft gerade dann der Fall wenn θ = (θ 1,..., θ s ) ein Parametervektor ist. Oft gilt dafür r = s; es sind jedoch auch verschiedene Dimensionen möglich. Auch hier ist die Verwendung des Faktorisierungssatzes angebracht, um vektorwertige suffiziente Statistiken zu finden. Beispiel 2.1.4: X 1,..., X n iid Normal(µ, σ 2 ) mit beiden Parametern unbekannt. Definiere θ = (µ, σ 2 ). Bereits gezeigt, dass f(x θ) = ( 2πσ 2) n/2 exp { 1 2σ 2 [ n ]} (x i x) 2 + n(x µ) 2. Alle Teile die von µ oder σ 2 abhängen müssen in der Funktion g( ) enthalten sein. 70

Die gemeinsame Dichte hängt nur über T 1 (x) = x und T 2 (x) = s 2 = 1 n 1 n (x i x) 2 von der Stichprobe ab. Daher definieren wir h(x) = 1 und g(t θ) = g(t 1, t 2 µ, σ 2 ) = ( 2πσ 2) { n/2 exp 1 [ (n 1)t2 2σ 2 + n(t 1 µ) 2] }. Damit hält die Faktorisierung f(x µ, σ 2 ) = g(t 1 (x), T 2 (x) µ, σ 2 )h(x) und T(X) = (T 1 (X), T 2 (X)) = (X, S 2 ) ist eine suffiziente Statistik für (µ, σ 2 ). 71

Dieses Beispiel zeigt, dass es für ein Normalverteilungsmodell angebracht ist, nur das empirische Mittel und die empirische Varianz auszurechnen (sehr gebräuchliche Vorgehensweise). Die Statistik (X, S 2 ) enthält sämtliche Information über (µ, σ 2 ) in der Stichprobe. Jedoch ist die Definition einer suffizienten Statistik von der Modellannahme abhängig. Für ein alternatives Verteilungsmodell könnte (X, S 2 ) auch nicht suffizient für das Populationsmittel und die Populationsvarianz sein. 72

Satz 2.1.3: Seien X 1,..., X n iid Beobachtungen aus einer Dichte- oder Wahrscheinlichkeitsfunktion f(x θ), welche zur Exponentialfamilie gehört, also mit ( k ) f(x θ) = h(x) c(θ) exp w i (θ)t i (x), mit θ = (θ 1,..., θ d ), d k. Dann ist T (X) = n t 1 (X j ),..., j=1 n t k (X j ) j=1 eine suffiziente Statistik für θ. Beweis: Übung. 73

Zuvor fanden wir immer eine suffiziente Statistik zu jedem Modell. Tatsächlich gibt es aber für jedes Problem mehrere suffiziente Statistiken: Es gilt immer, dass die Stichprobe X selbst eine suffiziente Statistik ist, denn f(x θ) = f(t (x) θ)h(x) mit T (x) = x und h(x) = 1. Jede invertierbare Funktion r( ) einer suffizienten Statistik ist auch suffizient. Angenommen T (X) ist suffizient und sei T (x) = r(t (x)) für alle x. Dann existieren wegen des Faktorisierungssatzes Funktionen g( ) und h( ) mit f(x θ) = g(t (x) θ)h(x) = g(r 1 (T (x)) θ)h(x) Mit g (t θ) = g(r 1 (t) θ) folgt f(x θ) = g (T (x) θ)h(x) und T (X) ist somit suffiziente Statistik für θ. Wir fragen uns daher, ob vielleicht eine suffiziente Statistik irgendwie besser als die anderen sind. Aus Gründen der bestmöglichen Datenreduktion definieren wir: 74

Definition 2.1.2: Eine suffiziente Statistik T (X) nennt man minimale suffiziente Statistik, falls für jede beliebige andere suffiziente Statistik T (X) gilt, dass T (X) eine Funktion von T (X) ist. Bemerkung: Zu sagen, T (x) ist eine Funktion von T (x) bedeutet einfach: Gilt T (x) = T (y) dann ist auch T (x) = T (y). Alternative Interpretation: Sei τ = {t : t = T (x)}. Bezeichne {B t : t τ } und {A t : t τ} die Partitionsmengen unter T (x) und unter T (x), dann gilt unter Definition 2.1.2, dass jedes B t eine Untermenge eines A t ist. Also ist die Partitionierung zu einer minimalen suffizienten Statistik die gröbstmögliche Partitionierung für eine suffiziente Statistik und die minimale suffiziente Statistik erzielt eine größtmögliche Datenreduktion unter allen suffizienten Statistiken. 75

Beispiel 2.1.5: Seien wiederum X 1,..., X n iid Normal(µ, σ 2 ) mit σ 2 bekannt. Bereits gezeigt, T (X) = X ist suffizient für µ. Wir könnten auch das Ergebnis aus Beispiel 2.1.4 verwenden (σ 2 bekannt hier) und schließen, dass T (X) = (X, S 2 ) eine suffiziente Statistik für µ ist. Natürlich erzielt T (X) eine größere Datenreduktion als T (X). Wir können T (x) als Funktion von T (x) schreiben. Sei dazu r(a, b) = a. Damit ist T (x) = x = r(x, s 2 ) = r(t (x)). Da T (X) und T (X) beides suffiziente Statistiken sind, beinhalten sie dieselbe Information über µ. Die zusätzliche Information über den Wert von S 2 trägt nichts zu unserem Wissen über µ bei, da σ 2 als bekannt angenommen wurde. Natürlich ist für den Fall von σ 2 unbekannt T (X) keine suffiziente Statistik und T (X) enthält mehr Information über die Parameter (µ, σ 2 ) als T (X). 76

Es ist wiederum sehr unpraktisch die Definition 2.1.2 zu verwenden um eine minimale suffiziente Statistik zu finden. Wir bräuchten wieder eine Idee einer minimalen suffiziente Statistik T (X) und müssten dafür dann die Bedingungen in der Definition prüfen. Das folgende Resultat von Lehmann und Scheffé (1950) liefert eine einfachere Methode um eine minimale suffiziente Statistik zu finden: Satz 2.1.4: Sei f(x θ) die Dichte oder Wahrscheinlichkeitsfunktion einer Stichprobe X. Wir nehmen an, dass eine Funktion T (x) existiert, für die der Quotient f(x θ)/f(y θ) als Funktion in θ betrachtet konstant ist genau dann wenn T (x) = T (y) für zwei beliebige Stichprobenpunkte x und y gilt. Dann ist T (X) eine minimale suffiziente Statistik für θ. 77

Beispiel 2.1.6: Seien X 1,..., X n iid Normal(µ, σ 2 ), und µ und σ 2 unbekannt. Seien x und y zwei Stichprobenpunkte und seien (x, s 2 x) und (y, s 2 y) ihre empirischen Mittel und Varianzen. Dann folgt mit Beispiel 2.1.4 f(x µ, σ 2 ) f(y µ, σ 2 ) = (2πσ2 ) n/2 exp { [ ]} 1 2σ n(x µ) 2 + (n 1)s 2 2 x (2πσ 2 ) n/2 exp { [ ]} 1 2σ n(y 2 µ)2 + (n 1)s 2 y { = exp 1 [ n(x 2 2σ 2 y 2 ) 2nµ(x y) + (n 1)(s 2 x s 2 y) ] } Dieser Term ist genau dann konstant in den Parametern µ und σ 2 wenn x = y und s 2 x = s 2 y. Deshalb folgt mit Satz 2.1.4, dass (X, S 2 ) eine minimale suffiziente Statistik ist für die Parameter (µ, σ 2 ). Falls der Bereich der x Werte, auf dem die Dichte- oder Wahrscheinlichkeitsfunktion positiv ist, vom Parameter θ abhängt, dann müssen Nenner und Zähler im Quotienten des Satzes 2.1.4 genau für diese Werte von θ positiv sein.. 78

Beispiel 2.1.7: Seien X 1,..., X n iid stetig gleichverteilt auf (θ, θ + 1), θ R. Die gemeinsame Dichte der Stichprobe ist f(x θ) = { 1 θ < xi < θ + 1, i = 1,..., n 0 sonst. Dies kann auch geschrieben werden als f(x θ) = { 1 maxi (x i ) 1 < θ < min i (x i ) 0 sonst. Für 2 beliebige Punkte x und y ist Nenner und Zähler des Quotienten für denselben Wert von θ genau dann positiv, wenn min i (x i ) = min i (y i ) und max i (x i ) = max i (y i ). Falls Minima & Maxima gleich sind, ist der Quotient 1. Sei X (1) = min(x i ) und X (n) = max(x i ), dann haben wir T (X) = (X (1), X (n) ) als minimale suffiziente Statistik für θ. Hier ist die Dimension der minimalen suffizienten Statistik sogar größer als die Dimension der Parameter. 79

Eine minimale suffiziente Statistik ist nicht eindeutig. Jede invertierbare Funktion einer minimalen suffizienten Statistik ist selbst minimal suffizient. So ist für die Gleichverteilung auf (θ, θ + 1) in Beispiel 2.1.7 auch beispielsweise die Statistik T (X) = ( X (n) X (1), 1 2 (X (1) + X (n) ) ) minimal suffizient. Für die Normal(µ, σ 2 ) Verteilung in Beispiel 2.1.6 ist auch T (X) = ( n X i, n X 2 i ) minimal suffizient. 80