Die Maximum-Likelihood-Methode
|
|
|
- Bärbel Schneider
- vor 9 Jahren
- Abrufe
Transkript
1 Kapitel 5 Die Maximum-Likelihood-Methode Mit dem χ 2 -Test kann man quantitativ bestimmen, ob die Elemente einer Stichprobe Normalverteilungen mit angenommenen oder geschätzten Parametern μ i,σ i folgen. Durch Minimierung von χ 2 als Funktion der Parameter kann man eine optimale Schätzung der Parameter erhalten. Das ist die sogenannte Methode der kleinsten Quadrate, die im nächsten Kapitel behandelt wird. Die Methode der kleinsten Quadrate entspricht der Maximum-Likelihood-Methode für den Spezialfall, dass die Stichproben aus Normalverteilungen stammen. Die Maximum-Likelihood-Methode ML-Methode) ist eine allgemeine Methode zur Bestimmung von Parametern aus Stichproben für beliebige Wahrscheinlichkeitsverteilungen. Deshalb diskutieren wir im folgenden zunächst das ML-Prinzip. 5.1 Das Maximum-Likelihood-Prinzip Es sei wieder eine Stichprobe x 1,...,x n vom Umfang n gegeben, wobei jedes x i im allgemeinen für einen ganzen Satz von Variablen stehen kann. Wir wollen jetzt die Wahrscheinlichkeit für das Auftreten dieser Stichprobe berechnen unter der Annahme, dass die x i einer Wahrscheinlichkeitsdichte fx θ) folgen, die durch einen Satz von Parametern θ = θ 1,...,θ m bestimmt ist. Wenn die Messungen zufällig sind siehe die Gleichungen 4.4, 4.5) in Abschnitt 4.1), ist diese Wahrscheinlichkeit das Produkt der Wahrscheinlichkeiten für das Auftreten jedes einzelnen Elementes der Stichprobe: Lx 1,...,x n θ) = n fx i θ) 5.1) Die so definierte Stichprobenfunktion heisst Likelihood-Funktion und ist als Wahrscheinlichkeitsdichte für Stichproben x 1,...,x n auf deren Definitionsbereich Ω normiert: Lx 1,...,x n θ) dx 1...dx n =1 5.2) Ω Das gilt für alle θ, solange fx i θ) richtig normiert ist. Es ist wichtig zu realisieren, dass L nicht auf den θ-bereich normiert ist. Andererseits betrachtet man L bei der Suche nach optimalen Parametern als eine Funktion der Parameter, die im Optimierungsprozess variiert werden. Das ML-Prinzip lässt sich nun wie folgt formulieren: 59
2 60 KAPITEL 5. DIE MAXIMUM-LIKELIHOOD-METHODE Wähle aus allen möglichen Parametersätzen θ denjenigen Satz ˆθ als Schätzung, für den gilt: Lx 1,...,x n ˆθ) Lx 1,...,x n θ) θ 5.3) Das Prinzip läuft also auf die Aufgabe hinaus, das Maximum von L in bezug auf die Parameter zu finden. Da L als Produkt von Wahrscheinlichkeiten sehr kleine Zahlenwerte haben kann, benutzt man aus numerischen Gründen meistens den Logarithmus der Likelihood-Funktion, die sogenannte Log-Likelihood-Funktion: Lx 1,...,x n θ) =loglx 1,...,x n θ) = log fx i θ) 5.4) Die Maximierungsbedingungen lauten dann für die Log-Likelihood-Funktion, zunächst für nur einen Parameter θ: θ = θ log fx i θ) =0 = ˆθ 5.5) 2 L < 0 5.6) θ θ=ˆθ 2 Die Verallgemeinerung auf mehrere Parameter θ = θ 1,...,θ m lautet: 2 L θ i θ j θ=ˆθ θ i = θ i log fx i θ) =0 = ˆθ 5.7) = U ij ˆθ) negativ definit 5.8) Die Matrix U ist negativ definit, wenn alle Eigenwerte kleiner 0 sind. Falls Gleichung 5.7) auf ein lineares Gleichungssystem führt, kann man die Lösung durch Matrixinversion erhalten. Im allgemeinen sind die Gleichungen nicht-linear und man muss eine numerische, meistens iterative Methode zur Lösung finden. Wir werden Lösungsverfahren im Zusammenhang mit der Methode der kleinsten Quadrate im nächsten Kapitel besprechen. Beispiele: 1. Schätzung der mittleren Lebensdauer: Die Abfolge der Zerfälle eines radioaktiven Präparates habe die Wahrscheinlichkeitsdichte ft τ) = 1 τ e t/τ, 5.9) die als einzigen Parameter die mittlere Lebensdauer τ enthält. In einer Messung werden n Zerfälle mit den Zeiten t i, i =1,...,n gemessen. Die Likelihood-Funktion dieser Stichprobe ist: Lt 1,...,t n τ) = n 1 τ e t i/τ = Lt 1,...,t n τ) = ln τ t ) i τ 5.10)
3 5.2. FEHLERBESTIMMUNG FÜR ML-SCHÄTZUNGEN 61 Die Maximierung von L ergibt den ML-Schätzwert für τ: τ = 1 τ + t ) i =0 = ˆτ = 1 τ 2 n t i = t 5.11) mit 2 L = τ τ=ˆτ ṋ <o 5.12) 2 τ 2 Die ML-Schätzung der mittleren Lebensdauer ist also das arithmetische Mittel der gemessenen Zeiten. 2. Schätzung der Parameter einer Gauss-Verteilung: Eine Stichprobe x i, i =1,...,n aus einer Normalverteilung Nμ, σ) hat die Likelihood-Funktion: Lx 1,...,x n μ, σ 2 )= Die Maximierung in Bezug auf beide Parameter fordert: μ = σ 2 = n 1 2πσ 2 e x i μ)2 2 σ ) x i μ σ 2 = ) 1 2 σ + 1 ) 2 2 σ x 4 i μ) 2 = ) Die Lösung des Gleichungssystems ergibt: ˆμ = 1 x i = x 5.16) n ˆσ 2 = 1 n x i ˆμ) 2 = 1 n x i x) ) Die ML-Schätzung des Mittelwertes ist also wieder das arithmetische Mittel. Die Schätzung der Varianz ist allerdings verzerrt, denn der Erwartungswert ist nicht unabhängig von n siehe dazu Abschnitt 4.2): E ˆσ 2 )= 1 1 ) σ ) n Die Schätzung ist aber konsistent, weil der Erwartungswert der Schätzung für große n gegen den zu schätzenden Parameter konvergiert. 5.2 Fehlerbestimmung für ML-Schätzungen Die Fehler oder Unsicherheiten in der Parameterbestimmung mit der ML-Methode lassen sich nur in speziellen Fällen explizit angeben, zum Beispiel wenn die Likelihood-Funktion normalverteilt in den Parametern ist siehe unten). Andererseits ist eine Parameterbestimmung ohne Aussagekraft, wenn man nicht einen Fehler oder ein Vertrauensniveau angeben kann. Im allgemeinen wird die vollständige Kovarianzmatrix benötigt, wenn man ML-Ergebnisse für die weitere Auswertung braucht.
4 62 KAPITEL 5. DIE MAXIMUM-LIKELIHOOD-METHODE Allgemeine Methoden der Varianzabschätzung Direkte Methode: Die direkte Methode gibt die Streuung der Schätzwerte ˆθ = ˆθx 1,...,x n ) an, wenn man viele Messungen mit Stichproben x 1,...,x n )macht: V ij θ) = ˆθ i θ i )ˆθ j θ j ) Lx 1,...,x n θ) dx 1...dx n 5.19) Hier ist also θ der wahre Parametersatz und ˆθx 1,...,x n ) sind die Schätzungen, die man jeweils für eine Stichprobe erhält. Die Stichprobe, über die integriert wird, folgen der Wahrscheinlichkeitsdichte Lx 1,...,x n ). Bei dieser Varianzbestimmung wird die Kenntnis des wahren Parametersatzes θ und der Verlauf von L als Funktion der x i vorausgesetzt. Bei einer Messung weiss man in der Regel weder das eine noch das andere. Man kann diese Methode aber zum Beispiel zur Planung von Experimenten benutzen, um die zu erwartenden Fehler beim Testen eines Modells mit bestimmten Parametern auszuloten. Die Auswertung wird dann in der Regel mit Simulationen der Stichproben gemacht. Auch für experimentelle Messungen kann man diese Bestimmung der Varianzen benutzen. Für den geschätzten Parametersatz ˆθ simuliert man den Verlauf der Likelihood-Funktion durch die Simulation vieler Messungen, die man in der Praxis nicht durchführen könnte. Praktische Methode: In der Praxis wird meistens Lx 1,...,x n θ) bei fester Stichprobe x 1,...,x n ) als Wahrscheinlichkeitsdichte für θ angenommen. Dann erhält man für die Varianzmatrix: θi V ij θ) = ˆθ i )θ j ˆθ j ) Lx 1,...,x n θ) dθ 1...dθ m 5.20) Lx1,...,x n θ) dθ 1...dθ m Hier ist ˆθ die ML-Schätzung, die aus der einen gemessenen Stichprobe x 1,...,x n )bestimmt wurde. In der Formel 5.20) ist berücksichtigt, dass L nicht auf den θ-bereich normiert ist, wie bereits oben erwähnt wurde. In der Regel werden die Integrationen numerisch durch Abtasten der Likelihood-Funktion für verschiedene Parameter θ durchgeführt Varianzabschätzung durch Entwicklung um das Maximum Wenn die Likelihood-Funktion gewisse günstige Eigenschaften hat, insbesondere wenn der Verlauf um den optimalen Parametersatz als Funktion der Parameter ein ausgeprägtes Maximum hat und nach beiden Seiten monoton abfällt, kann man eine Entwicklung um das Maximum versuchen. Aus Gründen, die wir gleich verstehen werden, entwickeln wir die Log-Likelihood- Funktion: Lx 1,...,x n θ) =Lx 1,...,x n ˆθ) +θ ˆθ) θ + 1 θ=ˆθ 2 θ i ˆθ i )θ j ˆθ j ) 2 L ) θ i θ j θ=ˆθ Wegen der Maximumbedingung verschwindet die erste Ableitung. Die zweiten Ableitungen werden zusammengefasst: V 1 ij = 2 L θ i θ j θ=ˆθ 5.22)
5 5.2. FEHLERBESTIMMUNG FÜR ML-SCHÄTZUNGEN 63 Damit ergibt sich in der Umgebung des Maximums: Lx 1,...,x n θ) L max 1 2 θ ˆθ) T V 1 θ ˆθ) 5.23) und für die Likelihood-Funktion L folgt: Lx 1,...,x n θ) L max e 1 2 θ ˆθ) T V 1 θ ˆθ) 5.24) Das heisst, wenn die Likelihood-Funktion als Funktion der Parameter ein annähernd gaussisches Verhalten zeigt, kann die Varianz durch die zweiten Ableitungen entsprechend 5.22) abgeschätzt werden. In der Praxis wird häufig angenommen, dass die Likelihood-Funktion einer Multi)-Normalverteilung folgt. Wenn die Parameter unkorreliert sind, ist V 1 diagonal und die Varianz der Parameter ist: σ 2 i = 1 V 1 ii = 2 L ) θ=ˆθ) θ i Vertrauensintervalle und Likelihood-Kontouren Die Fehler der Parameter werden häufig als die Wurzeln aus den Varianzen, wie sie im vorigen Abschnitt bestimmt wurden, angegeben. Wenn man genauer sein will, kann man Likelihood- Kontouren angeben. Das sind im allgemeinen Fall Hyperflächen im Parameterraum, die durch Lx 1,...,x n θ) =const 5.26) festgelegt sind und einen bestimmten Wahrscheinlichkeitsinhalt η, entprechend einem Vertrauensniveau, haben. Bei zwei Parametern θ i,θ j ) ergibt sich zum Beispiel in der Regel eine geschlossene, zwei-dimensionale Raumkurve um die Schätzwerte ˆθ i, ˆθ j ) der Parameter Abb. 5.1). Im allgemeinen können die Hyperflächen beliebige Volumina im Parameterraum einschliessen, zum Beispiel brauchen diese Volumina auch nicht zusammenzuhängen ein Beispiel ist in Abb. 5.2 gezeigt). Als Vertrauensniveau können Werte wie 68%, 90%, 95% usw. angegeben werden. Im allgemeinen müssen die Likelihood-Kontouren dafür numerisch integriert werden. In dem speziellen Fall, dass die Likelihood-Funktion durch eine Normalverteilung entsprechend 5.24) beschrieben werden kann, folgt 2ΔL =2[L max Lx 1,...,x n θ)] = θ ˆθ) T V 1 θ ˆθ) 5.27) einer χ 2 -Verteilung mit m Freiheitsgraden m = Anzahl der Parameter). In diesem Fall ergibt 2 ΔL = 1 die Kovarianzen der Parameter. Die Kontouren zu einem Vertrauensniveau η ergeben sich aus den Kurven in Abb. 4.3 durch 2 ΔL = χ 2 = const für n F = m und mit η =1 α. Die Kontouren sind im Zweidimensionalen Ellipsen und im allgemeinen m-dimensionale Ellipsoide. Zum Beispiel enthält die Kontour mit m =2,2ΔL = 1 das ist die Ellipse, die die ±1σ- Linien schneidet, siehe Abb. 5.1) nur 39.4% Wahrscheinlichkeit, während das für m = 1 bekanntlich 68.3% sind.
6 64 KAPITEL 5. DIE MAXIMUM-LIKELIHOOD-METHODE θ i ˆ θ i σ i σ i σ j ˆ θ j σ j σ inner ρ ij σi θ j φ Abbildung 5.1: Standard-Fehlerellipse für die Schätzwerte ˆθ i und ˆθ j. Abbildung 5.2: Beispiel für Likelihood-Kontouren: Die zwei Konstanten g V und g A Kopplung vonleptonenandasz 0 -Boson) werden in verschiedenen Teilchenreaktionen gemessen, die sehr unterschiedliche Likelihood-Kontouren liefern. Die besten Schätzwerte liegen innerhalb der Kontouren, die ringförmige und zum Teil auch nicht zusammenhängende Gebiete beschreiben. Der einzige Bereich, den alle Likelihood-Kontouren umschreiben, ist nahe g V =0, g A = 0.5. Für die genaue Analyse müssen alle Likelihood-Funktionen kombiniert werden.
7 5.3. EIGENSCHAFTEN VON ML-SCHÄTZUNGEN Eigenschaften von ML-Schätzungen Die Likelihood-Schätzung der Parameter hat in vieler Hinsicht optimale Eigenschaften. Im Rahmen dieser Vorlesung ist allerdings nicht ausreichend Zeit, in die Details und die mathematischen Beweise zu schauen. Einige dieser Eigenschaften sollen hier nur kurz erwähnt werden: 1. Invarianz gegenüber Parametertransformationen: Im allgemeinen ist die Schätzung unabhängig davon, wie die Parameter dargestellt werden. Für eine Transformation θ φ 5.28) ergibt sich: ˆφ = φˆθ) 5.29) Zum Beispiel kann man für die Schätzung einer mittleren Lebensdauer τ auch die Zerfallswahrscheinlichkeit λ = 1/τ benutzen, denn aus λ ˆλ) = ) folgt τ τ λ ˆλ) =0 τ τˆλ)) = 0 τ 0) 5.31) λ 2. Konsistenz: Für große Stichproben geht der Schätzwert in den tatsächlichen Wert über: lim ˆθ = θ 5.32) n 3. Verzerrung: Wir hatten am Beispiel der Schätzung der Varianz einer Gauss-Verteilung gesehen siehe 5.18)), dass die ML-Schätzung nicht unbedingt verzerrungsfrei ist, d. h. es gilt nicht Eˆθ) =θ für alle n. Allgemein gilt allerdings, dass die ML-Schätzung asymptotisch verzerrungsfrei ist: lim Eˆθ) =θ 5.33) n 4. Effizienz: In den meisten Fällen ist eine ML-Schätzung effizient, das heisst, die geschätzten Parameter haben minimale Varianz. Jedenfalls gilt das im Fall großer Stichproben: die ML-Schätzung ist asymptotisch effizient. Schwieriger ist die Beurteilung der Fehler und Vertrauensintervalle einer Schätzung. Das Problem tritt dann auf, wenn man die Likelihood-Funktion als Wahrscheinlichkeitsdichte der Parameter interpretiert und benutzt. Zur Fehlerabschätzung braucht man eigentlich den Verlauf der gesamten Likelihood-Funktion. Wir hatten bereits darauf hingewiesen, dass die Likelihood- Funktion in Abhängigkeit von den Parametern nicht normiert ist. Um richtig normieren zu können, müsste man eigentlich den möglichen Bereich der Parameter genau kennen und auch, ob alle Parameter gleich wahrscheinlich sind, das heisst, was die a priori Wahrscheinlichkeiten der Parameter sind. Nach dem Bayes-Theorem 1.13) würde man bei einer gegebenen Stichprobe x und für diskrete Hypothesen θ i folgende a posteriori Wahrscheinlichkeit, dass die Hypothese θ i wahr ist, erhalten: P θ i x) = P x θ i) P θ i ) j P x θ 5.34) j) P θ j )
8 66 KAPITEL 5. DIE MAXIMUM-LIKELIHOOD-METHODE Hier entspricht P x θ i ) der Likelihood-Funktion L x θ i ) und P θ i ) ist die a priori Wahrscheinlichkeit der Hypothese θ i. Der Nenner normiert auf alle möglichen Hypothesen für kontinuierliche Hypothesen-Parameter ergibt sich ein Normierungsintegral). Beispiel: In Teilchenexperimenten möchte man häufig die gemessenen langlebigen Teilchen identifizieren, typischerweise die 5 Teilchensorten i, i = p, K, π, e, μ. Aus den Informationen verscheidener Detektoren, die uns hier nicht im Detail interessieren, kann man eine Masse m des Teilchens bestimmen zum Beispiel aus der Messung von Impuls und Geschwindigkeit) und damit eine Wahrscheinlichkeit für eine Teilchenhypothese i: P i m) = P m i) P i) j P m j) P j) 5.35) Die Wahrscheinlichkeit P m i), bei Vorliegen des Teilchens i eine Masse m zu messen, bestimmt man in der Regel experimentell mit bekannten Teilchenstrahlen. Die a priori Wahrscheinlichkeit P i) für das Auftreten der Teilchensorte i entnimmt man dem gleichen Experiment, weil die Teilchenhäufigkeiten abhängig von der Energie der Reaktion und eventuell noch anderen Parametern) sind. Die Teilchenhäufigkeiten sind im allgemeinen sehr unterschiedlich, mit starker Dominanz der Pionen. Wenn es zum Beispiel einen Faktor 10 mehr Pionen als Kaonen gibt, muss P m K) > 10 P m π) sein, damit es als Kaon identifiziert wird. Die Kenntnis der a priori Wahrscheinlichkeit ist also in diesem Fall besonders wichtig. In vielen Fällen kennt man die a priori Wahrscheinlichkeiten für die Hypothesen nicht und nimmt dann an, dass sie konstant sind. Dass das problematisch ist, sieht man auch daran, dass die Vertrauensintervalle nicht invariant gegen Transformationen der Parameter sind. Für die Transformation θ φθ) 5.36) ergibt sich für die Berechnung eines Vertrauensintervalls: θ2 φθ2 ) L x θ) dθ = L x φθ)) θ φ2 θ 1 φ dφ L x φ) dφ 5.37) φ 1 φθ 1 ) Das rechte Integral hätte man ja erhalten, wenn man von vornherein φ als Parameter gewählt hätte.
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)
Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.
Kapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.
Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen
Ü b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005
Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit
Statistische Methoden der Datenanalyse
Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2002 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit..................................
Die Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg
. Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments
Schätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche
Stochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 23. April 2003 Wahrscheinlichkeitsrechnung (Forts.) Gängige Wahrscheinlichkeitsfunktionen Bernoulli-Verteilung Besitzt ein Zufallsexperiment nur zwei mögliche
TEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende
Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende im Sommersemester 2012 Prof. Dr. H. Küchenhoff, J. Brandt, G. Schollmeyer, G. Walter Aufgabe 1 Betrachten
die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden?
1. Aufgabe: Eine Bank will die jährliche Sparleistung eines bestimmten Kundenkreises untersuchen. Eine Stichprobe von 12 Kunden ergab folgende Werte: 825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170
Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch
6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- [email protected] 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,
Statistik für SozialwissenschaftlerInnen II p.85
Schätzverfahren Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Ziel von Schätzverfahren: Ausgehend von Stichproben Aussagen über Populationskennwerte machen Kenntnis der Abweichung des
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
Mittelwertvergleiche, Teil I: Zwei Gruppen
FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil I: Zwei Gruppen FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Mittelwertvergleiche:
Statistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Von der Normalverteilung zu z-werten und Konfidenzintervallen
Von der Normalverteilung zu z-werten und Konfidenzintervallen Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg [email protected] Statistik 1 S. Garbade (SRH
Kenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
ANalysis Of VAriance (ANOVA) 1/2
ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?
Analytische Statistik II
Analytische Statistik II Institut für Geographie 1 Schätz- und Teststatistik 2 Grundproblem Generell sind wir nur selten in der Geographie in der Lage, Daten über die Grundgesamtheit zur Verfügung zu haben.
Kapitel 2. Fehlerrechnung
Fehlerrechnung 1 Messungen => quantitative Aussagen Messungen müssen zu jeder Zeit und an jedem Ort zu den gleichen Ergebnissen führen Messungen sind immer mit Fehler behaftet. => Angabe des Fehlers! Bespiel
Inferenzstatistik (=schließende Statistik)
Inferenzstatistik (=schließende Statistik) Grundproblem der Inferenzstatistik: Wie kann man von einer Stichprobe einen gültigen Schluß auf di Grundgesamtheit ziehen Bzw.: Wie groß sind die Fehler, die
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY231) Herbstsemester 2015 Olaf Steinkamp 36-J-22 [email protected] 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
Kapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
9. Vorlesung Wintersemester
9. Vorlesung Wintersemester 1 Die Phase der angeregten Schwingung Wertebereich: bei der oben abgeleiteten Formel tan φ = β ω ω ω0. (1) ist noch zu sehen, in welchem Bereich der Winkel liegt. Aus der ursprünglichen
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
Statistische Methoden der Datenanalyse. Übung XI
Albert-Ludwigs-Universität Freiburg Wintersemester 203/204 Statistische Methoden der Datenanalyse Markus Schumacher, Stan Lai, Florian Kiss Übung XI 2..204, 22..204 Anwesenheitsaufgaben Aufgabe 53 Vergleich
Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern.
Aufgabe 1 (2 + 1 + 2 + 2 Punkte) Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern. a) Wieviele Möglichkeiten hat
TEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
Auswertung und Lösung
Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage
Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
12 Die Normalverteilung
12 Die Normalverteilung Die Normalverteilung ist eine der wichtigsten Wahrscheinlichkeitsverteilungen in der Praxis, weil aufgrund des sogenannten zentralen Grenzwertsatzes in vielen Situationen angenommen
x(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179
. Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von
Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen
Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Einleitung: Funktion mit einer Veränderlichen Als Einleitung haben wir folgende Funktion besprochen: y
1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests
1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests Statistische Tests dienen dem Testen von Vermutungen, so genannten Hypothesen, über Eigenschaften der Gesamtheit aller Daten ( Grundgesamtheit
Übungen zur Vorlesung Statistische Methoden Kapitel 1-2
TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable
Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2
Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat
Statistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
5 Kontinuierliches Wachstum
5 Kontinuierliches Wachstum Kontinuierlich meßbare Größe Wir betrachten nun eine Größe a, die man kontinuierlich messen kann. Den Wert von a zum Zeitpunkt t schreiben wir nun als a(t). Wir können jedem
Statistik Übungsblatt 5
Statistik Übungsblatt 5 1. Gaussverteilung Die Verteilung der Messwerte einer Grösse sei durch eine Gaussverteilung mit Mittelwert µ = 7.2 und σ = 1.2 gegeben. (a) Wie gross ist die Wahrscheinlichkeit
Statistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren
Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse PHY31 Herbstsemester 016 Olaf Steinkamp 36-J- [email protected] 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
Statistik und Datenanalyse (Handout zum Seminarvortrag von Norman Bhatti, gehalten am )
Statistik und Datenanalyse (Handout zum Seminarvortrag von Norman Bhatti, gehalten am 9.0.) Motivation Unter Statistik versteht man die Lehre von den Methoden zum Umgang mit quantitativen Informationen,
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Berufsreifeprüfung Mathematik Lehrplan laut Berufsreifeprüfungscurriculaverordnung Volkshochschule Floridsdorf Sommertermin 2013
BRP Mathematik VHS Floridsdorf 15.6.2013 Seite 1/6 Gruppe A Berufsreifeprüfung Mathematik Lehrplan laut Berufsreifeprüfungscurriculaverordnung Volkshochschule Floridsdorf Sommertermin 2013 Notenschlüssel:
Quantitatives Risikomanagement
Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften
7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
KAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
3. Selbstbehalt und Selbstbeteiligung
3. Selbstbehalt und Selbstbeteiligung Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Selbstbehalt und Selbstbeteiligung 1 / 16 1. Modellrahmen 1.1
STATISTISCHE METHODEN UND IHRE ANWENDUNGEN
STATISTISCHE METHODEN UND IHRE ANWENDUNGEN Von Dr. rer. nat. Erwin Kreyszig o. Professor für Statistik an der Universität Karlsruhe mit 82 Abbildungen und zahlreichen Tabellen Vierter, unveränderter Nachdruck
Parameteranpassung mit kleinsten Quadraten und Maximum Likelihood
Parameteranpassung mit kleinsten Quadraten und Maximum Likelihood Armin Burgmeier 27. November 2009 1 Schätzwerte 1.1 Einführung Physikalische Messungen sind immer fehlerbehaftet. Man misst niemals den
Fortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
Statistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
SozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best [email protected] Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
Lineare Gleichungssysteme
Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler [email protected] Mainz, 13. Juli 2011 Ziel der Vorlesung Vermittlung von Grundkenntnissen der Statistik, Simulationstechnik und numerischen Methoden (Algorithmen) Aufgabe:
Wahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling
Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen
Test auf einen Anteilswert (Binomialtest) Vergleich zweier Mittelwerte (t-test)
Spezielle Tests Test auf einen Anteilswert (Binomialtest) Vergleich zweier Anteilswerte Test auf einen Mittelwert (Ein-Stichproben Gauss bzw. t-test) Vergleich zweier Mittelwerte (t-test) Test auf einen
Mathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
Lineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY23) Herbstsemester 207 Olaf Steinkamp 36-J-05 [email protected] 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
Zufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
Statistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
Brückenkurs Statistik für Wirtschaftswissenschaften
Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München
Konfindenzintervall für My - Sigma unbekannt
Konfindenzintervall für My - Sigma unbekannt Worum geht es in diesem Modul? Ausgangspunkt t-verteilung Herleitung des Konfidenzintervalls Breite des Konfidenzintervalls Simulation: Vergleich der Konfidenzintervalle
+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:
Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X
STATISTIK II. Hans-Otfried Müller Institut für Mathematische Stochastik.
STATISTIK II Hans-Otfried Müller Institut für Mathematische Stochastik http://www.math.tu-dresden.de/sto/mueller 1 Ausgewählte Verfahren der multivariaten Datenanalyse und Statistik Werden bei einer Analyse
