Rechnernutzung in der Physik
|
|
|
- Sara Sauer
- vor 9 Jahren
- Abrufe
Transkript
1 Vorlesung: Rechnernutzung in der Physik Anpassung von Parametern Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft WS 2016/17
2 Parameteranpassung χ2 und Likelihood Parameterschätung (= Funktionsanpassung) mit der Methode der kleinsten Fehlerquadrate (χ2-methode) Maximum Likelihood Methode Anpassungen mit kafe Fertige Programmpakete
3 Parameterschätzung (neudeutsch fitten ) Anpassung von Modellen = parameterabhängige an statistische Daten = Messwerte Funktionen y Messdaten ( xi, yi ) mit angepasster Funktion f(x;p) p ist der Vektor der Parameter der Funktion Benötigen ein Abstandsmaß für Übereinstimmung von (xi, yi) und f(xi) Mathematisch: yi und fi = f(xi) sind Elemente eines Vektorraums: Vektoren y und f 2 Abstand = Betrag des Differenzvektors, d = (y also: Finde Parameterwerte, die d2 minimieren - f) (y f) (Skalarprodukt) (für geeignet definiertes Skalarprodukt) Frage: wie werden Messfehler berücksichtigt?
4 Beziehung Messung Funktionswert Wahrscheinlichkeitsverteilung um den wahren Wert wahrer Wert Messung mit Fehlerbalken übliche Darstellung = Messpunkt Fehlerbalken entspricht ±1σ dieser Gaußkurve eigentliche Bedeutung Messung mit Fehlerbalken bedeutet: Beobachtung eines Messergebnisses, das der Summe aus einem wahren Wert und einer Zufallszahl aus einer Verteilungsdichte entspricht
5 Parameterschätzung 2 Methode der kleinsten Quadrate (χ - Methode) 5
6 Parameterschätzung mit der Methode der kleinsten Quadrate ( χ2-methode ) Entwickelt zu Beginn des 19. Jahrhunderts von Legendre, Gauß und Laplace. Ziel: finden der besten Funktion, die Fehler-behaftete Datenpunkte annähert. zunächst für Geraden (Ausgleichsgerade oder lineare Regression), aber mit numerischen Minimierungsalgorithmen (z.b. MINUIT) auf beliebige Funktionen und Anzahl Parameter anwendbar! Minimiere bzgl. der Parameter {p} S: Summe der Residuen-Quadrate = f (x; {p}) σi2 sind die Varianzen der N Messunge Falls die Fehler korreliert sind, ersetze 1/σi2 cov -1 (Inverse der Kovarianzmatrix) Methode ist auch aus Likelihood-Prinzip herleitbar später
7 Minimieren von S N Messungen k Parameter Wie minimiert man analytisch: als notwendige Bedingung für ein Minimum lösbar in Spezialfällen, z. B. für lineare Probleme: i. a. numerisch numerische Optimierung: Algorithmen zur Suche nach dem (eine Minimum einer Skalaren Funktion im k-dimensionalen Paramete In der Praxis werden heute auch für lineare Probleme die (effizienten) numerischen Minimierungsmethoden verwendet. (außer in Spezialfällen, z. B. bei zeitkritischen oder immer wieder vorkommenden Problemstellungen)
8 Beispiel mit einem Parameter Mittelwert von 10 Messungen yi mit Unsicherheiten σ entspricht der Anpassung einer konstanten Funktion f(x;c)=c analytisch: identisch zum Mittelwert numerisch : berechnen und grafisch darstellen Script PlotAverage-withChi2.py
9 Mittelung bei unterschiedlichen Unsicherheiten N Messungen yi mit individuellen Unsicherheiten σi 1/σ - quadrat gewichtete Summe Wichtiges Ergebnis zur Mittelwertbildung bei Messungen mit unterschiedlichen Unsicherheiten
10 Zusammenhang von S mit der χ2 - Verteilung Quadrat einer standard-normal verteilten Größe; folgt χ2verteilung Smin, die gewichtete Summe der Residuen-Quadrate am Minimum, folgt bei Gauß-verteilten Fehlern σi einer χ2-verteilung mit nf = N-k Freiheitsgraden. Erwartungswert: <χ2>=nf oder <χ2 /nf > = 1 Die χ2-wahrscheinlichkeit dient zur Quantifizierung der Qualität einer Anpassung Aussage, mit welcher Wahrscheinlichkeit ein größerer Wert von χ2 am Minimum als der tatsächlich beobachtete zu erwarten wäre.
11 Güte der Anpassung χ2-wahrscheinlichkeit in python: scipy.stat.chi2.cdf(s, nf) E[Smin] = nf E[Smin / nf] = 1 Die Wahrscheinlichkeit, einen χ2 - Wert größer nf zu erhalten, ist ca. 40% (ziemlich unabhängig von n) Mit wachsender Zahl der Freiheitsgrade sollte Smin / nf immer näher bei 1 liegen in python: chi2prb= 1. - scipy.stat.chi2.cdf(s, nf)
12 Das (allg.) Lineare Problem lineares Problem: anzupassende Funktion ist linear in den Parametern Beispiele: Allgemein lassen sich also die N Messwerte yi durch eine Linearkombination von Funktionswerten von k Funktionen an Stützstellen xi darstellen: Dies lässt sich sehr kompakt in Matrix-Scheibweise darstellen: mit Kovarianzmatrix V der N Messungen ergibt sich für S(aj ): dann: Minimieren von S(aj ) bzgl. der Parameter aj, d.h.
13 Lösung des allg. linearen Problems Notwendigen Bedingung für ein Minimum von S(aj ): Für lineare Probleme analytisch lösbar. Anm.: häufig führt aber eine Erweiterung des anzupassenden Modells dazu, dass Parameter in einer der nicht-linearen Funktionen auftreten, dann muss auf andere (=numerische) Methoden zurück gegriffen werden. [ s. nächste Folien ] Lösung ist lineare Funktion der Messwerte: Kovarianzmatrix der Parameter durch Fehlerfortpflanzung:
14 Analytische Lösung des allg. linearen Problems Kleine (Matrix-) Rechnung: Produktregel, a auf 1. und 2. Term mit a anwenden nach dem Vektor der Schätzwerte auflösen Die Lösung für die Parameter ist also eine Linearkombination der Messwerte, mit der Lösungsmatrix B: Die Kovarianz-Matrix ist damit durch das Fehlerfortpflanzungsgesetz gegeben: Einsetzten der expliziten Form von B und ausnutzen, dass V und ATA symmetrische Matrizen sind
15 Spezialfall: Lineare Regression (Geradenanpassung) Durch Einsetzen in die Lösungsformeln von vorhin erhält man mit den Abkürzungen die Lösung: Diese Formeln waren für Generationen von Studierenden die Basis einer jeden Anpassung ( Regression ).
16 Anmerkung: Lineare Regression Das Kovarianzelement V12 verschwindet für Sx=0, d. h. wenn der Erwartungswert der Abszissenwerte 0 ist Dies lässt sich durch Änderung der Parametrisierung erreichen: setze Man erhält dann diese einfacheren, unkorrelierten Lösungen für die Parameter
17 Bestimmung der Parameterfehler χ2 χ2 2 Je schärfer das Minimum von χ (a), desto kleiner die Parameterfehler: a a scharfes Mimimum: große Krümmung flaches Mimimum: kleine Krümmung Parameterunsicherheiten sind umgekehrt proportional zu Krümmung(en) von χ2(a) am Minimum bzw. bei mehreren Parametern.
18 Erinnerung: lineares Problem Für das lineare Problem mit ergab sich die Kovarianzmatrix der Parameter durch Fehlerfortpflanzung Bilden der zweiten Ableitungen von S, liefert das gleiche Ergebnis:
19 Beispiel: Fehler des Mittelwerts Erinnerung: Mittelwertbestimmung von 10 Messungen yi mit Unsicherheiten σ Unsicherheit nach Formel: Identisch zu früherem Ergebnis (das wir mittels Fehlerfortpflanzung erhalten hatten)
20 Beispiel: Qualität der Anpassung Erinnerung Mittelwertbestimmung: Numerische Lösung Script PlotAverage-withChi2.py Qualität der Anpassung: χ2 = 6.23 bei 10 Messwerten und 1 Parameter, d. h. nf = 9 Freiheitsgrade χ2 - Wahrscheinlichkeit = 0.72 bestimmt mit der kumulativen Verteilung der χ2-verteilung chi2prb= 1. - scipy.stat.chi2.cdf(6.2, 9)
21 Numerische Verfahren
22 Numerische Anpassung I. a. (heute) Anpassungen mittels numerischer Optimierung durch: Gittermethode: z.b. Minuit: SCAN-Algorithmus k gleichverteilte Testwerte pro Dimension Erfordert kd Berechnungen bei d Dimensionen Ungeeignet für große d Monte-Carlo-Methode: Funktionsberechnung an zufällig verteilten Testpunkten Auch bei großen d geeignet gut für Bestimmung von Startwerten Einfache Parametervariation: Eindimensionale Minimierung in einem Parameter, dann Minimierung in nächstem Parameter Iteration I.a. schnelle Konvergenz, wenn Minimierung in Richtung der Eigenvektoren der Matrix der 2. Ableitung erfolgt weitere numerische (deterministische) Verfahren: Simplex-Verfahren (ohne Ableitungen) Methoden mit angepasster Schrittweite, numerische Auswertung der Ableitungen z.b. Minuit: SIMPLEX-Algorithmus MIGRAD-Algorithmus
23 Beispiel Simplex-Verfahren Illustration der Simplex-Methode am Beispiel der Rosenbrock'schen Bananenfunktion Simplex: n-dimensionaler Polyeder aus n+1 Punkten im Rn Bei jedem Schritt wird der schlechteste Punkt xr mit größtem Funktionswert F(xr) durch einen neuen, besseren, ersetzt, oder der Simplex ggf. verkleinert oder vergrößert.
24 [** Simplex-Verfahren ] n+1 Punkte x1,..., xn + 1 im Rn n-dimensionaler Polyeder oder Simplex Sortierung, so dass F(x1 ) < < F(xn + 1 ) Schwerpunkt der n besten Punkte: c = i = 1 n xi / n Spiegelung des schlechtesten Punktes an c: xr = c + (c xn + 1 ) Falls F(x1 ) < F(xr ) < F(xn ) xr ersetzt xn + 1 Falls F(xr ) < F(x1 ) gute Richtung Streckung: xs =c+ (xr c), > 1 Falls F(xs ) < F(xr ): xs ersetzt xn+1, ansonsten xr ersetzt xn + 1 Falls F(xr ) > F(xn ): Simplex zu groß Abflachung: xs = c (c xn + 1 ), 0 < < 1 Falls F(xs ) < F(xn + 1 ): xs ersetzt xn + 1 Ansonsten Kontraktion um x1 : xj = x1 + (xj x1 ), 0 < < 1
25 Beispielcode: numerische Anpassung mit kafe In der Praxis setzt man Programmpakete ein, die - Strukturen zur Verwaltung von Daten und deren Fehlern - Definition von Modellen - Anpassung mittels numerischer Optimierung - grafische Darstellung - Ausgabe der Ergebnisse bereit stellen. Zuverlässige Konvergenz zum globalen Minimum bei nicht-linearen Problemstellungen erfordert meist das Setzen geeigneter Startwerte! Beispiel mit dem python-framework kafe : Anpassung der drei Parameter einer quadratischen Funktion an Datenpunkte mit Unsicherheiten nur in Ordinatenrichtung. siehe Script fitexample_kafe.py 68%-Konfidenzband der Modellanpassung
26 Behandlung von Fehlern in x- und y-richtung 1. Ableitung nutzen, um x-fehler in y-fehler umzurechnen und Quadratisch zu den y-fehlen addieren Iteratives Verfahren: 1. Anpassung ohne x-fehler 2. f '(xi) bilden und neue Fehler bestimmen: 3. Schritt analog 2 zur Kontrolle wiederholen; χ2 am Minimum darf sich nicht stark ändern! Geometrische Interpretation: Mimimierung des auf projizierte Messfehler normierten Abstands d der Punkte von der Tangente an die Funktion: Implementeirung: Methode Fit() der Root-Klasse TGraphErrors
27 Parameteranpassung mit ROOT Klasse TGraphErrors void TGraphFit() { //Draw a graph with error bars and fit a function to it. //set global options gstyle->setoptfit(111); //superimpose fit results // make nice Canvas TCanvas *c1 = new TCanvas("c1","Daten",200,10,700,500); c1->setgrid(); //define some data points const Int_t n = 10; Float_t x[n] = {-0.22, 0.1, 0.25, 0.35, 0.5, 0.61, 0.7, 0.85, 0.89, 1.1}; Float_t y[n] = {0.7, 2.9, 5.6, 7.4, 9., 9.6, 8.7, 6.3, 4.5, 1.1}; Float_t ey[n] = {.8,.7,.6,.5,.4,.4,.5,.6,.7,.8}; Float_t ex[n] = {.05,.1,.07,.07,.04,.05,.06,.07,.08,.05}; // copy data to TGraphErros object TGraphErrors *gr = new TGraphErrors(n,x,y,ex,ey); gr->settitle("tgrapherrors mit Fit"); gr->draw("ap"); // now perform a fit(with errors in x and y!) gr->fit("pol3"); c1->update(); Script TGraphFit.C Anpassung mittels Root Macro: > root TGraphFit.C
28 Behandlung von Fehlern in x- und y-richtung (2) Allgemein bei korrelierten Fehlern: Kovarianzmatrizen Cx und Cy im zweiten Schritt x-fehler zur Kovarianzmatrix addieren: Geschrieben mit dem Residuenvektor und dem Vektor der 1. Ableitungen, ergibt sich Implementiert in kafe
29 kafe: Beispiele zu kafe gibt es eine Anzahl von gut dokumentierten Beispielen, s. oder
30 Hinweis: kafe update Es gibt eine neue Version von kafe mit einigen (meist kosmetischen) Änderungen;!!! setzt matplotlib voraus Installation: pip install -- upgrade kafe bzw. sudo pip install --upgrade kafe (Linux systemweit) Eine beliebige kafe-version im Nuztzer-Bereich installiert man mittels pip install --user kafe==1.x.x (x.x: 0.1 oder 1.0) (kann auf den CIP-Pool Rechnern notwendig sein) Wesentliche Neuerung: Fit() enthält eine Option: fit_name='name' name wird für Log-Files und Grafiken verwendet, erleichtert die Buchführung bei vielen Fits im gleichen Skript
31 Beispielcode: numerisch Anpassung mit kafe siehe Script fitexample_kafe.py # example fit with kafe import kafe from kafe.function_tools import FitFunction, LaTeX, ASCII ( # fit function definition (with decorators for nice * x^2 + b * x + parameter_names=('a','b','c'), def poly2(x, a=1.0, b=0.0, c=0.0): return a * x**2 + b * x + c # begin of workflow # set data xm = [.05,0.36,0.68,0.80,1.09,1.46,1.71,1.83,2.44,2.09,3.72,4.36,4.60] ym = [0.35,0.26,0.52,0.44,0.48,0.55,0.66,0.48,0.75,0.70,0.75,0.80,0.90] ye = [0.06,0.07,0.05,0.05,0.07,0.07,0.09,0.1,0.11,0.1,0.11,0.12,0.1] # create a kafe Dataset kdata = kafe.dataset(data=(xm, ym), basename='kdata', title='example data') kdata.add_error_source('y', 'simple', ye) # add uncertainties kfit=kafe.fit(kdata, poly2) # create the fit from data & fit function kfit.do_fit() # perform fit kplot=kafe.plot(kfit) # create plot object kplot.axis_labels = [r'$st\"utzstellen \, x $', r'$data\,\&\,f(x)$'] kplot.plot_all() # make plots kplot.show() # show the plots kafe nutzt das CERN-Paket MINUIT zur numerischen Optimierung ) nur zur Verschönerung der wichtige Code für kafe
32 Beispielcode: numerische Anpassung (scipy ) Tool curve_fit aus scipy.optimize import matplotlib.pyplot as plt import numpy as np zur χ2-anpassung und numerischen Optimierung from scipy.optimize import curve_fit # def chi2_fit(): #-- set data points xm = np.array([.05,0.36,0.68,0.80,1.09,1.46,1.71,1.83,2.44,2.09,3.72,4.36,4.60]) ym = np.array([0.35,0.26,0.52,0.44,0.48,0.55,0.66,0.48,0.75,0.70,0.75,0.80,0.90]) ye = np.array([0.06,0.07,0.05,0.05,0.07,0.07,0.09,0.1,0.11,0.1,0.11,0.12,0.1]) #-- least-squares fit with scipy.optimize.curve_fit p, cov = curve_fit( poly2, xm, ym, sigma=ye, absolute_sigma=true ) print "Fit parameters:\n", par print "Covariance matrix:\n", cov #-- plot data and fit result xp = np.linspace( 0., 5., 100 ) ffit = poly2(xp, p[0], p[1], p[2]) plt.errorbar(xm, ym, yerr=ye, fmt='o') plt.plot( xp, ffit, '-' ) plt.xlim( 0, 5 ) plt.ylim( 0, 1 ) plt.show() #-- define fit function def poly2(x, a=1., b=0., c=0.): return a * x**2 + b * x + c if name == ' main ': # curvefit_example.py chi2_fit()
33 Unsicherheiten mit Toy-MC Die Unsicherheiten können ganz allgemein bestimmt werden, indem man die Anpassung für viele Stichproben wiederholt und die Verteilungen der Parameterwerte analysiert. Auf diese Weise lassen sich - Parameterunsicherheiten - Korrelationen der Parameter bestimmen. Das Verfahren ist aufwändig, aber exakt! Im Zweifelsfall wird die Exaktheit statistischer Verfahren mit solchen Toy Monte Carlos untersucht. Ergebnisse der Anpassung eines Polynoms 2. Grades an 10'000 den beobachteten Messwerten entsprechende Stichproben toymcerros.py
34 Maximum Likelihood Methode
35 Kleinste Quadrate & Maximum Likelihood Zwei Möglichkeiten, die am besten zur Messung passende Verteilung zu finden: kleinster Abstand Messung Erwartungswert Minimiere Abstand vom Sollwert Messung Maximale Wahrscheinlichkeit Maximiere Höhe der pdf Likelihood-Methode Beide Methoden bevorzugen in diesem Beispiel die durchgezogene Verteilung
36 Likelihood-Methode Mehrere unabhängige Messgrößen xi, i =1,, n einer Größe folgen einer Verteilungsdichte p(x,a) mit Parametern ai. Als Verteilungsdichte ist p(x;a) positiv und normiert (bzgl. x, aber nicht bzgl. a!) Beispiel von 7 Messungen und Likelihood bzgl. zweier Verteilungen Skript likelihood-pdf.py Likelihood ist das Produkt der Wahrscheinlichkeiten p(xi a) aller Messungen
37 Anmerkung Likelihood-Methode Mit Hilfe der Likelihood-Methode können neben der Parameterabhängigkeit auch verschiedene Verteilungen verglichen werden: Wichtig für Hypothesentests
38 Maximum Likelihood-Prinzip Likelihood-Funktion: Produkt der Werte der Wahrscheinlichkeitsdichte, Pi, für n unabhängige Messungen xi : hängt nur noch von den Parametern a ab! Maximum-Likelihood-Prinzip: Der beste Schätzwert für den Parametervektor, der die Likelihood-Funktion maximiert, ist derjenige,
39 Anmerkungen zur Likelihood-Methode Maximum Likelihood (ML) Eingeführt von Sir Ronald A. Fisher 1912 zur bestmöglichen Schätzung von Parametern von Verteilungen aus Stichproben engl. likelihood = Wahrscheinlichkeit (ähnlich probability ); im Deutschen wird der Begriff Likelihood übernommen Basis der mathematischen Statistik ( Fisher-Information) sehr universell einsetzbare Methode ( ältere Methode der kleinsten Quadrate ist Spezialfall) Likelihood ist eine zentrale Größe in der klassischen (frequentistischen) und in der Bayes'schen Statistik erlaubt die Schätzung von Konfidenzintervallen für Parameterwerte Für gegebene Stichprobenwerte xi aus einer zu Grunde liegenden Verteilungsdichte f ist die Likelihood-Funktion eine Funktion der Modellparameter: (L lebt im Parameterraum)
40 Maximum Likelihood in der Praxis Technische und theoretische Gründe: Minimiere den negativen Logarithmus der Likelihood-Funktion: Likelihood-Gleichung definiert Schätzwert(e)
41 Beispiel: Likelihood der Gaußverteilung = χ2! const. bzgl. a Für Gauß-förmig um f(xi, a) verteilte Messungen yi ist χ2 äquivalent zu lnl Ist f(xi, a) zusätzlich eine lineare Funktion der Parameter a = (ai ), dann ist lnl (ai yi) ( und χ2 (ai, yi) ) eine Parabel lnl (ai yi) kann in der Nähe des Minimums häufig durch eine Parabel approximiert werden!
42 Parameterunsicherheiten mit Hilfe der Likelihood-Funktion
43 Maximum-Likelihood: Prameterunsicherheiten Parabel aus Krümmung am Minimum F(a) näherungsweise quadratisch um das Minimum; ± 1σ - Intervall (=68%) aus ΔF = 0.5 ±1σ 1. Ableitung näherungsweise linear, =0 am Minimum 2. Ableitung ~ konstant Varianz 1 / Krümmung 1/σ2 2F / a2 bei mehreren Parametern ai: (cov-1)ij 2F / ai aj Typischer Verlauf einer negativen log-likelihood Funktion und ihrer 1. und 2. Ableitungen Mathematisch exakt: die angegebenen Fehlerabschätzungen sind Untergrenzen Nur für Parabel-förmigen Verlauf von F(a) sind die beiden Fehlerdefinitionen äquivalent
44 Prameterunsicherheiten (2) Plausibilitätserklärung (kein Beweis, Stichwort Cramer-Rao-Frechet Grenze ) nur ein Parameter a, betrachten Taylor-Entwicklung von F(a) um Minimum: näherungsweise parabelförmig Likelihood = exp(-f(a)) als Verteilungsdichte in a auffassen: ist Gauß-Verteilung (mit Normierungsfaktor A) Standardabweichung gegeben durch weiter gilt mit dieser Beziehung für σ:
45 Einschub: Parabel-Eigenschaften allg. Darstellung einer Parabel Wenn F(a) eine negative Log-Likelihood Funktion ist, dann ist
46 Prameterunsicherheiten (3) zur Fehlerbestimmung aus F(a): Log-Likelihood- Differenz bestimmt Fehler. Vorteil dieser Methode: invariant unter Variablentransformation a a'(a): F(a) F(â) = F( a'(a) ) F( a'(â) ) Das so bestimme Unsicherheitsintervall entspricht 1σ einer Gaußverteilung (68% Konfidenz-Intervall) Fehlerbestimmung: Δ (-ln L ) Δχ2 1σ 2σ 3σ nσ n2/2 Wichtig, wenn ln L nicht parabelförmig in der Nähe des Minimums: Angabe eines asymmetrischen Fehlerintervalls n2
47 Übersicht: Methoden zur Bestimmung der Unsicherheiten Lineare Probleme mit gaußförmigen Unsicherheiten: - analytische Lösung möglich (χ2 -Minimierung) - Position des Minimums gegeben durch Linearkombination der Messwerte: - Varianz der Parameterschätzung durch Fehlerfortpflanzung: Nicht- lineare Probleme oder andere als gaußförmige Unsicherheiten: - Likelihood-Analyse: Ausnutzen der Cramer-Rao-Frechet-Grenze: Nicht-lineare Probleme mit nicht-parabolischer Likelihood am Minimum: - Scan der (Profil-) Likelihood in der Nähe des Minimums 2. Ableitungen am Minimum: (für Grenzfall hoher Statistik) Bei Unklarheit oder sehr kleiner Statistik: Monte-Carlo-Studie: Anpassung an viele der Genauigkeit und Verteilung der Daten entsprechende Stichproben, Verteilungen der Parameter studieren. Achtung: nur die letzten beiden Methoden liefern Konfidenz-Intervalle (z. B. 1σ 68%)
48 Beispiel: Likelihood für Poisson-Prozess Ein typisches Beispiel für die Anwendung der neglogl-methode sind kleine Stichproben von Poission-verteilten Beobachtungen mit kleinem Erwartungswert: Stichprobe: Poisson-verteilte Zufallszahlen {ki }= { 0, 2, 4, 4, 2,1, 1, 1, 1 } allg. Implementierung ist etwas anders, s. Codebeispiel nllexample.py Darstellungen von ln L (λ {ki, i n }) für die jeweils n ersten Elemente der Stichprobe
49 Beispiel: Likelihood für Poisson-Prozess (2) Im Grenzfall großer Ereigniszahlen ist -lnl von vorne herein parabelförmig (in solch einem Fall wäre auch eine χ2 -Anpassung gerechtfertigt) 2. Stichprobe: Poisson-verteilte Zufallszahlen {ki}= {41,48,62,49,58,45,38,52,46} Darstellungen von ln L (λ {ki, i n }) für die jeweils n ersten Elemente der Stichprobe
50 Zusammenhang -ln L und χ2 Für Gauß-förmig um f(xi; a) verteilte Messungen yi ist die χ2 Methode äquivalent zur -lnl-methode : χ2 Fehlerbestimmung: Δ (-ln L) Δχ2 const. bzgl. a 2 Minimieren von -ln L Minimieren von χ (-ln L) = ½ χ2 2(-ln L) / ai aj = ½ χ2 / ai aj 1σ 2σ 3σ nσ n2/ n2 Bei anderen als Gauß-förmigen Fehlerverteilungen ist χ2 eine eigenständige Methode; - bei unbekannter Fehlerverteilung haben wir keine bessere - χ2 ist optimal für die Anpassung von Linearkombinationen von Fit-Funktionen
51 Maximum Likelihood vs. Kleinste Quadrate Vergleich: Voraussetzung Maximum - Likelihood Kleinste Quadrate Mittelwert und Varianz PDF exakt bekannt bekannt Methode Höhe der PDF Abweichung vom Mittelwert der PDF Effizienz maximal maximal bei linearen Problemen Komplexität Robustheit korrelierte Datenfehler Güte der Anpassung aufwändig, meist nichtoft linear und exakt lösbar linear nein - PDF muss exakt bekannt sein nein ( Ausreißer ) u.u. kompliziert einfach über Kovarianzmatrix nein ja: χ2-wahrscheinlichkeit 53
52 Parameterschätzung Parameteranpassung mit Root 54
53 Parameteranpassung mit ROOT ROOT enthält einige Minimierungsalgorithmen, u.a. das aus der FORTRAN-Zeit stammende (und nach C++ umgeschriebene) MINUIT, entstanden am CERN - gut getestet und anerkannt Standard in der Teilchenphysik Auswahl von Minimierern über die Klasse TvirtualFitter (s. später) In vielen Fällen reicht die von ROOT per GUI zur Verfügung gestellte Funktionalität: -2 logl (!) und χ2-anpassungen an Histogramme χ2-anpassungen in Klasse TGraphErrors Vordefinierte Funktionen: Polynome bis zum 9. Grad, Gauss, Exponential- und Landauverteilung χ2-wert FCN= FROM MIGRAD STATUS=CONVERGED 12 CALLS1 3 TOTAL EDM= e-16 STRATEGY= 1 ERROR MATRIX ACCURATE EXT PARAMETER STEP FIRST NO. NAME VALUE ERROR SIZE DERIVATIVE 1 p e e e e-08 Text-Ausgabe von MINUIT 55
54 Anpassen mit ROOT GUI Root-Klassen TH1, TH2 und TH3 sowie TGraph und TgraphErrors enthalten eine Methode.Fit() zur Funktionsanpassung (TF1 bzw.tf2 u.tf3) In der graphischen Darstellung kann durch Rechtsklick das FitPanel aktiviert werden, um Anpassungen interaktiv vorzunehmen. root[0]tgrapherrors gr=new TGraphErrors("ExampleData.txt"); root[1]gr >Draw("AP"); // Achsen und Daten root[2]gr->fit("pol1"); // Gerade Ein einfaches Beispiel 56
55 Parameteranpassung mit ROOT Man kann auch eigene Fit-Funktionen aus dem Repertoire von ROOT definieren: Root > TF1 *myfit = new TF1("myfit","[0]*sin(x) + [1]*exp(-[2]*x)", 0, 2); // set parameters Root > myfit->setparameters(1,0.05,0.2); // Fitten Root > hist->fit("myfit"); oder beliebige Funktionen selbst schreiben: Double_t myfunc (Double_t *x, Double_t *par) { // IHR CODE!!! } Root > TF1 *myf = new TF1("myf",myfunc, <min>, <max>, <npar>); // set parameters Root > myf->setparameters(<startv_1>,, <startv_n); Root > hist->fit("myf"); Im allgemeinsten Fall kann man auch die χ2- oder -2lnL- Funktion selbst vorgeben: Die Methode von TVirtualFitter void SetFCN(void (*fcn)(int_t &, Double_t *, Double_t &f, Double_t *, Int_t)) erlaubt das Setzen der zu minimierenden Funktion (mit Namen fcn ) void fcn(int_t &npar, Double_t *gin, Double_t &f, Double_t *par, Int_t iflag) f ist dabei der Rückgabewert, im Array par übergibt Root die Parmeter 57
56 Parameteranpassung mit ROOT Ein Code-Fragment zur Berechnung von χ2 mit Kovarianz-Matrix // fcn function for fit with covariance matrix double arr_poi; // global array pointer TMatrix *icovp; // global matrix pointer int nval = 3; // global for number of measurements int main() { arr_poi = new double[3]; TMatrix cov(3,3); cov(0,0) =..., cov(2,2) =...; // Invert matrix TMatrix icov = cov.invert(); icovp = &icov;...; } void fcn(int_t &npar, Double_t *gin, Double_t &f, Double_t *par, Int_t iflag) {... for (int i; i < nval; i++ ) { for (int j; j < nval; j++ ) { chi += (arr_poi[i] - fit_func(i)) * (arr_poi[j] - fit_func(j)) * (*icovp)(i,j) ; } }... } 58
57 Anpassen von Funktionen an Histogramme b: Binbreite 1. χ2 -Methode: Probleme: * Bins mit Ni=0, d.h Fehler 0 Abhilfe: setze * Ni folgen Binomial- oder Poisson-Verteilung, χ2-methode nimmt Gauß-Fehler an: Methode nur gut für große Ni 59
58 Anpassen an Histogramme: Binned Likelihood-Fit 2. Binned Likelihood-Fit hängt nicht von der Funktion ab : Schätzung für Parameter a χ2 und Likilood-Anpassung für Histogramme in ROOT implementiert ( χ2 ist default! ) Achtung: ROOT verwendet -2 ln L 60
59 Anpassen mit ROOT Beispiel Histogramm-Fit Vorsicht b. kleinen Zahlen! 10'000 Histogramme dieser Art, jeweils Gauß(x;μ,σ) anpassen mit der χ2-methode Test: Pull p = Beispiel: pull.c (fitted mean μ) /error muss standard-normalverteilt sein ist es aber in diesem Fall nicht! Grund: angenommene Fehler in jedem Bin sind ni - falls ni nach unten fluktuiert, wird auch der Fehler kleiner angenommen, die Folge ist einer verzerrte Parameterschätzung (betrifft hier vor allem den Parameter σ!) Abhilfe: -Log L Anpassung: Mean RMS
60 Anpassung von Parametern: abschließende Bemerkungen Hier konnte nicht alles angesprochen werden; es gibt noch viele weitere Fragestellungen Anpassen mit Nebenbedingungen: - Parameter innerhalb von Grenzen, a< λi <b - Einschränkungen an Parameter, z.b. durch Funktionen ej( λ1,, λp) = 0 Wie funktioniert numerische Optimierung / Minimierung? Weitere praktische Beispiele? Wie man es nicht machen sollte: beliebte Fehler. (einige) Antworten in Teil 2 im nächsten Semester: MasterKurs: Moderne Methoden der Datenanalyse 62
61 Parameterschätzung Fertige Programmpakete 63
62 (freie) Programme zur Parameteranpassung qtiplot 64
63 (freie) Programme zur Parameteranpassung qtiplot 65
64 (freie) Programme zur Parameteranpassung gnuplot 66
65 (freie) Programme zur Parameteranpassung RooFiLab Eigenentwicklung (HiWi Thomas Müller) - Fehler in x- und y-richtung - korrelierte Fehler - geführte, grafische Oberfläche, fit-by-eye und automatisierte Anpassung mit Skript (angelehnt an gnuplot) - weitgehende Editierbarkeit der grafischen Ausgabe mittels ROOT-GUI - 67
66 (freie) Programme zur Parameteranpassung: kafe kafe (Karlsruhe Fit Environment) Vollständige Kapselung der ROOT-Klasse TMinuit in Python from kafe import * from kafe.function_tools import FitFunction, LaTeX, ASCII from kafe.function_library import quadratic_3par # fit function definition with decorators for nice * x^2 + b * x + parameter_names=('a', 'b', 'c'), def poly2(x, a=1.0, b=0.0, c=0.0): return a * x**2 + b * x + c # set fit function fitf=poly2 # own definition #fitf=quadratic_3par # from kafe function library # Workflow # ####### load data from a file my_dataset = parse_column_data( 'kafe_fitexample.dat', field_order='x,y,yabsstat', title='example data') # Create the Fit my_fit = Fit(my_dataset, fitf) # Do the Fits my_fit.do_fit() # Create the plots my_plot = Plot(my_fit) # Set the axis labels my_plot.axis_labels = ['$x$', 'data \& $f(x)$'] # Draw the plots my_plot.plot_all() # Plot output # ############### # Save the plots my_plot.save('kafe_fitexample.pdf') # Show the plots my_plot.show() fitexample_kafe.py 68
67 (freie) Programme zur Parameteranpassung: kafe (2) - ansprechende Grafik - volle Steuerung aus Python - korrelierte Fehler auf Abszisse und Ordinate - 1σ - Unsicherheits-Band um angepasste Modellfunktion Ausgabe von kafe 69
Die Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Schätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
Mehrdimensionale Verteilungen und Korrelation
Vorlesung: Computergestützte Datenauswertung Mehrdimensionale Verteilungen und Korrelation Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler [email protected] Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Parameteranpassung mit kleinsten Quadraten und Maximum Likelihood
Parameteranpassung mit kleinsten Quadraten und Maximum Likelihood Armin Burgmeier 27. November 2009 1 Schätzwerte 1.1 Einführung Physikalische Messungen sind immer fehlerbehaftet. Man misst niemals den
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY23) Herbstsemester 207 Olaf Steinkamp 36-J-05 [email protected] 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
Methode der kleinsten Quadrate
Kapitel 7 Methode der kleinsten Quadrate Im Folgenden wird die Methode der kleinsten Quadrate (LS = least square, die auf dem χ -Test beruht, für die Anpassung von parametrisierten Funktionen an normalverteilte
Problem lokaler Minima
Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit
Methode der kleinsten Quadrate
Kapitel 6 Methode der kleinsten Quadrate In den einführenden Worten zur Maximum-Likelihood-Methode im vorigen Kapitel wurde darauf hingewiesen, dass die Parameteroptimierung mit Hilfe des χ -Tests bei
Statistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
das ROOT-Framework Datenanaufnahme, Speicherung, Visualisierung & Analyse
das ROOT-Framework Datenanaufnahme, Speicherung, Visualisierung & Analyse Open-Source framework zur Datenanalyse (C++-Klassenbobliothek). Entwickelt hauptsätzlich am CERN, Standardwerkzeug in der Teilchenphysik.
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse PHY31 Herbstsemester 016 Olaf Steinkamp 36-J- [email protected] 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
L A T E X-Kurs. Teil 4 - Datenanalyse - Qti Plot. Fachschaft Physik Uni Konstanz WS 2015/16
L A T E X-Kurs Teil 4 - Datenanalyse - Qti Plot Fachschaft Physik Uni Konstanz WS 2015/16 Grundlegendes Einführung Möglichkeiten: plotten, fitten, Tabellenkalkulation, Fouriertransformation, Interpolation,...
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
Clusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Statistics, Data Analysis, and Simulation SS 2017
Mainz, 8. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- [email protected] 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
Reelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Chi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Anwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
Die Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Statistik und Datenanalyse (Handout zum Seminarvortrag von Norman Bhatti, gehalten am )
Statistik und Datenanalyse (Handout zum Seminarvortrag von Norman Bhatti, gehalten am 9.0.) Motivation Unter Statistik versteht man die Lehre von den Methoden zum Umgang mit quantitativen Informationen,
Datenanalyse für Naturwissenschaftler und Ingenieure
Siegmund Brandt Datenanalyse für Naturwissenschaftler und Ingenieure Mit statistischen Methoden und Java-Programmen 5. Auflage 4y Springer Spektrum Inhaltsverzeichnis Vorwort zur fünften Auflage Liste
ROOT Einführung. Fortgeschrittenenpraktikum
ROOT Einführung Fortgeschrittenenpraktikum Julian Glatzer ([email protected] freiburg.de) Stefan Winkelmann ([email protected] freiburg.de) Was ist ROOT? ROOT ist ein am CERN entwickeltes
3.1 Punktschätzer für Mittelwert µ und Varianz σ 2. Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden sind
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 3.1 3.1 Punktschätzer für Mittelwert µ und Varianz σ 2 Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden
Auswertung und Lösung
Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 3. Vorlesung Dr. Jochen Köhler 1 Inhalte der heutigen Vorlesung Ziel: Daten Modellbildung Probabilistisches Modell Wahrscheinlichkeit von Ereignissen Im ersten
Ausgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
[email protected] VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Statistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
Nicht-kontinuierliche abhängige Variablen: Das generalisierte lineare Modell und die Parameterschätzung via Maximum Likelihood
Nicht-kontinuierliche abhängige Variablen: Das generalisierte lineare Modell und die Parameterschätzung via Maximum Likelihood Interaktionseffekte Varianz-Kovarianz-Matrix Interaktionseffekte Varianz-Kovarianz-Matrix
Wahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
Messunsicherheit und Fehlerrechnung
Messunsicherheit und Fehlerrechnung p. 1/25 Messunsicherheit und Fehlerrechnung Kurzeinführung Peter Riegler [email protected] Fachhochschule Braunschweig/Wolfenbüttel Messunsicherheit und
Statistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
Willkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
Begleitmaterial zur Vorlesung. Fehlerrechnung und Fehlerabschätzung bei physikalischen Messungen
Institut für Technische Thermodynamik und Kältetechnik Leiter: Prof. Dr.-Ing. K. Schaber Begleitmaterial zur Vorlesung Fehlerrechnung und Fehlerabschätzung bei physikalischen Messungen Verfasst von Dr.
4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)
Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.
Maximum-Likelihood Schätzung
Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung
Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
das ROOT-Framework Datenanaufnahme, Speicherung, Visualisierung & Analyse
das ROOT-Framework Datenanaufnahme, Speicherung, Visualisierung & Analyse Open-Source framework zur Datenanalyse (C++-Klassenbobliothek). Entwickelt hauptsächlich am CERN, Standardwerkzeug in der Teilchenphysik.
Introduction to Python. Introduction. First Steps in Python. pseudo random numbers. May 2016
to to May 2016 to What is Programming? All computers are stupid. All computers are deterministic. You have to tell the computer what to do. You can tell the computer in any (programming) language) you
Rechnernutzung in der Physik Zusammenfassung der Vorlesung. Computergestützte Datenauswertung
Rechnernutzung in der Physik Zusammenfassung der Vorlesung Computergestützte Datenauswertung Günter Quast Fakultät für Physik Institut für Experimentelle Teilchenphysik KIT Die Forschungsuniversität in
1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler
1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte
Übungen mit dem Applet
Übungen mit dem Applet 1. Visualisierung der Verteilungsform... 1.1. Normalverteilung... 1.. t-verteilung... 1.3. χ -Verteilung... 1.4. F-Verteilung...3. Berechnung von Wahrscheinlichkeiten...3.1. Visualisierung
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Statistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
Rechnernutzung in der Physik. Datenanaufnahme, Speicherung, Visualisierung und Analyse: das ROOT-Framework
Rechnernutzung in der Physik Datenanaufnahme, Speicherung, Visualisierung und Analyse: das ROOT-Framework 1 ROOT: Vorläufer: Hbook, PAW aus der Teilchenhpysik langjährige Entwicklungsarbeit, großer Nutzerkreis
Statistik II für Betriebswirte Vorlesung 12
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die
Zusammenfassung PVK Statistik
Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung
6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 3 1 Inhalt der heutigen Übung Vorrechnen der Hausübung B.7 Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben C.1: Häufigkeitsverteilung C.2: Tukey
Einführung Fehlerrechnung
Einführung Fehlerrechnung Bei jeder Messung, ob Einzelmessung oder Messreihe, muss eine Aussage über die Güte ( Wie groß ist der Fehler? ) des Messergebnisses gemacht werden. Mögliche Fehlerarten 1. Systematische
Teil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie
Woche 9: Hypothesentests für zwei Stichproben Patric Müller Teil XI Hypothesentests für zwei Stichproben ETHZ WBL 17/19, 26.06.2017 Wahrscheinlichkeit und Statistik Patric
Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive [email protected] VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
Einführungsseminar S1 Elemente der Fehlerrechnung. Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum
Einführungsseminar S1 Elemente der Fehlerrechnung Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum Literatur Wolfgang Kamke Der Umgang mit experimentellen Daten,
VL 08: Testen von Hypothesen
Vorlesung: Computergestützte Datenauswertung VL 08: Testen von Hypothesen Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Auswertung von Messungen Teil II
Auswertung von Messungen Teil II 1. Grundgesamtheit und Stichprobe. Modellverteilungen.1 Normalverteilung. Binominalverteilung.3 Poissonverteilung.4 Näherungen von Binominal- und Poissonverteilung 3. Zentraler
Monte-Carlo-Verfahren nach GUM Supplement 1. Gerd Wübbeler Physikalisch-Technische Bundesanstalt
Monte-Carlo-Verfahren nach GUM Supplement 1 Gerd Wübbeler Physikalisch-Technische Bundesanstalt 1 Inhalt Wahrscheinlichkeitsverteilungen Monte-Carlo Verfahren Beispiele Adaptive Monte-Carlo Verfahren Warum
Die Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Statistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
Strukturgleichungsmodellierung
Strukturgleichungsmodellierung FoV Methodenlehre FSU-Jena Dipl.-Psych. Norman Rose Parameterschätzung, Modelltest & Fit Indizes bei SEM Forschungsorientierte Vertiefung - Methodenlehre Dipl.-Psych. Norman
Alternative Darstellung des 2-Stcihprobentests für Anteile
Alternative Darstellung des -Stcihprobentests für Anteile DCF CF Total n 111 11 3 Response 43 6 69 Resp. Rate 0,387 0,3 0,309 Bei Gültigkeit der Nullhypothese Beobachtete Response No Response Total absolut
