Bayesian analysis of spatial point processes in the neighbourhood of Voronoi. networks
|
|
- Eike Fischer
- vor 5 Jahren
- Abrufe
Transkript
1 Bayesian analysis of spatial point processes in the neighbourhood of Voronoi networks Judith Schmidt und Bettina Hund 02 Juli 2008 Seminar: Stochastische Geometrie und ihre Anwendungen - Zufa llige Netzwerke
2 Seite 2 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Inhaltsverzeichnis Wiederholung Voronoi- und Delaunay-Mosaike Bezeichnungen Modell Daten Konstruktion der Intensitätsfunktion Bayes Theorem Konstruktion des Mosaiks Simulationsbeispiel anhand von Dachsdaten Bewertung des Modells Literatur
3 Seite 3 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Motivation Abbildung: Dachs Abbildung: Latrinen Ziel des Vortrages Gegeben: Latrinen der Dachse in einem Gebiet Gesucht: Grenzen der Territorien der einzelnen Dachse
4 Seite 4 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Inhaltsverzeichnis Wiederholung Voronoi- und Delaunay-Mosaike Bezeichnungen Modell Daten Konstruktion der Intensitätsfunktion Bayes Theorem Konstruktion des Mosaiks Simulationsbeispiel anhand von Dachsdaten Bewertung des Modells Literatur
5 Seite 5 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Wiederholung Voronoi-Mosaik B R d beschränkt und konvex, d 2 y = {y i } B, homogener Poisson-Punktprozess, eingeschränkt auf B Voronoi-Zelle C (y i y) ist definiert durch C (y i y) = { s B : y i s y j s y j y }, y i y Voronoi-Mosaik wird mit V(y) bezeichnet Delaunay-Mosaik Das duale Mosaik zum Voronoi-Mosaik V(y) heißt Delaunay-Mosaik T (y).
6 Seite 6 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Wiederholung Voronoi-Mosaik B R d beschränkt und konvex, d 2 y = {y i } B, homogener Poisson-Punktprozess, eingeschränkt auf B Voronoi-Zelle C (y i y) ist definiert durch C (y i y) = { s B : y i s y j s y j y }, y i y Voronoi-Mosaik wird mit V(y) bezeichnet Delaunay-Mosaik Das duale Mosaik zum Voronoi-Mosaik V(y) heißt Delaunay-Mosaik T (y).
7 Seite 7 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Graphiken der beiden Mosaike Abbildung: Voronoi-Mosaik Abbildung: Delaunay-Mosaik
8 Seite 8 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Bezeichnungen Bedingungen an den Poisson -Punktprozess n(y) d, wobei n(y) die Anzahl der Nuklei angibt y ist in allgemeiner quadratischer Position, d.h. es liegen keine k + 1 Nuklei in einem k 1 dim. Unterraum des R d, k = 2... d und auf der Oberfläche einer Kugel liegen keine d + 2 Nuklei. weitere Bezeichnungen die Vereinigung aller Kanten E(y), wobei E(y) B die Länge aller Kanten L(y), wobei 0 < L(y) <
9 Seite 9 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Bezeichnungen Bedingungen an den Poisson -Punktprozess n(y) d, wobei n(y) die Anzahl der Nuklei angibt y ist in allgemeiner quadratischer Position, d.h. es liegen keine k + 1 Nuklei in einem k 1 dim. Unterraum des R d, k = 2... d und auf der Oberfläche einer Kugel liegen keine d + 2 Nuklei. weitere Bezeichnungen die Vereinigung aller Kanten E(y), wobei E(y) B die Länge aller Kanten L(y), wobei 0 < L(y) <
10 Seite 10 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Inhaltsverzeichnis Wiederholung Voronoi- und Delaunay-Mosaike Bezeichnungen Modell Daten Konstruktion der Intensitätsfunktion Bayes Theorem Konstruktion des Mosaiks Simulationsbeispiel anhand von Dachsdaten Bewertung des Modells Literatur
11 Seite 11 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Daten Erfassung der Daten im Modell x B = x B wobei x ein Poisson Prozess auf dem R d ist. Ziel Konstruktion der Intensitätsfunktion von x, so dass diese in der Umgebung einer Menge E R d hoch ist.
12 Seite 12 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Daten Erfassung der Daten im Modell x B = x B wobei x ein Poisson Prozess auf dem R d ist. Ziel Konstruktion der Intensitätsfunktion von x, so dass diese in der Umgebung einer Menge E R d hoch ist.
13 Seite 13 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Intensitätsfunktion x i = z i + ɛ i z = {z i } ist ein inhomogener Poisson Prozess mit Intensitätsmaß Λ(dz) = ρdz auf der Menge E für gegebenes y. ɛ i iid ZV, unabh von z und ɛ i N(0, σ 2 I d ) sind Störgrößen unter diesen Annahmen erhält man die Intensitätsfunktion χ E (x Λ, h) = h(x z)λ(dz) wobei h die Dichte von ɛ ist. E
14 Seite 14 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Intensitätsfunktion x i = z i + ɛ i z = {z i } ist ein inhomogener Poisson Prozess mit Intensitätsmaß Λ(dz) = ρdz auf der Menge E für gegebenes y. ɛ i iid ZV, unabh von z und ɛ i N(0, σ 2 I d ) sind Störgrößen unter diesen Annahmen erhält man die Intensitätsfunktion χ E (x Λ, h) = h(x z)λ(dz) wobei h die Dichte von ɛ ist. E
15 Seite 15 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Vereinfachung der Intensitätsfunktion χ E (x ρ, σ 2 ) = ρ x z 2 (2πσ 2 ) d/2 exp( E 2σ 2 )dz = (2πσ 2 ) (d 1)/2 ρ e E i(σ 2, e, x) wobei e E eine bel. Kante ist und dz das Hausdorff-Maß. Mit der orthogonalen Projektion p e auf e und dem Satz von Pythagoras folgt die letzte Gleichung.
16 Seite 16 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Abbildung: Plot der Intensitätsfunktion χ E (x ρ, σ 2 ) beschränkt auf B = [0, 10] 2, zu einem gegebenen Voronoi-Mosaik (erzeugt durch einen homogenen Poisson-Punktprozess mit Intensität λ = 0.16 auf B) mit σ = 0.4 und ρ = 2.
17 Seite 17 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Bayes Theorem wobei q(θ x 1,..., x n ) = L(θ x 1,..., x n )q(θ) f (x 1,..., x n ) q(θ x 1,..., x n ) die a-posteriori Dichte von θ, L(θ x 1,..., x n ) die Likelihood-Funktion, q(θ) die a-priori Dichte und f (x 1,..., x n ) = Θ L(θ x 1,..., x n )q(θ)dθ die Randdichte der Daten (x 1,..., x n ) ist.
18 Seite 18 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Bayes Theorem Im Folgenden betrachten wir nur Proportionalität (keine Gleichheit) f (x 1,..., x n ) ist im Bezug auf θ eine Konstante Damit erhalten wir die Vereinfachung der Bayes Formel zu q(θ x 1,..., x n ) L(θ x 1,..., x n )q(θ)
19 Seite 19 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion Definition Die Menge aller lokal endlichen Punktkonfigurationen ist definiert durch N lf = { x R d : n(x B ) <, beschränkten B R d} die leere Punktkonfiguration wird mit bezeichnet. Die zugehörige σ-algebra N lf ist die kleinste σ-algebra von Teilmengen von N lf, so dass für jedes lokal endliche Zählmaß ϕ die Abbildung ϕ ϕ(b) messbar ist beschränkten B
20 Seite 20 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion Definition Die Menge aller lokal endlichen Punktkonfigurationen ist definiert durch N lf = { x R d : n(x B ) <, beschränkten B R d} die leere Punktkonfiguration wird mit bezeichnet. Die zugehörige σ-algebra N lf ist die kleinste σ-algebra von Teilmengen von N lf, so dass für jedes lokal endliche Zählmaß ϕ die Abbildung ϕ ϕ(b) messbar ist beschränkten B
21 Seite 21 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion Sei B N lf und B ein Fenster das B enthält x Poisson Prozess mit Intensitätsmaß µ 1 ( B) = B λ 1(x)dx Q Verteilung eines Poisson Prozesses mit Intensitätsmaß µ 2 ( B) = B λ 2(x)dx existiere die Dichte f von x bezüglich der Verteilung Q P(x B) = f ({x 1... x n })Q(d({x 1... x n })) = B exp( µ 2 ( B))... 1 B ({x 1... x n }) n! n=0 B B n f ({x 1... x n }) λ 2 (x i )dx 1... dx n i=1
22 Seite 22 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion Es gelte, dass λ 1 (x i ) > 0 stets λ 2 (x i ) > 0 impliziert, dann erhalten wir die Dichte f (x) bezüglich des zweiten Poisson Prozesses f (x) = exp(µ 2 ( B) µ 1 ( B)) x i x λ 1 (x i ) λ 2 (x i ) (1) wobei i = 1,..., n und x = {x 1... x n }
23 Seite 23 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion full Likelihood Die Dichte von x bezüglich eines Poisson Prozesses mit Intensitätsfunktion λ 2 (x i ). Mit (1) erhalten wir: l(ρ, σ 2, y x) = [ x i x χ E (x i ρ, σ 2 ) λ 2 (x i ) ] exp(µ( B) ρl(y)) Setze λ 2 (x i ) = 1 B. [ ] l(ρ, σ 2, y x) χ E (x i ρ, σ 2 ) exp( ρl(y)) x i x
24 Seite 24 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion der Likelihood-Funktion full Likelihood Die Dichte von x bezüglich eines Poisson Prozesses mit Intensitätsfunktion λ 2 (x i ). Mit (1) erhalten wir: l(ρ, σ 2, y x) = [ x i x χ E (x i ρ, σ 2 ) λ 2 (x i ) ] exp(µ( B) ρl(y)) Setze λ 2 (x i ) = 1 B. [ ] l(ρ, σ 2, y x) χ E (x i ρ, σ 2 ) exp( ρl(y)) x i x
25 Seite 25 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 a-priori Dichten Wir nehmen an, dass y ein homogener Poisson Prozess auf B ist mit Intensität λ und dass ρ, σ 2 und y unabhängig sind. Weiter sei: ρ U(0, ρ max ), ρ max > 0, d.h. ρ hat die Dichte f ρ (x) 1 [0 < x < ρ max ] σ U(0, σ max ), σ max > 0, d.h. σ 2 hat die Dichte f σ 2(x) 1 x 1 [0 < x < σ max] λ U(0, λ max ), λ max > 0, d.h. λ hat die Dichte f λ (x) 1 [0 < x < λ max ]
26 Seite 26 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 a-priori Dichten Die bedingte Dichte des Poisson Prozesses y auf B unter den Bedingungen λ und n(y) d ist gegeben durch: f λ (y n(y) d) = λ n(y) exp((1 λ) B ) 1 exp( λ B ) d 1 i=0 (λ B ) i /i!
27 Seite 27 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 a-posteriori Dichte Auf Grund der Unabhängigkeit von ρ, σ 2 und y gilt für die a-priori Dichte f ρ,σ 2,y = f ρ f σ 2f λ (y n(y) d) Das Theorem von Bayes liefert nun folgende a-posteriori Dichte f (ρ, σ 2, λ, y, x B c x B ) f ρ f σ 2f λ (y n(y) d)l(ρ, σ 2 y x)
28 Seite 28 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Markov-Ketten-Monte-Carlo Simulation Metropolis-Hastings Algorithmus Der Metropolis-Hastings Algorithmus ist ein Algorithmus zur Erzeugung einer Markov-Kette X n : 1. Schritt: Initialisiere X 0 und setze n = 0 2. Schritt: erzeuge einen Kandidaten Y mit vorgegebener Verteilung q( X n ) 3. Schritt: akzeptiere { Y mit Wahrscheinlichkeit } α(x n, Y ) = min 1, f (Y )q(xn Y ) f (X n)q(y X n) 4. Schritt: erzeuge eine ZV U U(0, 1): falls U α wird Y akzeptiert, d.h. setze X n+1 = Y ansonsten setze X n+1 = X n
29 Seite 29 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Markov-Ketten-Monte-Carlo Simulation Metropolis-Hastings Algorithmus Der Metropolis-Hastings Algorithmus ist ein Algorithmus zur Erzeugung einer Markov-Kette X n : 1. Schritt: Initialisiere X 0 und setze n = 0 2. Schritt: erzeuge einen Kandidaten Y mit vorgegebener Verteilung q( X n ) 3. Schritt: akzeptiere { Y mit Wahrscheinlichkeit } α(x n, Y ) = min 1, f (Y )q(xn Y ) f (X n)q(y X n) 4. Schritt: erzeuge eine ZV U U(0, 1): falls U α wird Y akzeptiert, d.h. setze X n+1 = Y ansonsten setze X n+1 = X n
30 Seite 30 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Markov-Ketten-Monte-Carlo Simulation Metropolis-Hastings Algorithmus Der Metropolis-Hastings Algorithmus ist ein Algorithmus zur Erzeugung einer Markov-Kette X n : 1. Schritt: Initialisiere X 0 und setze n = 0 2. Schritt: erzeuge einen Kandidaten Y mit vorgegebener Verteilung q( X n ) 3. Schritt: akzeptiere { Y mit Wahrscheinlichkeit } α(x n, Y ) = min 1, f (Y )q(xn Y ) f (X n)q(y X n) 4. Schritt: erzeuge eine ZV U U(0, 1): falls U α wird Y akzeptiert, d.h. setze X n+1 = Y ansonsten setze X n+1 = X n
31 Seite 31 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Markov-Ketten-Monte-Carlo Simulation Metropolis-Hastings Algorithmus Der Metropolis-Hastings Algorithmus ist ein Algorithmus zur Erzeugung einer Markov-Kette X n : 1. Schritt: Initialisiere X 0 und setze n = 0 2. Schritt: erzeuge einen Kandidaten Y mit vorgegebener Verteilung q( X n ) 3. Schritt: akzeptiere { Y mit Wahrscheinlichkeit } α(x n, Y ) = min 1, f (Y )q(xn Y ) f (X n)q(y X n) 4. Schritt: erzeuge eine ZV U U(0, 1): falls U α wird Y akzeptiert, d.h. setze X n+1 = Y ansonsten setze X n+1 = X n
32 Seite 32 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Updates der einzelnen Parameter Ein Zustand der Markov-Kette besteht aus dem Parameter-Tupel (ρ, σ 2, λ, y, x B c ) Um in den nächsten Zustand zu gelangen erfolgt für jeden Parameter einzeln ein Update. Auf die einzelnen Updates wollen wir an dieser Stelle nicht näher eingehen, mit einer Ausnahme:
33 Seite 33 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Updates für y Es gibt drei mögliche Updates für y: Vorschlag für die Geburt eines Punktes mit Geburtswahrscheinlichkeit q Vorschlag für den Tod eines Punktes mit Sterbewahrscheinlichkeit q Vorschlag für die Bewegung eines Punktes, d.h. Geburt und Tod gleichzeitig, mit Wahrscheinlichkeit 1 2q wobei 0 < q 0.5 beliebig aber fest vorgegeben.
34 Seite 34 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Vorschlag für die Geburt eines Punktes y y {ξ} Punkt ξ wird gleichverteilt auf B zu dem Poisson Prozess y hinzugefügt. Der neu entstandene Poisson Prozess wird mit Wahrscheinlichkeit min {1, H(y; ξ)} akzeptiert, wobei H(y; ξ) = λ B [ ] χ E(y {ξ}) (x i ρ, σ 2 ) n(y) + 1 χ E(y) (x i ρ, σ 2 exp(ρ(l(y) L(y {ξ}))) ) x i x
35 Seite 35 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Vorschlag für den Tod eines Punktes y y \ {η} Ein Punkt η wird gleichverteilt von y ausgewählt und gelöscht. Der neue entstandene Poisson { Prozess } wird mit 1 Wahrscheinlichkeit min 1, H(y\{η};η) akzeptiert.
36 Seite 36 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Vorschlag für die Bewegung eines Punktes y (y \ {η}) {ξ} η wird gleichverteilt aus y ausgewählt und durch ξ ersetzt, wobei ξ d-dim. normalverteilt um den erwarteten Punkt η. Die Akzeptanzwahrscheinlichkeit { des neuen } Poisson Prozesses ist 0, falls ξ / B und min sonst. 1, H(y\{ξ};η) H(y\{η};ξ)
37 Seite 37 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Der Einfachheit halber konstruieren wir ein Delaunay-Mosaik und erhalten damit auch das Voronoi-Mosaik
38 Seite 38 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Geburtsvorschlag eines Punktes Ein neuer Punkt ξ wird gleichverteilt in das Mosaik eingefügt Finde die Zelle, die ξ enthält
39 Seite 39 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Geburtsvorschlag eines Punktes Verbinde ξ mit allen Eckpunkten der Zelle, die ξ enthält
40 Seite 40 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Geburtsvorschlag eines Punktes Überprüfe, ob die drei neu entstandenen Zellen die Umkreiseigenschaft erfüllen Falls nicht alle drei Zellen diese erfüllen folgen Flip Operationen
41 Seite 41 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Geburtsvorschlag eines Punktes Durch Kanten-Flip Operationen entstehen zwei neue Zellen
42 Seite 42 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Geburtsvorschlag eines Punktes Überprüfe die neu entstandenen Zellen auf die Umkreiseigenschaft Ist diese nicht erfüllt folgen weitere Flip Operationen
43 Seite 43 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Todesvorschlag eines Punktes Ein Punkt η wird gleichverteilt aus den Nuklei gewählt und verworfen Jetzt folgen Kanten-Flip Operationen in umgekehrter Reihenfolge zum Geburts-Prozess
44 Seite 44 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Konstruktion des Voronoi-Mosaiks Todesvorschlag eines Punktes Überprüfe wiederum ob die Umkreiseigenschaft aller Zellen erfüllt ist Falls n(y \ {η}) < d wird das neue Mosaik nicht akzeptiert, d.h. das Mosaik bleibt unverändert
45 Seite 45 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Inhaltsverzeichnis Wiederholung Voronoi- und Delaunay-Mosaike Bezeichnungen Modell Daten Konstruktion der Intensitätsfunktion Bayes Theorem Konstruktion des Mosaiks Simulationsbeispiel anhand von Dachsdaten Bewertung des Modells Literatur
46 Seite 46 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Beispiel: Rekonstruktion von Dachsgebieten Tiergebiete werden oft durch Voronoi-Mosaike modelliert. Dieses Beispiel handelt von der Rekonstruierung der Dachsgebiete durch Latrinenpositionen unter der Annahme, dass die Dachse ihre Latrinen in der Nähe der Grenze ihres Gebietes bauen. Der Datensatz enthält 124 Latrinenorte, die in Vythan Woods, Oxford, UK beobachtet worden sind.
47 Seite 47 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 A-priori-Verteilung λ, ρ, σ 2 seien unabhängig und identisch verteilt. ρ U(0, 1000) σ U(0, 1000) λ U(0, 1000) Die Anzahl der generierten Punkte im Voronoi-Mosaik sei unbekannt, d.h. die Anzahl der Dachsgebiete ist unbekannt. B = [0, 10] 2
48 Seite 48 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Realisation des Voronoi Mosaiks nach verschiedenen Iterationsschritten Abbildung: Bild 1: a-posteriori-kanten-intensität mit den Dachsdaten. Bild 2: Voronoi-Mosaik nach Iterationsschritt Bild 3: Voronoi-Mosaik nach Iterationsschritt Bild 4: Voronoi-Mosaik nach Iterationsschritt
49 Seite 49 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Trace-plots Abbildung: Trace-plots von n(y), n(x), λ, ρ als Funktion der Iterationszahl.
50 Seite 50 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Vergleich der beobachteten Dachsdaten mit den realisierten Daten Abbildung: oben links: Dachsdaten. Restliche drei Bilder: Realisierung der Daten mit Hilfe der a-posteriori-verteilung
51 Seite 51 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Ripley s K-Funktion K : [0, ) [0, ) mit λk(r) = E [Φ(b(0, r)) \ {0} 0] wobei r 0, Φ Punktprozess falls Φ ein homogener Poisson-Prozess mit Intensität λ ist gilt: λk(r) = λπr 2
52 Seite 52 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 L-Funktion L : [0, ) [0, ) mit L(r) = K(r), r 0 falls Φ ein homogener Poisson-Prozess mit Intensität λ ist gilt: L(r) = r π
53 Seite 53 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Plot von ˆL(r) r Abbildung: Plot von ˆL(r) r als Funktion des Abstandes. Schwarze Linie: beobachtete Daten, gestrichelte Linie: Durchschnittswert von ˆL(r) r, blaue Linie: dazugehörige 2.5% Quantile, gepunktete Linie: Poisson-Fall.
54 Seite 54 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Fazit Zusammenfassend lässt sich feststellen, dass unser Modell die Realität nicht vollständig erfasst. Die Abweichungen kommen daher, dass wir nur sehr wenig Informationen haben und vieles auf Annahmen aufbaut. Trotzdem wird dieses Modell auch in anderen Gebieten angewandt, z.b. in der Kosmologie, um die räumliche Verteilung der Galaxien zu untersuchen.
55 Seite 55 Punktprozesse in der Umgebung von Voronoi-Mosaiken Judith Schmidt und Bettina Hund 02 Juli 2008 Literatur O. Skare, J. Møller, E. Vedel Jensen: Bayesian analysis of spatial point processes in the neighbourhood of Voronoi networks J. Møller, R. Waagepetersen: Statistical Inference and Simulation for Spatial Point Processes Prof. Dr. V. Schmidt: Vorlesungsskript WS 2007/08 Räumliche Statistik W. Gilks, S. Richards, D. Spiegelhalter: Markov Chain Monte Carlo in Practice Internet: 04/seminar03 04/vortrag rt.pdf
Allgemeine Punktprozesse
Allgemeine Punktprozesse Michael Auchter 17. Mai 2010 Seite 2 Allgemeine Punktprozesse 17. Mai 2010 Inhaltsverzeichnis Definitionen Definition von Punktprozessen Das Intensitätsmaß Stationarität, Isotropie
MehrExtrapolation und Interpolation von räumlichen Mustern
Extrapolation und Interpolation von räumlichen Mustern 01. Juli 2008 Inhaltsverzeichnis 1 Interpolation Extrapolation Beispiel: Mammutbaumsetzlinge 2 Grundlagen Keim-Korn- Clusterprozesse Cox-Clusterprozess
MehrJurij-Andrei Reichenecker 21. Juni Tessellationen
Jurij-Andrei Reichenecker 21. Juni 2010 Tessellationen Seite 2 Tessellationen 21. Juni 2010 Jurij-Andrei Reichenecker Inhalt Einführung Voronoi Tessellation Algorithmus zur Erstellung von Voronoi Tessellationen
MehrMarkierte Punktprozesse und zufällige Tesselationen
und zufällige Tesselationen Seminar stochastische Geometrie und ihre Anwendungen 7. Dezember 2009 und zufällige Tesselationen Gliederung 1 2 3 und zufällige Tesselationen Gliederung 1 2 3 und zufällige
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrSimulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
MehrStochastik-Praktikum
Stochastik-Praktikum Markov Chain Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 16. Januar 2018 (Humboldt-Universität zu Berlin) Markov Chain Monte Carlo 16. Januar 2018 1 / 17 Übersicht 1
MehrInhalt. Einführung. Deterministische Mosaike. Zufällige Mosaike. Mathematische Analyse. Statistik. Schluss
Zufällige Mosaike: Eine Einführung Zhanlong Tao, Tobias Krejci 27.05.2008 Seite 2 Zufällige Mosaike 27.05.2008 Zhanlong Tao, Tobias Krejci Einführung Inhalt Einführung Deterministische Mosaike Zufällige
MehrAlois Fichtl, Julius Vogelbacher 10. Juni Voronoi und Johnson-Mehl Mosaike
Alois Fichtl, Julius Vogelbacher 10. Juni 2008 Voronoi und Johnson-Mehl Mosaike Seite 2 Voronoi- und Johnson-Mehl-Mosaike Alois Fichtl, Julius Vogelbacher 10. Juni 2008 Inhaltsverzeichnis Einführung Mosaike
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrSeminar stochastische Geometrie. 25. Januar Faserprozesse im R 2. Simona Renner. Faserprozesse. Kenngrößen Intensität Richtungsrose
Seminar stochastische Geometrie 25. Januar 2010 Contents 1 2 3 4 5 Definitionen Faser: glatte Kurve endlicher Länge in der Ebene Faser γ ist das Bild der Kurve γ(t) = (γ 1 (t), γ 2 (t)) mit (i) γ : [0,
MehrPunktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm
Einführung in Beispiele für Andreas Seminar Zufällige Felder Universität Ulm 20.01.2009 Inhalt Einführung in Beispiele für Definition Markierte 1 Einführung in Definition Markierte 2 Beispiele für Homogener
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
Mehr2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse
2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
Mehr7 Poisson-Punktprozesse
Poisson-Punktprozesse sind natürliche Modelle für zufällige Konfigurationen von Punkten im Raum Wie der Name sagt, spielt die Poisson-Verteilung eine entscheidende Rolle Wir werden also mit der Definition
MehrZufällige Tessellationen II: komplexere Modelle
Zufällige Tessellationen II: komplexere Modelle Seminar: Stochastische Geometrie und ihre Anwendungen Benjamin Lang Universität Ulm 15. Januar 2010 Ziel: Warum braucht man komplexere Modelle? angemessenes
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. M. Schweizer ETH Zürich Sommer 4 Wahrscheinlichkeit und Statistik BSc D-INFK. a (iii b (ii c (iii d (i e (ii f (i g (iii h (iii i (i j (ii. a Die Anzahl der bestellten Weine in einem Monat kann
MehrStochastische Geometrie und ihre Anwendungen Thema: Faserprozesse
Stochastische Geometrie und ihre Anwendungen Thema: Faserprozesse Universität Ulm Degang Kong 8.01.010 1 Inhaltsverzeichnis 1. Ungerichtete Linienprozesse als Faserprozesse. Planare Faserprozesse.1 Grundlagen.
MehrStatistik für Punktprozesse. Seminar Stochastische Geometrie und ihre Anwendungen WS 2009/2010
Statistik für Punktprozesse Seminar Stochastische Geometrie und ihre Anwendungen WS 009/00 Inhalt I. Fragestellung / Problematik II. Ansätze für a) die Schätzung der Intensität b) ein Testverfahren auf
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Mehr7 Zufallszahlen, Simulation
7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten
MehrFormelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrDas Boolesche Modell. Olaf Wied. November 30, 2009
November 30, 2009 Inhalt 1. Einführung und Definition 2. Eigenschaften 3. Modell mit konvexen Körnern 4. Statistiken und Anwendung in R Keim - Korn Modell Punkte im R d um jeden Punkt: beliebige, kompakte
MehrZufällige Tessellationen II :
Zufällige Tessellationen II : David Neuhäuser Seminar: "Stochastische Geometrie und ihre Anwendungen" Universität Ulm 11.01.2010 Wiederholung Inhalt 1 Wiederholung Tessellation Zufällige Tessellation k-facetten
MehrBayesianische FDR (Teil2)
des Multiplen Testens FDR, FNR FDR 13.12.2010 Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Bedingte Wahrscheinlichkeit FDR, FNR FDR (Ω, F, P) W-Raum, A 1, A 2,...A n F, A i
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrDas Boolesche Modell
mit konvexen Körnern 3.12.2009 mit konvexen Körnern Ziele des heutigen Seminars: ist sehr anwendungsbezogen. Daher ist unser Ziel, am Ende die folgenden statistischen Fragen zu beantworten: Wann ist das
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrSeminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller
Seminar in Statistik - FS 2008 Nonparametric Bayes Handout verfasst von Ivo Francioni und Philippe Muller Zürich, 17. März 2008 1 EINLEITUNG 1 1 Einleitung Bis jetzt haben wir in der Bayes schen Statistik
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik,..3 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf n wird mit B n bezeichnet, das Lebesgue Maß auf n wird
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrW-Rechnung und Statistik für Ingenieure Übung 8
W-Rechnung und Statistik für Ingenieure Übung 8 Aufgabe 1 : Motivation Anhand von Daten soll eine Aussage über die voraussichtliche Verteilung zukünftiger Daten gemacht werden, z.b. die Wahrscheinlichkeit
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrBayesianische FDR (Teil 1)
Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrSimulationsmethoden in der Bayes-Statistik
Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. M. Schweizer ETH Zürich Sommer Wahrscheinlichkeit und Statistik BSc D-INFK. a) (iii) b) (ii) c) (i) d) (ii) e) (ii) f) (iii) g) (ii) h) (i) i) (ii) j) (i). Für ein heruntergeladenes Dokument
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrPartition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008
Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
Mehr15. Bereichsintegrale
H.J. Oberle Analysis III WS 212/13 15. Bereichsintegrale 15.1 Integrale über uadern Ziel ist die Berechnung des Volumens unterhalb des Graphen einer Funktion f : R n D R, genauer zwischen dem Graphen von
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
MehrHistorische Wurzeln der stochastischen Geometrie
Historische Wurzeln der stochastischen Geometrie Matthias Wehmer April 2010 Seite 2 Historische Wurzeln der stochastischen Geometrie April 2010 Inhalt dieser Präsentation 1. Buffonsches Nadelproblem 2.
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrStatistische Methoden
Statistische Methoden Dr. C.J. Luchsinger 2 Beweis CLT Literatur Kapitel 2: Krengel: 12 2.1 Einführung Wir repetieren aus WTS, Kapitel 5: Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ, (2.1)
MehrBayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrSchriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus
Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrSpezifische innere Volumina
Spezifische innere Volumina Stochastische Geometrie und ihre en - Zufallsfelder Regina Poltnigg und Henrik Haßfeld Universität Ulm 13. Januar 2009 1 Regina Poltnigg und Henrik Haßfeld 1 2 Berechnung von
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Mehr42 Orthogonalität Motivation Definition: Orthogonalität Beispiel
4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der
MehrGrundlagen der Monte-Carlo-Simulation
Grundlagen der Monte-Carlo-Simulation Prof. Dr. V. Schmidt und S. Luck j 8. November 2007 page 2 Contents Motivation Erzeugung von SPZZ Software Transformation von SPZZ page 3 Motivation Motivation fur
MehrStetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 26. Juni 2009 Stetige Verteilungen, & ZGS Wiederholung Stetige Zufallsvariable Definition Eigenschaften, Standardisierung Zusammenhang von Poisson-
MehrMarkierte Punktprozesse und abstrakte kollektive Modelle
Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Markierte Punktprozesse und abstrakte kollektive Modelle Anke Todtermuschke 21. Oktober 2011 Gliederung 1 Modellierung einer Folge
MehrMessbare Vektorräume
Messbare Vektorräume Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Dezember 2010 / Januar 2011 Hans-Jörg Starkloff Messbare Vektorräume 1 1. Definition Geg. X linearer
MehrStochastische Geometrie in Telekommunikation
Weierstraß-Institut für Angewandte Analysis und Stochastik Stochastische Geometrie in Telekommunikation Wolfgang König TU Berlin and WIAS (Dank an BENEDIKT JAHNEL) Mohrenstraße 39 10117 Berlin Tel. 030
Mehr