Zufällige Tessellationen II: komplexere Modelle

Ähnliche Dokumente
Zufällige Tessellationen II :

Inhalt. Einführung. Deterministische Mosaike. Zufällige Mosaike. Mathematische Analyse. Statistik. Schluss

Markierte Punktprozesse und zufällige Tesselationen

Alois Fichtl, Julius Vogelbacher 10. Juni Voronoi und Johnson-Mehl Mosaike

Jurij-Andrei Reichenecker 21. Juni Tessellationen

Seminar stochastische Geometrie. 25. Januar Faserprozesse im R 2. Simona Renner. Faserprozesse. Kenngrößen Intensität Richtungsrose

Stochastische Geometrie und ihre Anwendungen Thema: Faserprozesse

Das Boolesche Modell. Olaf Wied. November 30, 2009

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Allgemeine Punktprozesse

Hawkes Prozesse Grundlagen

Extrapolation und Interpolation von räumlichen Mustern

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Spezifische innere Volumina

Zufällige Polytope. Benedikt Liedtke. 18. Januar 2010

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Statistik für Punktprozesse. Seminar Stochastische Geometrie und ihre Anwendungen WS 2009/2010

Markierte Punktprozesse und abstrakte kollektive Modelle

Bayesian analysis of spatial point processes in the neighbourhood of Voronoi. networks

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Das Boolesche Modell

7 Poisson-Punktprozesse

Analysis I. Guofang Wang Universität Freiburg

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Der Eulersche Polyedersatz in beliebiger Dimension

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

(c) (a) X ist abgeschlossen. X = A,wobeiderDurchschnittüberalleabgeschlossenenMengengebildet wird, die X enthalten. (d) (e)

Rechenoperationen mit Folgen. Rekursion und Iteration.

Der Metropolis-Hastings Algorithmus

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

13 Grenzwertsätze Das Gesetz der großen Zahlen

Stochastische Prozesse

Analysis I für Studierende der Ingenieurwissenschaften

Endliche Markov-Ketten - eine Übersicht

Der Ergodensatz. Hendrik Hülsbusch

3.4 Kombinatorische Äquivalenz und Dualität von Polytopen

Vorstellung der Kopplung bei Markovketten

3 Markov-Eigenschaft der Brownschen Bewegung

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Übungen zu Einführung in die Analysis

Gesetz der großen Zahlen

Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 5: Endliche Maße und schwache Konvergenz von Maßen in metrischen Räumen

Punktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Messbare Vektorräume

die gewünschte Schranke gefunden, denn es gilt (trivialerweise) für n N

Konstruktion der reellen Zahlen

Statistische Methoden für planare Punktfelder

Übungen zur Funktionalanalysis Lösungshinweise Blatt 2

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

Wiederholte Spiele. Grundlegende Konzepte. Zwei wichtige Gründe, wiederholte Spiele zu betrachten: 1. Wiederholte Interaktionen in der Realität.

Kapitel 5 KONVERGENZ

46 Der Satz von Fubini

1.3 Zufallsvariablen

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Häufungspunkte und Satz von Bolzano und Weierstraß.

Das magische Quadrat für stochastische Prozesse

Optimales Routing. Paul Kunze

Triangulierungen von Punktmengen und Polyedern

Eigenwerte und Diagonalisierung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

Markov Ketten und Bonus Malus Systeme

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Lösungen zu den Hausaufgaben zur Analysis II

Klassische Extremwerttheorie Seien (X k ), k IN, nicht degenerierte i.i.d. ZV mit Verteilungsfunktion. Für n 1 definiere S n := n

Bayesianische FDR (Teil2)

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5

Die komplexe Halbebene faktorisiert nach einer Fuchsschen Gruppe

TEIL II LINEARE ALGEBRA

Kapitel 2. Zahlenbereiche

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Das Newton Verfahren.

2 Zufallsvariable, Verteilungen, Erwartungswert

Analysis I für Studierende der Ingenieurwissenschaften

Reelle Zufallsvariablen

Zusammenfassung der Lebesgue-Integrationstheorie

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Vortrag 20: Kurze Vektoren in Gittern

Seminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller

Scheinklausur zur Vorlesung Stochastik II

Elemente der mengentheoretischen Topologie

Abgabetermin: 5. Mai 2017, Uhr

Simulation von Zufallsvariablen und Punktprozessen

22 Charakteristische Funktionen und Verteilungskonvergenz

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Grundbegriffe der Topologie. V. Bangert. (zur Vorlesung Differentialgeometrie, WS 12/13 )

Das Subgradientenverfahren

Analysis II (FS 2015): ZUSAMMENHÄNGENDE METRISCHE RÄUME

Integralgeometrie und Stereologie

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Transkript:

Zufällige Tessellationen II: komplexere Modelle Seminar: Stochastische Geometrie und ihre Anwendungen Benjamin Lang Universität Ulm 15. Januar 2010

Ziel: Warum braucht man komplexere Modelle? angemessenes Modell zur Beschreibung von Telekommunikationsnetzwerken hierfür: Netzwerkkabel modellieren via Straßensystem

Warum braucht man komplexere Modelle? Problem: Realität oft komplex: Löcher, Verästelungen durch Nebenstraßen Basis-Tessellationen reichen nicht aus Abbildung: Straßenkarte von Paris

Warum braucht man komplexere Modelle? Idee: auf bestehenden Tessellationen weitere Operationen durchführen: z. B. einzelne Zellen individuell weiter unterteilen Kanten einer anderen Tessellation über die der gegebenen legen

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Tessellation Vorabdefinitionen Sei F die Familie aller (nichtleeren) abgeschlossenen Mengen (im R 2 ) und P als Unterklasse von F die Familie aller 2-dimensionalen kompakten und konvexen Polytope Bzgl. F definiere B(F) als die kleinste σ-algebra von F, die die Mengen der Form {F F, F C }, mit beliebigem kompakten C, enthalten Dann kann P mit der Spur-σ-Algebra B(F) P ausgestattet werden

Tessellation Definition (Tessellation) Eine Folge τ = {P n } n 1 P mit int P n heißt Tessellation, falls (i) int P n int P m = für alle n m (ii) n=1 P n = R 2 (iii) für alle kompakten Mengen C R 2 gilt: {P τ : P C } ist endlich. Die P n heißen Zellen der Tessellation τ.

Zufällige Tessellation Definition (zufällige Tessellation) Sei T die Familie aller Tessellationen (im R 2 ). Eine Folge τ = {Ξ n } n 1 von zufälligen Polytopen heißt zufällige Tessellation, falls ( ) P {Ξ n } n 1 T = 1.

Tessellation als markierter Punktprozess Lokation assoziierter Punkt Sei c : P R 2 eine messbare Abbildung mit c(p + x) = c(p) + x für alle P P und x R 2. Dann heißt c(p) der zu P assoziierte Punkt. Markierung Die Marke eines zu einem Polytop P P assoziierten Punktes c(p) ist gegeben durch P c(p) P o := {P P : c(p) = o}, wobei P o der Markenraum ist.

Tessellation als markierter Punktprozess Tessellation als markierter Punktprozess Dann können wir eine zufällige Tessellation {Ξ n } n 1 als markierten Punktprozess schreiben. X = {(c(ξ n ), Ξ n c(ξ n ))} n 1 Oft: nicht nur interessiert an Zellen ( Häuserblöcke ) sondern auch an den Straßenkreuzungen (Ecken) oder Straßen selbst (Kanten) Frage: wie kommen wir an die ran?

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Facetten Definition (k-facetten) Die k-facetten eines Polytops P R 2 für k = 0, 1, 2 sind definiert durch: (i) die 0-Facetten sind die Ecken (ii) die 1-Facetten sind die Kanten (iii) die 2-Facette ist das Polytop selbst X induziert (markierte) Punktprozesse von niedrig-dimensionaleren Polytopen (als Marken), nämlich den k-facetten

Facetten-Prozess Definition (Facetten-Prozess) Sei X eine zufällige Tessellation. Es heißt X (k) der k-facetten-prozess von X dieser liefert die k-facetten von X als Punkte: X (0) = {e n } n 1, X (1) = {k n } n 1, X (2) = {Ξ n } n 1 = X, e n ist Ecke einer Zelle von X k n ist Kante einer Zelle von X Ξ n ist Zelle von X Analog Der k-facetten-prozess kann als markierter Punktprozess aufgefasst werden

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Modell Idee war: auf bestehenden Tessellationen gewisse Operationen durchführen Definition (Iterierte Tessellation) Sei X 0 = {Ξ n } n 1 eine zufällige Tessellation und sei {X n } n 1 mit X n = {Ξ n,ν } ν 1 eine Folge von zufälligen Tessellationen. Dann heißt X = {Ξ n Ξ n,ν : int Ξ n int Ξ n,ν } (n 1, ν 1) iterierte (zufällige) Tessellation (IZT) mit Initial-Tessellation X 0 und Komponenten-Tessellation X n.

Modell Interpretation: Jede Zelle von X 0 wird weiter unterteilt: Die i-te Zelle von X 0 wird von der i-ten Tessellation X i unterteilt, d. h. die i-te Zelle von X 0 wird mit allen Zellen von X i geschnitten (sofern Schnitt nichtleer)

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Beispiele Superposition Superposition Eine IZT X mit X 1 = X 2 =, d. h. X 0 = {Ξ n } n 1, X 1 = X n = { } Ξ 1,ν { Ξ ν 1 =: ν }ν 1, { } X = Ξ n Ξ ν : int Ξ n int Ξ ν heißt X 0 /X 1 - Superposition. Notation: (X 0, X 1 ) := X. (n 1, ν 1)

Beispiele Superposition Anschaulich: Gegeben: Tessellation X 0 Lege Kanten von X 1 über die Kanten von X 0 Abbildung: PLT/PVT - Superposition (PLT in rot)

Beispiele Nesting Nesting Eine IZT X heißt X 0 /X 1 - Nesting, falls X := {X n } n 1 i.i.d. und {X n }, X 0 unabhängig. Notation: I (X 0, X ) := X. Anschaulich: Jede Zelle von X 0 wird weiter unterteilt Unterteilung der Zellen findet mit unabhängigen Kopien von X 1 statt

Beispiele Nesting Abbildung: PLT/PVT - Nesting (PLT in rot)

Beispiele Nesting mit Bernoulli Thinnning Problem: reale Daten haben oft Löcher

Beispiele Nesting mit Bernoulli Thinning Idee: Unterteile nur manche Zellen der Initial-Tessellation X 0 die anderen Zellen unverändert lassen Bernoulli Thinning: X 0 /px 1 - Nesting Eine Zelle von X 0 wird mit Wkt. p weiter unterteilt Abbildung: PLT/PVT - Nesting mit Bernoulli Thinning (p = 0,75)

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Stationarität einer IZT Theorem Sei X eine IZT mit Initial-Tessellation X 0 und Komponenten-Tessellation X n. Sei nun die Folge X 0, X 1,... i.i.d. und stationär (isotrop). Dann ist X stationär (isotrop). Annahme Wir setzen ab sofort stets voraus, dass X 0, X 1,... isotrop und stationär.

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Intensitäten der Facetten-Prozesse Bezeichnungen λ (0) 0 erwartete Anzahl der Ecken von X 0 pro Einheitsfläche λ (1) 0 erwartete Anzahl der Kanten von X 0 pro Einheitsfläche λ (2) 0 erwartete Anzahl der Zellen von X 0 pro Einheitsfläche λ (3) 0 erwartete Gesamtkantenlänge von X 0 pro Einheitsfläche Bezeichnungen analog für X 1 : λ (0) 1, λ(1) 1, λ(2) 1, λ(3) 1.

Intensitäten Ziel: Intensitäten der Facetten-Prozesse einer IZT X in Abhängigkeit der Intensitäten der Facetten-Prozesse von X 0 und X 1

Intensitäten bei Superposition Theorem Sei X eine X 0 /X 1 - Superposition im R 2. Dann gilt: λ (0) = λ (0) 0 + λ (0) 1 + 2 π λ(3) 0 λ(3) 1 λ (1) = λ (1) 0 + λ (1) 1 + 4 π λ(3) 0 λ(3) 1 λ (2) = λ (2) 0 + λ (2) 1 + 2 π λ(3) 0 λ(3) 1 λ (3) = λ (3) 0 + λ (3) 1

Intensitäten bei Nesting Theorem Sei X ein X 0 /X 1 - Nesting im R 2. Dann gilt: λ (0) = λ (0) 0 + λ (0) 1 + 4 π λ(3) 0 λ(3) 1 λ (1) = λ (1) 0 + λ (1) 1 + 6 π λ(3) 0 λ(3) 1 λ (2) = λ (2) 0 + λ (2) 1 + 2 π λ(3) 0 λ(3) 1 λ (3) = λ (3) 0 + λ (3) 1

Intensitäten bei Nesting mit BT Theorem Sei X ein X 0 /px 1 - Nesting im R 2. Dann gilt: λ (0) = λ (0) 0 + pλ (0) 1 + 4p π λ(3) 0 λ(3) 1 λ (1) = λ (1) 0 + pλ (1) 1 + 6p π λ(3) 0 λ(3) 1 λ (2) = λ (2) 0 + pλ (2) 1 + 2p π λ(3) 0 λ(3) 1 λ (3) = λ (3) 0 + pλ (3) 1

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Intensitäten konkreter Abbildung: λ (0), λ (1), λ (2), λ (3) in Abhängikeit von γ

Intensitäten konkreter Abbildung: Intensitäten in Abhängikeit von γ 0 und γ 1 bei Nesting

Was fangen wir mit diesen Intensitäten an? Ziel: optimales Modell, d. h. Modell, das Realität bestmöglichst wiedergibt Idee: Passe (theoretisches) Modell an die Realität an (theoretisches) Modell wird durch λ = ( λ (0), λ (1), λ (2), λ (3)) T beschrieben

1. Schritt: Anpassung des Modells an die Realität Betrachte aus Realität Ausschnitts-Fenster W Schätze λ aus diesen Daten: Schätzer wobei ˆλ = 1 W (n v, n e, n c, l e ) T n v = Anzahl der Ecken in W n e = Anzahl der Kanten W n c = Anzahl Zellen in W l e = Gesamtlänge der Kanten in W W = Fläche von W

Anpassung des Modells an die Realität Was heißt anpassen? Vorgabe eines Satzes von Tessellations-Modellen Vergleiche theoretisches Modell mit realem Straßensystem: via sog. Abstandsfunktion 2. Schritt Für jedes Modell bestimme Abstand zw. λ Modell und ˆλ: ( 4 ˆλ d Modell (γ) := (i) λ (i) ) 2 Modell ˆλ (i) i=1 1 / 2,

Anpassung des Modells an die Realität 3. Schritt bestimme für jedes Modell γ Modell = arg min d Modell(γ) Optimales Modell: unter allen Modellen das, bei dem d Modell (γmodell ) am kleinsten

Optimales Modell Beispiel Abbildung: Optimales Modell aus Basis-Tessellationen links reales Straßensystem: 528 Kreuzungen, 324 Häuserblöcken, 849 Straßenstücken, 97 km Gesamtstraßenlänge rechts optimales Modell PVT mit γ = 81 (pro km 2 ): in Erwartung 585 Kreuzungen, 293 Häuserblöcken, 878 Straßenstücken, 82 km Gesamtstraßenlänge

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Grenzwerte von Folgen von iterierten Tessellationen Motivation Fragestellung: iterierte Tessellation als neue Initial-Tessellation für weitere Iteration verwenden Existiert ein Grenzwert bei einer solchen fortlaufenden wiederholten Anwendung?

Grundlegendes Konvergenz Sei X, X 1, X 2,... eine Folge von stationären Tessellationen im R 2. Die Folge von Tessellationen konvergiert in Verteilung (bzw. schwach) gegen X (i. Z. X n X), falls T Xn (C) T X (C) für n, kompakten C wobei T X (C) := P ( X 1 C ) mit C kompakt und X 1 die Kantenmenge von X

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Superposition Grundlegendes Intensität bei Superposition von n Tessellationen Seien X 0, X 1,..., X n 1 i.i.d. und stationäre Tessellationen im R 2 mit Gesamtkantenlängen-Intensität λ (3). Die Superposition (X 0,..., X n 1 ) ist stationäre Tessellation mit Parameter n λ (3). Definition (Normierte Superposition) Es heißt (nx 0,..., nx n 1 ), n 2, normierte Superposition.

Konvergenz bei Superposition Theorem Sei X 0, X 1,... eine Folge von i.i.d. und stationären Tessellationen im R 2 mit 0 < λ (1), λ (3) <. Dann gilt (nx0,..., nx n 1 ) X für n, wobei X eine stationäre PLT (mit entspr. Parameter λ (3) ) ist.

Motivation Wiederholung Zufällige Tessellation Facetten Gliederung Iterierte Tessellationen Modell Beispiele Stationarität Intensitäten einer IZT Anwendung: kurzer Ausblick Grenzwerte Grundlegendes Superposition Nesting

Nesting Grundlegendes Analoges Vorgehen: Definition (Normiertes Nesting) Sei X 0 eine stationäre Tessellation und X 1, X 2,... eine Folge von Folgen von Tessellationen, so dass alle Tessellationen einschl. X 0 i.i.d. sind. Dann ist die Folge I 2 (X 0 ), I 3 (X 0 ),... von normierten Nestings rekursiv defniert durch I 2 (X 0 ) = I (2X 0, 2X 1 ), I n (X 0 ) = I (nx 0, nx 1,..., nx n 1 ) = I (I (nx 0, nx 1,..., nx n 2 ), nx n 1 ), n = 2, 3,...

Hier: Konvergenz bei Nesting Man weiß nicht, ob eine Grenz-Tessellation existiert Aber man weiß folgendes: Theorem Seien X 0, X stationäre Tessellationen und {I n (X 0 )} n 2 die Folge von normierten Nestings. Wenn I n (X 0 ) X für n, dann ist X stabil bzgl. Nesting. Dabei heißt X stabil bzgl. Nesting, falls X I n (X) für alle n = 2, 3,... d. h. die Verteilung von X ändert sich bei fortlaufendem Nesting (mit Folgen von Tessellationen derselben Verteilung) nicht.

Literatur Roland Maier, Volker Schmidt: Stationary Iterated Tessellations, Adv. Appl. Prob. (SGSA) 35, 337 353 (2003) Werner Nagel, Viola Weiss: Limits of Sequences of Stationary Planar Tessellations, Adv. Appl. Prob. (SGSA) 35, 123 138 (2003) Frank Fleischer: Analysis and Fitting of Random Tessellation Models, Applications in Telecommunication and Cell Biology, Dissertation, 2007

Literatur C. Gloaguen, F. Fleischer, H. Schmidt, V. Schmidt: Fitting of Stochastic Telecommunication Network Models via Distance Measures and Monte-Carlo Tests, Telecommunication Systems 31 (2006), 353-377 C. Gloaguen, F. Voss, V. Schmidt: Parametric Distance Distributions for Fixed Access Network Analysis and Planning, Proceedings of the 21st International Teletraffic Congress, Paris 2009