Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Ähnliche Dokumente
Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

3. Kombinatorik und Wahrscheinlichkeit

Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete).

Kapitel 5 KONVERGENZ

Varianz und Kovarianz

Unabhängigkeit KAPITEL 4

Vier-Farben-Vermutung (1)

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Satz 16 (Multiplikationssatz)

WS 2009/10. Diskrete Strukturen

Grundbegriffe der Wahrscheinlichkeitsrechnung

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Graphentheorie. Maximale Flüsse. Maximale Flüsse. Maximale Flüsse. Rainer Schrader. 31. Oktober Gliederung. sei G = (V, A) ein gerichteter Graph

WS 2009/10. Diskrete Strukturen

2 Zufallsvariable, Verteilungen, Erwartungswert

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung

Definition Ein gerichteter Graph G = (V, E) ist ein Graph von geordneten Paaren (u, v) mit u V und v V.

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Strukturen WiSe 2012/13 in Trier

Grundbegriffe der Informatik

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Modelle und Statistiken

Analysis I - Einige Lösungen und Ergänzungen

Diskrete Mathematik. Sebastian Iwanowski FH Wedel. Kap. 6: Graphentheorie

William Rowan Hamilton,

Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe. a 0 + a 1 + a 2 +

2. Repräsentationen von Graphen in Computern

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Minimal spannender Baum

Natürliche, ganze und rationale Zahlen

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Analysis I. Vorlesung 4. Angeordnete Körper

4 Diskrete Wahrscheinlichkeitsverteilungen

Aufgaben zu Kapitel 38

1. Einleitung wichtige Begriffe

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Ü b u n g s b l a t t 10

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und

Grundbegriffe der Informatik

9 Konvergenz und absolute Konvergenz von Reihen

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Einführung in die Graphentheorie. Monika König

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

1 Vollständige Induktion

Kapitel 5. Stochastik

Zufallsvariablen: Die allgemeine Definition

n=1 a n mit reellen Zahlen a n einen

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Der Primzahlsatz. Es gibt eine Konstante A, so daß f(x) g(x) Ah(x) für alle genügend großen x.

18 Höhere Ableitungen und Taylorformel

Lösung zur Übung für Analysis einer Variablen WS 2016/17

Kapitel 4 Folgen und Reihen

Stochastik. 1. Wahrscheinlichkeitsräume

Analysis I - Stetige Funktionen

Graph Paar (V,E) V: nichtleere Menge von Knoten (vertex) E: Menge von Kanten (edges): Relation (Verbindung) zwischen den Knoten

Vortrag 11: Der Satz von Mordell-Weil

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Induzierte Bäume in planaren Graphen

Absolute Stetigkeit von Maßen

Vorlesungen vom 5.Januar 2005

Wiederholung zu Flüssen

5 Erwartungswerte, Varianzen und Kovarianzen

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

0, t 0,5

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Wahrscheinlichkeitsrechnung und Quantentheorie

Um zu entscheiden, welchen Inhalt die Urne hat, werden der Urne nacheinander 5 Kugeln mit Zurücklegen entnommen und ihre Farben notiert.

Beispiel Zusammengesetzte Zufallsvariablen

Funktionsgrenzwerte, Stetigkeit

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Kapitel 3. Natürliche Zahlen und vollständige Induktion

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass

Vorlesung. Vollständige Induktion 1

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn

Definitionen und Sätze der Graphentheorie. Dr. F. Göring

Lösungen. 1. Klausur zur MIA: Analysis I für Mathematiker

Grundlagen der Mengenlehre

Very simple methods for all pairs network flow analysis

6 Kombinatorik: Einschluß-Ausschluß Formel. 6.1 Indikatorfunktionen. I A ist eine Zufallsvariable E[I A ] = P (A) IĀ = 1 I A I A B = I A I B

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.

Einführung in die Informatik 2

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6.

f h c 7 a 1 b 1 g 2 2 d

Einführung in die Graphentheorie. Modellierung mit Graphen. Aufgabe

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Mathematik I. Vorlesung 7. Folgen in einem angeordneten Körper

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Vollständige Induktion

11. Folgen und Reihen.

Die Schreibweise x M bedeutet, dass das Objekt x in der Menge M liegt. Ist dies nicht der Fall, dann schreibt man

Gesetze der großen Zahlen

WS 2009/10. Diskrete Strukturen

Transkript:

Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten muss, der die Färbungszahl hochtreibt informelle Einführung Zusammenhang mit den Ramsey-Zahlen Erwartungswerte Eigenschaften fast aller Graphen Schwellenfunktionen so könnte man folgende Vermutung aufstellen: ist χ(g) groß, so enthält G einen großen vollständigen Graphen diese Vermutung ist jedoch falsch dicht könnte auch heißen: G enthält kleine Kreise falsch ist auch die folgende Vermutung: ist χ(g) groß, so enthält G kleine Kreise 3 / 45 4 / 45

man kann im Gegenteil zeigen: es existieren Graphen mit beliebig hoher chromatischer Zahl deren kleinster Kreis beliebig groß ist (große Taillenweite) diese Aussage konstruktiv zu beweisen, hat sich als schwierig erwiesen sei V = {1,..., n} eine Knotenmenge wir erzeugen zufällig einen Graphen mit Knotenmenge V : für jedes Paar i, j wird gewürfelt, ob (i, j) eine Kante in E sein soll sei p [0, 1] und q = 1 p für alle (i, j) sei p die Wahrscheinlichkeit, dass die Kante auftritt, und q die Wahrscheinlichkeit, dass sie nicht auftritt wir wollen in diesem Kapitel die Methode vorstellen, mit der es Erdös 1959 gelungen ist, den Beweis zu führen. 5 / 45 6 / 45 dieses Modell ist nicht das einzig denkbare es erlaubt u.a. nicht die Anzahl der generierten Kanten zu kontrollieren dies ist nachteilig bei der Analyse von Laufzeiten als Funktion von Knoten- und Kantenanzahl ein alternativer Ansatz könnte darin bestehen, alle Graphen mit m Kanten gleichwahrscheinlich zu erzeugen wir bleiben aber bei dem ersten Modell alle Kanten werden gleich wahrscheinlich und unabhängig voneinander erzeugt die Wahrscheinlichkeit, dass wir einen bestimmten Graphen auf n Knoten und m Kanten auswürfeln, beträgt dann p m q (n ) m sei G(n, p) den Wahrscheinlichkeitsraum der auf n Knoten und mit Kantenwahrscheinlichkeit p 7 / 45 8 / 45

zur Veranschaulichung: sei P H G die Wahrscheinlichkeit, dass ein Graph G einen anderen Graphen H mit l Kanten auf den ersten k Knoten als Teilgraphen enthält dann ist P H G = p l verlangen wir, dass der Graph induziert ist, so müssen wir die anderen Kanten ausschließen, d.h. P H induzierter Teilgraph von G = p l q (k ) l die Wahrscheinlichkeit, dass G einen zu H isomorphen Teilgraphen enthält ist schwieriger zu berechnen dabei können sich die möglichen Kopien von H überlappen die Ereignisse, dass sie als Untergraphen auftreten, sind daher nicht unabhängig voneinander sicherlich bildet die Summe der Einzelwahrscheinlichkeiten eine obere Schranke dazu ein Beispiel: 9 / 45 10 / 45 Lemma 1 Die Wahrscheinlichkeit, dass G G(n, p) eine stabile Menge der Größe k mit k enthält, ist! P α(g) k n q (k ). k die Wahrscheinlichkeit, dass eine Teilmenge U V mit U = k keine Kanten enthält, ist q (k ) Gliederung informelle Einführung Zusammenhang mit den Ramsey-Zahlen Erwartungswerte Eigenschaften fast aller Graphen Schwellenfunktionen da `n k solcher Teilmengen existieren, folgt die Behauptung. ebenso gilt: P ω(g) k n k! p (k ). 11 / 45 1 / 45

Ramsey hat 1930 in einem Satz speziell die folgende Aussage bewiesen: Satz Zu jedem k 1 existiert ein R(k ) N, so dass jeder Graph mit R(k ) Knoten entweder eine Clique der Größe k oder eine stabile Menge der Größe k enthält. der Beweis dieses überraschenden Ergebnisses (genauer einer allgemeineren Aussage) ist konstruktiv allerdings ist das genaue Verhalten der Funktion R(k ) nicht bekannt außer für kleine k, gibt es lediglich Schranken, u.a. über Satz 3 Für k 4 ist R(k ) > k /. sei p = q = 1 für k 4 ist k! > k (Beweis per Induktion) daraus und aus den obigen Aussagen über stabile Mengen und Cliquen folgt für n k / : α(g) k = P ω(g) k = n k! 1 ( k ) n! k!(n k )! 1 k (k 1) < (n k / k ) 1 k (k 1) ( k / / k ) 1 k (k 1) k / = < 1 13 / 45 14 / 45 für n k / ist P α(g) k = P ω(g) k < 1 damit ist die Wahrscheinlichkeit, dass eines der Ereignisse eintritt, echt kleiner als 1 d.h. es existiert mindestens ein Graph auf n Knoten, der weder eine Clique noch eine stabile Menge der Größe jeweils k enthält. Gliederung informelle Einführung Zusammenhang mit den Ramsey-Zahlen Erwartungswerte Eigenschaften fast aller Graphen Schwellenfunktionen 15 / 45 16 / 45

jede Funktion, die einem Graphen einen nichtnegativen Wert zuordnet (chromatische Zahl, maximale Cliquengröße, Stabilitätszahl usw.) wird auf G(n, p) zu einer Zufallsvariablen: x : G(n, p) R +. Lemma 4 (Markov-Ungleichung) Sei x eine Zufallsvariable auf G(n, p) und t > 0. Dann gilt: P x t E (x )/t. der Erwartungswert E (x) = X G G(n,p) x (G)P(G) ist das mit der Wahrscheinlichkeit des Auftretens gewichtete Mittel der Zufallsvariablen der Erwartungswert ist linear, d.h. E (ax + by ) = ae(x ) + be(y ) der Erwartungswert ermöglicht es, Aussagen über das Verhalten von x abzuleiten Es ist: E(x) = X G G(n,p) X G G(n,p) x(g) t X G G(n,p) x(g) t = P x t x(g)p(g) x(g) P(G) P(G) t t. 17 / 45 18 / 45 Zur Veranschaulichung berechnen wir die erwartete Anzahl von Kreisen der Länge k in einem Graphen. Satz 5 Die mittlere Anzahl von Kreisen der Länge k in einem Graphen G G(n, p) ist n! E(x) = (n k )! k pk. sei C ein festgewählter Kreis der Länge k auf der Knotenmenge V sei x C die Zufallsvariable auf G(n, p) mit j 1, falls C G x C = 0, sonst dann ist E (x C ) die Wahrscheinlichkeit, dass C G, also E (x C ) = P C G = p k jeder Kreis wird durch eine Folge u 1,..., u k dargestellt davon gibt es n (n 1)... (n k + 1) = n! (n k )! viele davon stellen jeweils k den gleichen Kreis dar: `(u 1,..., u k ), (u,..., u k, u 1 ),... und die inversen Reihenfolgen die Zufallsvariable x ist die Summe der Zufallsvariablen x C somit folgt aus der Linearität: E (x) = E ( X C x C ) = X C E (x C ) = n! (n k )! k pk. 19 / 45 0 / 45

Im Folgenden wollen wir das Resultat von Erdös über Graphen mit großer Taillenweite und großer chromatischer Zahl diskutieren wenn wir p klein wählen: intuitiv scheint klar, dass ein zufällig erzeugter Graph mit hoher Wahrscheinlichkeit keine kleine Kreis haben wird wählen wir p groß: so werden nur selten große stabile Mengen erzeugt werden die Frage ist, ob wir einen Kompromiss für p finden, der beide Zahlen groß werden lässt unser Modell bleibt gültig, wenn wir p nicht konstant wählen, sondern z.b. als Funktion von n wir zeigen zuerst, dass, wenn p etwas langsamer fällt als 1, wir fast n sicher keine großen stabilen Mengen finden werden. Lemma 6 Sei k > 0 und p 6k ln n, so gilt n lim P α 1 n n/k = 0. folgt aus dem Lemma 1 und geeigneten Abschätzungen. 1 / 45 / 45 Satz 7 (Erdös) Zu jedem k N gibt es einen Graphen G mit Taillenweite g(g) > k und chromatischer Zahl χ(g) > k. für das vorgegebene k wähle ε so, dass 0 < ε < 1 k sei p = n ε 1 sei x(g) die Zufallsvariable, die jedem G G(n, p) die Anzahl seiner Kreise der Länge höchstens k zuordnet E (x) = kx i=3 n! p i 1 (n i)! i da np = n ε 1, folgt (np) i (np) k, und somit: E (x ) 1 kx n i p i i=3 kx n i p i 1 (k )nk p k, i=3 aus der Markov-Ungleichung 4 folgt weiter: P x n E (x )/( n ) nach Satz 5 gilt: (k )n k 1 p k E(x ) = kx i=3 n! p i 1 (n i)! i kx n i p i i=3 da k ε 1 < 0, folgt: = (k )n k 1 n (ε 1)k = (k )n k ε 1 lim n P x n = 0 3 / 45 4 / 45

lim x P n = 0. n damit und nach Lemma 6 können wir n so groß wählen, dass P x n < α 1 und P 1 n/k < 1 dann existiert eine Graph G G(n, p) mit α(g) < 1 n/k und mit weniger als n kurzen Kreisen sei H der Graph, der aus G entsteht, wenn wir aus jedem kurzen Kreis einen Knoten entfernen. Gliederung informelle Einführung Zusammenhang mit den Ramsey-Zahlen Erwartungswerte Eigenschaften fast aller Graphen Schwellenfunktionen dann hat H immer noch mindestens n kurzen Kreise mehr, d.h. g(h) > k Knoten, enthält aber keine weiter gilt nach Wahl von G: χ(h) H α(h) n/ α(g) > k. 5 / 45 6 / 45 Im folgenden betrachten wir Eigenschaften von Graphen eine Eigenschaft ist eine Teilmenge aller Graphen, die unter Isomorphie abgeschlossen ist d.h.: hat G die Eigenschaft, so auch jeder zu G isomorphe Graph wir wollen folgende Fragestellung untersuchen: gegeben eine Eigenschaft E gegeben eine Auswahlfunktion p(n) sei r (E, p, n) die Wahrscheinlichkeit, dass ein Graph die Eigenschaft hat wie verhält sich r (E, p, n) für n? wir sagen, dass: fast alle Graphen haben die Eigenschaft E, falls r (E, p, n) 1, fast kein Graph hat die Eigenschaft E, falls r (E, p, n) 0 Zur Illustration zeigen wir: jeder gegebene Graph taucht in fast allen Graphen als isomorphe Kopie eines induzierten Teilgraphen auf 7 / 45 8 / 45

Lemma 8 Sei H ein Graph und 0 < p < 1. Dann enthalten fast alle Graphen einen induzierten Teilgraphen, der isomorph zu H ist. sei k = V (H) sei U eine k -elementige Teilmenge der n Knoten eines G G(n, p) sei r > 0 die Wahrscheinlichkeit, dass G(U) isomorph zu H ist die Wahrscheinlichkeit, dass keine dieser Teilmengen eine isomorphe Kopie von H enthält, ist daher (1 r ) n/k damit folgt: P H ist nicht induzierter Teilgraph von G (1 r ) n/k n 0. wegen der Unabhängigkeit des Würfelns der Kanten, hängt diese Wahrscheinlichkeit nur von p ab, nicht aber von n G enthält n/k disjunkte k -elementige Teilmengen die Wahrscheinlichkeit, dass keine dieser Teilmengen eine isomorphe Kopie von H enthält, ist daher (1 r ) n/k 9 / 45 30 / 45 für i, j N sei T i,j die folgende Eigenschaft: der Graph enthält mindestens i + j Knoten für je zwei disjunkten Teilmengen U 1 und U mit U 1 i und U j gilt: es existiert ein Knoten v / (U 1 U ) mit: Lemma 9 v ist zu allen Knoten aus U 1 v ist zu keinem Knoten aus U benachbart benachbart. Sei 0 < p < 1 und i, j N. Dann hat fast jeder Graph die Eigenschaft T i,j. sei G G(n, p) seien U 1, U zwei Teilmengen von Knoten sei r die Wahrscheinlichkeit, dass ein gegebener Knoten v V (U 1 U ) zu allen Knoten aus U 1 und zu keinem Knoten aus benachbart ist U dann ist r = p U 1 q U wegen der Unabhängigkeit ist für n i + j somit die Wahrscheinlichkeit, dass im Restgraphen kein solcher Knoten existiert (1 p U 1 q U ) n U 1 U (1 p i q j ) n i j 31 / 45 3 / 45

wegen der Unabhängigkeit ist für n i + j somit die Wahrscheinlichkeit, dass im Restgraphen kein solcher Knoten existiert (1 p U 1 q U ) n U 1 U (1 p i q j ) n i j Korollar 10 Für 0 < p < 1 und k N ist fast jeder Graph k -zusammenhängend. es existieren höchstens ` n i+j n i+j disjunkte Teilmengen U 1, U die Wahrscheinlichkeit, dass darunter ein Paar ohne ein entsprechendes v ist, beträgt somit höchstens n i+j (1 p i q j ) n i j. Da 1 p i q j < 1, geht dieser Wert für n gegen 0. in V nach Lemma 9 reicht es zu zeigen, dass jeder Graph mit Eigenschaft T,k 1 k -zusammenhängend ist dies folgt aber aus dem Satz von Menger, da je zwei nichtbenachbarte Knoten von keiner Teilmenge U der Kardinalität k 1 getrennt werden können, denn sie haben immer noch einen gemeinsamen Nachbarn außerhalb von U. Wir haben sogar eine schärfere Aussage gezeigt: fast alle Graphen haben maximale Distanz zwei. Ebenso lässt sich zeigen, dass fast alle Graphen eine hohe chromatische Zahl in der Größenordnung von n/ log n haben. 33 / 45 34 / 45 sei t(n) eine Funktion und T eine Eigenschaft von Graphen Gliederung informelle Einführung Zusammenhang mit den Ramsey-Zahlen Erwartungswerte Eigenschaften fast aller Graphen Schwellenfunktionen t(n) heißt Schwellenfunktion für T, wenn gilt: p(n)/t(n) 0 = fast kein Graph hat die Eigenschaft T, p(n)/t(n) = fast alle Graphen haben Eigenschaft T wir beschränken uns im folgenden auf spezielle Eigenschaften T T heißt monoton, wenn sie bei Hinzufügen von Kanten erhalten bleibt wir wollen versuchen, für monotone Eigenschaften Schwellenfunktionen zu bestimmen 35 / 45 36 / 45

wir werden dabei für eine Zufallsvariable x mit den bisher bekannten Methoden das Ergebnis E (x ) ableiten können wir würden daraus gerne die Aussage P(x = 0) 0 ableiten obwohl dieser Schluss nahe liegt, ist er i.a. nicht richtig: Lemma 11 (Tschebyschev-Ungleichung) Für jedes reelle t > 0 gilt: P x E (x ) t h E (x E (x)) i /t. betrachte etwa P(x = 0) = 1/ und P(x = n) = 1/ der gewünschte Schluss ist jedoch möglich, wenn wir sicherstellen, dass die Werte sich nicht sehr weit vom Erwartungswert entfernen dazu betrachten wir zweite Momente, d.h. die Erwartung von x und die Varianz E h`x E (x) i aus der Markov-Ungleichung 4 folgt: P x E (x) t = P `x E (x ) t E h`x E(x) i /t. 37 / 45 38 / 45 Als Folgerung ergibt sich: Lemma 1 Gilt E(x )/E (x ) 1, so folgt P(x = 0) 0. für Graphen mit x(g) = 0 gilt x (G) E(x) = E (x ) somit folgt aus Lemma 11: P(x = 0) P x E (x ) E (x) E h`x E (x) i /E(x ) = E(x ) E (x) /E (x ) 0. Veranschaulichung des Konzeptes der Schwellenfunktion wir leiten eine Schranke dafür her, dass jeder Knoten mindestens einen Nachbarn hat dies ist etwas schwächer als den Zusammenhang zu fordern dafür trennen wir das Verhalten schärfer als bei den Schwellenfunktionen gefordert dazu einige Vorüberlegungen ohne ist p = c ln n/n für eine beliebige Konstante c, so folgt np (1/ + p/3 + p /4 +...) 0, für 1 x < 1 ist ln(1 x) = x x x 3 3..., ne np = n 1 c 39 / 45 40 / 45

Lemma 13 Sei p = c ln n/n für eine Konstante c > 1. Dann haben fast alle Graphen in G(n, p) keine isolierten Knoten. Lemma 14 Sei p = c ln n/n für eine Konstante c < 1. Dann haben fast alle Graphen in G(n, p) isolierte Knoten. sei x i die Indikatorfunktion, die anzeigt, ob der Knoten v i isoliert ist für c < 1 folgt aus den obigen Überlegungen E (x). sei x die Zufallsvariable der Anzahl der isolierten Knoten dann ist E (x) = P i E(x i ) = n(1 p) (n 1) mit den vorigen Bemerkungen folgt: (1 p) n = e n ln(1 p) = e np e np (1/+p/3+...) weiter folgt dann (1 p) n e np da (1 p) 1 1, ergibt sich E (x ) ne np aus den vorigen Bemerkungen ergibt sich E(x) n 1 c da c > 1, folgt E (x) 0. 41 / 45 wegen der Linearität des Erwartungswertes und der Eigenschaft xi = x i der Indikatorfunktionen, folgt E (x ) = P n i=1 E (x i ) + P i<j E(x i x j ) = E (x) + n(n 1)E(x i x j ). das Produkt x i x j ist wiederum eine Indikatorvariable, die genau dann den Wert 1 annimmt, wenn beide Knoten isoliert sind. damit ist E(x i x j ) = (1 p) n 3. da wie vorher (1 p) n e np, folgt E(x i x j ) e np. somit ergibt sich E (x ) E (x ) + E (x) und somit E (x )/E (x) 1. aus dem Lemma 1 folgt dann P(x = 0) 0. 4 / 45 Korollar 15 Die Funktion ln n/n ist eine Schwellenfunktion für das Verschwinden isolierter Knoten. mit ähnlichen Methoden lässt sich das folgende allgemeine Resultat zeigen. Als Folgerungen ergeben sich aus diesem Satz: Korollar 17 Für k 3 ist t(n) = 1/n eine Schwellenfunktion für das Auftreten eines Kreises der Länge k. Insbesondere ist die Schwellenfunktion unabhängig von k. dazu heiße ein Graph H ausgewogen, wenn der durchschnittliche Knotengrad in einem Teilgraphen nie größer ist als der von H. Damit treten ab der Kantenauswahlwahrscheinlichkeit 1/n bereits Kreise jeder konstanten Länge auf. Satz 16 Ist H ein ausgewogener Graph mit k Knoten und l Kanten, so ist k /l t(n) = n eine Schwellenfunktion für das Auftreten von H als Teilgraph. Korollar 18 k /(k 1) Ist T ein Baum auf k Knoten, so ist t(n) = n eine Schwellenfunktion für das Auftreten von T als Teilgraph. 43 / 45 44 / 45

Lässt man die Kantenwahrscheinlichkeit langsam anwachsen, so zeigt sich folgendes Verhalten: unterhalb von 1/n ab 1/n ab 1/n 3 hat fast jeder Graph nur isolierte Knoten, tauchen erste Kanten auf, die noch isoliert bleiben, hat fast jeder Graph Komponenten mit mehr als zwei Knoten, bei n (1+1/k ) haben die Graphen Bäume mit k + 1 Knoten, aber sind weiterhin kreisfrei. Für jedes k sind dies Schwellenfunktionen, die das Auftreten von Bäumen mit k + 1 Knoten von denen mit k + Knoten trennen, ab 1/n tauchen Kreise auf, mit wachsendem p erhalten die Kreise Sehnen, d.h. die Graphen sind nicht mehr planar. Eine der Komponenten schwillt an, bis bei ln n/n diese Komponente die anderen verschluckt und die Graphen zusammenhängend werden, danach hat für alle k jeder Knoten mindestens k Nachbarn. 45 / 45