DisMod-Repetitorium Tag 3
|
|
- Emilia Flater
- vor 5 Jahren
- Abrufe
Transkript
1 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018
2 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität Page-Rank und Zufallssurfer-Interpretation 2
3 Was ist eine Markov-Kette? Was gehört alles dazu? Markov-Kette Eine Markov-Kette (G,P) ist ein Tupel: G := (V, E) ein gerichteter Graph ohne Senke, also ohne Knoten mit Aus-Grad 0, und P eine stochastische Matrix (Übergangsmatrix) mit P ij = 0 (i, j) / E Die einzelnen Kanten geben Übergangswahrscheinlichkeiten an. Der Prozess startet mit einer bestimmten Startverteilung Ein Schritt in der Markov-Kette führt zu einer neuen Wahrscheinlichkeitsverteilung, die nur von der vorherigen Verteilung und der Übergangsmatrix abhängt.
4 Darstellung als Graph und als Matrix Wenn die Startverteilung am Anfang ( ) ist, also die gesamte Wahrscheinlichkeit in Knoten 3 konzentriert ist, ist die Verteilung nach einem Schritt ( )
5 Darstellung als Graph und als Matrix Ein Schritt in der Markov-Kette entspricht das Multiplizieren eines Verteilungsvektors σ mit der Übergangsmatrix P. k Schritte in der Markov-Kette entsprechen ((σ P) P) = σ P k Markov-Ketten beschrieben also Änderungen von Wahrscheinlichkeitsverteilungen in Form von einzelnen Schritten. Verteilungen haben Summe 1, und Übergangsmatrizen (stochastische Matrizen) Zeilensummen von 1! Da die Matrix P eine stochastische Matrix ist, ist das Vektor-Matrix-Produkts einer Verteilung mit der Übergangsmatrix auch wieder eine Verteilung.
6 Stationäre Verteilung und Grenzverteilung Stationäre Verteilung Eine Verteilung σ R n heißt stationär für die Markov-Kette (G, P) mit n Zuständen, wenn gilt: σ = σ P Grenzverteilung Sofern die Verteilung konvergiert, bezeichnet π ( ) die Grenzverteilung zu π: π ( ) := lim k π(k)
7 Irreduzibel und Aperiodisch Irreduzibel und Aperiodisch Ein gerichteter Graph G ist irreduzibel G ist stark zusammenhängend. Periode p eines Zustands i V ist der größtmögliche Wert durch den die Längen aller Wege von i nach i teilbar sind. Ein gerichteter Graph G ist aperiodisch Kein Zustand hat eine Periode p > 1.
8 Ergodizität Ergodizität Eine Markov-Kette (G, P) ist genau dann ergodisch, wenn G irreduzibel und aperiodisch ist. Der Hammer: Sei (G, P) eine ergodische Markov-Kette, dann existiert genau eine stationäre Verteilung σ = ( lim k (P k ) 1,1,..., lim k (P k ) 1,n ) Sofern die Kette (G, P) ergodisch ist, stehen in der Matrix lim k (P k ) in jeder Zeile die selben Einträge. Das führt dazu ist, dass die Anfangsverteilung egal ist: nach unendlich vielen Schritten kommen wir für eine beliebige Anfangsverteilung in die Grenzverteilung der Kette. Die Grenzverteilungen beim Start in verschiedenen Anfangsverteilungen sind identisch, und entsprechen alle einer stationären Verteilung!
9 Random Walk/Zufallssurfer-Interpretation Random Walk: starte an einem beliebigen Knoten, beuspielsweise der zweite Knoten. Setze also als Startverteilung den Vektor ( ) In jedem Schritt entscheidet sich der Zufallssurfer, der in dem Knoten v steht, für einen Nachbarknoten u mit Wahrscheinlichkeit P uv, also der Wahrscheinlichkeit, der der Kante (u, v) zugewiesen ist und die in der Spalte u und Zeile v in der Übergangsmatrix steht.
10 Random Walk/Zufallssurfer-Interpretation Die Frage In welchem Knoten befindet sich der Zufallssurfer gerade mit welcher Wahrscheinlichkeit? entspricht der Frage nach der aktuellen Wahrscheinlichkeitsverteilung σ, und ein Schritt des Zufallssurfers verändert die Wahrscheinlichkeitsverteilung ebenfalls mit. σ = σp Nach k Schritten gibt die Wahrscheinlichkeitsverteilung σ (k) = σ (0) P k an, in welchem Knoten sich der Zufallssufer wie wahrscheinlich aufhält.
11 Page-Rank Idee: Modell des Internets als ergodische Markovkette mit einem unendlich oft klickenden Zufallssurfer Einführen eines gegebenen Dämpfungsfaktors 0 d < 1, um die Markov-Kette ergodisch zu machen. Der ursprüngliche Webgraph (oft gegeben) wird zu einer ergodischen Markov-Kette transformiert, siehe nächste Folie. Oft auch eine Aufgabe: Wie sieht der Webgraph für diese gegebene Markov-Kette aus? In jedem Schritt entscheidet sich der Zufallssurfer mit Wahrscheinlichkeit 1 d das Springen zu irgendeinem anderen Knoten, mit Wahrscheinlichkeit d verwendet er einen Link des ursprünglichen Webgraphen.
12 Page-Rank Übergangsmatrix P := P d (G) mit P ij := { 1 d n + d a i, falls (i, j) E, falls (i, j) / E 1 d n Der Page-Rank einer Seite j ist PR j := 1 d n + d i Vor G (j) PR i a i (die Wahrscheinlichkeit nach unendlich vielen Schritten auf der Seite j zu landen; Formel gemäß dem Satz von der totalen Wahrscheinlichkeit)
13 Page-Rank Wie berechnet man den Page-Rank? Einfach mit Stift und Papier: Löse das Gleichungssystem PR j := 1 d n + d i Vor G (j) PR i a i Damit erhält man eine stationäre Verteilung für die Web-Kette. Einfach für Computer und Menschen mit Zugang zu diesen: Die Markov-Kette Web-Kette (definiert durch die Übergangsmatrix P d (G)) ist ergodisch. Deshalb genügt es, die k-te Potenz von P d (G) für ein genügend großes k zu berechnen; die so erhaltene Grenzverteilung entspricht immer der stationären Verteilung, die man mit der ersten Methode erhält.
14 Aufgabe: Modellierung von Markov-Ketten
15 Aufgabe: Induktionen über Markov-Ketten Ist diese Markov-Kette ergodisch? Wenn ja, warum, wenn nein, warum nicht? Berechnen sie eine stationäre Verteilung der Markov-Kette aus der letzten Aufgabe.
16 Aufgabe: Irreduzibel und/oder aperiodisch?
17 Aufgabe: Induktionen über Markov-Ketten M = (G, P) Stellen Sie die Übergangsmatrix P auf. Die Markov-Kette beginne mit der Verteilung X (0) = ( 4 5, 1 5). Zeigen Sie mithilfe vollständiger Induktion, dass für alle k N gilt: Die Markov-Kette M besitzt nach k Schritten die Verteilung ( 1 X (k) = 5 (3 + 6 k ), 1 ) 5 (2 6 k ) Bestimmen sie alle stationären Verteilungen der Markov-Kette M.
18 Aufgabe: Stationäre Verteilungen mit Parameter
19 Aufgabe: Web-Graph 1
20 Aufgabe: Web-Graph 2
Randomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrMarkov-Ketten und Google s Page-Rank 1 / 70
Markov-Ketten und Google s Page-Rank 1 / 70 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort
MehrSuchmaschinen und Markov-Ketten 1 / 42
Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder
MehrMarkov-Ketten und Google s Page-Rank 1 / 70
Markov-Ketten und Google s Page-Rank 1 / 70 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrEigenwerte und Netzwerkanalyse. Page Rank
A Google versucht die Bedeutung von Webseiten mithilfe des sogenannten zu ermitteln. Der einer Seite basiert ausschließlich auf der Verweisstruktur des Webs. Der Inhalt einer Seite hat dagegen keinen direkten
MehrKapitel 12: Markov-Ketten
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 206 Lineare Algebra und analytische Geometrie II Vorlesung 54 Stochastische Matrizen Definition 54.. Eine reelle quadratische Matrix M a ij i,j n heißt spaltenstochastisch,
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrVorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1
Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrBa-Wü: BG Neuer Lehrplan Mathematik Modul-5: Prozesse Teil 3a: stochastische Übergangsprozesse. Februar und März
Ba-Wü: BG Neuer Lehrplan Mathematik Modul-5: Prozesse Teil 3a: stochastische Übergangsprozesse Februar und März 216 1 Stoffverteilungsplan 1 Woche Inhalte 1 + 2 Einstufige Prozesse Darstellung mit Tabellen,
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrVorlesung Big Data Analytics in Theorie und Praxis Theorieteil
Vorlesung Big Data Analytics in Theorie und Praxis Theorieteil Prof. Dr. Nicole Schweikardt Lehrstuhl Logik in der Informatik Institut für Informatik Humboldt-Universität zu Berlin Kapitel 1: PageRank:
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrAllgemeine Hinweise. (a) Bereiten Sie sich durch aktives Lernen auf die Klausur vor.
Allgemeine Hinweise (a) Bereiten Sie sich durch aktives Lernen auf die Klausur vor. Bearbeiten Sie Übungsaufgaben, für die Sie wenige Punkte erhalten haben, andere Aufgaben aus dem Skript oder aus Textbüchern.
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrMatrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1
Nicht nur eine Matrix, sondern viele Matrizen 0,5 0,2 0,3 A 0,2 0,7 0,1 015 0,15 0,75 075 0,1 01 aber keine Matrize und auch keine Matratzen 1 Wie beschreibt man Prozesse? Makov-Modell Modell Markov- Prozess
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrW-Rechnung und Statistik für Ingenieure Übung 11
W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur
MehrBonus Malus Systeme und Markov Ketten
/ 5 onus Malus Systeme und Markov Ketten Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden 6. Dresdner Kolloquium zur Mathematik und ihrer Didaktik 8. Februar 2 2 /
MehrDas Pagerank-Verfahren (und Markovketten) 16. Dezember 2013
Das Pagerank-Verfahren (und Markovketten) 16. Dezember 2013 Gegeben: Eine Sammlung von N Web-Seiten, die (teilweise) { untereinander verlinkt sind. 1 wenn Seite i auf Seite j verweist Sei L ij = 0 sonst
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
Mehr5 Suchmaschinen Page Rank. Page Rank. Information Retrieval und Text Mining FH Bonn-Rhein-Sieg, SS Suchmaschinen Page Rank
Page Rank Google versucht die Bedeutung von Seiten durch den sogenannten Page Rank zu ermitteln. A C Page Rank basiert auf der Verweisstruktur des Webs. Das Web wird als großer gerichteter Graph betrachtet.
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrSeminar über Markovketten
Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten
MehrStochastische Prozesse. Woche 5
FS 2016 Stochastische Prozesse Woche 5 Aufgabe 1 PageRank-Algorithmus von Google Das Herz der Google-Suchmaschine ist ein Algorithmus, der alle Dokumente des WWW nach ihrer Wichtigkeit anordnet. Die Auflistung
MehrAbitur Matrizen und Prozesse (Teil 4 mit Hilfsmittel) Musteraufgaben Lösung A1 1.1 Übergangsmatrix Die Übergangsmatrix lautet (vgl.
Lösung A1 1.1 Übergangsmatrix Die Übergangsmatrix lautet (vgl. Diagramm): 0,4 0,2 0,1 0,5 0,7 0,5 0,4 0,1 0,1 0,4 0,2 0,1 0,5 0,1 0,7 0,4 Verteilung der Haushalte im Jahr 2015 Stand 2014: 1000 Haushalte
MehrBig Data Analytics in Theorie und Praxis Theorieteil
Big Data Analytics in Theorie und Praxis Theorieteil Vorlesung entspricht 2V+1Ü SWS) Prof. Dr. Nicole Schweikardt Lehrstuhl Logik in der Informatik Institut für Informatik Humboldt-Universität zu Berlin
MehrDynaTraffic Lösungen Einstiegsaufgaben
DynaTraffic Lösungen Einstiegsaufgaben 1. Interpretation von Verkehrssituation und Übergangsgraph a) Die Übergangswahrscheinlichkeit P(A,B)=0.1 bedeutet für ein Auto, das sich auf Spur A befindet, dass
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
Mehr8 Markov-Kette mit kontinuierlicher Zeit
8 Markov-Kette mit kontinuierlicher Zeit In den vorhergehenden Kapiteln haben wir Markov-Ketten behandelt, bei denen die Zustandsänderungen in diskreten, äquidistanten Zeitpunkten stattfanden. In weiteren
MehrModellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)
Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment
MehrGambler s Ruin. B ist die Bank ) 4/40
Gambler s Ruin Zwei Spieler A und B spielen ein Spiel um m Franken. Spieler A hat a Franken, Spieler B hat b = m a Franken. In jeder Runde wird um 1 Franken gespielt. A gewinnt eine Runde mit W keit p,
Mehr80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten
80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren
MehrSuchmaschinen und Markov-Ketten 1 / 42
Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrEinführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer
Name: Mat.Nr.: Bitte keinen Rotstift oder Bleistift verwenden! 105.59 Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer (Dauer 90 Minuten,
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrBedingt unabhängige Zufallsvariablen
7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X
MehrDie Mathematik hinter Google
Die Mathematik hinter Google Wolfram Decker TU Kaiserslautern Neustadt, 5. Dezember 05 Elemente einer Suchmaschine WWW Crawler Module Page Repository User query independent Indexing Module 000 000 000
MehrAnalytische Geometrie
Der fx-991 DE X im Mathematik- Unterricht Analytische Geometrie Station 1 Schnittgerade zweier Ebenen Da der Taschenrechner nur eindeutige Lösungen eines Gleichungssystems liefert, kann er nur Schnittpunkte
MehrDIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung
Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf
MehrWahrscheinlichkeits-Modelle. Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle. und stochastische Prozesse. (mit Folien von Prof. H.
Wahrscheinlichkeits-Modelle Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr Zufalls-Experiment Ein Zufalls-Experiment
MehrEndliche Markov-Ketten
Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2
MehrVorstellung der Kopplung bei Markovketten
Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen
MehrBig Data Analytics in Theorie und Praxis Theorieteil
Big Data Analytics in Theorie und Praxis Theorieteil Vorlesung (entspricht 2V+1Ü SWS) Prof. Dr. Nicole Schweikardt Lehrstuhl Logik in der Informatik Institut für Informatik Humboldt-Universität zu Berlin
MehrD 1 D 2 D 3 D 4 D 5... D m S S S S n
Page-Rank Wir wollte in einem Corpus von Texten, wie z.b. Bücher, Webseiten, Anleitung usw., nach bestimmten Inhalten aus einer Menge von Schlüsselworten suchen Sei S = {S,S,...,S n,s n } eine eine alphabeitsch
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10
D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrLineare Algebra (Zentralabitur 2009: Abibienen) (knappe Lösung)
Lineare lgebra (Zentralabitur 2009: bibienen) (knappe Lösung) bibienen Ein aus den fleißigen Bienen mutierter Insektenstamm, die nachtaktiven bibienen", wurde im Jahr 2009 auf der Insel Bremensia" über
MehrStochastische Prozesse Einführung
Stochastische Prozesse Einführung Der Kurs wird in 2 Gruppen aufgeteilt siehe Excel-Blatt, z.b. A = 2 und B = 20, und es werden die Wechsel-Anteile festgelegt: Pro Takt wechseln z.b. 4 von A nach B und
Mehrdie Relevanz von Webseiten bestimmt Alexander Pohl
Wie die Relevanz von Webseiten bestimmt Alexander Pohl Gliederung 1. Einleitung 2. Das Web als Graph 3. Das Random Surfer Modell 4. Gleichgewicht im Random Surfer Modell (?) 5. Vervollständigung des Modells:
Mehr10 Schnell mischende Markov-Ketten
10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil
MehrHans Humenberger. Das PageRank-System von Google eine aktuelle Anwendung im MU
Hans Humenberger Das PageRank-System von Google eine aktuelle Anwendung im MU Google und seine Gründer Google etwas Riesengroßes nach der unglaublichen Fülle des WWW Googol = 10^100 1938 durch E. Kasner
MehrKapitel 5 Erneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt
Mehr{ } Markov Ketten { ( ) ( ) } ( ) X Zeitdiskret Wertdiskret (diskrete Zustände) Markov Kette N ter Ordnung: Statistische Aussagen über den
Markov Ketten Markov Ketten X i Stochastischer Prozess X Zeitdiskret Wertdiskret (diskrete Zustände) Markov Kette N ter Ordnung: Statistische Aussagen üer den aktuellenzustand können auf der Basisder Kenntnis
MehrFür die Matrikelnummer M = Dann sind durch A =
Musterlösung zum. Blatt 9. Aufgabe: Gegeben seien m 3 + 2 m m 3 m 2 m 4 + m 7 m 3 A := m m 2 m 2 + 2 m 2 m 4 + m 5 und b := m 6 m 4 + a) Finden Sie eine Lösung x R 7 für die Gleichung Ax =. b) Finden Sie
Mehr7 Markov-Ketten. 7.1 Grundlegendes zu Markov-Ketten
58 7 Markov-Ketten 7. Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke
ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis
Mehr9 Schnell mischende Markov-Ketten
9 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil
MehrStochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
MehrAbschlussprüfung StoP FS 2014
Abschlussprüfung StoP FS 2014 17. Juni 2014 Name: Klasse: Erlaubte Hilfsmittel: Open-book: Aufschriebe, Bücher, Ausdrucke usw. auf Papier aber keine Dateien wie pdfs. Auf dem Bildschirm darf nur RStudio
MehrStudiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.
Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:
MehrSeminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.
Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität
MehrDiskrete Modellierung
Diskrete Modellierung Wintersemester 2013/14 Prof. Dr. Isolde Adler Letzte Vorlesung: Korrespondenz zwischen der Page-Rank-Eigenschaft und Eigenvektoren zum Eigenwert 1 der Page-Rank-Matrix Markov-Ketten
MehrMathematik für Wirtschaftswissenschaftler, SS 2010 Musterlösungen zu Aufgabenblatt 11
Mathematik für Wirtschaftswissenschaftler, SS 00 Musterlösungen zu Aufgabenblatt Aufgabe 77: Die Matrix A R sei darstellbar als A U D U mit 0 0 U, D 0 0. a) Verifizieren Sie, dass U eine orthogonale Matrix
Mehr2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
Mehr2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse
2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
MehrUntersuchung stochastischer Matrizen mit DERIVE
Untersuchung stochastischer Matrizen mit DERIVE von Gregor Noll V a 0,1 V 1 0,1 V 2 1 0,9 0,9 0 0,3 0,3 P a 0,7 P 1 0,7 P 2 Gregor Noll: Untersuchung stochastischer Matrizen mit Derive 2 Die Mathematiklehrerin
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrB =(b1,1. + b 1,2. + b 1,3 1,3. + b 2,4 + b 3,1. + b 2,2. + b 2,3. + b 3,2. + b 3,3
Matrizen Matrizen sind zunächst einmal einfach eine rechteckige Anordnung von Zahlen, Elementen oder mathematischen Operationen, die lineare Zusammenhänge zwischen verschiedenen Größen übersichtlich darstellen.
Mehr2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
MehrEffiziente Methoden Für Die Berechnung Von Aminosäure Ersetzungsraten
Seminar - Aktuelle Themen der Bioinformatik Tobias Gontermann Johann Wolfgang Goethe-Universität Frankfurt a. M. 12 Juli 2007 1/46 Worum geht es? Berechung von Ratenmatritzen Q Wofür ist das gut? Modellierung
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrPopulationsentwicklung
Populationsentwicklung Lewis (942) und Leslie (945) entwickelten ein Modell, mit dem die Entwicklung einer Population unter Einbeziehung der Altersstruktur untersucht werden kann. Die Population wird z.b.
MehrMathematik für Studierende der Biologie und des Lehramtes Chemie
Einführung I Mathematik für Studierende der Biologie und des Lehramtes Chemie Dominik Schillo Universität des Saarlandes 007 (Stand: 007, 4:9 Uhr) Wie viel Kilogramm Salzsäure der Konzentration % muss
Mehr