Deeper Inside PageRank

Ähnliche Dokumente
Das Prinzip der Suchmaschine Google TM

die Relevanz von Webseiten bestimmt Alexander Pohl

Die Mathematik hinter Google

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Endliche Markov-Ketten - eine Übersicht

Die Mathematik hinter Google

Eigenwerte und Netzwerkanalyse. Page Rank

DisMod-Repetitorium Tag 3

Algorithmische Methoden zur Netzwerkanalyse

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Übungsblatt 1- Lösung

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

37 Gauß-Algorithmus und lineare Gleichungssysteme

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Angewandte Stochastik

4.6 Berechnung von Eigenwerten

Randomisierte Algorithmen

Ranking Functions im Web: PageRank & HITS

5 Suchmaschinen Page Rank. Page Rank. Information Retrieval und Text Mining FH Bonn-Rhein-Sieg, SS Suchmaschinen Page Rank

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Algorithmische Methoden zur Netzwerkanalyse

Lineare Gleichungssysteme

Klausurenkurs zum Staatsexamen (WS 2014/15): Lineare Algebra und analytische Geometrie 1

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 1

Thema 8: Verbesserte Suchstrategien im WWW. Bearbeiter: Robert Barsch Betreuer: Dr. Oliver Ernst

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

Einführung in Markoff-Ketten

Der Ergodensatz. Hendrik Hülsbusch

9 Lineare Gleichungssysteme

Lineare Algebra und analytische Geometrie II

Markov-Ketten 1. Definition 2.1

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Mathematik für Naturwissenschaftler II SS 2010

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Gleichungssysteme

Diskrete Modellierung

Das Pagerank-Verfahren (und Markovketten) 16. Dezember 2013

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

3 Konstruktion einer f.s. konvergente Folge

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

Vorlesung Big Data Analytics in Theorie und Praxis Theorieteil

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Algorithmische Methoden zur Netzwerkanalyse

Mathematik II Frühjahrssemester 2013

2.3 Basis und Dimension

3 Matrizenrechnung. 3. November

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung: Woche vom (Lin.Alg.

Lineare Algebra und Numerische Mathematik für D-BAUG

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Algorithmische Methoden zur Netzwerkanalyse

Lineare Gleichungssysteme

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

KAPITEL 1. Einleitung

Lösung Test 2 (Nachprüfung)

Eigenwerte und Eigenvektoren

Spezielle Matrixformen

3 Systeme linearer Gleichungen

8.2 Invertierbare Matrizen

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Mathematik I+II Frühlingsemester 2019 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren von Matrizen

Matrizen, Determinanten, lineare Gleichungssysteme

5 Eigenwerte und die Jordansche Normalform

LANGZEITVERHALTEN VON MARKOW-KETTEN

Numerische Methoden der Elektrotechnik

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1

Kapitel 11 Eigenwerte und Eigenvektoren

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

05. Lineare Gleichungssysteme

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Kapitel 9: Lineare Gleichungssysteme

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Klausur DI/LA F 2006 LA : 1

Lösbarkeit linearer Gleichungssysteme

5 Lineare Gleichungssysteme und Determinanten

Numerik für Informatiker und Bioinformatiker. Daniel Weiß

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

β 1 x :=., und b :=. K n β m

D 1 D 2 D 3 D 4 D 5... D m S S S S n

Zulassungsprüfung in Mathematik

Mathematik für Naturwissenschaftler II SS 2010

Der Metropolis-Hastings Algorithmus

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

LANGZEITVERHALTEN VON MARKOW-KETTEN

5 Eigenwerte und die Jordansche Normalform

2.5 Gauß-Jordan-Verfahren

Hans Humenberger. Das PageRank-System von Google eine aktuelle Anwendung im MU

Transkript:

Deeper Inside PageRank Amy. N. Langville & Carl D. Meyer Ausarbeitung zum Seminar Moderne Anwendungen der Theorie der Markov-Ketten Tim Massel Juli 2016 Betreuer: Betreuer: Prof. Dr. Wolfgang König Priv. Doz. Dr. Konstantin Fackeldey

Einleitung Die vorliegende Arbeit wurde im Rahmen des Seminars Moderne Anwendungen der Theorie der Markov-Ketten im Sommersemester 2016 an der Technischen Universität Berlin verfasst. Diese Ausarbeitung ist Teil eines dreiteiligen Themenkomplexes. In einem ersten Teil wurde die mathematische Grundlage in der Perron-Frobenius-Theorie gelegt. Die daraus hergeleiteten Resultate werden hier vorausgesetzt. Der vorliegende zweite Teil stellt eine Zusammenfassung ausgewählter Themen des Papers Deeper Inside PageRank [4] bereit. In einem dritten Teil werden diese noch vertieft und ergänzt. Das Originalpaper Deeper Inside PageRank beschäftigt sich umfassend mit der Modellierung des Internets durch Übergangsgraphen und den daraus resultierenden Übergangsmatrizen. Es knüpft an den Ideen der beiden Google-Gründer Sergey Brin und Larry Page an, die sich mit der Frage beschäftigten, wie jeder Seite des Netzes eine bestimmte Wichtigkeit zugeordnet werden kann, um diese in einer Suchmaschine verwenden zu können. Um ein solches Ranking zu erhalten, stelle man sich das Surfverhalten eines Internetnutzers zufällig vor. Es stellt sich nun die Frage: mit welcher Wahrscheinlichkeit befinde man sich nach "langem" Surfen auf einer beliebigen Seite i. Gelingt es diese Wahrscheinlichkeiten eindeutig zu ermitteln, so lassen sie sich in dem stochastischen Vektor π T zusammenfassen - dem PageRank-Vektor. Ausgehend von der Frage unter welchen Voraussetzungen nun dieses π T existiert und eindeutig ist, werden in dieser Arbeit zwei Lösungsstrategien zur Berechnung des gewünschten PageRank-Vektors vorgestellt. Die mathematische Theorie geht auf Perron und Frobenius zurück, die die Existenz und Eindeutigkeit der sog. stationären Verteilung gewährleistet, sobald die betrachtete Übergangsmatrix, die das zufällige Surfverhalten beschreibt, primitiv ist. Primitivität ist dadurch charakterisiert, dass Irreduzibilität und Aperiodizität vorliegen. Um Missverständnissen in der Notation vorzubeugen, sei darauf hingewiesen, dass wir für eine positive (bzw. nicht-negative) Matrix A die Symbolik A > 0 (bzw. A 0) verwenden. Zunächst widmen wir uns der Modellierung des Netzes und dem damit verbundenen zufälligen Surfen. Wir benötigen also alle Wahrscheinlichkeiten, um von einer beliebigen Seite i auf eine Seite j zu gelangen. Diese Informationen werden wir in einer Übergangsmatrix G zusammenfassen - der Google-Matrix. Genügt die Google-Matrix nun den Voraussetzungen (Primitivität) der Perron-Frobenius-Theorie, so bekommen wir mit der Potenzmethode automatisch ein Verfahren an die Hand, mit der wir unsere Lösung approximativ bestimmen können. Die Konvergenzgeschwindigkeit dieser Methode ist ausreichend studiert und hängt von den beiden dominanten Eigenwerten der primitiven Matrix ab. Wir werden hier einen Beweis vorstellen, der das gesamte Spektrum der Google-Matrix charakterisiert und damit Aussagen über die Konvergenzgeschwindigkeit macht. In dem letzten Abschnitt beschäftigen wir uns dann noch mit einem weiteren Lösungsverfahren zur Bestimmung von π T. Wir formulieren unser Problem als ein lineares Gleichungssystem und wollen dieses effizienter Lösen als mit den üblichen Verfahren. Unter Ausnutzung der Linkstruktur wird es genügen ein wesentlich kleineres LGS zu lösen, sodass wir bei der Implementierung einen großen Teil an Rechenschritten einsparen können. 1

Das Modell Die beiden Stanford-Studenten Sergey Brin und Larry Page beschäftigten sich seit dem Jahr 1995 mit dem Problem jeder Internetseite eine eindeutige Wichtigkeit zuzuordnen, damit bei einer benutzerfreundlichen Suchabfrage die Ergebnisse nach Prioritäten vorsortiert werden können. Dabei soll eine Seite besonders wichtig sein, wenn viele Seiten auf diese verweisen. Darüber hinaus sollen Links von wichtigen Seiten höheren Einfluss haben als Links von unwichtigeren. Diese sehr simple, aber durchaus nachvollziehbare Überlegung, bildet den Grundstein für alle weiteren Modellierungen. Die Konstruktion der Google-Matrix Die Idee war das Netz durch einen Übergangsgraphen zu repräsentieren, bei dem jeder Knoten einer Internetseite entspricht und eine gerichtete Kante (i, j) existieren soll, wenn ein Link von der Seite i auf die Seite j verweist. Exemplarisch sei folgendes kleines Internet gegeben: 1 2 6 3 5 4 Das Surfverhalten eines jeden Nutzers wird nun durch einen zufälligen Web-Surfer simuliert. D.h. ausgehend von einer Startseite (z.b. Seite 1) entscheidet sich dieser zufällige Web-Surfer gleichwahrscheinlich für einen der ausgehenden Links. Auf der neu erreichten Seite fährt er mit diesem Verfahren gedächtnislos (also unabhängig davon wie er auf diese Seite gelangt ist) fort und entscheidet sich erneut gleichwahrscheinlich für einen der ausgehenden Links. Die Idee dahinter ist, dass auf lange Sicht jede Seite eine bestimmte Wahrscheinlichkeit erhält, mit der sich ein Internetnutzer auf ihr befindet. Die Informationen der Linkstruktur können äquivalent in der Hyperlinkmatrix H zusammengefasst werden: 0 1/2 1/2 0 0 0 0 0 0 0 0 0 H = 1/3 1/3 0 0 1/3 0 0 0 0 0 1/2 1/2. 0 0 0 1/2 0 1/2 0 0 0 1 0 0 2

Hier wird ein Problem deutlich: bei der zweiten Zeile handelt es sich um eine Nullzeile. Diese resultiert aus der Tatsache, dass von der Seite 2 keine Links wegführen und damit der repräsentierende Knoten einen Outdegree von 0 hat. Solche Knoten werden als dangling nodes bezeichnet und existieren im Internet zu einem hohen Anteil. Jedes Bild, Video oder jede PDF-Datei, die keine ausgehenden Links haben, gehören zu der Klasse der dangling nodes. Die Matrix H ist damit nicht stochastisch, was aber eine begehrenswerte Eigenschaft darstellt, wenn im Zusammenhang mit Markov-Ketten gearbeitet werden soll. Man behilft sich hier der Tatsache, dass praktisches Suchverhalten nicht durch das Erreichen eines dangling nodes beendet wird. Internetnutzer haben beispielsweise die Möglichkeit in der URL-Zeile eine beliebige Internetadresse einzugeben und somit zu jeder beliebigen Seite des Netzes zu springen, wenn man an einem dangling node angekommen ist. Die Wahrscheinlichkeit v i > 0 bezeichne die Wahrscheinlichkeit dann auf die Seite i zu springen. Der Zeilenvektor v T fasst alle v i zusammen, sodass eine neue Matrix U konstruiert werden kann: 0 1/2 1/2 0 0 0 v 1 v 2 v 3 v 4 v 5 v 6 U = 1/3 1/3 0 0 1/3 0 0 0 0 0 1/2 1/2 = H + av T. 0 0 0 1/2 0 1/2 0 0 0 1 0 0 Dabei stellt a einen Indikatorvektor dar, d.h. 1, i dangling node a i = 0, sonst. Damit werden Nullzeilen durch v T ersetzt und die resultierende Übergangsmatrix U ist nun stochastisch. Der Satz von Perron-Frobenius kann aber nicht angewendet werden, da die Matrix U i.a. nicht irreduzibel ist. Die Knoten {4, 5, 6} bilden in diesem Beispiel eine abgeschlossene Menge, also einen reduziblen Subgraphen. Beholfen wird sich hier aber mit einem einfachen ebenfalls praktischen Trick: das Surfverhalten eines Internetnutzers hängt zwar sehr stark von der Linkstruktur (in U) ab, doch die Möglichkeit in der URL-Zeile eine beliebige Internetadresse einzugeben besteht jederzeit (man muss sich nicht an einem dangling node befinden). Der Lösungsansatz lautet damit wie folgt: (i) mit Wahrscheinlichkeit α (0, 1) folge man der Linkstrukur in U, (ii) mit Wahrscheinlichkeit 1 α springe man zu einer beliebigen Seite. Mit welcher Wahrscheinlichkeit man im Fall (ii) dann auf die einzelnen Seiten springt, soll ebenfalls mit der Verteilung v T beschrieben werden. Dies führt uns letztlich zur Konstruktion der Google-Matrix G = αu + (1 α)ev T. Mit e = (1,..., 1) T werde der Einsvektor bezeichnet. Setzen wir α beispielsweise auf 0.9, so erhalten wir die Matrix 3

Die Potenzmethode 1/60 7/15 7/15 1/60 1/60 1/60 1/6 1/6 1/6 1/6 1/6 1/6 G = 19/60 19/60 1/60 1/60 19/60 1/60 1/60 1/60 1/60 1/60 7/15 7/15. 1/60 1/60 1/60 7/15 1/60 7/15 1/60 1/60 1/60 11/12 1/60 1/60 Die Google-Matrix ist nach Konstruktion eine positive Matrix, sodass der Satz von Perron auf diese anwendbar ist. Konkret bedeutet dies, dass das Eigenvektorproblem π T = π T G eine (bis auf Skalierung) eindeutige positive Lösung hat. Durch Normierung erhalten wir einen stochastischen Vektor, der damit eindeutig die Wahrscheinlichkeiten zusammenfasst, mit der sich ein zufälliger Web-Surfer nach langem Surfen auf einer beliebigen Seite befindet. Je höher diese Wahrscheinlichkeit nun für eine Seite i ist, desto höher soll auch deren Ranking ausfallen. Daher werde π T auch als PageRank-Vektor bezeichnet. Die Potenzmethode liefert uns nun zusätzlich eine Möglichkeit diese Lösung näherungsweise zu bestimmen. Für jede Startverteilung π (0) konvergiert das rekursive Schema π (k)t = π (k 1)T G gegen die stationäre Verteilung π T. Die Konvergenzgeschwindigkeit dieser Methode hängt von den beiden dominanten Eigenwerten λ 1 und λ 2 der Google-Matrix G ab. Diese ist stochastisch und hat daher den Eigenwert λ 1 = 1. Da es sich bei G aber zusätzlich um eine positive Matrix handelt, folgt mit dem Satz von Perron, dass der subdominante Eigenwert λ 2 < 1 sein muss. Damit gilt für eine Konstante c R + π (k)t π T c λ 2 λ 1 k = c λ 2 k. Automatisch sind wir daran interessiert wie die Eigenwerte der Google-Matrix (insbesondere natürlich λ 2 ) aussehen. Das folgende Theorem liefert eine sehr umfassende Antwort. Theorem Sei σ(u) = {1, µ 2,..., µ n } das Spektrum der stochastischen Matrix U, dann ist das Spektrum der Google-Matrix G = αu + (1 α)ev T gegeben durch σ(g) = {1, αµ 2,..., αµ n }. Beweis. Da U eine stochastische Matrix ist, hat sie (1, e) als Eigenpaar. Wir möchten eine Ähnlichkeitstransformation durchführen, benötigen also eine invertierbare Matrix Ihre Inverse sei gegeben durch Q = ( e X ) R n,n. 4

( ) y Q 1 T = Y T. Wir erhalten aus der Identität ( y I = Q 1 Q = T ) e 0 Y T e Y T X die beiden für uns nützlichen Gleichungen (i) y T e = 1 und (ii) Y T e = 0. Wenden wir nun die Transformation auf die stochastische Matrix U an, so erhalten wir ( y Q 1 UQ = T ) ( Ue y Y T Ue Y T = T ) ( ) e 1 UX Y T e Y T = UX 0 Y T, UX wobei uns die mit gekennzeichneten Blöcke nicht interessieren. Da die resultierende Matrix obere Blockdreiecksgestalt hat und die Eigenwerte unverändert bleiben, folgt σ(y T UX) = {µ 2,..., µ n }. Wir sind aber an den Eigenwerten der Google-Matrix interessiert und wenden deshalb die gleiche Transformation auf G an. Mit der Eigenschaft v T e = 1 des stochastischen Vektors v T ergibt sich Q 1 GQ = Q 1 (αu + (1 α)ev T )Q = αq 1 UQ + (1 α)q 1 ev T Q ( ) ( α y = 0 αy T + (1 α) T ) e (v UX Y T e T e ) ( ) ( ) α 1 = 0 αy T + (1 α) UX 0 0 ( ) 1 = 0 αy T. UX Dies bewirkt, dass sich die Eigenwerte von G zusammensetzen aus σ(g) = {1} σ(αy T UX) = {1} ασ(y T UX) = {1, αµ 2,..., αµ n }. Mit diesem Resultat stellen wir fest, dass die Konvergenzgeschwindigkeit der Potenzmethode maßgeblich von der Wahl des Parameters α abhängt, denn es gilt λ 2 λ 1 k = αµ 2 1 k = α k µ 2 k α k 0. 5

Die Wahl des Parameters α ist also von entscheidender Bedeutung. Eine schnelle Konvergenz (α nahe bei 0) spiegelt das tatsächliche Surfverhalten nicht gut wieder, da keine Relevanz auf die eigentliche Linkstruktur mehr gelegt wird. Wählt man dagegen α nahe bei 1, so wird ein befriedigendes Resultat mit der Potenzmethode erst nach unzähligen Iterationen zu erwarten sein. Gerade bei riesigen Datenmengen (der Google-Index von 2016: 60,000,000,000,000; d.h. umfasst über 60 Billionen Seiten) ist dies nicht wünschenswert. Zur geschickten Implementierung der Potenzmethode und zu weiteren Problemen, die bei der Wahl des α auftreten (Sensitivität) siehe den dritten Teil des Themenkomplexes. 2. Lösungsansatz: Lineares Gleichungssystem Wir interessieren uns neben der Potenzmethode für weitere Strategien den PageRank-Vektor π T zu bestimmen. Aus der ursprünglichen Gleichung π T = π T G = π T (αu + (1 α)ev T ) erhalten wir nach Umformung das lineare Gleichungssystem π T (I αu) = (1 α)v T. Da das Lösen eines linearen Gleichungssystems kubischer Komplexität (O(n 3 )) und unser n = 60 10 12 gigantisch ist, sind wir in diesem Abschnitt daran interessiert, wie wir eine effizientere Lösungsstrategie formulieren können. Zunächst untersuchen wir die Matrix (I αu) auf nützliche Eigenschaften und benötigen dafür das folgende Hilfsresultat. Lemma Für B 0 und s > ρ(b) sind Matrizen von der Form invertierbar mit (si B) 1 0. si B Beweis. Der Beweis dieser Aussage folgt aus [5, S. 626 f.]. Satz Es gelten folgende Eigenschaften: (i) (I αu) ist invertierbar, (ii) (I αu) 1 0. Beweis. Die Matrix (I αu) genügt den Voraussetzungen des Lemmas, denn 6

αu 0 und ρ(αu) = αρ(u) < ρ(u) 1. Die Übergangsmatrix U = H + av T setzte sich zusammen aus der Hyperlinkmatrix H und einer Matrix vom Rang 1, in der der stochastische Vektor v T in den zu dangling nodes gehörigen Zeilen steht. Deshalb lässt sich das Gleichungssystem schreiben als und schließlich umformulieren zu π T (I αu) = (1 α)v T π T (I α(h + av T )) = (1 α)v T π T (I αh) = (1 α + απ T a)v T. Der Wert γ := π T a beschreibt dabei die Summe der π i, wobei i ein dangling node ist. Uns interessiert an dieser Stelle gar nicht, welchen konkreten Wert γ annimmt. Unsere Lösung π T ist eindeutig bestimmt (bis auf Skalierung). Da wir aber gerade einen stochastischen Vektor erhalten wollen (also mit π T e = 1), normieren wir die Lösung noch entsprechend. Daher kann γ für unsere Zwecke einen beliebigen positiven Wert annehmen - das Endresultat bleibt wegen der Normierung am Ende unverändert. Unser Schema wird also nur durch einen Skalierungsfaktor ergänzt. Wir setzen der Einfachheit halber γ := 1, was zu dem Gleichungssystem führt. π T (I αh) = v T Mit analogen Argumenten wird deutlich, dass auch (I αh) die Voraussetzungen des Lemmas erfüllt und damit gilt (i) (I αu) ist invertierbar und (ii) (I αu) 1 0. Es ergibt sich unmittelbar π T = v T (I αh) 1 Das Berechnen der Inversen (I αh) 1 wird nie explizit durchgeführt, doch liefert uns dies andere nützliche Eigenschaften. Wir stellen zunächst fest, dass die Hyperlinkmatrix H nach Konstruktion eine sehr dünn besetzte Matrix ist, was vorteilhaft beim Lösen eines linearen Gleichungssystems sein kann. Wir wissen aber ferner, dass es sich bei den Zeilen der 7

dangling nodes um Nullzeilen handelt. Permutieren wir die Zeilen jetzt derart, dass Zeilen zu non-dangling nodes oben und die zu dangling nodes darunter stehen, so erhält H die Form ND D ND H 11 H 12. D 0 0 Insbesondere wird die Koeffizientenmatrix des Gleichungssystems zu und ihre Inverse zu (I αh) 1 = (I αh) = ( ) I αh11 αh 12 0 I ( (I αh11 ) 1 α(i αh 11 ) 1 ) H 12. 0 I Damit kann der PageRank-Vektor π T = v T (I αh) 1 geschrieben werden als π T = (v T 1 (I αh 11 ) 1 αv T 1 (I αh 11 ) 1 H 12 + v T 2 ). Da der Term v1 T (I αh 11 ) 1 auf beiden Seiten auftaucht, reduziert sich das Lösen des Gleichungssystems π T (I αh) = v T auf den ersten Teil der non-dangling nodes. Konkret liefert der folgende Algorithmus das gewünschte Resultat. Algorithmus 1. Löse π T 1 (I αh 11 ) = v T 1. 2. Berechne π T 2 = απ T 1 H 12 + v T 2. 3. Normiere π T. Zusammenfassend muss nur ein Gleichungssystem für non-dangling nodes gelöst werden. Mit dieser Lösung lässt sich der zweite Teil π2 T für die dangling nodes explizit ausrechnen. Für die Eindeutigkeit normieren wir am Ende. Da der Anteil der dangling nodes im Internet sehr groß ist und immer mehr an Bedeutung gewinnt (Fotos, Videos, wissenschaftliche Arbeiten, etc. werden online gestellt) ist eine Methode, die sich dieser Eigenschaft zu Nutze macht, von großem Interesse. 8

Literaturverzeichnis [1] A. Berman and R. J. Plemmons. Nonnegative Matrices in the Mathematical Sciences. [1] New York: Academic Press, Inc., 1979. [2] S. Brin, L. Page, R. Motwami, and T. Winograd. The PageRank Citation Ranking: [2] Bringing Order to the Web. Technical report, Computer Science Department, Stanford [2] University, 1998. [3] T. H. Haveliwala and S. D. Kamvar. The Second Eigenvalue of the Google Matrix. [3] Technical report. Stanford University, 2003. [4] A. N. Langville, C. D. Meyer. "Deeper Inside PageRank". Internet Mathematics [4] Journal, 1(3): 335 80, 2005. [5] C. D. Meyer. Matrix Analysis and Applied Linear Algebra. Philadelphia, PA: SIAM, [5] 2000. [6] C. Moler. The World s Largest Matrix Computation. In Matlab News and Notes, [6] October 2002, pp. 12 13. 9