Strukturelle Analyse Web-basierter Dokumente



Ähnliche Dokumente
Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Konzepte der Informatik

Richtlinien der Osteopathie Schule Deutschland zur Abschlussarbeit für die Erlangung der Ausbildungsbezeichnung D.O.OSD.

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig?

1 Mathematische Grundlagen

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016

Anleitung über den Umgang mit Schildern

Speicher in der Cloud

TECHNISCHE UNIVERSITÄT DRESDEN FAKULTÄT ELEKTROTECHNIK UND INFORMATIONSTECHNIK. Institut für Feinwerktechnik und Elektronik-Design DIPLOMARBEIT

Welche Gedanken wir uns für die Erstellung einer Präsentation machen, sollen Ihnen die folgende Folien zeigen.

Informationsblatt Induktionsbeweis

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin:

Primzahlen und RSA-Verschlüsselung

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Maschinelle Übersetzung

Insiderwissen Hintergrund

Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation

Selbstreflexion für Lehrpersonen Ich als Führungspersönlichkeit

Umgang mit Schaubildern am Beispiel Deutschland surft

Neue Medien in der Erwachsenenbildung

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

1 PIVOT TABELLEN. 1.1 Das Ziel: Basisdaten strukturiert darzustellen. 1.2 Wozu können Sie eine Pivot-Tabelle einsetzen?

2.1 Präsentieren wozu eigentlich?

1 topologisches Sortieren

Mobile Intranet in Unternehmen

10 Erweiterung und Portierung

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Thematische Abfrage mit Computerlinguistik

Algorithmische Mathematik

4. BEZIEHUNGEN ZWISCHEN TABELLEN

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche

Mean Time Between Failures (MTBF)

Lange Nacht der Wissenschaft. Ein Klassiker. Die Mathematik der Kürzesten Wege

LEITFADEN ZUR SCHÄTZUNG DER BEITRAGSNACHWEISE

Wissenschaftlicher Bericht

MIT NEUEN FACHTHEMEN

4 Aufzählungen und Listen erstellen

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl

Die Optimalität von Randomisationstests

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Beweisbar sichere Verschlüsselung

HANDBUCH PHOENIX II - DOKUMENTENVERWALTUNG

Erstellen von x-y-diagrammen in OpenOffice.calc

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Datenbanken Kapitel 2

FAQ 04/2015. Auswirkung der ISO auf 3SE53/3SF13 Positionsschalter.

Informatik. Christoph Treude. Elektronisches Geld. Studienarbeit

EM-Wellen. david vajda 3. Februar Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören:

Ein Muster für ein Thesis Proposal

Zahlen auf einen Blick

Modellbildungssysteme: Pädagogische und didaktische Ziele

Hauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg

Mehr Geld verdienen! Lesen Sie... Peter von Karst. Ihre Leseprobe. der schlüssel zum leben. So gehen Sie konkret vor!

DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Anmerkungen zur Übergangsprüfung

I.O. BUSINESS. Checkliste Effektive Vorbereitung aktiver Telefonate

FH-SY Chapter Version 3 - FH-SY.NET - FAQ -

Welches Übersetzungsbüro passt zu mir?

Berechnung der Erhöhung der Durchschnittsprämien

Doku zur Gebäudebrüter Datenbank

1 Informationelle Systeme begriffliche Abgrenzung

Tipps für die praktische Durchführung von Referaten Prof. Dr. Ellen Aschermann

Kreativ visualisieren

Anleitung Scharbefragung

Energetische Klassen von Gebäuden

offene Netzwerke. In diesem Sinn wird auch interkulturelle Kompetenz eher als Prozess denn als Lernziel verstanden.

1. DAS PRAKTIKUM IM UNTERNEHMEN: ein Leitfaden.

Professionelle Seminare im Bereich MS-Office

MORE Profile. Pass- und Lizenzverwaltungssystem. Stand: MORE Projects GmbH

Wie halte ich Ordnung auf meiner Festplatte?

Die Bedeutung der Kinder für ihre alkoholabhängigen Mütter

Geprüfte/-r Betriebswirt/-in. Hinweise zur fachübergreifenden Projektarbeit

Softwareentwicklungspraktikum Sommersemester Grobentwurf

Teil III: Maßnahmen ableiten

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1

Plümper, Thomas, 2003, Effizient Schreiben, München, Oldenbourg,

Theorie qualitativen Denkens

2.5.2 Primärschlüssel

Einführung in. Logische Schaltungen

QM: Prüfen -1- KN

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Intrinsisch motivierte Mitarbeiter als Erfolgsfaktor für das Ideenmanagement: Eine empirische Untersuchung

Präventionsforum+ Erfahrungsaustausch. HANDOUT GRUPPEN-ADMINISTRATOREN Anlage zum Endnutzer-Handbuch. Stand: Änderungen vorbehalten

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

Ein mobiler Electronic Program Guide

1. Adressen für den Serienversand (Briefe Katalogdruck Werbung/Anfrage ) auswählen. Die Auswahl kann gespeichert werden.

Hilfe Bearbeitung von Rahmenleistungsverzeichnissen

Qualitätsmanagement an beruflichen Schulen in Deutschland: Stand der Implementierung. Diplomarbeit

Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU

Simulation LIF5000. Abbildung 1

GEONET Anleitung für Web-Autoren

104 WebUntis -Dokumentation

Transkript:

Strukturelle Analyse Web-basierter Dokumente Vom Fachbereich Informatik der Technischen Universität Darmstadt genehmigte Dissertation zur Erlangung des akademischen Grades Dr. rer. nat. vorgelegt von Dipl.-Mathematiker Matthias Dehmer geboren in Wiesbaden Tag der Einreichung: 25. Juli 2005 Tag der Disputation: 6. September 2005 Referenten: Prof. Dr. Max Mühlhäuser, Darmstadt Prof. Dr. Alexander Mehler, Bielefeld Darmstädter Dissertationen D17

Vorwort Die vorliegende Arbeit entstand im Rahmen meiner Tätigkeit als Doktorand im Fachgebiet Telekooperation des Fachbereichs Informatik an der Technischen Universität Darmstadt. Meinem Doktorvater Prof. Dr. Max Mühlhäuser danke ich für die große Freiheit, mit der ich fachlich das Thema bearbeiten und die Arbeit erstellen konnte. Dadurch, dass er mir alle Möglichkeiten innerhalb seines Fachgebiets zur Verfügung stellte und mich förderte, schaffte er die Voraussetzung für eine reibungslose Durchführung der Arbeit. Diese Unterstützung hat mir sehr geholfen. Auch menschlich verdanke ich ihm sehr viel, so dass ohne ihn die Arbeit in der von mir angestrebten Zeit nicht zustande gekommen wäre. Prof. Dr. Alexander Mehler, der die Zweitgutachtertätigkeit übernahm, danke ich einerseits für die besonders gute und fruchtbare Zusammenarbeit während meiner Dissertationsphase. Unsere Zusammenarbeit im Rahmen von Publikationen und Diskussionen wirkte sich sehr positiv auf die Erstellung der Arbeit aus, so dass er maßgeblich die Qualität dieser Arbeit verbesserte. Weiterhin danke ich in diesem Zusammenhang Dipl.-Inform. Rüdiger Gleim, der im Rahmen dieser Arbeit mit großem Elan seine Diplomarbeit anfertigte. Damit unterstützte er mich stark mit Implementierungsarbeiten und anregenden Diskussionen. Dr. Frank Emmert-Streib danke ich zum einen für die äußerst gute und erfrischende Zusammenarbeit und zum anderen für wertvolle und konstruktive Hinweise, betreffend Kapitel (6). Dr. Jürgen Kilian gebührt mein Dank für die Mithilfe zur Klärung grundlegender Konstruktionsmerkmale des Graphähnlichkeitsmodells, insbesondere bezüglich praktischer Aspekte der dynamischen Programmierung. Somit hat er wesentlichen Anteil am Gelingen des Kapitels (5), welches eine wichtige Grundlage für die Arbeit bildet. Dr. habil. Ulrike Brandt danke ich für die Disskusionen in der Anfangsphase meiner Arbeit. Ganz besonders möchte ich meinem Vater Werner Dehmer danken, der mich in der Endphase der Arbeit finanziell unterstützte. Insbesondere danke ich meiner Freundin Jana. Sie hat während der Erstellung der Arbeit viel Geduld und Verständnis aufgebracht. Für das sprachliche Korrekturlesen dieser Arbeit bedanke ich mich bei Marion Dehmer-Sehn M.A., Dr. Sandra Bohlinger, Julia Hinske, Steve Hinske, Monika Lehr-Wleklinski, Dipl.-Inform. (FH) Nicolas Kalkhof und Dipl.-Ing. Jana Münzner. Dipl.-Inform. (FH) Karin Tillack danke ich für ihre Hilfe bei der Erstellung einiger Graphiken. Darmstadt, im Juli 2005 Matthias Dehmer

Zusammenfassung Im Zuge der web-basierten Kommunikation und in Anbetracht der gigantischen Datenmengen, die im World Wide Web (kurz: Web) verfügbar sind, erlangt das so genannte Web Mining eine immer stärkere Bedeutung. Ziel des Web Mining ist die Informationsgewinnung und Analyse web-basierter Daten auf der Grundlage von Data Mining-Methoden. Die eigentliche Problemstellung des Data Mining ist die Entdeckung von Mustern und Strukturen in großen Datenbeständen. Web Mining ist also eine Variante des Data Mining; es kann grob in drei Bereiche unterteilt werden: Web Structure Mining, Web Content Mining und Web Usage Mining. Die zentrale Problemstellung des Web Structure Mining, die in dieser Arbeit besonders im Vordergrund steht, ist die Erforschung und Untersuchung struktureller Eigenschaften web-basierter Dokumente. Das Web wird in dieser Arbeit wie üblich als Hypertext aufgefasst. In der Anfangsphase der Hypertextforschung wurden graphbasierte Indizes zur Messung struktureller Ausprägungen und Strukturvergleichen von Hypertexten verwendet. Diese sind jedoch im Hinblick auf die ähnlichkeitsbasierte Gruppierung graphbasierter Hypertextstrukturen unzureichend. Daher konzentriert sich die vorliegende Arbeit auf die Entwicklung neuer graphentheoretischer und ähnlichkeitsbasierter Analysemethoden. Ähnlichkeitsbasierte Analysemethoden, die auf graphentheoretischen Modellen beruhen, können nur dann sinnvoll im Hypertextumfeld eingesetzt werden, wenn sie aussagekräftige und effiziente strukturelle Vergleiche graphbasierter Hypertexte ermöglichen. Aus diesem Grund wird in dieser Arbeit ein parametrisches Graphähnlichkeitsmodell entwickelt, welches viele Anwendungen im Web Structure Mining besitzt. Dabei stellt die Konstruktion eines Verfahrens zur Bestimmung der strukturellen Ähnlichkeit von Graphen eine zentrale Herausforderung dar. Klassische Verfahren zur Bestimmung der Graphähnlichkeit beruhen in den meisten Fällen auf Isomorphie- und Untergraphisomorphiebeziehungen. Dagegen wird in dieser Arbeit ein Verfahren zur Bestimmung der strukturellen Ähnlichkeit hierarchisierter und gerichteter Graphen entwickelt, welches nicht auf Isomorphiebeziehungen aufbaut. Oft wird im Rahmen von Analysen web-basierter Dokumentstrukturen das bekannte Vektorraummodell zu Grunde gelegt. Auf der Basis eines graphbasierten Repräsentationsmodells wird dagegen in dieser Arbeit die These vertreten und belegt, dass die graphbasierte Repräsentation einen sinnvollen Ausgangspunkt für die Modellierung web-basierter Dokumente darstellt. In einem experimentellen Teil werden die entwickelten Graphähnlichkeitsmaße erfolgreich evaluiert und die aus der Evaluierung resultierenden Anwendungen vorgestellt.

Abstract In the course of web-based communication and in consideration of the huge amount of data on the web, the so-called Web Mining receives considerable interest. The main goal of Web Mining is the mining of information and the analysis of web-based hypertext data on the basis of well-known Data Mining methods. The problem of these Data Mining methods is the discovery of patterns and structures in large amounts of data. Web Mining can be divided into three major fields: Web Structure Mining, Web Content Mining und Web Usage Mining. The main focus of this thesis is on Web Structure Mining, that is the exploration and examination of structural properties of web-based documents. In this thesis the web will be considered as a hypertext. Graph-theoretic indices for measuring structural characteristics of hypertexts were used in the initial phase of hypertext research. In terms of similarity-based clustering, graph-theoretic indices are inadequate. Thus, the present thesis deals with the development of new graph-theoretic and similarity-based methods for analyzing hypertext structures. Graph-theoretic methods are only reasonably applicable if they allow a meaningful and efficient structural comparison of hypertexts. Therefore, in the following thesis a parametric graph similarity model with applications in Web Structure Mining will be developed. Developing such a model is challenging because classical methods for measuring the structural similarity of graphs are based on isomorphic relations between the underlying graphs or subgraphs. It is well-known that the subgraph isomorphism problem is NP-complete. In contrast to this, a new method for measuring the structural similarity of graphs will be presented in this thesis that is not based on isomorphic relations. In the context of analyzing hypertext structures, the vector space model will be used frequently. On the basis of a graph-oriented hypertext representation the hypothesis will be presented and proven, that the graph-oriented representation is a meaningful starting point for modelling web-based hypertexts. On the basis of experimental examinations the developed graph similarity measures will be evaluated successfully. Furthermore, applications of the new graph similarity measures will be presented.

Inhaltsverzeichnis Abbildungsverzeichnis V 1 Einleitung 1 1.1 Motivation der Arbeit........................ 1 1.2 Zielsetzung der Arbeit........................ 3 1.3 Aufbau der Arbeit.......................... 5 1.4 Wissenschaftlicher Beitrag der Arbeit................ 7 2 Strukturelle Aspekte hypertextueller Einheiten 11 2.1 Hypertext und Hypermedia..................... 11 2.2 Problemstellungen des Web Mining................. 14 2.2.1 Probleme des World Wide Web bezüglich der Informationssuche.................... 14 2.2.2 Bereiche des Web Mining und deren Kernaufgaben.... 16 2.3 Existierende graphentheoretische Analysemethoden von Hypertextstrukturen............................... 20 2.3.1 Motivation........................... 20 2.3.2 Maße für die strukturelle Analyse von Hypertexten.... 22 2.3.3 Zusammenfassende Bewertung................ 28 2.3.4 Fazit.............................. 29 2.4 Existierende Clusteringverfahren zur Analyse hypertextueller Daten.................... 30 2.4.1 Interpretation von Clusterlösungen............. 32 I

2.4.2 Hierarchische Clusteringverfahren.............. 34 2.4.3 Partitionierende Clusteringverfahren............ 37 2.4.4 Sonstige Clusteringverfahren................. 39 2.5 Modellbildung: Polymorphie und funktionale Äquivalenz..... 41 2.6 Konkreter Modellierungsansatz auf der Basis von GXL...... 44 2.7 Zusammenfassende Bewertung und Fazit.............. 46 3 Grenzen der inhaltsbasierten Kategorisierung von Hypertextstrukturen 49 3.1 Motivation............................... 49 3.2 Das Testkorpus und die Extraktion web-basierter Hypertexte....................... 51 3.3 Motivation des maschinellen Lernverfahrens............ 54 3.4 Charakterisierung des Kategorisierungsexperiments.............................. 57 3.5 Interpretation der Evaluierungsergebnisse.............. 60 3.6 Fazit.................................. 62 4 Graphentheorie und strukturelle Ähnlichkeit: Bekannte Methoden 65 4.1 Erforderliche Grundlagen....................... 65 4.1.1 Überblick und Resultate der Graphentheorie........ 67 4.1.2 Ähnlichkeit strukturierter Objekte............. 70 4.1.3 Abstand, Distanz und Metriken............... 71 4.2 Strukturelle Ähnlichkeit von Graphen................ 73 4.3 Graph Mining und weitere graphorientierte Ähnlichkeitsmaße... 78 4.4 Zusammenfassende Bewertung.................... 86 5 Graphbasierte Analyse und Retrieval: Neuer Ansatz 91 5.1 Motivation............................... 92 5.2 Gradsequenzen von Graphen..................... 96 II

5.3 Hierarchisierte und gerichtete Graphen............... 100 5.4 Zentraler Lösungsansatz....................... 103 5.5 Berechnungsgrundlagen........................ 106 5.6 Strukturelle Ähnlichkeit hierarchisierter und gerichteter Graphen. 111 5.7 Ergebnisse............................... 120 5.8 Experimentelle Ergebnisse...................... 122 5.8.1 Experimente mit Website-Strukturen............ 123 5.8.2 Experimente mit web-basierten Dokumenten........ 130 5.8.3 Fazit.............................. 133 6 Exkurs: Strukturvorhersage 137 6.1 Erkennung struktureller Beziehungen zwischen Graphmengen... 137 6.2 Ergebnisse............................... 140 6.3 Fazit.................................. 142 7 Zusammenfassung und Ausblick 143 7.1 Zusammenfassung der Ergebnisse.................. 143 7.2 Ausblick................................ 146 7.3 Weiterführende Fragestellungen................... 149 Literaturverzeichnis 151 III

IV

Abbildungsverzeichnis 2.1 Crawler-Indexer Architektur auf der Basis der Suchmaschine Alta Vista................................. 16 2.2 Der vollständige gerichtete Graph K 4 und der entsprechende Graph mit der leeren Kantenmenge...................... 22 2.3 Das linke Bild zeigt das Hypertext File abbccbbccd. Jedem Symbol ist das Paar (Level, Ordnung) zugeordnet. Das rechte Bild zeigt einen Hypertext, der aus drei Hypertext Files e1, e2 und e3 besteht, zusammen mit seiner Linkstruktur. Beispielsweise enthält e1 zwei Matched Pairs, nämlich x1 und x2............... 28 2.4 Tabellarische Zusammenfassung der Ergebnisse aus Kapitel (2.3.2). 29 2.5 A: Disjunkte, aber nicht partitionierende Clusterung mit nicht gruppierbaren Objekten. B: Überlappende Clusterung. C: Partitionierende Clusterung........................ 31 2.6 Dendogramm für eine Clusteraufgabe mit acht Dokumenten. Die gestrichelten Linien deuten die gewählten Homogenitätsstufen an. 35 2.7 Cluster mit ihren Zentren....................... 39 2.8 D = 5. Der vollständige Graph G D und sein Teilgraph G 0.5 D.... 41 2.9 Schematische Darstellung zweier funktional äquivalenter Präsentationen [156]. Im Fall (A) auf der Basis einer Liste und (B) mit einem compound document [72], welches aus mehreren Webseiten besteht................................. 43 2.10 (i): Das linke Bild zeigt einen fiktiven Hypergraph in GXL bestehend aus zwei Webseiten mit internen Graphen und einem Hyperlink. (ii): Das rechte Bild zeigt die graphentheoretische Struktur..... 44 2.11 Ein einfacher gerichteter Hypergraph mit den Hyperkanten E 1 = ({v 1, v 2 }, {v 4, v 5 }), E 2 = ({v 5, v 3 }, {v 6 })................ 46 2.12 Tabellarische Zusammenfassung der Clusteringverfahren aus Kapitel (2.4)................................ 47 V

3.1 Konfigurationsbereich der Einzelextraktion von HyGraph. Im oberen Bereich werden die Grundeinstellungen der Extraktion festgelegt. Der mittlere Bereich der Maske legt die Tokenart und damit die jeweilige Bag of Words fest. Mit Hilfe des unteren Konfigurationsbereichs wird der Extraktionsfilter gesetzt.......... 53 3.2 Vereinfachte schematische Darstellung der Bag of Words..... 55 3.3 A: Positiv (+1) und negativ (-1) klassifizierte Datenpunkte. m bezeichnet die maximale Trennspanne. Die Supportvektoren, die die Lage der trennenden Hyperebene E maßgeblich bestimmen, sind mit SV markiert. B: Im linken Koordinatensystem ist keine lineare Trennung möglich. Schematische Transformation der Eingabedaten in den höherdimensionalen Featureraum mit anschließender linearer Trennung........................... 56 3.4 Kontingenztabelle für eine binäre Kategorisierung.......... 60 3.5 Ergebnisse der Performancemessung................. 61 3.6 Ergebnisse der Auswertung von U i.................. 61 4.1 Der vollständige Graph K 5 mit 5 Knoten und der bipartite Graph K 3,3................................... 68 4.2 Zwei knotenmarkierte gerichtete Beispielgraphen.......... 76 4.3 Zwei knotenmarkierte, geordnete und ungerichtete Wurzelbäume T 1 und T 2. Das rechte Bild zeigt ein optimales Alignment von T 1 und T 2.................................. 80 4.4 Ein fiktiver DOM-Tree mit seinen syntaktischen Knotensequenzen: a/b, a/c/e/f, a/c/e/f, a/c/e und a/d................. 85 4.5 Zusammenfassung der Ergebnisse aus den Kapiteln (4.2), (4.3).. 87 4.6 Menge der Isomorphieklassen für ungerichtete Graphen....... 88 5.1 Das web-basierte Graphmatching................... 93 5.2 Wichtige Grundeigenschaft des zukünftigen Graphähnlichkeitsmaßes: Die Bildung der f(e i, Ēi) geschieht ebenenweise........ 95 5.3 Ein gerichteter Graph mit der Ordnung V = 4........... 97 5.4 Ein 3-regulärer Graph......................... 98 5.5 Zwei nicht isomorphe Graphen mit den gleichen Ausgangsgradund Eingangsgradsequenzen...................... 100 VI

5.6 Kantentypen eines Graphen nach Definition (5.3.1)......... 102 5.7 Zwei nicht symmetrische Graphen mit den gleichen Ausgangsgradund Eingangsgradsequenzen...................... 103 5.8 Induzierte Ausgangsgrad- und Eingangsgradsequenzen auf den Ebenen................................... 104 5.9 Der Alignment-Graph G S1,S 2 der Sequenzen S 1, S 2......... 109 5.10 Kerndaten des Graphkorpus T C.................... 123 5.11 Verteilungen der gerankten Ähnlichkeitswerte für d 1, d 2 und d 3, bezogen auf alle Datenklassen der Definition (5.8.1). Die X-Achse bezeichnet den Ähnlichkeitswert d 3 (Ĥ1 m, Ĥ2 m) [0, 1]. Auf der Y - Achse ist die Anzahl der Graphpaare aufgetragen.......... 126 5.12 Kummulative Ähnlichkeitswertverteilungen für die Datenklassen der Definition (5.8.1). X-Achse: Ähnlichkeitswert d 3 (Ĥ1 m, Ĥ2 m) [0, 1]. Y -Achse: Prozentsatz der Graphen, die einen Ähnlichkeitswert d 3 X-Wert besitzen...................... 126 5.13 Dendogramm als Ergebnis der Clusterung von T small. Die zweiundzwanzig Graphen sind jeweils mit Objektnummern bezeichnet... 128 5.14 Web-basierte Hypertextgraphen der Cluster (11,18), (9,16) und (3,7,10). Die Clusterschreibweise in Tupelform verwendet dabei die Objektnummern. Es gilt ζ = 0.5; Parameterbelegung siehe Punkt (5) der Definition (5.8.1).................... 129 5.15 (i): Das linke Bild zeigt ein einfaches HTML-Codefragment. (ii): Das rechte Bild bildet den entsprechenden DOM-Tree ab......... 130 5.16 Ausgehend von einer Menge von GXL-Repräsentationen erfolgt die web-basierte Extraktion der DOM-Trees mit Hilfe von HTMLParser [257]. Daran anschließend erzeugt HyGraph die jeweilige Ähnlichkeitsmatrix, die als Eingabe des Clusteringverfahrens dient. Die Registerkarten Statistics und Partitions dienen zur Berechnung der Clusterhomongenität und des Abbruchkriteriums aus Kapitel (5.8.1). Dagegen wird mit Hilfe der Registerkarte Visualization of Clustering das entsprechende Dendogramm erzeugt. 131 5.17 Bewertung der Clustergüte von W 1, auf der Basis von Precision und Recall............................... 132 5.18 Bewertung der Clustergüte von W 2, auf der Basis von Precision und Recall............................... 133 5.19 HTML-Repräsentation einer Webseite aus C 2, bezogen auf W 1.... 134 VII

5.20 HTML-Repräsentation einer weiteren Webseite aus C 2, bezogen auf W 1.................................... 134 6.1 Das Schaubild zeigt die gerankten Ähnlichkeitswerte der Graphmengen C 1 und C 2. Es gilt θ = 0.5 und C 1 = C 2 = 500. X- Achse: Ähnlichkeitswert d 3 (Ĥ1 m, Ĥ2 m ) [0, 1]. Y -Achse: Anzahl der Graphpaare............................... 139 6.2 Das Schaubild zeigt die gerankten Ähnlichkeitswerte von C1 new und C2 new. Die Auftrennung der gemischten Menge C = C 1 C 2 erfolgte mit θ = 0.5. X-Achse: Ähnlichkeitswert d 3 (Ĥ1 m, Ĥ2 m ) [0, 1]. Y - Achse: Anzahl der Graphpaare.................... 140 6.3 Kumulative Ähnlichkeitswertverteilungen von C new 1, C new 2 und C. Auf der X-Achse ist jeweils der Ähnlichkeitswert d 3 [0, 1] aufgetragen. Die Y -Achse bezeichnet den Prozentsatz der Graphen, die einen Ähnlichkeitswert d 3 X-Wert besitzen............ 141 7.1 Schematische Darstellung der ähnlichkeitsbasierten Graphanalyse im Web Usage Mining......................... 147 VIII

Kapitel 1 Einleitung 1.1 Motivation der Arbeit Die Untersuchung von Strukturen ist aus der Sicht vieler Wissenschaftsbereiche ein aktuelles Forschungsthema. Dabei ist die Strukturanalyse einerseits in anwendungsorientierten Disziplinen und andererseits in theorieorientierten Forschungsbereichen von zentraler Bedeutung: In der Linguistik wird intensiv die Struktur von Sprache, z.b. die syntaktische Sprachstruktur [9, 50] untersucht. Die soziologische Forschung betrachtet z.b. Kommunikationsstrukturen [12] und soziale Netzwerke [105, 108, 204]. In der Biologie und in der Biochemie spielen z.b. fraktale biologische Strukturen [206] eine große Rolle. Die Elektrotechnik untersucht Strukturen von Stromverzweigungen, elektrischer Netzwerke und Platinen. Aus diesen Beispielen geht zunächst nicht hervor, mit welchen Methoden und Formalismen die jeweiligen Strukturen modelliert werden. Da in dieser Arbeit relationale Strukturen in Form von Graphen als Repräsentation komplexer Dokumentstrukturen eine wesentliche Rolle spielen, ist speziell das letzte Beispiel der obigen Aufzählung interessant. Kirchoff [134] publizierte im Bereich der Elektrizitätslehre bereits 1847 eine wichtige Arbeit bezogen auf 1

die Theorie der Stromverzweigungen, die einen Grundstein der modernen Graphentheorie 1 legte. Daran schlossen sich richtungsweisende Beiträge 2 von Caley [47], Petersen [175] und Sylvester [225] an, die ihre Wurzeln ebenfalls in der Graphentheorie besitzen. Heute ist die Beschreibung von Strukturen ohne graphbasierte Modelle in vielen Wissenschafts- und Lebensbereichen nicht mehr vorstellbar, wobei Graphen in der Informatik, z.b. für die Darstellung von Rechnernetzen, breite Anwendung 3 finden. Die vorliegende Arbeit ist thematisch in einem Teilbereich des Web Mining [46, 139] dem Web Structure Mining [139] angesiedelt, weil sie strukturelle Modellierungsaspekte web-basierter 4 Dokumentstrukturen untersucht. Da der Umgang mit Computern allgegenwärtig ist und die Menge an Dokumenten im Web bekanntlich exponentiell zunimmt, sind Hilfsmittel zur schnellen Erfassung, Klassifizierung und Auffindung von Dokumenten von zentraler Bedeutung. Längst wurde klar, dass Inhalt und Struktur vernetzter Dokumente hierbei relevant sind. Die vorliegende Arbeit konzentriert sich auf Strukturaspekte web-basierter Dokumente, welche in jüngerer Zeit immer stärker ins Blickfeld rücken. Es existieren formale Ansätze [67, 86, 144, 153], die strukturelle Aspekte hypertextueller Dokumente beschreiben. Die ersten bekannten Arbeiten, die insbesondere die strukturelle Analyse von Hypertexten auf der Basis graphentheoretischer Methoden fokussierten, stammen von Botafogo et al. [28, 29, 30]. Dabei wurden bekannte Konzepte 5 der Graphentheorie verwendet, um Maßzahlen so genannte Indizes [63, 155] für die Beschreibung struktureller Hypertextausprägungen zu entwickeln. Beispielsweise definierten Botafogo et al. [29] als einen typischen Vertreter das bekannte Maß Compactness 6, welches den Grad der Vernetztheit einer Hypertextstruktur beschreibt. Die Aussagekraft solcher Maße ist jedoch sehr eingeschränkt, da die zu beschreibende Ausprägung auf eine einzige Maßzahl abgebildet wird. Damit folgt weiter, dass solche Maße nicht eindeutig interpretierbar sind. Unmittelbar daraus resultiert ein Problem, welches sich bislang negativ auf die Analyse hypertextueller Dokumente auswirkte [63]: Wegen der nicht eindeutigen Interpretierbarkeit und der damit verbundenden mangelnden Aussagekraft dieser Maße, ist eine Gruppierung ähnlicher Strukturen nicht möglich, mit dem Ziel, ähnliche Funktionen oder sogar Qualitätsmerkmale abzuleiten. Ein wichtiger Schritt für die Gruppierung strukturell ähnlicher Hypertexte wäre die Entwicklung von Analysemethoden, die ganzheitliche Strukturvergleiche auf zwei 1 Siehe Kapitel (4.1.1). 2 Weitere historische Beiträge zur Graphentheorie findet man z.b. im ersten Lehrbuch der Graphentheorie, welches von König [137] verfasst wurde. 3 Für weitere Anwendungen siehe Kapitel (4.1.1). 4 Web ist die Bezeichnung für das World Wide Web (WWW) [20]. 5 Siehe Kapitel (2.3.2). 6 Siehe Kapitel (2.3.2). 2

gegebenen Hypertextgraphen zulassen. Strukturelle Vergleiche hypertextueller Graphmuster, bezogen auf die Interpretation lernpsychologischer Fragestellungen, führten z.b. Winne et al. [247] durch, wobei der Index Multiplicity 7 definiert wurde. Dabei ist Multiplicity lediglich auf der Basis der Kantenschnittmenge zweier Graphmuster definiert. Das impliziert, dass signifikante strukturelle Unterschiede zwischen Graphmustern durch die so erzielten Ähnlichkeitswerte nicht erfasst werden. Im Hinblick auf eine ähnlichkeitsbasierte Gruppierung folgt schließlich, dass die entstehenden Gruppierungen keine weitreichende Aussagekraft besitzen und damit schlecht interpretiert werden können. Somit scheidet die Klasse von Ähnlichkeitsmaßen, die auf der Basis der Kantenschnittmenge definiert ist, für zukünftige ähnlichkeitsbasierte Analysen aus. Um eine bessere Wirkung hypertextueller Graphvergleiche zu erzielen, welche sich letztlich in einer wesentlich aussagekräftigeren Modellierung web-basierter Hypertexte auswirkt, wird in dieser Arbeit ein deutlich aussagefähigeres Graphähnlichkeitsmodell entwickelt. Die eigentliche Zielsetzung der Arbeit und daraus resultierende Anforderungen werden nun in Kapitel (1.2) dargestellt. 1.2 Zielsetzung der Arbeit In Kapitel (1.1) wurden Probleme graphentheoretischer Indizes kurz gefasst beschrieben. Der Einsatz graphbasierter Repräsentationen zur Modellierung webbasierter Hypertexte im Hinblick auf Anwendungen im Web Structure Mining kann demnach nur dann erfolgreich sein, wenn die darauf aufbauenden Analysemethoden so viel komplexe Strukturmerkmale wie möglich erfassen. Daraus ergibt sich die Anforderung ein Verfahren zu entwickeln, welches die strukturelle Ähnlichkeit graphbasierter Hypertexte ganzheitlich bestimmt. Dies stellt die eigentliche Herausforderung dieser Arbeit dar. Das Hauptziel dieser Arbeit wird nun folgendermaßen formuliert: Das Hauptziel besteht in der Entwicklung ähnlichkeitsbasierter Analysemethoden hypertextueller Dokumente auf der Basis ihrer hierarchischen Graphstruktur, um einerseits anwendungsbezogene Problemstellungen im Web Structure Mining, z.b. die strukturorientierte Filterung, besser als bisher zu lösen. Andererseits sollen die entwickelten ähnlichkeitsbasierten Analysemethoden so flexibel sein, dass sie für graphorientierte Problemstellungen in anderen Forschungsgebieten [73] einzusetzen sind. 7 Siehe Kapitel (2.3.2). 3

Die Frage nach der Notwendigkeit eines graphbasierten Repräsentationsmodells für die adäquate Modellierung hypertextueller Dokumente wurde hierbei durch eine grundlegende Arbeit von Mehler et al. [156] aufgeworfen. Dabei vertreten Mehler et al. in [156] die These, dass auf Grund der Phänomene Polymorphie und funktionale Äquivalenz web-basierte Einheiten nicht eindeutig kategorisierbar sind. Da in [156] das bekannte Vektorraummodell [81, 153] als Standardrepräsentation für web-basierte Dokumente eingesetzt wurde, ist die Frage nach der Erprobung eines neuen Repräsentationsmodells gerechtfertigt. In dieser Arbeit wird die These zu Grunde gelegt und belegt, dass die graphbasierte Repräsentation hypertextueller Dokumente einen zentralen Ausgangspunkt einerseits für graphbasierte Modellierungen und ähnlichkeitsbasierte Analysealgorithmen und andererseits für anwendungsorientierte Aufgaben im Web Structure Mining darstellt. Dabei stellt die ganzheitliche Bestimmung der strukturellen Ähnlichkeit graphbasierter Dokumentstrukturen zunächst ein schwieriges Problem dar. Die bekannten Verfahren zur Bestimmung der Graphähnlichkeit beruhen nämlich in vielen Fällen auf Isomorphie- und Untergraphisomorphiebeziehungen [129, 213, 254]. Da diese aus Komplexitätsgründen [5, 234] für Graphen höherer Ordnung nicht anwendbar sind, scheidet diese Verfahrensklasse zur massendaten-orientierten Anwendung im Web Structure Mining aus. Deshalb ist ein Verfahren zur Bestimmung der Graphähnlichkeit im Web Structure Mining nur dann sinnvoll einsetzbar, wenn es große Datenmengen hinsichtlich Graphen höherer Ordnung verarbeiten kann. Eine Vorgehensweise zur Ermittlung geeigneter Verfahren könnte beispielhaft sukzessiv folgende Fragen untersuchen: Gibt es Ansätze und Ideen, die Isomorphie- und Untergraphisomorphiebeziehungen aus Effizienzgründen umgehen? Existieren strukturelle Kennzahlen 8 der zu betrachtenden Graphen, die effizient zu berechnen sind? Wenn ja, sind solche Kennzahlen überhaupt zur Definition von Graphähnlichkeitsmaßen aussagekräftig genug? Sind ausreichende Möglichkeiten für die Gewichtung unterschiedlicher struktureller Aspekte (z.b. bei hierarchischen Graphen die Berücksichtigung der Höhenunterschiede 9 ) gegeben? Wie kann weiter vorgegangen werden, falls ein Graphähnlichkeitsmaß gewisse Anforderungen nicht erfüllt? Sind mögliche Defizite auf der Basis von Parametern ausgleichbar? 8 Siehe Kapitel (5.1). 9 Siehe Kapitel (5.7). 4

Ist weitergehend die Entwicklung eines Verfahrens möglich, das auf Grund seiner Konstruktion eine ganze Klasse von Ähnlichkeitsmaßen definiert? Sind solche Graphähnlichkeitsmaße nur im Bereich web-basierter Hypertexte nutzbar oder können sie auf Grund ihrer Konzeption überall dort eingesetzt werden, wo Graphähnlichkeitsprobleme bezüglich derselben Graphklasse 10 gestellt werden? Anhand dieser beispielhaften Vorgehensweise gewinnt man einen Eindruck über die Vielzahl der Fragestellungen, die auf der Suche nach einem Verfahren zur Bestimmung der strukturellen Graphähnlichkeit beantwortet werden müssen. Entsprechend ist es für die vorliegende Arbeit von zentraler Bedeutung ein Graphähnlichkeitsmodell zu entwickeln, welches zur Lösung graphorientierter Problemstellungen im Web Structure Mining und verwandter Aufgaben in anderen Forschungsbereichen beiträgt. 1.3 Aufbau der Arbeit Nach der Einleitung in Kapitel (1) gibt Kapitel (2) einen Überblick über bestehende Data Mining-Konzepte [104], wobei vor allem existierende Arbeiten der graphentheoretischen Analyse von Hypertexten detailliert besprochen werden. Weiter werden insbesondere die Clusteringverfahren [23, 78] ausführlich diskutiert, da sie in dieser Arbeit ein wichtiges Bindeglied zur ähnlichkeitsbasierten Dokumentanalyse darstellen. Für die Argumentationslinie der Arbeit sind die Phänome Polymorphie [156] und funktionale Äquivalenz [156] von wesentlicher Bedeutung. Vorbereitend für ein Experiment im Bereich der inhaltsbasierten Kategorisierung werden in Kapitel (2) die dazu notwendigen Begriffe, zusammen mit einem graphbasierten Repräsentationsmodell [156], eingeführt. Das Kapitel (3) zeigt die Grenzen der inhaltsbasierten Kategorisierung in Form eines Experiments auf. Die Hypothese dieses Kapitels ist, dass Polymorphie und funktionale Äquivalenz charakteristisch für web-basierte Einheiten sind. Nach einer formellen Charakterisierung der Problemstellung werden die Ergebnisse der SVM-Kategorisierung 11 interpretiert. Sie untermauern dabei nachhaltig die zu Anfang aufgestellte Hypothese. Die zusammengefasste Beschreibung des Forschungsstandes und der Kernaufgaben hinsichtlich der Graphentheorie ist Gegenstand von Kapitel (4). Neben 10 Die in dieser Arbeit betrachtete Graphklasse besteht aus knotenmarkierten, hierarchisierten und gerichteten Graphen. Siehe Kapitel (5.3). 11 Siehe Kapitel (3.3). 5

einer Diskussion über den Ähnlichkeitsbegriff und der Einführung wesentlicher Begriffe, wie z.b. Metrik, Abstand und Distanz, werden bekannte Methoden zur Bestimmung der strukturellen Ähnlichkeit von Graphen beschrieben. Das Ziel von Kapitel (4) besteht insbesondere darin, die mathematischen Fundamente der existierenden Verfahren zu beleuchten, um damit eine Abgrenzung zum neuen Ansatz leichter zu erreichen. In Kapitel (5) wird zunächst die Motivation und der zentrale Lösungsansatz zur Bestimmung der Graphähnlichkeit hierarchischer Graphen angegeben. Es stellt sich heraus, dass die Gradsequenzen gerichteter Graphen eine aussagekräftige Basis des neuen Verfahrens darstellen, jedoch nicht in Form einfacher Gradsequenzvektor-Vergleiche 12. Der wesentliche Aspekt, durch den sich das neue Verfahren von den in dieser Arbeit behandelten bekannten Verfahren abhebt, ist, dass die jeweiligen Graphen zunächst in eindimensionale Strukturen transformiert werden. Die transformierten Strukturen werden auf der Basis bekannter Alignment-Techniken 13 [99] weiterverarbeitet. Ein wichtiger Schritt in dieser Arbeit ist die Anwendung einer Gruppe multivariater Analyseverfahren [6], die Clusteringverfahren. Diese tragen zur Lösung anwendungsorientierter Problemstellungen im Bereich des Web Structure Mining bei. Kapitel (5) schließt mit einer experimentellen Untersuchung ab. In dieser werden die entwickelten ähnlichkeitsbasierten Analysemethoden auf bestehende web-basierte Dokumente angewendet. Während sich der experimentelle Teil aus Kapitel (5) vornehmlich mit der anwendungsbezogenen Interpretation der gewonnenen Clusterlösungen beschäftigt, verfolgt das Kapitel (6) einen darüber hinausgehenden Weg: Anhand vorgegebener Ähnlichkeitswertverteilungen zweier Graphmengen, wird die strukturelle Beziehung zwischen den Graphmengen untersucht. Die Evaluierungsergebnisse belegen, dass das eingesetzte Graphähnlichkeitsmaß zur Erkennung komplexer Graphstrukturen geeignet ist. Weiter untermauern die Ergebnisse dieses Kapitels den sinnvollen Einsatz des verwendeten Graphähnlichkeitsmaßes im Web Structure Mining. Kapitel (7) fasst die Ergebnisse der Arbeit zusammen. Abschließend erfolgt einerseits ein kurz gefasster Ausblick bezogen auf weitere potenzielle Anwendungsgebiete. Andererseits wird im Rahmen des Ausblicks eine bereits bestehende Anwendung des Graphähnlichkeitsmodells aus Kapitel (5) erläutert, die nicht im Bereich des Web Mining angesiedelt ist, und eine Aufstellung weiterführender Fragestellungen angegeben. 12 Siehe Definition (5.2.2) in Kapitel (5.2). 13 Siehe Kapitel (5.5). 6

1.4 Wissenschaftlicher Beitrag der Arbeit Im Bereich der strukturellen Analyse von Hypertexten existieren viele bekannte Arbeiten, z.b. [28, 29, 30, 247, 235], die insbesondere auf graphentheoretischen Modellierungsmethoden basieren. Ein Großteil dieser Arbeiten beschäftigt sich mit der Definition und Analyse graphentheoretischer Indizes, die bereits in Kapitel (1.1) erwähnt wurden. Dabei dienen Indizes meistens zur strukturellen Charakterisierung typischer Hypertextausprägungen und zur Beschreibung von Graphmustern im Zusammenhang mit Hypertext-Navigationsproblemen [151, 152, 235]. Da die Aussagekraft und Interpretierbarkeit solcher Indizes sehr beschränkt ist, eignen sich Indizes nicht für die ähnlichkeitsbasierte Gruppierung von Hypertexten, welche aber den Schlüssel für viele Anwendungen im Web Structure Mining darstellt. Diese Arbeit hat daher den Anspruch, graphentheoretische und ähnlichkeitsbasierte Methoden zur strukturellen Analyse web-basierter Hypertexte zu entwickeln, damit bestehende Analysemethoden erweitert und verbessert werden. Anstatt des bekannten Vektorraumodells als Standardrepräsentation, wird in dieser Arbeit ein graphbasiertes Repräsentationsmodell erprobt, welches auf hierarchisierten und gerichteten Graphen basiert. Dies geschieht mit dem Ziel, neue Repräsentationsmodelle für eine adäquate Modellierung hypertextueller Dokumente zu erforschen. Die Vorarbeiten für die Entwicklung ähnlichkeitsbasierter Analysemethoden auf der Basis der hierarchischen Graphstruktur erfolgen in Kapitel (3). Kapitel (3) beschäftigt sich mit einem Experiment zur inhaltsbasierten Hypertextkategorisierung. Diesem Experiment liegen die von Mehler et al. [156] definierten Begriffe Polymorphie und funktionale Äquivalenz zu Grunde, welche hinsichtlich hypertextueller Dokumente neuartig sind. In Kapitel (5) wird ein zentraler Lösungsansatz zur Bestimmung der strukturellen Ähnlichkeit hierarchisierter und gerichteter Graphen vorgestellt. In der vorliegenden Arbeit findet das Graphähnlichkeitsmodell aus Kapitel (5) Anwendung bezüglich praxisorientierter Problemstellungen im Web Structure Mining. Mit Hilfe des Graphähnlichkeitsmodells wird es möglich, ganzheitliche Strukturvergleiche auf Hypertextgraphen durchzuführen. Im Folgenden werden erzielte Erweiterungen auf der Basis des Graphähnlichkeitsmodells angegeben. Diese Erweiterungen zeigen eine wesentliche Verbesserung des Index-Konzepts auf: Auf Grundlage des parametrischen Graphähnlichkeitsmodells ist die Betonung vielfältiger Strukturaspekte möglich, wobei damit alle komplexen Objektausprägungen erfasst werden. Im Gegensatz zu Indizes ist nun die Anwendung multivariater Analysemethoden möglich. In dieser Arbeit werden speziell die Clusteringverfahren 7

gewählt, wobei diese zu den Struktur entdeckenden Verfahren gehören. Auf der Basis aussagekräftiger Graphvergleiche werden damit viele Anwendungen verbessert, z.b. die strukturorientierte Filterung web-basierter Hypertexte. Insgesamt erhält man ein generisches Modell zur Messung der strukturellen Ähnlichkeit hierarchisierter und gerichteter Graphen, welches in allen drei Teilbereichen des Web Mining Web Structure Mining, Web Usage Mining und Web Content Mining anwendbar ist. Im Web Usage Mining ist das Graphähnlichkeitsmodell aus Kapitel (5) z.b. zur Erzeugung und Erforschung graphbasierter Benutzergruppen 14 einsetzbar. Die Bestimmung der strukturellen Ähnlichkeit von Graphen stellt ein mathematisch schweres Problem dar. Klassische Verfahren zur Bestimmung der Graphähnlichkeit beruhen in den meisten Fällen auf Isomorphie- oder Untergraphisomorphiebeziehungen. In Kapitel (4.4) erfolgen eine Diskussion und Bewertung bekannter Verfahren zur Bestimmung der strukturellen Ähnlichkeit von Graphen. Diese zeigen, dass solche Verfahren im Hinblick auf jene graphorientierte Problemstellungen nicht anwendbar sind, bei denen die Verarbeitung von Graphen höherer Ordnung gefragt ist. Eine zentrale Konstruktionsidee des neuen Modells aus Kapitel (5) besteht darin, dass die betrachteten Graphen auf der Basis einer Abbildung in eindimensionale Strukturen transformiert werden. Es stellt sich heraus, dass die Ähnlichkeit der eindimensionalen Strukturen wesentlich effizienter bestimmt werden kann. Aus einer Menge von Ähnlichkeitswerten, die aus Alignments 15 der eindimensionalen Strukturen gewonnen werden, wird schließlich ein finaler Ähnlichkeitswert konstruiert, der die strukturelle Ähnlichkeit zweier Graphen ausdrückt. Kurz gefasst zeichnet sich das neue Modell durch die folgenden Vorteile gegenüber bekannten Verfahren aus: Starke Reduktion der Berechnungskomplexität. Berücksichtigung komplexer Kantenstrukturen während des Graphvergleichs. Hohe Flexibilität durch Parametrisierungsmöglichkeiten. Auf Grundlage des neuen Modells wurden in dieser Arbeit folgende Ergebnisse erzielt und neue Anwendungsgebiete gefunden: Bessere Beschreibungs- und Erforschungsmöglichkeiten bestehender graphbasierter Hypertexte. 14 Siehe Kapitel (7.2). 15 Siehe Kapitel (5.5). 8

Ableitung struktureller Aussagen bezüglich Testkorpora web-basierter Hypertexte. Dies geschieht z.b. auf Grundlage aussagekräftiger Ähnlichkeitswertverteilungen. Strukturorientierte Filterung web-basierter Dokumente in Form von DOM- Strukturen. Die Evaluierung des dazugehörigen Clustering-Experiments, welches in Kapitel (5.8.2) durchgeführt wurde, zeichnet sich durch hohe Precision- und Recallwerte aus. Das Graphähnlichkeitsmodell aus Kapitel (5) wurde von Emmert-Streib et al. [73] verwendet, um eine effiziente Methode zur Klassifikation großer ungerichteter Graphen zu entwickeln. Die binäre Graphklassifikationsmethode wurde u.a. erfolgreich auf Microarray-Daten [42] aus Gebärmutterhalskrebs-Experimenten angewendet, mit dem Ziel, Tumorstadien zu unterscheiden [73]. 9

10

Kapitel 2 Strukturelle Aspekte hypertextueller Einheiten Die Anwendung von klassischen Data Mining-Konzepten [104] auf web-basierte Daten, wie z.b. die Clusteranalyse, wird als Web Mining [46] bezeichnet. Ein Teilbereich des Web Mining, der in dieser Arbeit besonders im Vordergrund steht, ist das Web Structure Mining, welches die Aufdeckung und die Erforschung struktureller Aspekte web-basierter Hypertexte zum Hauptziel hat. Ausgehend von einer kurzen Darstellung der Grundlagen von Hypertext und Hypermedia in Kapitel (2.1) hat das vorliegende Kapitel (2) das Ziel, eine verständliche Einführung von Data Mining-Konzepten im Hinblick auf die Anwendung im Web Mining zu geben. Das Teilgebiet Web Structure Mining wird dabei besonders hervorgehoben, insbesondere graphentheoretische Methoden zur strukturellen Analyse von Hypertexten. 2.1 Hypertext und Hypermedia Bekanntlich ist beim klassischen Medium Buch die Struktur und in der Regel auch die Lesereihenfolge sequenziell. Dagegen ist die Kerneigenschaft von Hypertext 1, dass die textuellen Informationseinheiten, die so genannten Knoten, auf der Basis von Verweisen, auch Links genannt, in Form eines gerichteten Graphen, also nicht linear, miteinander verknüpft sind [140]. Die einfachste graphentheoretische Modellierung einer Hypertextstruktur ist die Darstellung als unmarkierter gerichteter Graph H := (V, E), E V V. V heißt Knotenmenge und E heißt Kantenmenge. Weiter bezeichnet man ein Element v V als Knoten und e E 1 In dieser Arbeit bezeichnet ein Hypertext konkrete Ausprägungen oder Instanzen (vgl. im Web: eine Website ); Hypertext subsummiert in der vorliegenden Arbeit Hypermedia. Software zur Handhabung von Hypertexten sei als Hypertextsystem bezeichnet. 11

als gerichtete Kante. Der Hypertext-Begriff wird in den Geisteswissenschaften und der modernen Informatik unterschiedlich interpretiert [238]. So kann man abhängig von der Fachdisziplin und vom Autor durchaus auf unterschiedliche Definitionen des Hypertextbegriffs stoßen. Hypertext wird somit oft als Technologie, Methode oder Metapher bezeichnet [238]. Tatsächlich wurden in der Literatur unzählige Definitionen und Ausprägungen von Hypertext gegeben, siehe z.b. [48, 54, 64, 100, 165, 171, 210]. Bei dieser Fülle von Definitionen wobei die Autoren unterschiedliche Aspekte herausstellen betont Hofmann [113] vier wichtige Kernpunkte, die er für eine vollständige Charakterisierung von Hypertext in der Informatik als notwendig ansieht: Hypertexte haben die Gestalt von gerichteten Graphen (Netzwerke). Die Knoten enthalten bzw. repräsentieren die Informationen, die durch Verweise, die Links, miteinander verknüpft sind. Sowohl das Lesen als auch das Schreiben von Hypertext sind nichtlineare Tätigkeiten. Eine Datenstruktur, die diese Vernetzung unterstützt, ist dabei die Voraussetzung. Hypertexte sind nur in einem medialen Kontext, also maschinenunterstützt denkbar. Direkte Anwendungen davon sind klassische Hypertext- und Onlinesysteme. Hypertexte besitzen einen visuellen Aspekt. Das bedeutet, dass Hypertext nicht nur ein Konzept der Informationsstrukturierung, sondern auch eine Darstellungs- und Zugriffsform von textuellen Informationen ist. Auch in der Sprachwissenschaft und in der Linguistik wurde Hypertext als eine neue Form der schriftlichen Sprachverwendung studiert, z.b. [150, 222]. Dabei wurden insbesondere linguistische Aspekte, wie Kohärenz- und Kohäsionsbeziehungen, in Hypertext untersucht. Eine bekannte Studie in diesem Problemkreis wurde von Storrer [221] durchgeführt. In dieser Arbeit geht es im Wesentlichen um die Fragestellung, ob die Ergebnisse über Untersuchungen von Kohärenzbildungsprozessen in linear organisierten Texten auf den Entwurf von Hypertexten übertragbar sind. Weiterhin wurde die Problemstellung der automatischen Generierung von Hypertext aus natürlichsprachigem Text untersucht, insbesondere wie und unter welchen Kriterien Hypertext automatisiert konstruierbar ist. Ein linguistisches Kriterium, welches als Grundlage zur Generierung von Hypertext aus Texten dient, wurde von Mehler [153] angegeben. Historisch gesehen wurde die Hypertext-Idee aus heutiger Sicht zweifellos von Bush [40] geschaffen. In seinem bekannten Artikel As we may think [40] beschrieb er das System Memex (Memory Extender), welches zum Ziel hatte, wissenschaftliche Dokumente nichtlinear zu verknüpfen und zu speichern, um dadurch 12

die schon damals ständig wachsende Anzahl an wissenschaftlichen Publikationen für ein breites Publikum nutzbar zu machen. In seiner Ganzheit wurde dieses System jedoch nie realisiert, zumal es inkompatible Technologien (z.b. Buch und Microfiche) hätte überbrücken müssen. Der eigentliche Hypertext -Begriff wurde in den sechziger Jahren durch Nelson geprägt. Er führte die Ideen Bush s weiter, indem er die technischen Voraussetzungen schaffte, um Hypertext auf Computersystemen zu realisieren. Nelson gilt als Architekt des universellen Hypertextsystems Xanadu [164], das aber oft als unrealistisch angesehen wurde, da es zum Ziel hatte, die Gesamtheit aller elektronischen Publikationen weltweit zu integrieren. Die Implementierung von Xanadu ist nur in Teilen erfolgt und wird bis heute fortgesetzt [166]. Ein weiterhin sehr bekanntes Hypertextsystem ist Augment [74], welches 1962 bis 1976 von Englebart in Stanford realisiert wurde. Insgesamt gesehen wurden viele Hypertextsysteme entwickelt, wobei bekannte Vertreter z.b. HyperCard, NoteCards, Neptune/HAM und HyperTies [195, 219] sind. Detaillierte Informationen bezüglich der genannten Hypertextsysteme findet man in [113, 195, 219]. Der Begriff Hypermedia wird üblicherweise gebraucht, wenn in Hypermedia-Dokumenten 2 nicht nur Texte, sondern auch multimediale Objekte wie Graphiken, Ton- und Filmsequenzen nichtlinear miteinander verknüpft werden. In der Literatur wird auf Grund dieses Sachverhalts bisweiten Hypertext (textbasiert) und Hypermedia (medienbasiert) als zwei disjunkte Kategorien betrachtet. Für diese Arbeit ist es sinnvoller Hypermedia unter Hypertext zu subsummieren. Hypertext beschreibt dann Dokumente mit Graphstruktur, Hypermedia meint die Untermenge, welche mehrere Medien einbezieht. Multimediasysteme werden in der Literatur klar von Hypertextsystemen unterschieden [113, 219], da in Multimediasystemen die Dokumentstrukturen modelliert werden, ohne deren strukturelle Aspekte hevorzuheben. Tiefere Einblicke über Hypermedia- und Multimediasysteme geben z.b. Steinmetz [220] und Schulmeister [201], wobei Schulmeister insbesondere didaktische und lernbezogene Aspekte von Hypermedia behandelt. Als Anwendungsgebiete von Hypertext und Hypermedia kommen mittlerweile unterschiedlichste Wissenschafts- und Industriebereiche in Frage. Anwendungsgebiete sind beispielsweise Büro und Management, Konstruktions- und Fertigungsbereiche, Schule und Weiterbildung, technische Dokumentenverwaltung, elektronische Enzyklopädien und Bücher, hypertextuelle Produktkataloge und die Wissensrepräsentation [138, 195, 235]. Weitere Überblicke über die unterschiedlichen Anwendungsfelder sind in [167, 219, 220] zu finden. 2 Im Sprachgebrauch ist Hypertext wie bereits definiert gebräuchlich, aber nicht Hypermedia, sondern Hypermedia-Dokumente. 13

2.2 Problemstellungen des Web Mining Durch die Entstehung des World Wide Web [20], auch Web oder kurz WWW genannt, ist die Popularität von Hypertext in den neunziger Jahren deutlich gestiegen. 1989 wurde von Berners-Lee, einem damaligen Mitarbeiter des Forschungszentrums für Teilchenphysik (CERN) in Genf/Schweiz, die Idee des World Wide Web als Hypertextsystem geboren [19]. Da in der vorliegenden Arbeit die Entwicklung graphentheoretischer Modelle für web-basierte Dokumentstrukturen fokussiert wird, erfolgt zunächst ein kurzer Überblick über die Eigenschaften und Probleme des World Wide Web hinsichtlich der Informationssuche. Weiterhin werden die Kernbereiche des Web Mining detailliert dargestellt, wobei in dieser Arbeit das Web Structure Mining besonders thematisiert wird. Dies geschieht vor dem Hintergrund, dass das graphbasierte Modell aus Kapitel (5) zur Berechnung der strukturellen Ähnlichkeit web-basierter Hypertexte, zur Lösung von Problemstellungen im Web Structure Mining beiträgt. 2.2.1 Probleme des World Wide Web bezüglich der Informationssuche Im klassischen Information Retrieval (IR) [7, 81] werden auf der Basis von Informationssystemen Fragestellungen der inhaltsorientierten Auffindung und Gewinnung (Retrieval) von Informationen in großen Datenbeständen untersucht. Dabei ist eine Benutzeranfrage an das System von zwei im Information Retrieval enthaltenen wesentlichen Begriffen geprägt [7, 81, 192]: Vagheit: Das Informationsbedürfnis kann durch den Benutzer nicht präzise und formal formuliert werden. Unsicherheit: Sie wird meistens durch die nicht aussagekräftige Semantik, also durch fehlende inhaltliche Informationen in den vorliegenden Dokumenten oder Texten induziert. Vereinfacht gesehen, kann man das World Wide Web als sehr große und inhomogene Datenbank betrachten, die täglich viele Millionen Benutzeranfragen über die verfügbaren Suchdienste erhält. Baeza-Yates et al. [7] stellen die Probleme des World Wide Web hinsichtlich der Informationssuche detailliert vor: Einerseits bezüglich der Daten und andererseits bezogen auf systemabhängige Benutzeranfragen und deren Interpretation. Der erstgenannte Problemkreis wird dabei in folgende Unterpunkte untergliedert: 14

Verteilte Daten: Die Daten sind auf Grund der netzwerkartigen Struktur des Webs auf viele Plattformen verteilt, wobei die Rechner in unbekannter Weise miteinander vernetzt sind und ihre Funktionssicherheit stark variiert. Hoher Anteil an unbeständigen Daten: Große Datenmengen ändern sich innerhalb kurzer Zeit. 1999 wurde ermittelt, dass sich zu dieser Zeit ca. 40% vom Gesamtinhalt des World Wide Web monatlich änderte. Große Datenmengen: Das Web unterliegt einem exponentialen Datenwachstum, das Skalierungsprobleme induziert. Unstrukturiertheit und Redundanz: Die meisten Dokumente im Web sind unstrukturiert und inkonsistent, insbesondere HTML-Seiten. Große Datenmengen werden kopiert oder gespiegelt, wodurch beachtliche Mengen an redundanten Daten entstehen. Qualität der Daten: Da es eine unzureichende Datenkontrolle gibt, die z.b. inhaltlich fehlerhafte Dokumente im World Wide Web vor dem Upload filtert, kann jeder beliebige Benutzer Daten einstellen, was die Qualität der Ergebnisse von Suchanfragen sehr beeinträchtigt. Heterogenität der Daten: Die Daten besitzen unterschiedliche Datentypen, z.b. Text, Graphik und Video und unterschiedliche Sprachalphabete. Der zweite Problemkreis umfasst im Wesentlichen die Kernpunkte: Richtige Formulierung von Benutzeranfragen und deren Interpretierbarkeit. Interpretation von Systemantworten u.a. die Selektion von nutzbaren Treffern und Umgang/Optimierung von großen Trefferlisten. Auf Grund der aufgeführten Probleme wird klar, dass das Ziel, brauchbare Benutzeranfragen zu formulieren und Systemantworten auf der Basis von Information Retrieval-Methoden zu optimieren, eine große Herausforderung darstellt. Um eine bessere Vorstellung von den Komponenten einer Suchmaschine zu bekommen, sei die Abbildung (2.1) [7] betrachtet. Am Beispiel dieser Abbildung werden die wesentlichen Komponenten der Suchmaschine kurz umrissen, die hier aus zwei Blöcken bestehen: (i) aus dem Benutzer-Interface und der so genannten Query Engine und (ii) aus dem Crawler und dem Indexer. Wenn die Anfrage über das Benutzer-Interface zur Query Engine übertragen wird, führt die Query Engine eine Datenbankabfrage aus, mit dem Ziel, eine Rangordnung der Ergebnisdokumente zu erzeugen. Die Güte solcher Abfragen wird oft mit den Performancemaßen [81] Recall und Precision 3, die aus dem Information Retrieval stammen, 3 Die Definitionen von Recall und Precision werden in Kapitel (3.5) auf der Basis einer Kontingenztabelle angegeben. 15