Methoden zur sprachübergreifenden Plagiaterkennung



Ähnliche Dokumente
Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Zeichen bei Zahlen entschlüsseln

Übung: Verwendung von Java-Threads

1 Mathematische Grundlagen

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe

Gesucht und Gefunden: Die Funktionsweise einer Suchmaschine

TECHNISCHE UNIVERSITÄT DRESDEN FAKULTÄT ELEKTROTECHNIK UND INFORMATIONSTECHNIK. Institut für Feinwerktechnik und Elektronik-Design DIPLOMARBEIT

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Patch-Management. Leibniz-Akademie Hannover Wirtschaftsinformatik B. Sc. Praxisreflexion im Bereich Management im SS 2011

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

4. AUSSAGENLOGIK: SYNTAX. Der Unterschied zwischen Objektsprache und Metasprache lässt sich folgendermaßen charakterisieren:

Technische Dokumentation: wenn Englisch zur Herausforderung wird

Grundbegriffe der Informatik

Task: Nmap Skripte ausführen

Lineare Gleichungssysteme

Primzahlen und RSA-Verschlüsselung

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Lineare Differentialgleichungen erster Ordnung erkennen

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Dokumentation von Ük Modul 302

Lineare Gleichungssysteme

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen.

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016

Einführung in. Logische Schaltungen

Kapiteltests zum Leitprogramm Binäre Suchbäume

Eine Logikschaltung zur Addition zweier Zahlen

Maschinelle Übersetzung

FlowFact Alle Versionen

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor:

Die Lernumgebung des Projekts Informationskompetenz

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

Professionelle Seminare im Bereich MS-Office

AUF LETZTER SEITE DIESER ANLEITUNG!!!

SDD System Design Document

Vorkurs Informatik WiSe 15/16

SOZIALVORSCHRIFTEN IM STRAßENVERKEHR Verordnung (EG) Nr. 561/2006, Richtlinie 2006/22/EG, Verordnung (EU) Nr. 165/2014

Additional Cycle Index (ACIX) Thomas Theuerzeit

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Berechnung der Erhöhung der Durchschnittsprämien

EasyWk DAS Schwimmwettkampfprogramm

Konzepte der Informatik

Talentmanagement in Unternehmen gestalten. Suche und Bindung von technischen Fachkräften

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Elexis-BlueEvidence-Connector

5.2 Neue Projekte erstellen

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt?

Hinweise zur Anfertigung der Masterarbeit im Studiengang Physische Geographie der Goethe-Universität Frankfurt am Main

kleines keyword brevier Keywords sind das Salz in der Suppe des Online Marketing Gordian Hense

Aktivierung der SeKA-Anmeldung

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Microsoft PowerPoint 2013 Folien gemeinsam nutzen

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Approximation durch Taylorpolynome

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Suchmaschinenalgorithmen. Vortrag von: Thomas Müller

Inkrementelles Backup

Installieren von Microsoft Office Version 2.1

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig?

Inhalt. 1 Einleitung AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER

Barrierefreie Webseiten erstellen mit TYPO3

Hinweise zur Datensicherung für die - Prüfmittelverwaltung - Inhalt

Qualitätsmanagement an beruflichen Schulen in Deutschland: Stand der Implementierung. Diplomarbeit

Insiderwissen Hintergrund

Kursdemo zum Kurs Vertragsgestaltung und Vertragsmanagement. Prof. Dr. Inge Scherer

Programm 4: Arbeiten mit thematischen Karten

Seite 1 von 14. Cookie-Einstellungen verschiedener Browser

Netzsicherheit I, WS 2008/2009 Übung 12. Prof. Dr. Jörg Schwenk

Fragebogen ISONORM 9241/110-S

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Erläuterung des Begriffs Plagiat

Grundfunktionen und Bedienung

Ihr Weg in die Suchmaschinen

Beschreibung des MAP-Tools

Step by Step Webserver unter Windows Server von Christian Bartl

Anleitung E Mail Thurcom E Mail Anleitung Version

Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt?

1. Einführung Erstellung einer Teillieferung Erstellung einer Teilrechnung 6

Virtueller Seminarordner Anleitung für die Dozentinnen und Dozenten

Urlaubsregel in David

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

Spezielle Websites für die technische Analyse

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

Lieber SPAMRobin -Kunde!

2 Evaluierung von Retrievalsystemen

Klausur Informationsmanagement

A1.7: Entropie natürlicher Texte

Analyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS

Das System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert.

Transkript:

Fakultät für Elektrotechnik, Informatik und Mathematik Institut für Informatik Fachgebiet Wissensbasierte Systeme Masterarbeit zur Erlangung des Grades Master of Science Methoden zur sprachübergreifenden Plagiaterkennung von Maik Anderka Leipziger Str. 1 34454 Bad Arolsen manderka@upb.de vorgelegt am 01. Oktober 2007 bei Prof. Dr. Benno Stein und Prof. Dr. Wilhelm Schäfer betreut von Dipl.-Inf. Martin Potthast

Kurzfassung Gegenstand dieser Arbeit ist die Erforschung und Entwicklung von Methoden zur sprachübergreifenden Erkennung von Plagiaten in Textdokumenten. Das Problem der sprachübergreifenden Plagiaterkennung wird erstmals als Ganzes betrachtet. Dabei werden zwei Teilaufgaben unterschieden: Heuristisches Retrieval und detaillierte Analyse. Für beide Teilaufgaben werden verschiedene Lösungsansätze vorgeschlagen. Der Schwerpunkt liegt auf der detaillierten Analyse, hierzu werden Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse entwickelt. In dieser Arbeit wird ein neues Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse vorgestellt die Cross-Language Explicit Semantic Analysis (CL-ESA). Der CL-ESA liegt ein sprachübergreifendes Konzeptraummodell zu Grunde, das es ermöglicht, den Inhalt von verschiedensprachigen Dokumenten, auf der Basis einer enormen Menge von externem Wissen, zu repräsentieren und zu vergleichen. Die CL-ESA ist eine Generalisierung der Explicit Semantic Analysis (ESA) (Gabrilovich und Markovitch, 2007) und verwendet als Wissensbasis die Online-Enzyklopädie Wikipedia. Es wurde ein Softwaresystem entwickelt, das die CL-ESA für die Sprachen Deutsch und Englisch implementiert und anhand dessen umfangreiche Experimente zur Evaluierung der CL-ESA durchgeführt wurden. Dabei hat sich gezeigt, das die CL-ESA bei der sprachübergreifenden Ähnlichkeitsanalyse sehr gute Ergebnisse erzielt und eine geringe Laufzeit besitzt, die mit der des Vektorraummodells vergleichbar ist. In 82,2 % der Testfälle konnte die englische Übersetzung eines deutschen Dokuments in einer Menge von Dokumenten identifiziert werden und in 96 % der Fälle lag die Übersetzung unter den zehn Dokumenten, die die höchste Ähnlichkeit zu dem deutschen Dokument aufwiesen. iii

Inhaltsverzeichnis Kurzfassung..................................... iii Notationen..................................... xi 1 Einleitung 1 2 Information Retrieval (IR) 5 2.1 Vektorraummodell und Dokumentindexierung............... 7 2.2 Cross-Language Information Retrieval (CLIR)............... 8 2.3 Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse.......... 9 3 Plagiaterkennung 13 3.1 Grundlegende Vorgehensweise........................ 13 3.2 Verfahren zur monolingualen Plagiaterkennung............... 16 3.2.1 Dokumentmodellvergleich...................... 16 3.2.2 Fingerprinting............................. 17 3.2.3 Fuzzy-Fingerprinting......................... 17 3.2.4 Stilanalyse............................... 18 4 Sprachübergreifende Plagiaterkennung 21 4.1 Problemstellung................................ 21 4.2 Heuristisches Retrieval............................ 22 4.2.1 CLIR-basiertes heuristisches Retrieval................ 23 4.2.2 MT-basiertes heuristisches Retrieval................. 24 4.3 Detaillierte Analyse.............................. 25 5 Konzeptraummodell 27 5.1 Monolinguales Konzeptraummodell (CSM)................. 28 5.1.1 Konzeptindexierung.......................... 29 5.1.2 Explicit Semantic Analysis (ESA).................. 29 5.2 Sprachübergreifendes Konzeptraummodell (CL-CSM)........... 31 v

Inhaltsverzeichnis 5.2.1 Wörterbuchbasiert.......................... 33 5.2.2 Thesaurusbasiert........................... 34 5.2.3 Parallelkorpusbasiert......................... 36 5.3 Cross-Language Explicit Semantic Analysis (CL-ESA)........... 37 6 Details zur Implementierung 39 6.1 Konstruktion des Wikipedia-basierten CL-CSM.............. 39 6.1.1 Extraktion der relevanten Artikel (Filtern)............. 40 6.1.2 Konstruktion eines bilingualen Wikipedia-Thesaurus....... 42 6.1.3 Indexierung.............................. 43 6.2 Repräsentation von Dokumenten...................... 44 6.2.1 Dokumentindexierung........................ 45 6.2.2 Berechnung der Konzeptvektoren.................. 46 7 Experimentelle Auswertung der CL-ESA 47 7.1 Allgemeine Parameter............................ 47 7.2 Monolinguale Evaluierung der ESA..................... 49 7.3 Evaluierung der sprachübergreifenden Ähnlichkeitsanalyse mittels CL-ESA 50 7.3.1 Evaluierung anhand von Wikipedia................. 51 7.3.2 Evaluierung anhand des Europarl-Korpus.............. 53 7.4 Laufzeit der CL-ESA............................. 55 7.5 Multilingualität der CL-ESA......................... 55 7.6 Diskussion................................... 57 7.6.1 Schlussfolgerungen.......................... 57 7.6.2 Vergleich der CL-ESA mit anderen Verfahren........... 61 8 Zusammenfassung und Ausblick 63 Literaturverzeichnis 67 Stichwortverzeichnis 73 vi

Abbildungsverzeichnis 2.1 Prozess des Information Retrieval...................... 5 2.2 Beispiel für das Vektorraummodell..................... 7 2.3 Beispiel für das CLIR............................. 9 2.4 Taxonomie der Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse. 10 3.1 Plagiaterkennung als ein Prozess aus drei Schritten............ 14 3.2 Taxonomie der Plagiatvergehen und mögliche Erkennungsmethoden... 15 4.1 UML-Aktivitätsdiagramm: Lösungsansätze für das heuristische Retrieval 23 4.2 UML-Aktivitätsdiagramm: Lösungsansatz für die detaillierte Analyse.. 25 5.1 Beispiel für das monolinguale Konzeptraummodell............. 28 5.2 Beispiel für ein (sprachübergreifendes) Konzept.............. 31 5.3 Beispiel für das sprachübergreifende Konzeptraummodell......... 32 5.4 Beispiel für das wörterbuchbasierte sprachübergreifende Konzeptraummodell....................................... 33 5.5 Beispiel für das thesaurusbasierte sprachübergreifende Konzeptraummodell 35 5.6 Beispiel für das enzyklopädiebasierte sprachübergreifende Konzeptraummodell..................................... 37 6.1 Konstruktion eines Wikipedia-basierten sprachübergreifenden Konzeptraummodells................................. 40 6.2 UML-Aktivitätsdiagramm: Parsen eines Wikipedia-Dumps........ 41 6.3 Beispiel für Wikipedia-Artikel, die Paare bilden............... 42 6.4 Auszug aus einem bilingualen Wikipedia-Thesaurus............ 43 6.5 UML-Aktivitätsdiagramm: Indexierung der Wikipedia-Artikel...... 43 6.6 Beispiel für die Erstellung eines invertierten Indexes............ 44 6.7 Beispiel für die Indexierung eines Dokuments, CL-ESA.......... 45 7.1 Ergebnisse der monolingualen Ähnlichkeitsanalyse mittels ESA..... 49 vii

Abbildungsverzeichnis 7.2 Laufzeit der CL-ESA............................. 55 7.3 Anzahl der Wikipedia-Artikel in verschiedenen Wikipedia-Sprachversionen 56 7.4 Anzahl der Wikipedia-Artikel, die in verschiedenen Wikipedia-Sprachversionen Übersetzungspaare bilden.......................... 56 7.5 Ähnlichkeitsverteilung für die Dokumente des Europarl-Korpus...... 59 7.6 Ähnlichkeitsverteilung für die Artikel in Wikipedia............ 59 viii

Tabellenverzeichnis 5.1 Relevanzkriterien für Wikipedia-Artikel................... 30 6.1 Informationen zu den verwendeten Wikipedia-Dumps........... 40 7.1 Relevanzkriterien, die in den Experimenten eingesetzt wurden...... 48 7.2 Anzahl der relevanten Artikel, entsprechend der Relevanzkriterien.... 48 7.3 Vergleich zwischen ESA und ESA..................... 50 7.4 Ergebnisse der Experimente zur Evaluierung der CL-ESA anhand von Wikipedia..................................... 52 7.5 Ergebnisse der Experimente zur Evaluierung der CL-ESA anhand des Europarl-Korpus............................... 54 7.6 Bewertung der Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse. 61 ix

Notationen Symbol Bedeutung <, > Kreuzprodukt 2 L 2 -Norm D Dokumentsammlung bzw. Referenzkorpus H Hashtabelle K Wissensmenge K j Menge von Wissen in der Sprache L j L Menge von Sprachen ϕ Ähnlichkeitsfunktion ϕ cos Kosinusähnlichkeit c, c i Textabschnitt C Menge von Textabschnitten d, d i Dokument bzw. Artikel d q Verdächtiges Dokument bzw. Beispieldokument d, d i Dokumentmodell bzw. Vektorrepräsentation eines Dokuments d bzw. d i [d] i i-te Komponente des Vektors d D, D i Dokumentmenge f, f i Merkmal bzw. Schlüsselwort h(c), h ϕ (c) Hashwert eines Textabschnitts c bzw. (Fuzzy-) Fingerprint k, k i Konzept k, k i Support-Vektor für das Konzept k bzw. k i L k j i Support-Vektor für das Konzept k i in der Sprache L j K Menge von Konzepten L, L j (Natürliche) Sprache q Anfrage bzw. Wortanfrage tf(f, d) Häufigkeit des Schlüsselwortes f in dem Dokument d tf idf Termgewichtsmaß: Termhäufigkeit multipliziert mit der inversen Dokumenthäufigkeit U Universum von Hashwerten V Menge von Schlüsselwörtern bzw. Vokabular V de, V en Vokabular eines deutschen bzw. englischen invertierten Indexes w, w j Wort w(f) Gewicht des Schlüsselworts f

1 Einleitung Das rasante Wachstum des World Wide Web führt dazu, dass dem Menschen eine unüberschaubare Menge von Informationen zu allen Themen zur Verfügung steht, die von jedem Ort und zu jeder Zeit abrufbar ist. Mittels Suchmaschinen wird der Unüberschaubarkeit entgegengewirkt, denn diese ermöglichen eine einfache und gezielte Suche nach relevanten Informationen. Die wachsende Leichtigkeit der Informationsbeschaffung ist für manche ein großer Anreiz zu plagiieren. Doch auch die Leichtigkeit Plagiate mittels maschineller Suche zu entlarven, hat dazu geführt, dass das Problem der Plagiaterkennung in den letzten Jahren mehr und mehr diskutiert wurde. Die Benutzung oder Übernahme von fremdem geistigen Eigentum, ohne korrekte Angabe der Originalquelle, wird als Plagiieren bezeichnet. Das Produkt, das dadurch entsteht, wird Plagiat genannt. Plagiate lassen sich in vielen verschiedenen Bereichen finden, beispielsweise in der Literatur, in Musikstücken, in wissenschaftlichen Arbeiten, in Software oder auch in abstrakten Dingen, wie etwa neuen Ideen oder wissenschaftlichen Erkenntnissen. Diese Arbeit befasst sich ausschließlich mit Plagiaten in Textdokumenten. Besonders im akademischen Bereich und vor allem an Universitäten sind Plagiate ein ernst zu nehmendes Problem (Culwin und Lancaster, 2000). Für Studierende, die ausreichend kriminelle Energie mitbringen, ist es ein leichtes, in ihre Hausarbeiten oder wissenschaftlichen Ausarbeitungen fremde Inhalte einzufügen, denn Suchmaschinen und Online-Enzyklopädien liefern zu fast jedem Themengebiet eine Vielzahl von Informationen, die einfach z. B. mittels Kopieren & Einfügen übernommen werden können. Dass Plagiate im akademischen und schulischen Bereich keine Seltenheit sind, zeigt nicht zuletzt die Tatsache, dass mittlerweile umfangreiche Online-Angebote existieren, die das Plagiieren unterstützen, wie z. B. Cheat House 1. Um dem zunehmenden Problem des Plagiierens entgegenzuwirken, ist es an vielen Universitäten in den USA und in Kanada 1 Cheat House: http://www.cheathouse.com. 1

1 Einleitung inzwischen üblich, studentische Arbeiten auf Plagiate hin zu überprüfen und Plagiatvergehen entsprechend zu ahnden. Da es aufgrund der Vielzahl von Studierenden nicht möglich ist, jede Arbeit manuell nach Plagiaten zu durchsuchen, werden meist kommerzielle Softwaresysteme zur maschinellen Plagiaterkennung eingesetzt, wie z. B. Turnitin 2 oder Plagiarism Finder 3. Auch im kommerziellen Bereich spielt die Plagiaterkennung eine wichtige Rolle, etwa um Copyright-Verletzungen aufzudecken. Plagiate tauchen beispielsweise in der Literatur auf, in Nachrichten- bzw. Zeitungsartikeln, auf Webseiten oder in der Werbung. Ein Softwaresystem zur Plagiaterkennung, das speziell für den Einsatz im kommerziellen Bereich entwickelt wurde, ist z. B. ithenticate 4. Über die bekannten Softwaresysteme zur maschinellen Erkennung von Plagiaten, wie Turnitin, Plagiarism Finder oder ithenticate, sind keine technischen Informationen bekannt, da es sich um kommerzielle Anwendungen handelt. Mit Hinblick auf den aktuellen Stand der Forschung im Bereich der Plagiaterkennung ist jedoch anzunehmen, dass durch diese Systeme nur die Plagiate erkannt werden, die durch eine Eins-zu-eins-Kopie entstehen. Bei einer Eins-zu-eins-Kopie wird der Originaltext Wort für Wort übernommen. Die vermehrt auftretenden Plagiate sind allerdings diejenigen, die durch eine Modifikation des Originaltexts entstehen, z. B. durch eine Veränderung des Satzbaus oder durch den Austausch einzelner Wörter. Diese Art des Plagiierens wird häufig angewandt, da die Gefahr, entlarvt zu werden, geringer ist, wenn der Originaltext leicht verändert wird. Ein Softwaresystem, das die Erkennung von Plagiaten ermöglicht, die durch Modifikation entstehen, ist Picapica.net 5. Eine weitere, weit verbreitete, Form von Plagiaten, die bisher von keiner Plagiaterkennungssoftware entlarvt werden, sind Plagiate, die durch eine Übersetzung des Originaltexts entstehen. Die meisten Studierenden hierzulande schreiben beispielsweise ihre Ausarbeitungen in deutscher Sprache, die entsprechende Literatur ist jedoch in vielen Disziplinen nur in Englisch verfügbar. Es ist sehr einfach, Texte oder Textpassagen manuell oder mit der Unterstützung von entsprechender Software zu übersetzen und in die eigene Arbeit einzufügen. Die Erkennung solcher Plagiate wird als sprachübergreifende Plagiaterkennung bezeichnet. Aktuell sind keine Forschungsarbeiten bekannt, die eine Lösung für die sprachübergreifende Plagiaterkennung vorschlagen. Lediglich eine Arbeit 2 Turnitin: http://www.turnitin.com. 3 Plagiarism Finder: http://m4-software.com. 4 ithenticate: http://www.ithenticate.com. 5 Picapica.net (Plagiarism Indication by Computer-based Analysis): http://www.picapica.net. 2

(Pouliquen et al., 2003) bietet eine Lösung für ein Teilproblem; die Problematik der sprachübergreifenden Plagiaterkennung wird jedoch nicht vertieft. Gegenstand dieser Arbeit ist die Erforschung und Entwicklung von Methoden zur maschinellen, sprachübergreifenden Erkennung von Plagiaten. Die sprachübergreifende Plagiaterkennung wird erstmals als Ganzes betrachtet und es werden verschiedene Verfahren zur Lösung vorgestellt. In diesem Zusammenhang wird ein neues Dokumentmodell das Konzeptraummodell vorgestellt, das es ermöglicht, den Inhalt von Dokumenten basierend auf einer enormen Menge von Wissen sprachübergreifend zu repräsentieren. Weiterhin wird ein neues Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse präsentiert, in dem ein Konzeptraummodell eingesetzt wird die Cross-Language Explicit Semantic Analysis (CL-ESA). Im Rahmen dieser Arbeit wurde ein Softwaresystem entwickelt, das die CL-ESA implementiert und zur sprachübergreifenden Plagiaterkennung eingesetzt werden kann. Das System wurde anhand von verschiedenen Experimenten evaluiert. Die Ergebnisse werden mit existierenden Verfahren aus dem Bereich der sprachübergreifenden Ähnlichkeitsanalyse verglichen. Kapitel 2 gibt eine Einführung in die Grundlagen und die Terminologie des Information Retrieval sowie des Cross-Language Information Retrieval. Außerdem wird eine Übersicht über existierende Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse gegeben. In Kapitel 3 wird die Plagiaterkennung erläutert und zwischen monolingualer und sprachübergreifender Plagiaterkennung unterschieden. Weiterhin erfolgt die Beschreibung der Problemstellung sowie grundlegender Techniken der monolingualen Plagiaterkennung. Auf die sprachübergreifende Plagiaterkennung wird in Kapitel 4 eingegangen. Es werden die Problemstellung definiert und neue Verfahren zur Lösung vorgeschlagen. In Kapitel 5 erfolgt die Erläuterung des Konzeptraummodells und der CL-ESA. Dabei werden verschiedene Arten von Konzeptraummodellen, denen unterschiedliche Wissensbasen zu Grunde liegen, beschrieben. Kapitel 6 enthält Details zur Implementierung der CL-ESA. Die Experimente zur Evaluierung der CL-ESA werden in Kapitel 7 beschrieben, deren Ergebnisse diskutiert und mit anderen Verfahren verglichen. 3

1 Einleitung Eine Zusammenfassung der Arbeit und ein Ausblick erfolgt in Kapitel 8. 4

2 Information Retrieval (IR) Neben allen Vorteilen, die das enorme Wachstum und die große Informationsvielfalt des World Wide Web mit sich bringen, wird das Auffinden von Informationen, die für einen Benutzer relevant sind, immer schwieriger. Das Fachgebiet Information Retrieval (IR) 1 befasst sich mit der Suche von Informationen in großen, unstrukturierten Datenmengen. Ziel ist es, den Informationsbedarf einer Person, durch ein Dokument zu befriedigen. Der Informationsbedarf wird häufig als, für ein Informationssystem geeignete, Anfrage spezifiziert. Ein Beispiel für ein IR-System sind Suchmaschinen, wie z. B. Google 2. Dokumentmodell d D Informationsbedarf Computerrepräsentation des Dokuments Retrieval-Modell Ähnlichkeitsberechnung φ(d,q) q Q Formalisierte Anfrage Reales Dokument d D q Q Abb. 2.1: Prozess des Information Retrieval (Stein et al., 2006). Das Ziel ist, einen Informationsbedarf q durch ein reales Dokument d zu befriedigen. Um das Ziel mit der Unterstützung eines Informationssystems zu erreichen, werden q und d durch q und d abstrahiert. Anhand eines Ähnlichkeitsmaßes ϕ wird die Ähnlichkeit zwischen q und d bestimmt. Wie das oben genannte Ziel mit der Unterstützung eines Informationssystems erreicht wird, ist in Abb. 2.1 dargestellt. Im Information Retrieval wird zwischen einem realen Dokument d und seiner Computerrepräsentation d unterschieden. Ein Informationsbedarf q und ein Dokument d werden durch q und d abstrahiert. Anhand eines Ähnlichkeitsmaßes ϕ wird die Ähnlichkeit zwischen q und d bestimmt. Die Ähnlichkeitsfunktion ϕ(q, d) bildet q und d auf das Intervall [0; 1] ab, wobei 0 keiner 1 Information Retrieval bedeutet Informationsbeschaffung oder auch Informationswiedergewinnung. 2 Google: http://www.google.de. 5

2 Information Retrieval (IR) Ähnlichkeit und 1 der maximalen Ähnlichkeit zwischen q und d entspricht. Eine Computerrepräsentation zusammen mit einem Ähnlichkeitsmaß wird als Dokumentmodell bezeichnet. Der Informationsbedarf bzw. die Anfrage kann auf unterschiedliche Art und Weise spezifiziert werden. Es wird unterschieden zwischen einer Wortanfrage und einem Dokument. Eine Wortanfrage besteht aus einer Menge von Schlüsselwörtern. Diese Form der Anfrage kommt z. B. bei Suchmaschinen zum Einsatz. In der Plagiatanalyse dagegen wird der Informationsbedarf durch ein (verdächtiges) Dokument spezifiziert. Dieses Prinzip wird als Query by Example bezeichnet. 3 Im Information Retrieval kann außerdem zwischen einer geschlossenen und einer offenen Retrieval-Situation unterschieden werden (Stein, 2007). Eine geschlossene Retrieval- Situation liegt vor, wenn die komplette Dokumentsammlung D, in der sich ein Dokument d befindet, im Voraus bekannt ist. In einer offenen Retrieval-Situation ist D im Voraus unbekannt. Die Plagiaterkennung ist ein Anwendungsfall des Information Retrieval. Die Verfahren zur Plagiaterkennung basieren auf Techniken aus dem Bereich des IR. In diesem Kapitel wird daher eine Einführung in die Grundlagen sowie die Terminologie des IR geben. Dabei werden nur die Themen angesprochen, die im weiteren Verlauf der Arbeit von Bedeutung sind. In Abschnitt 2.1 wird ein weit verbreitetes Dokumentmodelle das Vektorraummodell beschrieben und das Prinzip der Dokumentindexierung erläutert. Mit einem Teilgebiet des IR, dem Cross-Language Information Retrieval (CLIR), befasst sich Abschnitt 2.2. Hierbei können sowohl die Anfrage q als auch das Dokument d in beliebigen Sprachen vorliegen. Abschnitt 2.3 geht auf die sprachübergreifende Ähnlichkeitsanalyse von Dokumenten ein. Die Problemstellung der sprachübergreifenden Ähnlichkeitsanalyse entspricht der Problemstellung der sprachübergreifenden Plagiaterkennung. 3 Das Dokument, das die Anfrage darstellt, wird als Example bzw. Beispieldokument bezeichnet. 6

2.1 Vektorraummodell und Dokumentindexierung 2.1 Vektorraummodell und Dokumentindexierung Ein im Information Retrieval weit verbreitetes Dokumentmodell ist das Vektorraummodell (Vector Space Model, VSM) nach Salton et al. (1975). Ein Dokument d wird durch einen m-dimensionalen Vektor d repräsentiert. Jede Dimension des dadurch aufgespannten Vektorraums entspricht einem Merkmal f, aus einer Menge von Merkmalen V = {f 1,..., f m }. Der i-te Eintrag des Vektors d quantifiziert die Wichtigkeit des Merkmals f i in Bezug auf den Inhalt des Dokuments d. Häufig werden Worte als Merkmale verwendet, in diesem Fall spricht man von einer bag-of-words - Repräsentation. Der Vektor d wird dann als Wortvektor bezeichnet. Ein Beispiel für das Vektorraummodell ist in Abb. 2.2 dargestellt. d 1 boy φ d 2 d 1 boy plays chess bridge chess d 2 boy plays bridge too Abb. 2.2: Beispiel für das Vektorraummodell (Meyer zu Eißen et al., 2005). Die Dokumente d 1 und d 2 werden in einem Vektorraum, der durch die Worte boy, chess und bridge aufgespannt wird, repräsentiert. Die Worte bilden das Vokabular V = {boy, chess, bridge}. Als Ähnlichkeitsmaß ϕ ist die Kosinusähnlichkeit eingezeichnet. Um alle Dokumente einer Dokumentmenge D in demselben Vektorraum zu modellieren, werden alle Wörter der Dokumente zu einem gemeinsamen Vokabular V zusammengefasst. Häufig wird dabei auf so genannte Stoppwörter verzichtet. Dies sind Wörter, die nicht aussagekräftig für den Inhalt eines Dokuments sind, wie beispielsweise Artikel, Konjunktionen oder Präpositionen. Des Weiteren werden die Wörter auf ihre Stammformen gebracht, z. B. wird sowohl aus bedient, als auch aus bedienten das Wort bedienen. Dieses Vorgehen wird als Stemming bezeichnet. Ein bekanntes Stemming-Verfahren ist Porters Stemming-Algorithmus, Porter (1980). Zur Bestimmung der Wichtigkeit eines Worts, in Bezug auf den Inhalt eines Dokuments, werden so genannte Termgewichtsmaße eingesetzt. Ein weit verbreitetes Termgewichtsmaß ist tf idf (Salton und McGill, 1983), das sich aus dem Produkt der Termhäufigkeit (tf, Term Frequency) und der inversen Dokumenthäufigkeit (idf, Inverse Document Frequency) errechnet. Das Gewicht w(f i ) für ein Wort f i bzgl. des Dokuments d D 7

2 Information Retrieval (IR) berechnet sich wie folgt: w(f i ) = tf(f i, d) log D df(f i ) Wobei tf(f i, d) die Häufigkeit von f i in d ist und df(f i ) die Anzahl der Dokumente aus D, in denen f i vorkommt. Das Termgewichtsmaß gibt solchen Wörtern eine hohe Bewertung, die in wenigen Dokumenten häufig vorkommen und daher gut geeignet sind, um diese Dokumente von anderen abzugrenzen. Das Vektorraummodell ermöglicht es, die inhaltliche Ähnlichkeit zweier Dokumente d 1 und d 2, anhand ihrer Vektorraumrepräsentationen d 1 und d 2 zu bestimmen. Es existieren verschiedene Ähnlichkeitsmaße für Wortvektoren. Das populärste Ähnlichkeitsmaß ist die Kosinusähnlichkeit. Der Grad der Ähnlichkeit zwischen zwei Wortvektoren d 1 und d 2 wird über den Kosinus des Winkels zwischen den Vektoren d 1 und d 2 bestimmt. Je spitzer der Winkel zwischen zwei Wortvektoren ist, desto größer ist die Ähnlichkeit der beiden Dokumente (siehe Abb. 2.2). Die Kosinusähnlichkeit ist wie folgt definiert: ϕ cos (d 1, d 2 ) = < d 1, d 2 > d 1 2 d 2 2 Wobei <, > das Kreuzprodukt zweier Vektoren ist und 2 Vektors, also seine Länge. die L 2 -Norm eines 2.2 Cross-Language Information Retrieval (CLIR) Die Aufgabenstellung beim Cross-Language Information Retrieval (CLIR) 4 ist dieselbe wie beim Information Retrieval (siehe Abb. 2.1), mit dem Unterschied, dass sowohl das Dokument als auch der Informationsbedarf in beliebigen Sprachen vorliegen können. Die Forschung im Bereich des CLIR konzentriert sich hauptsächlich auf die Retrieval- Situation, in der der Informationsbedarf in Form einer Wortanfrage, die durch eine Person spezifiziert wird, vorliegt. Für die Wortanfrage in einer Sprache L wird in einer Dokumentmenge D, in einer Sprache L, nach Dokumenten gesucht, deren Inhalt zu dem Thema der Wortanfrage passt. Im Fall der sprachübergreifenden Plagiaterkennung wird der Informationsbedarf jedoch durch ein Dokument d q, anstatt durch eine Wortanfrage, 4 In einigen früheren Arbeiten wird CLIR auch als Multilingual Information Retrieval, Translingual Information Retrieval oder sprachübergreifendes Information Retrieval bezeichnet. 8

2.3 Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse definiert. Es wird in D nach Dokumenten gesucht, die inhaltlich zu d q passen. Diese Retrieval-Situation wird als sprachübergreifende Ähnlichkeitsanalyse bezeichnet. Zur sprachübergreifenden Ähnlichkeitsanalyse wurde bisher nur sehr wenig Forschung betrieben. In Abb. 2.3 sind beide Retrieval-Situationen anhand eines Beispiels dargestellt. Multilinguale Dokumentsammlung (z. B. das WWW) Wortanfrage: Mercedes, C-Klasse, neu Relevanzberechnung The new C-class of Mercedes... 新 的 C 级 奔 驰... Mercedes の 新 しい C クラス... La nueva C-clase de Mercedes... Beispieldokument: Die neue C-Klasse von Mercedes... С нового класса Мерседес... الجديد ج - فئة مرسيدس... Abb. 2.3: Beispiel für das CLIR mit zwei unterschiedlichen Arten von Anfragen: Wortanfrage und Beispieldokument. In einer multilingualen Dokumentsammlung werden Dokumente in beliebigen Sprachen identifiziert, die inhaltlich zu der deutschen Wortanfrage bzw. dem deutschen Beispieldokument passen. Der Schwerpunkt dieser Arbeit liegt in der sprachübergreifenden Plagiaterkennung. Die Problemstellung der sprachübergreifenden Plagiaterkennung entspricht der Problemstellung der sprachübergreifenden Ähnlichkeitsanalyse. Im folgenden Abschnitt 2.3 werden existierende Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse vorgestellt. Es gibt eine Vielzahl von Verfahren und früheren Arbeiten zum CLIR, für die Retrieval- Situation, in der der Informationsbedarf in Form einer Wortanfrage spezifiziert wird. Für weitere Informationen hierzu wird auf Oard und Dorr (1996) sowie Hull und Grefenstette (1996) verwiesen. 2.3 Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse Es kann grundsätzlich zwischen zwei Ansätzen zur sprachübergreifenden Ähnlichkeitsanalyse unterschieden werden: 9

2 Information Retrieval (IR) 1. Basierend auf Parallelkorpora. Ein Parallelkorpus stellt Dokumente in den Sprachen L und L bereit, die paarweise entweder Übersetzungen voneinander sind oder inhaltlich dasselbe Thema beschreiben. 2. Basierend auf Wörterbüchern bzw. Thesauri. Ein Wörterbuch sowie ein multilingualer Thesaurus bieten die Möglichkeit, Wörter oder Konzepte von der Sprache L in die Sprache L zu übersetzt. Weiterhin werden die Ansätze dahingehend unterschieden, ob sie nur in einer geschlossenen Retrieval-Situation angewandt werden können oder auch für den Einsatz in einer offenen Retrieval-Situation geeignet sind. In Abb. 2.4 sind die unterschiedlichen Ansätze zur sprachübergreifenden Ähnlichkeitsanalyse in einer Taxonomie dargestellt. Die Taxonomie enthält außerdem alle bisher bekannten Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse. Die Verfahren werden im Folgenden beschrieben. Basierend auf Parallelkorpora Geschlossene Retrieval-Situation: CL-LSI, CL-KCCA Offene Retrieval-Situation: CL-ESA Sprachübergreifende Ähnlichkeitsanalyse Basierend auf Wörterbüchern Geschlossene Retrieval-Situation: (bisher keine bekannt) Offene Retrieval-Situation: CL-VSM, Eurovoc-basiert Abb. 2.4: Taxonomie der Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse (Potthast et al., 2007). Das Verfahren, das in dieser Arbeit vorgestellt wird, ist hervorgehoben. Cross-Language Latent Semantic Indexing (CL-LSI) (Littman et al., 1998) ist eine Generalisierung des, aus dem monolingualen IR bekannten, Latent Semantic Indexing (LSI). CL-LSI basiert auf einem bilingualen Parallelkorpus, in den Sprachen L und L, der eine Menge von Dokumentpaaren enthält. Ein Dokumentpaar besteht aus zwei Versionen des gleichen Dokuments, in den Sprachen L und L. Jedes Dokumentpaar wird zu einem einzigen Dokument vereint. Zwei Wörter, in den Sprachen L und L, die häufig zusammen in einem solchen Dokument vorkommen, können als ähnlich angesehen werden. Diese Dokumente werden verwendet um mittels Singulärwertzerlegung einen bilingualen LSI-Raum zu trainieren. In dem LSI-Raum können sowohl Dokumente in L, als auch Dokumente 10

2.3 Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse in L repräsentiert und miteinander verglichen werden. Mittels CL-LSI werden sehr gute Ergebnisse bei der sprachübergreifenden Ähnlichkeitsanalyse erreicht, allerdings kann CL-LSI aufgrund des hohen Rechenaufwands nur für kleine Dokumentsammlungen angewandt werden. Bei der Cross-Language Kernel Canonical Correlation Analysis (CL-KCCA) (Vinokourov et al., 2003) wird für beide Dokumentmengen eines bilingualen Parallelkorpus, für die Sprachen L und L, jeweils ein Vektorraum erstellt. Mittels KCCA werden Korrelationen zwischen den beiden Vektorräumen gelernt, mit der Annahme, dass jede Korrelation einer Aussage über die semantische Ähnlichkeit zwischen den Vektorräumen entspricht. Daraus ergeben sich sprachübergreifende Merkmale, durch die Dokumente, sowohl in L, als auch in L, repräsentiert werden können und somit eine sprachübergreifende Ähnlichkeitsanalyse dieser Dokumente ermöglicht wird. Die CL-KCCA liefert sehr gute Ergebnisse bei der sprachübergreifenden Ähnlichkeitsanalyse, allerdings gilt auch hier, dass die CL-KCCA aufgrund des hohen Rechenaufwands nur für kleine Dokumentsammlungen praktikabel ist. Die Cross-Language Explicit Semantic Analysis (CL-ESA) die in Kapitel 5 vorgestellt wird ist eine Generalisierung der Explicit Semantic Analysis (ESA) (Gabrilovich und Markovitch, 2007). Im Gegensatz zum CL-LSI und zur CL-KCCA kann die CL-ESA auch für große Dokumentkollektionen angewandt werden. In dem sprachübergreifenden Vektorraummodell (Cross-Language Vector Space Model, CL-VSM) entspricht jede Dimension einem Paar, bestehend aus einem Schlüsselwort in der Sprache L und einem Schlüsselwort in der Sprache L. Dokumente in L bzw. L werden durch die Schlüsselwörter in L bzw. L repräsentiert. Die Paare entsprechen sprachübergreifenden Merkmalen und ermöglichen eine sprachübergreifende Ähnlichkeitsanalyse der Dokumente. Durch ein bilinguales Wörterbuch können die Paare definiert werden (Levow et al., 2005). Sie können jedoch auch andere Informationen, außer Wörter, enthalten (Steinberger et al., 2004), z. B. Eigennamen, Zeitangaben, Zahlen oder Ortsangaben. Diese Informationen werden aus Namensverzeichnissen, geografischen Lexika bzw. Ortsregistern (Gazetteers) oder Thesauri gewonnen. Das Eurovoc-basierte Verfahren ähnelt dem CL-VSM, allerdings werden hierbei die Deskriptoren des Eurovoc-Thesaurus 5 als sprachübergreifende Merkmale zur Repräsentation von Dokumenten verwendet (Pouliquen et al., 2003). 5 Eurovoc-Thesaurus: http://europa.eu/eurovoc. 11

2 Information Retrieval (IR) Jedes der zuvor beschriebenen Verfahren basiert auf einem Dokumentmodell, das externes Wissen nutzt, um daraus sprachübergreifende Merkmale bzw. Konzepte zu gewinnen, durch die die Dokumente repräsentiert werden. Ein solches Dokumentmodell wird als Konzeptraummodell bezeichnet. Die Verfahren verwenden verschiedene Varianten von Konzeptraummodellen, die sich in den zu Grunde liegenden Wissensbasen unterscheiden, z. B. wörterbuch-, thesaurus- oder parallelkorpusbasiertes Konzeptraummodell. Auf das Konzeptraummodell sowie die genannten Varianten wird in Kapitel 5 detailliert eingegangen. In Abschnitt 7.6.2 werden die Verfahren anhand verschiedener Eigenschaften miteinander verglichen. 12

3 Plagiaterkennung Es gibt unterschiedliche Beweggründe für die Suche nach Plagiaten in Dokumenten. Beispielsweise im akademischen Bereich, um zu prüfen, ob eine Abschlussarbeit in eigenständiger Leistung erbracht wurde, oder zu kommerziellen Zwecken, etwa zur Erkennung von Copyright-Verletzungen, z. B. in der Literatur. Wie lassen sich Plagiate in Dokumenten erkennen? Für Menschen ist es im Allgemeinen nicht schwer, einen Text oder einen Textabschnitt als Plagiat zu entlarven. Einem geübten Leser fällt z. B. eine plötzliche Abweichung des Schreibstils auf, die auf einen plagiierten Textabschnitt hindeuten kann. Aber auch die Erfahrung bzw. das Vorwissen eines Lesers ermöglichen es, Plagiate zu erkennen, beispielsweise indem festgestellt wird: das habe ich doch schon mal irgendwo gelesen. Die manuelle Suche nach Plagiaten ist allerdings sehr zeitaufwendig und daher nicht rentabel. Der Schwerpunkt dieser Arbeit liegt in der maschinellen Plagiaterkennung, d. h. in der Erkennung von Plagiaten durch ein Softwaresystem. Die Verfahren zur maschinellen Plagiaterkennung sind dem oben beschriebenen menschlichen Vorgehen nachempfunden. In Abschnitt 3.1 wird die Vorgehensweise bei der Plagiaterkennung genauer erläutert und in drei Teilprobleme unterteilt. Außerdem werden verschiedene Plagiatvergehen sowie spezialisierte Verfahren zur Erkennung der daraus resultierenden Plagiate beschrieben und der Unterschied zwischen monolingualer und sprachübergreifender Plagiaterkennung verdeutlicht. Auf die Verfahren zur monolinguale Plagiaterkennung wird in Abschnitt 3.2 eingegangen. 3.1 Grundlegende Vorgehensweise Der Ausgangspunkt bei der Plagiaterkennung ist ein verdächtiges Dokument, das auf Plagiate hin überprüft werden soll. Hierbei werden zwei Herangehensweisen unterschieden: 13

3 Plagiaterkennung 1. Globale Dokumentanalyse. Es wird überprüft, ob es sich bei dem gesamten Dokument um ein Plagiat handelt. 2. Lokale Dokumentanalyse. Es wird überprüft, ob das verdächtige Dokument plagiierte Textabschnitte enthält. Bei der lokalen Dokumentanalyse findet ein so genanntes Chunking statt, d. h. das verdächtige Dokument wird in eine Menge von Textabschnitten unterteilt. Im Fall einer globalen Dokumentanalyse findet kein Chunking statt, es wird das komplette Dokument analysiert. Im weiteren Verlauf dieser Arbeit wird nur die lokale Dokumentanalyse betrachtet, da sich diese auf die globale Dokumentanalyse verallgemeinern lässt, indem angenommen wird, das das gesamte Dokument aus einem einzigen Textabschnitt besteht. Dokumentsammlung Verdächtiges Dokument Knadidatendokumente d q 1. Heuristisches Retrieval D 2. Detaillierte Analyse 3. Wissensbasierte Nachbearbeitung Abb. 3.1: Plagiaterkennung als ein Prozess bestehend aus den drei Schritten: Heuristisches Retrieval, detaillierte Analyse und wissensbasierte Nachbearbeitung. (Stein et al., 2007) Das Ziel der Plagiaterkennung ist es, in einem verdächtigen Dokument d q einen plagiierten Textabschnitt c q zu erkennen, indem in einer Dokumentsammlung D das Originaldokument, aus dem der Textabschnitt c q plagiiert wurde, wiedergefunden wird. Häufig wird die Dokumentsammlung D als Referenzkorpus bezeichnet. 1 Die Plagiaterkennung kann in drei Schritte unterteilt werden (Stein et al., 2007), siehe Abb. 3.1. 1. Heuristisches Retrieval. Aus einer Dokumentsammlung D wird anhand von Heuristiken eine Menge D von Kandidatendokumenten bestimmt. 2. Detaillierte Analyse. Die möglicherweise plagiierten Textabschnitte der Kandidatendokumente werden mit den Textabschnitten des verdächtigen Dokuments d q verglichen. 3. Wissensbasierte Nachbearbeitung. Die Textabschnitte aus den Kandidatendokumenten, die eine hohe Ähnlichkeit 1 Ein Referenzkorpus ist zur Plagiaterkennung nicht zwingend notwendig. Beispielsweise können mittels Stilanalyse plagiierte Textabschnitte auch ohne Referenzkorpus erkannt werden. Die Stilanalyse wird in Abschnitt 3.2.4 beschrieben. 14

3.1 Grundlegende Vorgehensweise zu den Textabschnitten aus d q aufweisen, werden genauer untersucht, z. B. wird überprüft, ob es sich um ein Plagiate oder ein korrektes Zitat handelt. Es existieren verschiedene Formen von Plagiaten. Meyer zu Eißen und Stein (2006) haben unterschiedliche Plagiatvergehen in einer Taxonomie zusammengefasst, siehe Abb. 3.2. In der Taxonomie wird jedem Plagiatvergehen eine spezialisierte Erkennungsmethode zugeordnet, die im Hinblick auf den Prozess der Plagiaterkennung in Abb. 3.1 in dem zweiten Schritt detaillierte Analyse eingesetzt werden. Grundsätzlich kann zwischen zwei Arten von Plagiatvergehen unterschieden werden: Ein Originaldokument wird einszu-eins kopiert, d. h. der Text wird Wort für Wort übernommen oder ein Originaldokument wird modifiziert, z. B. durch eine Veränderung des Satzbaus oder durch den Austausch von Wörtern. Weiterhin wird unterschieden, ob ein großer oder kleiner Teil eines Originaldokuments plagiiert wird und ob zur Plagiaterkennung ein Referenzkorpus zur Verfügung steht. Großer Teil des Dokuments Globale Identitätsanalyse: Dokumentmodellvergleich (Suffixbaum) Eins-zu-eins-Kopie Identitätsanalyse Kleiner Teil des Dokuments Lokale Identitätsanalyse Mit Referenzkorpus: Chunk-Identität (Fingerprint-Analyse, MD5) Ohne Referenzkorpus: Stilanalyse Plagiatvergehen Erkennungsmethode Großer Teil des Dokuments Globale Ähnlichkeitsanalyse: Dokumentmodellvergleich (VSM) monolingual Modifizierte Kopie Umformung Ähnlichkeitsanalyse Kleiner Teil des Dokuments Lokale Ähnlichkeitsanalyse Mit Referenzkorpus: Fuzzy-Fingerprinting Ohne Referenzkorpus: Stilanalyse sprachübergreifend Übersetzung Sprachübergreifende Ähnlichkeitsanalyse Abb. 3.2: Taxonomie der Plagiatvergehen, mit jeweils entsprechenden Erkennungsmethoden und konkreten Verfahren (Meyer zu Eißen und Stein, 2006). Für alle Arten von Plagiatvergehen, mit Ausnahme des sprachübergreifenden (hervorgehoben), existieren entsprechende Verfahren. In dieser Arbeit werden Verfahren zur sprachübergreifenden Plagiaterkennung vorgestellt. Die Taxonomie ist in monolinguale und sprachübergreifende Plagiatvergehen unterteilt. Für alle Arten der monolingualen Plagiatvergehen existieren entsprechende Verfahren zur (monolingualen) Plagiaterkennung. Für die Erkennung von Plagiaten, die durch eine Übersetzung eines Originaldokuments in eine andere Sprache entstehen, wurde bisher noch keine konkrete Lösung vorgeschlagen. Die Erkennung solcher Plagiate wird als 15

3 Plagiaterkennung sprachübergreifende Plagiaterkennung bezeichnet2 und ist Gegenstand dieser Arbeit. Im folgenden Kapitel 4 werden verschiedene Lösungsansätze zur sprachübergreifenden Plagiaterkennung vorgestellt. Zunächst werden jedoch in Abschnitt 3.2 die Verfahren zur monolingualen Plagiaterkennung die in Abb. 3.2 genannt werden beschrieben. 3.2 Verfahren zur monolingualen Plagiaterkennung Die im Folgenden beschriebenen Verfahren entsprechen mit Bezug auf Abb. 3.1 dem zweiten Schritt (detaillierte Analyse) im Prozess der Plagiaterkennung. Der Ausgangspunkt ist ein verdächtiges Dokument d q und eine Menge von Kandidatendokumenten D. 3.2.1 Dokumentmodellvergleich Das Prinzip wird an dem Vektorraummodell verdeutlicht. Um zu überprüfen, ob es sich bei einem Textabschnitt c q des verdächtigen Dokuments d q um ein Plagiat handelt, werden für c q sowie für alle Textabschnitte c x der Kandidatendokumente die Wortvektorrepräsentationen c q bzw. c x erstellt. Zwischen c q und allen c x werden die Ähnlichkeiten, z. B. anhand der Kosinusähnlichkeit, bestimmt. Falls ein c x eine hohe Ähnlichkeit zu c q aufweist, wird davon ausgegangen, dass es sich bei dem Textabschnitt c q mit hoher Wahrscheinlichkeit um ein Plagiat des Textabschnitts c x handelt. Angenommen die Menge der Kandidatendokumente beinhaltet n Dokumente und die durchschnittliche Anzahl von Textabschnitten pro Dokument beträgt k, so ergibt sich eine Laufzeitkomplexität von O(n k 2 ). Die quadratische Laufzeit ist jedoch kein Nachteil, da durch das vorherige heuristische Retrieval (der erste Schritt in Abb. 3.1) sichergestellt wird, dass n sehr klein ist. 2 Sprachübergreifende Plagiaterkennung wird auch Cross-Lingual Plagiarism Detection, Multilingual Plagiarism Detection oder Multilingual Copy Detection genannt. 16

3.2 Verfahren zur monolingualen Plagiaterkennung 3.2.2 Fingerprinting Für jeden Textabschnitt c q des verdächtigen Dokuments d q und für jeden Textabschnitte c x der Kandidatendokumente werden die Fingerprints berechnet. Der Fingerprint h(c) eines Textabschnitts c besteht aus einer kleinen Menge von Zahlen und wird anhand einer Hashfunktion h berechnet hierzu wird meist der MD5-Algorithmus (Rivest, 1992) eingesetzt. Die Fingerprints aller Textabschnitte c x werden in einer Hashtabelle H gespeichert. Um zu überprüfen, ob ein Textabschnitt c q ein Plagiat ist, wird mit dem Fingerprint h(c q ) die Hashtabelle H angefragt. Falls es zu einer Hashkollision d. h. der Hashwert existiert bereits in H mit einem Fingerprint h(c x ) kommt, sind die beiden Textabschnitt d q und d x mit hoher Wahrscheinlichkeit gleich. Es gilt: h(c q ) = h(c x ) c q = c x Eine Hashkollision zwischen den Fingerprints zweier Textabschnitte kann somit als ein Indikator für ein Plagiat angesehen werden. Mittels Fingerprinting können nur Eins-zu-eins-Kopien erkannt werden, denn bereits die Veränderung eines einzelnen Zeichens in einem Textabschnitt erzeugt einen völlig anderen Fingerprint. Plagiierte Textabschnitte können durch Fingerprinting in linearer Zeit gefunden werden. Die Laufzeitkomplexität beträgt O(n k), wobei n die Anzahl der Kandidatendokumente ist und k die durchschnittliche Anzahl von Textabschnitten in einem Dokument. Es existieren viele Arbeiten, in denen Fingerprinting zur Plagiaterkennung eingesetzt wird. Frühere Arbeiten, die Details und Variationen zu Fingerprinting beschreiben sind Brin et al. (1995), Heintze (1996), Finkel et al. (2002) sowie Hoad und Zobel (2003). Eine bekannte Anwendung, in der Fingerprinting zur Plagiaterkennung eingesetzt wird, ist z. B. das SCAM Projekt 3 (Shivakumar und Garcia-Molina, 1995). 3.2.3 Fuzzy-Fingerprinting Das Fuzzy-Fingerprinting (Stein, 2005) ist eine Variante des Fingerprinting, mit speziellen Eigenschaften. Mittels Fuzzy-Fingerprinting kann in einer Menge C, die alle Textab- 3 SCAM: Stanford Copy Analysis Method. 17

3 Plagiaterkennung schnitte der Kandidatendokumente enthält, in quasi konstanter Zeit ein Textabschnitt c x C identifiziert werden, der eine hohe Ähnlichkeit zu einem Textabschnitt c q des verdächtigen Dokuments besitzt. Es wird eine spezielle Hashfunktion h ϕ : C U eingesetzt, die die Menge C auf ein Universum U von Hashwerten abbildet und folgende Eigenschaft besitzt: h ϕ (c 1 ) = h ϕ (c 2 ) ϕ(c 1, c 2 ) 1 ɛ, mit c 1, c 2 C, 0 < ɛ 1 h ϕ (c) ist der Fuzzy-Fingerprint eines Textabschnitts c und ϕ(c 1, c 2 ) ist eine Ähnlichkeitsfunktion. Die Fuzzy-Fingerprints h ϕ (c x ) der Textabschnitte c x C werden in einer Hashtabelle gespeichert. Eine Hashkollision zwischen dem Fuzzy-Fingerprint h ϕ (c q ) und einem Fuzzy- Fingerprint h ϕ (c x ) kann als Indiz für eine hohe Ähnlichkeit zwischen c q und c x angesehen werden und deutet darauf hin, dass c q ein Plagiat von c x ist. Im Gegensatz zum Fingerprinting können mittels Fuzzy-Fingerprinting auch Plagiate erkannt werden, die durch Modifikation entstanden sind. Experimente von Stein und Meyer zu Eißen (2006) haben außerdem gezeigt, dass Fuzzy-Fingerprints eine durchschnittliche Chunkgröße von 100 Wörtern erlauben, während MD5-Fingerprints nur mit einer Chunkgröße von drei bis zehn Wörtern akzeptabel arbeiten. Mittels Fuzzy- Fingerprinting kann daher die Erkennung von Plagiaten stark verbessert und gleichzeitig die Fingerprint-Datenbasis verkleinert werden. In Stein und Potthast (2006) wird Fuzzy-Fingerprinting mit einem weiteren Konstruktionsprinzip für Hashfunktionen, dem Locality-Sensitive-Hashing, verglichen. Anhand verschiedener Experimente kann gezeigt werden, dass Fuzzy-Fingerprinting bei der Ähnlichkeitssuche dem Locality-Sensitive- Hashing überlegen ist. Für detailliertere Informationen zum Fuzzy-Fingerprinting siehe Stein (2005) sowie Stein und Meyer zu Eißen (2006). 3.2.4 Stilanalyse Die Stilanalyse ist ein Verfahren zur intrinsischen Erkennung von Plagiaten. Intrinsisch bedeutet von innen her kommend. 4 Dementsprechend sind Verfahren zur intrinsischen 4 Wikipedia, http://de.wikipedia.org/wiki/intrinsisch. 18

3.2 Verfahren zur monolingualen Plagiaterkennung Plagiaterkennung dazu in der Lage, plagiierte Textabschnitte zu identifizieren, indem ausschließlich das verdächtige Dokument selbst analysiert wird ein Referenzkorpus wird nicht benötigt. Über bestimmte quantifizierbare Stilmerkmale kann der individuelle Schreibstil eines Autors berechnet werden. Stilmerkmale sind z. B. die durchschnittliche Anzahl der Wörter pro Satz oder die Wortvielfalt. Wird in einem verdächtigen Dokument festgestellt, dass der Schreibstil in einem Textabschnitt von dem Schreibstil des restlichen Dokuments abweicht, so ist dies ein Indiz dafür, dass es sich bei dem Textabschnitt mit hoher Wahrscheinlichkeit um ein Plagiat handelt. Die Stilanalyse kann jedoch nicht zur globalen Dokumentanalyse eingesetzt werden. Der Grund dafür liegt darin, dass es nicht möglich ist ein komplett plagiiertes Dokument zu erkennen bei dem z. B. der eigene Name auf ein fremdes Werk gesetzt wird, da die Stilanalyse auf der Berechnung von Stilunterschieden innerhalb eines Dokuments beruht. Daher ist es auch nicht möglich, Dokumente zu analysieren, die von mehreren Autoren verfasst wurden, da in solchen Dokumenten natürlicherweise Stilunterschiede vorhanden sind. Aufgrund der intrinsischen Vorgehensweise ist es allerdings auch möglich, Plagiate zu erkennen, deren Originalquelle nicht digital verfügbar ist, z. B. wenn es sich bei der Quelle um ein Buch handelt. In Meyer zu Eißen et al. (2007) sowie in Stein und Meyer zu Eißen (2007) wird die Stilanalyse detailliert beschrieben. Außerdem werden unterschiedliche Stilmerkmale vorgestellt und untersucht. 19

4 Sprachübergreifende Plagiaterkennung Bisher wurde keine Lösung für das Problem der sprachübergreifenden Plagiaterkennung vorgeschlagen. In einigen früheren Arbeiten wird die sprachübergreifende Plagiaterkennung erwähnt und als offenes Problem identifiziert (Clough, 2003; Steinberger und Pouliquen, 2003; Steinberger et al., 2004; Meyer zu Eißen und Stein, 2006). Weiterhin erwähnen Pouliquen et al. (2003), dass ihr Verfahren zur sprachübergreifenden Ähnlichkeitsanalyse auch zur sprachübergreifenden Plagiaterkennung eingesetzt werden kann. Es werden jedoch keine Experimente dazu durchgeführt und dieser Ansatz wird auch in neueren Arbeiten nicht weiter verfolgt. Jede der oben genannten Arbeiten betrachtet nur ein Teilproblem der sprachübergreifenden Plagiaterkennung, der gesamte Prozess wird nicht weiter ausgeführt. In diesem Kapitel erfolgt eine ganzheitliche Betrachtung des Retrieval-Problems sprachübergreifende Plagiaterkennung. Die Problemstellung der sprachübergreifenden Plagiaterkennung wird in Abschnitt 4.1 definiert und es werden zwei grundsätzliche Teilaufgaben unterschieden. In Abschnitt 4.2 sowie in Abschnitt 4.3 werden für jede dieser Teilaufgaben verschiedenen Lösungsansätze vorgeschlagen. 4.1 Problemstellung Das Ziel der sprachübergreifenden Plagiaterkennung ist das Erkennen von Plagiaten, die mit Bezug auf die Taxonomie der Plagiatvergehen durch Übersetzung entstehen (siehe Abschnitt 3.2). Der Ausgangspunkt ist ein verdächtiges Dokument d q in der Sprache L. Weiterhin existiert eine Dokumentsammlung D in der Sprache L. Ein Textabschnitt c q aus d q wird 21

4 Sprachübergreifende Plagiaterkennung als Plagiat entlarvt, wenn in D das Originaldokument, aus dem c q plagiiert wurde, wiedergefunden wird. Daraus ergeben sich zwei Teilaufgaben (vgl. Abb. 3.1): 1. Heuristisches Retrieval: Aus D wird eine Menge D von Kandidatendokumenten gewonnen, die Textabschnitte enthalten, die eine hohe Ähnlichkeit zu Textabschnitten aus d q besitzen. 2. Detaillierte Analyse: Die Textabschnitte der Kandidatendokumente werden mit den Textabschnitten von d q verglichen. Hierzu müssen Methoden eingesetzt werden, die die Bestimmung der Ähnlichkeit zwischen zwei Textabschnitten in L und L ermöglichen. Wird eine hohe Ähnlichkeit zwischen einem Textabschnitt c x eines Kandidatendokuments und einem Textabschnitt c q festgestellt, so handelt es sich bei c q mit großer Wahrscheinlichkeit um ein Plagiat von c x. In den folgenden Abschnitten werden für jede Teilaufgabe verschiedene Lösungsansätze vorgestellt. Der Schwerpunkt dieser Arbeit liegt auf der detaillierten Analyse. 4.2 Heuristisches Retrieval In dem UML-Aktivitätsdiagramm in Abb. 4.1 sind zwei unterschiedliche Lösungsansätze für die Teilaufgabe heuristisches Retrieval dargestellt: 1. Heuristisches Retrieval basierend auf Techniken des CLIR. 2. Heuristisches Retrieval basierend auf maschineller Übersetzung (Maschine Translation, MT). In beiden Lösungsansätzen wird aus dem verdächtigen Dokument d q eine Wortanfrage q in der Sprache L erstellt, mit der ein Schlüsselwortindex angefragt wird, der die Dokumentsammlung D repräsentiert. Bei dem Schlüsselwortindex handelt es sich um einen invertierten Index (Witten et al., 1999), der jedes Schlüsselwort der Dokumente aus D auf die Dokumente aus D abbildet, in denen es vorkommen. Dadurch werden die Dokumente d D identifiziert, in denen die Schlüsselwörter der Wortanfrage q vorhanden sind bzw. die eine hohe Ähnlichkeit zu q besitzen. Die Dokumente d bilden die Menge der Kandidatendokumente D. Im Folgenden wird auf jeden der beiden Lösungsansätze detailliert eingegangen. 22

4.2 Heuristisches Retrieval Verdächtiges Dokument d q L Maschinelle Übersetzung Wortanfrage q Dokument d' q L L' Übersetzung der Anfrage Schlüsselwortextraktion Schlüsselwortextraktion Wortanfrage q' L' L' L' Dokumentsammlung Schlüsselwortindexierung Schlüsselwortindex Wortanfrage- Retrieval Kandidatendokumente D' L' Abb. 4.1: Das UML-Aktivitätsdiagramm zeigt die Lösungsansätze für das heuristische Retrieval zur sprachübergreifenden Plagiaterkennung. Es sind zwei verschiedene Lösungsansätze dargestellt: 1. basierend auf CLIR-Techniken (grün) und 2. basierend auf maschineller Übersetzung (rot). In beiden Fällen wird für die Dokumentsammlung D ein Schlüsselwortindex erstellt und mit der Wortanfrage q angefragt. 4.2.1 CLIR-basiertes heuristisches Retrieval Die grundsätzliche Idee dieses Ansatzes ist es, robuste und gut erforschte Verfahren aus dem Bereich des CLIR (siehe Abschnitt 2.2) zum heuristischen Retrieval einzusetzen. Die Forschung im Bereich des CLIR konzentriert sich hauptsächlich auf die Retrieval- Situation, in der der Ausgangspunkt für die Suche eine Wortanfrage ist. Dementsprechend existieren für diese Situation eine Vielzahl von Verfahren, die akzeptable Ergebnisse liefern. In dem hier vorliegenden Fall ist der Ausgangspunkt jedoch ein Dokument das verdächtige Dokument d q Um CLIR-Verfahren einsetzten zu können, werden aus dem verdächtigen Dokument d q Schlüsselwörter extrahiert, die eine Wortanfrage q bilden. Zur Schlüsselwortextraktion kann z. B. tf idf eingesetzt werden, allerdings müssen für die Berechnung des idf-wertes Trainingsdokumente vorhanden sein. Ein weiteres Verfahren, das zur Schlüsselwortextraktion keine Trainingsdokumente benötigt und vergleichbare Ergebnisse zu tf idf liefert, basiert auf Co-Occurrence-Statistiken (Matsuo und Ishizuka, 2004). Zur Übersetzung von Wortanfragen existieren viele unterschiedliche Verfahren. Eine einfache Technik ist, jedes Schlüsselwort der Anfrage durch eine entsprechende Übersetzung aus einem bilingualen Wörterbuch zu substituieren. Bei mehrdeutigen Wörtern ist dieses Vorgehen jedoch problematisch, da die korrekte Bedeutung der Wörter nicht erkannt werden kann. Die Bedeutung eines Worts geht aus dem Kontext hervor, in dem das Wort benutzt wird. In einer Wortanfrage sind allerdings kaum Kontextinformationen enthalten vor allem, wenn die Anfrage nur aus wenigen Wörtern besteht. In diesem Fall wird ein Verfahren namens Query Expansion eingesetzt, um die Anfrage mit 23