Masterarbeit. Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen. Verfasserin/Verfasser: Thomas Pascher, BSc. (WU)

Größe: px
Ab Seite anzeigen:

Download "Masterarbeit. Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen. Verfasserin/Verfasser: Thomas Pascher, BSc. (WU)"

Transkript

1 WIRTSCHAFTSUNIVERSITÄT WIEN Masterarbeit Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen Verfasserin/Verfasser: Thomas Pascher, BSc. (WU) Matrikel-Nr.: Studienrichtung: Wirtschaftsinformatik Beurteiler: PD Dipl.-Ing. Mag. Dr. Albert Weichselbraun Ich versichere, dass: ich die Masterarbeit selbständig verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und mich auch sonst keiner unerlaubten Hilfe bedient habe. ich dieses Masterthema bisher weder im In- noch im Ausland (einer Beurteilerin/einem Beurteiler zur Begutachtung) in irgendeiner Form als Prüfungsarbeit vorgelegt habe. diese Arbeit mit der vom Begutachter/von der Begutachterin beurteilten Arbeit übereinstimmt. Datum Unterschrift

2 Abstrakt Die vorliegende Masterarbeit wurde am Institut für Informationswirtschaft der WU Wien verfasst und beschäftigt sich mit der Entwicklung einer Software, welche große Dokumentensammlungen mit Hilfe des Hadoop MapReduce-Frameworks analysiert. Durch dieses Framework wird es ermöglicht, komplexe Berechnungen auf mehrere Rechner in einem zusammenhängenden Rechnersystem aufzuteilen und somit die Rechenleistung zu verteilen. Diese Rechner ermitteln vordefinierte Zählwerte aus den Dokumenten und stellen diese wieder zentral zur Verfügung. Nach der Auswertung von Referenzdokumenten, die zuvor als relevant klassifiziert wurden, werden die Daten aus den Zieldokumenten ermittelt. Die gewonnenen Daten und die Berechnung von Wahrscheinlichkeitswerten im Vergleich mit den Referenzdaten ermöglicht Rückschlüsse auf die Relevanz einzelner Zieldokumente. Als Unterstützung bei der Speicherung und der Berechnung von Wahrscheinlichkeiten wird ein relationales Datenbanksystem eingesetzt. Abstract The present master thesis was written at the Insitute of Information Business at WU Vienna. It deals with the development of a software tool that is able to analyze huge document collections supported by the Hadoop MapReduce-Framework. This framework enables the execution complex processing tasks on more than one physical machine in a coherent system of linked machines to distribute processing power. These machines calculate predefined counts from the documents and centralize the results afterwards. At the beginning some reference documents are processed for retrieving the reference values. Then the target documents are scanned the same way. The analyzed data in combination with likelihood values enables a classification of documents regarding their relevance compared to the relevant documents. For saving the datasets and supporting calculations, a relational database system is used. Keywords Map, Reduce, Hadoop MapReduce, PostgreSQL, MySQL, Log Likelihood, Bigramm, Trigramm. 2 / 66

3 Inhaltsverzeichnis 1 Einführung und Forschungsfrage 5 2 Theorie Cloud Computing eine Einführung Grundlagen der maschinellen Sprachverarbeitung Automatische Beschlagwortung von Dokumenten Erfassung von Worthäufigkeiten Ermittlung signifikanter Phrasen Log Likelihood Ratio T-Test Korrektur Yates Korrektur Funktionsweise eines MapReduce-Frameworks Beispiel einer MapReduce Berechnung Hadoop MapReduce (Apache Software Foundation) Hadoop Distributed File System (HDFS) 24 3 Methode Allgemeiner Aufbau Zusammenspiel der Komponenten Vorbereitende Maßnahmen Das Job-Manager-Skript Parallelizer Ermittlung der N-Gramme Ablage der Zählwerte Aufbau der Datenbank Berechnung der Wahrscheinlichkeitswerte 43 3 / 66

4 4 Evaluierung Erster Testlauf: Test der Grundfunktionalität auf einem Single Node Cluster Testergebnisse ohne Berechnung und Updates Testergebnisse mit Berechnung und Updates Ermittelte Schlagwörter Zweiter Testlauf: Schlagworte für den Reuters Corpus auf einem Single Node Cluster _ Dritter Testlauf: Test der Grundfunktionalität auf einem Multi Node Cluster Adaptierung von Parallelizer Testergebnisse Vierter Testlauf: Schlagworte für den Reuters Corpus auf einem Multi Node Cluster Testergebnisse Ermittelte Schlagwörter Fünfter Testlauf: Schlagworte für den Reuters Corpus auf einem Single Node Cluster mit erhöhter Dokumentenmenge Fazit aus den Testläufen 58 5 Zusammenfassung und Ausblick 59 A Literaturverzeichnis 61 B Abbildungen 64 C Tabellen 65 D Glossar 65 4 / 66

5 1 Einführung und Forschungsfrage Im herrschenden Informationszeitalter werden Tag für Tag riesige Datenmengen produziert. Mit der Ablage dieser Daten ist es jedoch meist nicht getan, da viele Personen und Unternehmen gespeicherte Daten in irgendeiner Form auswerten möchten. Arbeitsplatzrechner aber auch Servermaschinen stoßen bei der Analyse von riesigen Datenbeständen meist schon sehr bald an die Grenzen ihrer Leistungsfähigkeit. Um diesen Leistungsgrenzen entgegenzuwirken, gibt es unterschiedliche Ansätze. Man könnte immer leistungsfähigere Rechner kaufen um für derartige Aufgaben gerüstet zu sein. Allerdings wäre dies sehr kostenintensiv und irgendwann erreichen auch modernste Geräte ihre Grenzen. Zielführender ist hier die Entwicklung von verteilten Softwaresystemen, die es möglich machen, komplexe Aufgaben auf mehrere Rechner aufzuteilen und die Ergebnisse wieder einzusammeln. Die Entwicklungen auf diesem Gebiet sind bereits weit verbreitet und setzen in den meisten Fällen auf der Nutzung von handelsüblichen Arbeitsplatzrechnern auf. Diese sind nicht teuer in der Anschaffung, da sie meist über durchschnittliche Leistungsmerkmale verfügen. Das ist auch nicht notwendig, denn die Überlegung hinter dieser Vorgehensweise ist, dass die Kosten pro Leistungseinheit bei Standardgeräten geringer sind, als bei High-End Hardware. Durch die Zusammenfassung von mehreren kostengünstigen Rechnern werden ebenso hohe Performance-Werte zu geringeren Kosten erreicht. Die vorliegende Masterarbeit wurde am Institut für Informationswirtschaft an der WU Wien verfasst, welches sich schwerpunktmäßig mit allen Disziplinen der effizienten Informationsgewinnung und Datenverarbeitung befasst. Die Forschungsfrage dieser Arbeit greift die Probleme in der Verarbeitung von großen Datenbeständen auf. Das zentrale Ziel bildet die Entwicklung einer Software zur verteilten Textverarbeitung. Mit Hilfe des frei erhältlichen Hadoop MapReduce-Frameworks von Apache wurde eine Applikation für die parallele Verarbeitung von Textdokumenten entwickelt. Dieses Software-Tool wurde in der Programmiersprache Java erstellt und kommuniziert zu gegebenen Zeitpunkten mit dem Hadoop MapReduce-Framework, welches wiederum die Verteilung der Rechenprozesse auf 5 / 66

6 die einzelnen Rechner im Netzwerk steuert. Die Ergebnisse der verteilten Berechnungen werden relational in einer Datenbank gespeichert und für weitere Auswertungen zur Verfügung gestellt. Auf Basis dieser Daten kann die Berechnung von Wahrscheinlichkeitswerten durchgeführt werden, welche wiederum für diverse Auswertungen von Interesse sein können. Im Speziellen handelt es sich bei den Berechnungen um die Ermittlung von Worthäufigkeiten in vorgegebenen Dokumentensammlungen. Die vorliegende Arbeit weist folgenden Aufbau auf: Kapitel 2 bildet die theoretische Basis und behandelt neben den Grundsätzen der maschinellen Sprachverarbeitung vor allem die Funktionsweise von MapReduce im Allgemeinen und jener von Hadoop MapReduce im Speziellen. Kapitel 3 beschäftigt sich mit einer detaillierten Beschreibung der erstellten Software. Dabei wird nicht nur das entwickelte Tool selbst beschrieben, sondern auch das Zusammenspiel mit anderen Komponenten, wie zum Beispiel dem Hadoop MapReduce-Framework und dem PostgreSQL- Datenbanksystem. Im vierten Kapitel wird die Software eingehend getestet und evaluiert. 6 / 66

7 2 Theorie In diesem Kapitel wird der Leser in das Konzept des Cloud Computings und anschließend in die Grundlagen der maschinellen Sprachverarbeitung eingeführt. Hauptaugenmerk liegt dabei auf der Verarbeitung von Texten, die nach verschiedenen Aspekten untersucht werden sollen. Neben den Grundlagen der Textaufbereitung wird auch die Aufteilung eines Prozesses auf mehrere Rechner näher erläutert. Um eine grundlegende Basis für die spätere Implementierung zu schaffen, werden verschiedene Techniken vorgestellt und deren Vor- und Nachteile beschrieben. Vor allem die von Google entwickelte MapReduce-Methode spielt für die Implementierung eine wichtige Rolle. 2.1 Cloud Computing eine Einführung Cloud Computing bezeichnet einen aktuellen Trend in der Informationstechnologie, der es zum Ziel hat, Berechnungsprozesse aber auch Daten vom Benutzer weg in große Rechenzentren zu verlagern [Dikaiakos et al 2009]. Ein Kunde, der sporadisch komplexe Problemstellungen berechnen möchte, ist nicht mehr gezwungen, selbst leistungsstarke Hardware anzuschaffen um diese Problemstellungen zu bearbeiten. Die benötigten Leistungsspitzen können von einer Cloud zugekauft werden und verursachen nur variable Kosten. Dabei ist es wichtig zu erwähnen, dass die Betreiber großer Clouds ebenfalls auf leistungsstarke Hardware verzichten und mit handelsüblichen Rechnern arbeiten. Die hohen Rechenleistungen werden durch eine große Anzahl an Rechnern erreicht, wobei jede Maschine jeweils ein Teilproblem bearbeitet und die Teilergebnisse am Ende wieder zu einem Gesamtergebnis verbunden und dem Auftraggeber zur Verfügung gestellt werden [Marston et al 2011]. 7 / 66

8 Erste Entwicklungen zu Cloud Computing gab es bereits in den frühen 1960er-Jahren, jedoch wurde dieses Konzept erst Mitte der 2000er-Jahre zu einem erfolgreichen Geschäftsmodell. Die wichtigsten Gründe dafür werden nachfolgend erläutert. Stetiger Ausbau von schnellen Internetleitungen: Da Cloud-Systeme in den meisten Fällen über das Internet angesprochen werden, müssen leistungsstarke Internetverbindungen dafür sorgen, dass die Geschwindigkeitsvorteile bei der Prozessverarbeitung nicht durch langsame Übertragungen zunichte gemacht werden [Dikaiakos et al 2009]. Steigende Anzahl von Nutzern des Internets: Nicht nur Firmen sind Auftraggeber für verteilte Berechnungen, auch Privatpersonen. Da die Anzahl von Benutzern des Internets stetig zunimmt, müssen auch die von den Nutzern verwendeten Systeme für Belastungsspitzen gerüstet sein. Beispielsweise verwendet Amazon den Ansatz der verteilten Verarbeitung für das Weihnachtsgeschäft, in dem täglich etwa der 10-fache Umsatz von normalen Tagen generiert wird [Marston et al 2011]. Meist ist es den Nutzer verteilter Systeme nicht bewusst, dass sie ein eben solches gerade verwenden. Neben Amazon bieten auch andere große Software-Hersteller wie Google, IBM, Microsoft und Apple Lösungen, die diesen Ansatz verfolgen. Als Beispiel für die Geschwindigkeitsvorteile soll hier das von Google veröffentlichte Statement vom 21. November 2008 dienen: Mit Begeisterung geben wir bekannt: wir konnten 1TB (gespeichert im Google File System in 10 Milliarden Dokumenten mit je 100 Bytes Datensatzgröße in unkomprimierten Textdateien), verteilt auf 1000 Computer, innerhalb von 68 Sekunden sortieren [googleblog01]. Steigende Anzahl an Software-Systemen, die für den verteilten Einsatz konzipiert werden: Kommerzielle wie auch freie Software-Entwicklungen wurden und werden weiterhin vorangetrieben, da die Vorteile dieses Konzeptes viele Nutzer überzeugen konnte und es zu einem erfolgreichen Geschäftsmodell machten [Dikaiakos et al 2009]. Für diese Arbeit wurde eine frei verfügbare Software, das Hadoop MapReduce-Framework, als Grundlage für die verteilte Bearbeitung verwendet. Die Problemstellung kann in einer beliebigen Programmiersprache erstellt und in das Framework eingebunden werden. Hadoop MapReduce 8 / 66

9 sorgt für die Verteilung der Problemstellung an die registrierten Rechner im Netzwerk und kombiniert die Teilergebnisse zum Gesamtergebnis. In Kapitel folgen detaillierte Informationen zu Hadoop MapReduce. 2.2 Grundlagen der maschinellen Sprachverarbeitung Die Disziplin der maschinellen Sprachverarbeitung wird oft auch als Computerlinguistik bezeichnet, im Englischen spricht man von Natural Language Processing. Dabei kann man einen Computer auf unterschiedliche Arten mit menschlicher Sprache versorgen. Zum einen in Form von Schallinformationen und zum anderen in Form von Buchstabenketten, also geschriebenem Text. Um Sprache verarbeiten und analysieren zu können, werden typischerweise folgende Schritte abgearbeitet [wikipedia01]: Spracherkennung wenn Schallinformationen vorliegen, müssen diese zunächst in Textform umgewandelt werden. Tokenisierung die vorliegenden Buchstabenketten werden in vordefinierte Einheiten segmentiert. Diese Einheiten können Wörter oder Sätze sein, aber auch Absätze oder Ähnliches. Morphologische Analyse Wörter werden analysiert und auf ihre Grundformen reduziert. Syntaktische Analyse strukturelle Funktionen der Wörter in einem Satz werden analysiert (zb Subjekt, Prädikat usw.). Semantische Analyse Wörter und Sätze werden auf ihre Bedeutung untersucht. Dabei sind typischerweise mehrere Einzelschritte notwendig, da die Bedeutung nicht einfach zu definieren ist. Dialog- und Diskursanalyse aufeinanderfolgende Sätze werden auf Abhängigkeiten zueinander untersucht. Frage und Antwort deuten auf einen Dialog hin, ein Diskurs wäre beispielsweise eine Aussage und ihre Begründung bzw. Einschränkung. 9 / 66

10 Üblicherweise durchlaufen Verfahren der maschinellen Sprachverarbeitung nicht alle der genannten Schritte. Diese Arbeit beschäftigt sich mit der Analyse von Buchstabenketten, daher wird bereits die Umwandlung von Schallinformationen in Buchstabenketten nicht benötigt. Die Verwendung von maschineller Sprachverarbeitung ist weitreichend und wird vom Benutzer oft nicht mehr speziell wahrgenommen. So handelt es sich beispielsweise bei der Rechtschreibund Grammatiküberprüfung in modernen Textverarbeitungsprogrammen um einen Anwendungsfall. Weiters bieten zahlreiche Suchmaschinen bereits Übersetzungsdienste an, mit denen man rasch und einfach die Inhalte von Webseiten in andere Sprachen übersetzen kann. Dabei wird das Ergebnis zwar grammatikalisch nicht vollkommen korrekt in die gewünschte Sprache transferiert, die Hauptaussagen werden aber korrekt vermittelt. Durch die ständige Weiterentwicklung werden diese Tools auch immer leistungsfähiger. Nicht zuletzt arbeiten auch die großen Suchmaschinen mit maschineller Sprachverarbeitung um Indizes zu erstellen und zu pflegen. Dadurch wird das schnelle Auffinden gewünschter Informationen im Internet in der Form gewährleistet, die wir heute als selbstverständlich betrachten. Bei all den Vorteilen der maschinellen Sprachverarbeitung sollte jedoch immer beachtet werden, dass derartige Systeme durch den Menschen geschaffen werden und der Computer kein denkendes Wesen ist. Die Lernfähigkeit von Computern wird also immer beschränkt sein und an natürliche Grenzen stoßen [wikipedia01]. Ein einfaches Beispiel ist die Frage an sich. Man kann dem Computer beibringen, eine Frage zu erkennen und darauf zu antworten. Können Sie mir bitte das Salz reichen? wird der Computer wohl mit Ja oder Nein beantworten. Unter natürlichen Personen würde diese Frage jedoch eine Handlung auslösen, nämlich die Reichung des Salzes [wikipedia01]. Dabei muss zusätzlich beachtet werden, dass verschiedene natürliche Sprachen auch verschiedene Eigenschaften haben und daher auch die Herangehensweise an maschinelle Sprachverarbeitung je nach Zielsprache unterschiedlich sein kann. 10 / 66

11 2.3 Automatische Beschlagwortung von Dokumenten Ziel der vorliegenden Arbeit ist die automatisierte Ermittlung von Schlüsselwörtern, anhand derer man Dokumente klassifizieren kann. In den folgenden Abschnitten werden die einzelnen Schritte dieses Klassifizierungsprozesses beschrieben, den Ausgangspunkt für diese Aufgabe bildet dabei die Ermittlung von Worthäufigkeiten in Texten. Anschließend werden signifikante Phrasen ermittelt, welche mithilfe statistischer Verfahren näher untersucht werden Erfassung von Worthäufigkeiten Bevor Dokumente klassifiziert werden können, müssen die Worthäufigkeiten aus den Dokumenten ermittelt werden. Grundsätzlich wird in dieser Arbeit davon ausgegangen, dass vor der Berechnung von Wahrscheinlichkeitswerten sogenannte n-gramme gebildet werden. N steht dabei für eine natürliche Zahl größer null und bezeichnet die Anzahl der aufeinanderfolgenden Wörter, die als Phrase untersucht werden sollen. Im konkreten Fall werden die natürlichen Zahlen eins, zwei und drei verwendet. Das heißt also, dass aus vorliegenden Dokumenten nicht nur einzelne Wörter berücksichtigt werden, sondern auch sogenannte Bigramme, die sich aus zwei aufeinanderfolgenden Wörtern zusammensetzen [Bose et al 2007] und analog dazu Trigramme, aus drei zusammenhängenden Wörtern. Die Bildung dieser Wort- und Phrasenhäufigkeiten kann auf unterschiedliche Arten erfolgen. Die einzelnen Elemente können in einer Liste angelegt und mit dem Wert 1 versehen werden, bei jedem weiteren Auftreten des gleichen Elements wird der entsprechende Wert um eins erhöht. Dieser Ansatz kann bei der Verarbeitung von großen Datenmengen zu Performance-Problemen führen, da für jedes Element geprüft werden muss, ob es bereits in der Liste existiert oder nicht [Kwasnicka & Paradowski 2008]. 11 / 66

12 Ein weiterer Ansatz ist die Aggregation der Werte über eine Baumstruktur, wobei jedes durchsuchte Dokument einen eigenen Knoten im Baum bildet und erst bei der Auswertung entsprechende Summen berechnet werden [Fadlalla 2005]. Abbildung 1: Beispielhafte Baumstruktur Abbildung 1 zeigt schemenhaft, wie eine Baumstruktur aufgebaut werden kann. Die Aggregation der Summen erfolgt horizontal in der dritten Ebene. Für jedes Dokument werden die Wort- und Phrasenhäufigkeiten der einzelnen Elemente ermittelt und zum Zeitpunkt der Ausführung aggregiert. In diesem Beispiel würde das Ergebnis folgendermaßen aussehen: foo: 9, bar: 7, java: 7, python: 10 Die einzelnen Häufigkeiten würden somit nach jedem Dokument abgelegt und dadurch die Ermittlung des folgenden Dokuments performancemäßig nicht mehr belasten. Für diese Art der Ablage bietet sich ein relationales Datenbanksystem an, da dieses im Regelfall bereits standardmäßige Aggregationsfunktionen bietet [Gómez et al 2009]. 12 / 66

13 2.3.2 Ermittlung signifikanter Phrasen Bereits in den 1980er-Jahren wurden verschiedene Modelle entwickelt, welche die rechnerunterstütze Erhebung signifikanter Phrasen zum Ziel hatten. Schon damals bestand eine zentrale Problemstellung darin, die ausgelesenen Daten bereits während der Verarbeitung für die weitere Verwendung korrekt aufzubereiten [Maeda et al 1980]. Bei der Ermittlung signifikanter Phrasen werden die erhobenen Zählwerte mit Referenzen verglichen. Referenzwerte können in unterschiedlichen Formen vorliegen. Morita et al [Morita et al 2004] beschreiben den Einsatz von Wörterbüchern bei der maschinellen Verarbeitung von Texten als unabdingbar, wobei die Qualität und der Umfang des verwendeten Wörterbuches von entscheidender Bedeutung für die Berechnungsergebnisse sind. Im Gegensatz zur Verwendung einer bestimmten Referenzsammlung beinhaltet ein Wörterbuch im Regelfall eine größere Anzahl an Wörtern. Dabei gilt es jedoch die Einschränkung zu beachten, dass diese Wörter nur einmal auftreten und das darauf aufsetzende System die Wörter aus dem Wörterbuch erst als relevant oder nicht relevant klassifizieren muss [Onishi et al 2008]. Eine schnellere Variante stellt die Verwendung einer meist sehr umfangreichen Referenzsammlung von Dokumenten dar, die thematisch denselben Themenkreis behandeln, wie die zu prüfenden Dokumente [Mitterndorfer & Winiwarter 2002]. Da die Zieldokumente auch Wörter enthalten können, die im Referenzkorpus nicht vorhanden sind, sollte das System bei der Verarbeitung eine Lösung bereithalten, wie diese Dokumente in Bezug auf deren Relevanz behandelt werden sollen [Salton et al 1990]. Hier könnte beispielsweise die Kombination eines lernenden Wörterbuches und einer Referenzsammlung Abhilfe schaffen. Der Vergleich von ermittelten Werten mit den Referenzwerten kann mit Hilfe verschiedener Rechenalgorithmen erfolgen. Für diese Arbeit wurde im Speziellen der Log Likelihood-Ansatz gewählt, welcher im folgenden Kapitel näher erläutert wird. 13 / 66

14 2.3.3 Log Likelihood Ratio Diese Kennzahl könnte man am besten übersetzen als das Verhältnis der logarithmischen Wahrscheinlichkeitswerte eines N-Gramms. Für die Berechnung benötigt man aus dem Referenzkorpus und dem Zielkorpus jeweils die Summe aller Wörter sowie das Auftreten des untersuchten N-Gramms. Man erhält daraus eine Kontingenztafel wie in Tabelle 1. Referenzkorpus Zielkorpus Worthäufigkeit a = 15 b = 14 Häufigkeit anderer Wörter c-a = d-b = Wörter gesamt c = d = Tabelle 1: Log Likelihood Kontingenztabelle [likelihood01] Diese Werte müssen in Formel (1) zur Berechnung der Erwartungswerte eingesetzt werden, wobei N i im ersten Fall durch den Wert von c und im zweiten Fall durch den Wert von d ersetzt wird. i O i (summarised observed value) bezeichnet die gesamte Worthäufigkeit des zu berechnenden N-Gramms in beiden Korpussen [likelihood01]. Mit diesen Testzahlen wäre dies jeweils die Summe aus a und b. (1) Durch Einsetzen in diese Formel ergeben sich folgende Erwartungswerte: E 1 = 12,80 E 2 = 16,20 14 / 66

15 Diese Erwartungswerte müssen im abschließenden Schritt noch in Formel (2) angewendet werden [Bautin & Hart 2007]. Das Ergebnis dieser Formel wird als G2-Wert bezeichnet. (2) Für die gewählten Beispielzahlen erhalten wir als G2-Wert 0,67. Je höher dieser Wert ist, desto signifikanter ist der Unterschied zwischen dem n-gramm aus dem Zielkorpus und dem Vergleichswert aus dem Referenzkorpus. Liegt der G2-Wert über 3,80 so fällt das n-gramm aus dem 95 Prozent-Quantil und ist somit weniger als fünf Prozent relevant [likelihood01]. Ein G2-Wert über 6,60 impliziert eine Relevanz von unter einem Prozent für das gewählte n-gramm [likelihood01]. Log Likelihood Ratio allein bietet jedoch nur unzureichende Genauigkeit für n-gramme, die weniger oft als erwartet auftreten [Bautin & Hart 2007]. Durch weitere statistische Überprüfungen der Werte können Korrekturen das Ergebnis noch verbessern. Nachfolgend werden zwei Möglichkeiten dieser Korrekturen erläutert T-Test Korrektur Eine Möglichkeit, die Log Likelihood Ratio zu verbessern ist der T-Test. Die Berechnung erfolgt nach Formel (3). (3) 15 / 66

16 N bezeichnet die Anzahl der Wörter im betreffenden Korpus, s 2 steht für die ermittelte Stichprobenvarianz. Der Erwartungswert (μ) wird von der ermittelten Worthäufigkeit ( ) abgezogen. Das Ergebnis des T-Tests gibt die Wahrscheinlichkeit an, dass ein bestimmtes n-gramm aus einer Verteilung mit dem Mittelwert μ gezogen wird [Bautin & Hart 2007] Yates Korrektur Um wesentliche Unterschiede in aufgetretenen Stichproben zu vergleichen bietet sich auch die Stetigkeitskorrektur nach Yates an. Dabei wird angenommen, dass die Stichproben symmetrisch verteilt sind [wikipedia05] und das Ergebnis der Log Likelihood Berechnung um den Faktor 0,5 verbessert wird. Als Grundlage für die Berechnung in Formel (4) dient die Kontingenztafel aus Tabelle 2. Referenzkorpus positiv Referenzkorpus negativ Zielkorpus positiv a b Zielkorpus negativ c d Tabelle 2: Kontingenztafel für Yates-Korrektur [wikipedia05] (4) Führt diese Berechnung zu einem Wert, der gleich groß oder größer als der ursprüngliche Wert ist, besteht ein signifikanter Unterschied zwischen den Zählwerten, der allerdings nur auf einen Unterschied hindeutet und keine Auskunft darüber gibt, ob dies eine Verbesserung oder eine Verschlechterung darstellt [wikipedia05]. 16 / 66

17 2.4 Funktionsweise eines MapReduce-Frameworks Die grundsätzliche Idee von MapReduce wurde durch Google entwickelt und patentiert. Es handelt sich um ein Konzept der parallelen Programmierung und wird für die Verarbeitung von großen Datenmengen eingesetzt [Manning et al 2008]. Eine typische Anwendung ist das Zählen von Wörtern in großen Dokumentensammlungen. Durch die großen Datenmengen zielt MapReduce darauf ab, Berechnungsprozesse auf mehrere physische Maschinen zu verteilen, welches durchaus handelsübliche Maschinen mit durchschnittlichen Leistungsmerkmalen sein können. Ein sogenanntes Master-Programm teilt jeder dieser Maschinen einen Teil der Dokumentensammlung für die Bearbeitung zu. Die vom Benutzer definierte Map-Funktion wird auf den Maschinen ausgeführt und produziert aus den zugewiesenen Dokumenten Schlüssel-Wert Paare [Ekanayake & Pallickara 2008]. Jedes n-gramm wird zum Schlüssel und erhält den Wert 1, danach werden gleiche Schlüssel gruppiert und das Ergebnis der Map-Funktion abgelegt [Ekanayake & Pallickara 2008]. Hier gibt es unterschiedliche Ansätze, die Ergebnisse der Map-Funktion zu speichern. Meist wird die Speicherung in einem verteilten File-System gewählt. Die gespeicherten Ergebnisse jeder Maschine werden vom Master-Programm abgeholt und die vom Benutzer definierte Reduce-Funktion aufgerufen. Gleiche Schlüssel in den Ergebnissen werden zu einem Schlüssel zusammengefasst und somit ein Gesamtergebnis der Dokumentensammlung erstellt. Abbildung 2 zeigt eine schematische Darstellung der einzelnen Phasen im MapReduce- Framework. [McCraedie et al 2011] erläutert die hauptsächliche Verwendung von MapReduce- Frameworks, nämlich das Zählen von Worten in großen Dokumentensammlungen. Dazu zeigt Abbildung 3 den möglichen Ablauf zur Bewältigung dieser Aufgabe als Pseudo-Code. 17 / 66

18 Abbildung 2: Phasen des MapReduce-Modells [McCraedie et al 2011] Abbildung 3: Pseudo-Code einer typischen Anwendung für das Zählen von Wörtern [McCraedie et al 2011] 18 / 66

19 Im folgenden Abschnitt werden die detaillierten Abläufe im MapReduce-Framework anhand eines Beispiels erläutert Beispiel einer MapReduce Berechnung Ausgehend von einem anschaulichen Beispiel auf der deutschsprachigen Wikipedia-Seite [wikipedia03] wird hier die Funktionsweise des MapReduce-Frameworks beschrieben. Zunächst benötigen wir einen Text, den es zu analysieren gilt. Für dieses Beispiel dient uns ein abgeänderter Ausschnitt aus einem Nachrichtentext der Tageszeitung Krone [krone01]. Text = Microsoft macht das Betriebssystem Windows fit für verschiedene Plattformen. Das nächste Windows Betriebssystem werde auf verschiedenen Plattformen voll funktionstüchtig sein. Dieser Text wird nun in Sätze aufgeteilt, zusätzlich werden die Satzzeichen entfernt und alle Wörter klein geschrieben. Das Zwischenergebnis: Input = * (satz_1, microsoft macht das betriebssystem windows fit für verschiedene plattformen ), (satz_2, das nächste windows betriebssystem werde auf verschiedenen plattformen voll funktionstüchtig sein ) + 19 / 66

20 Aufgrund dieser zwei Sätze sind zwei Schlüssel-Wert Paare als Inputwerte entstanden. Daher kann die Map-Funktion zweimal aufgerufen werden: Prozess1 = Map(satz_1, microsoft macht das betriebssystem windows fit für verschiedene plattformen ), Prozess2 = Map(satz_2, das nächste windows betriebssystem werde auf verschiedenen plattformen voll funktionstüchtig sein ) Durch diese Eingaben werden die folgenden Schlüssel-Wert Paare generiert: Prozess1 = Prozess2 = [ ( microsoft, 1), ( macht, 1), ( das, 1), ( betriebssystem, 1), ( windows, 1), ( fit, 1), ( für, 1), ( verschiedene, 1), ( plattformen, 1) ] [ ( das, 1), ( nächste, 1), ( windows, 1), ( betriebssystem, 1), ( werde, 1), ( auf, 1), ( verschiedenen, 1), ( plattformen, 1), ( voll, 1), ( funktionsfähig, 1), ( sein, 1) ] Die Ergebnisse werden an das MapReduce-Framework zurückgeliefert und gesammelt. Unter der Voraussetzung einer parallelen Verarbeitung könnte das MapReduce-Framework die folgende Teilergebnisse von den einzelnen Prozessen abrufen: 20 / 66

21 1. Schritt (Abruf des ersten Schlüssel-Wert Paares von den einzelnen Prozessen): T_microsoft = [ 1 ], neu T_das = [ 1 ], neu 2. Schritt (Abruf des zweiten Schlüssel-Wert Paares von den einzelnen Prozessen): T_macht = [ 1 ], neu T_nächste = [ 1 ], neu 3. Schritt (Abruf des dritten Schlüssel-Wert Paares von den einzelnen Prozessen): T_das = [ 1 ] T_windows = [ 1 ], neu usw. Dabei wird jedem Wort der Zusatz T_ für Term zugewiesen und ein Hinweis, ob dieser Term in diesem Schritt erzeugt wurde (neu). Im dritten Schritt wird beispielsweise erkannt, dass es den Term das bereits seit dem ersten Schritt gibt. Nachdem alle Map-Prozesse ihre Ergebnisse abgeliefert haben, beginnt die Reduce-Phase. Key [values] T_microsoft [1] T_das [1,1] T_macht [1] T_nächste [1] T_windows [1,1] reduce() => [ 1 ] => [ 2 ] => [ 1 ] => [ 1 ] => [ 2 ] usw. 21 / 66

22 Als Ergebnis erhalten wir folgenden Output, der für jeden Schlüssel die aggregierten Vorkommnisse in allen analysierten Dokumenten enthält: Output = [ ( microsoft, 1), ( das, 2), ( betriebssystem, 2) ( macht, 1), ( nächste, 1), ( windows, 2), ( fit, 1), ( für, 1), ( verschiedene, 1), ( plattformen, 2), ( werde, 1), ( auf, 1), ( verschiedenen, 1), ( voll, 1), ( funktionstüchtig, 1), ( sein, 1) ] Hadoop MapReduce (Apache Software Foundation) Die Idee des MapReduce-Frameworks wurde von zahlreichen Softwareentwicklern aufgegriffen und umgesetzt. Für die gegenwärtige Arbeit ist besonders das Hadoop MapReduce Framework der Apache Software Foundation [hadoop01] von Interesse, da dieses für die parallele Verarbeitung von Texten im Kontext dieser Arbeit verwendet wird. Das Hadoop MapReduce Framework stellt dem Benutzer die Grundlagen der parallelen Textverarbeitung zur Verfügung. Dadurch muss der Benutzer sich keine Gedanken um die Zerlegung von Datenmengen und deren Aufteilung auf die verarbeitenden Geräte kümmern und kann sich auf die Entwicklung der Anwendungen konzentrieren, welche später mit dem Hadoop MapReduce Framework zusammenarbeiten und Aufgaben erledigen. Lediglich einige grundlegende Dinge müssen bei der Entwicklung der Anwendungen beachtet und integriert werden, um das Hadoop MapReduce Framework aus dem Code heraus ansprechen zu können. Nähere Informationen dazu folgen in Kapitel 3. Anwendungen, die für die Verarbeitung mit Hadoop MapReduce entwickelt werden, nennt man Jobs, die Hauptbestandteile des Frameworks sind sinngemäß die Mapper- und die Reducer- Methode. Bei der Erstellung eines Jobs können diese Methoden als Interfaces eingebunden und an die Bedürfnisse des Jobs angepasst werden [hadoop2]. Da das Framework in Java program- 22 / 66

Workbooster File Exchanger Command Line Tool

Workbooster File Exchanger Command Line Tool Thema Technische Benutzerdokumentation - WBFileExchanger Workbooster File Exchanger Command Line Tool Letzte Anpassung 18. Januar 2014 Status / Version Finale Version - V 1.1 Summary Erstellung Diese technische

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

MapReduce in der Praxis

MapReduce in der Praxis MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation

Mehr

Neue Ansätze der Softwarequalitätssicherung

Neue Ansätze der Softwarequalitätssicherung Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Hadoop. Simon Prewo. Simon Prewo

Hadoop. Simon Prewo. Simon Prewo Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert

Mehr

COLLECTION. Installation und Neuerungen. Märklin 00/H0 Jahresversion 2009. Version 7. Die Datenbank für Sammler

COLLECTION. Installation und Neuerungen. Märklin 00/H0 Jahresversion 2009. Version 7. Die Datenbank für Sammler Die Datenbank für Sammler COLLECTION Version 7 Installation und Neuerungen Märklin 00/H0 Jahresversion 2009 Stand: April 2009 Inhaltsverzeichnis Inhaltsverzeichnis... 2 VORWORT... 3 Hinweise für Anwender,

Mehr

Datensicherung. Beschreibung der Datensicherung

Datensicherung. Beschreibung der Datensicherung Datensicherung Mit dem Datensicherungsprogramm können Sie Ihre persönlichen Daten problemlos Sichern. Es ist möglich eine komplette Datensicherung durchzuführen, aber auch nur die neuen und geänderten

Mehr

Übung: Verwendung von Java-Threads

Übung: Verwendung von Java-Threads Übung: Verwendung von Java-Threads Ziel der Übung: Diese Übung dient dazu, den Umgang mit Threads in der Programmiersprache Java kennenzulernen. Ein einfaches Java-Programm, das Threads nutzt, soll zum

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Inhaltsverzeichnis. 1 Grundsätzliche Überlegung. 2 Hinweis zur Installation

Inhaltsverzeichnis. 1 Grundsätzliche Überlegung. 2 Hinweis zur Installation Inhaltsverzeichnis 1 Grundsätzliche Überlegung...1 2 Hinweis zur Installation...1 3 Konfiguration von AutoDocument...2 3.1 Erfassung der Listeneinträge...2 3.2 Hinterlegung von Notizen...3 3.3 Definition

Mehr

sedex-client Varianten für den Betrieb in einer hoch verfügbaren

sedex-client Varianten für den Betrieb in einer hoch verfügbaren Département fédéral de l'intérieur DFI Office fédéral de la statistique OFS Division Registres Team sedex 29.07.2014, version 1.0 sedex-client Varianten für den Betrieb in einer hoch verfügbaren Umgebung

Mehr

Funktionen in PHP 1/7

Funktionen in PHP 1/7 Funktionen in PHP 1/7 Vordefinierte Funktionen in PHP oder vom Entwickler geschriebene Funktionen bringen folgende Vorteile: gleiche Vorgänge müssen nur einmal beschrieben und können beliebig oft ausgeführt

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Inventarisierung von Exchange Alternativen für die Exchange-Inventarisierung

Inventarisierung von Exchange Alternativen für die Exchange-Inventarisierung Inventarisierung von Exchange Alternativen für die Exchange-Inventarisierung www.docusnap.com TITEL Inventarisierung von Exchange AUTOR Mohr Carsten DATUM 28.10.2015 VERSION 1.0 Die Weitergabe, sowie Vervielfältigung

Mehr

Funktionsübersicht. Beschreibung der zentralen Funktionen von PLOX

Funktionsübersicht. Beschreibung der zentralen Funktionen von PLOX Funktionsübersicht Beschreibung der zentralen Funktionen von PLOX Seite 2 Inhaltsverzeichnis 1. Überblick Architektur... 2 2. PLOX-Menüleiste: Eine Toolbox voll nützlicher Werkzeuge... 3 2.1 Login... 3

Mehr

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung...Seite 03 2. Einrichtung des Systems...Seite 04 3. Erzeugen eines Backup-Skripts...Seite

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test

Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test Windows Client Management AG Alte Haslenstrasse 5 CH-9053 Teufen wincm.ch 1 Quick Install - Scripting Framework Workplace...3

Mehr

Normfall 7.2. Whitepaper. Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von:

Normfall 7.2. Whitepaper. Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von: Normfall 7.2 Whitepaper Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von: Microsoft SQL Server 2008 R2/2012/2014 2014 Normfall GmbH Alle Rechte vorbehalten. Vorbemerkungen

Mehr

Benutzerdokumentation Hosted Backup Services Client

Benutzerdokumentation Hosted Backup Services Client Benutzerdokumentation Hosted Backup Services Client Geschäftshaus Pilatushof Grabenhofstrasse 4 6010 Kriens Version 1.1 28.04.2014 Inhaltsverzeichnis 1 Einleitung 4 2 Voraussetzungen 4 3 Installation 5

Mehr

Erlernbarkeit. Einsatzbereich. Preis. Ausführungsort

Erlernbarkeit. Einsatzbereich. Preis. Ausführungsort 1.3 PHP Vorzüge Erlernbarkeit Im Vergleich zu anderen Sprachen ist PHP relativ leicht erlernbar. Dies liegt hauptsächlich daran, dass PHP im Gegensatz zu anderen Sprachen ausschließlich für die Webserver-Programmierung

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Im Falle der Neueingabe müssen Sie in dem nachfolgendem Formular die Datenquelle auswählen und die Art der Prüfung festlegen.

Im Falle der Neueingabe müssen Sie in dem nachfolgendem Formular die Datenquelle auswählen und die Art der Prüfung festlegen. Ereignismanager Ereignismanager Ereignismanager - Grundsätzliches Allgemeines Mit Hilfe des Ereignismanagers können Sie Feldeingaben (bei Neueingaben oder Änderungen) überprüfen lassen. Sie können für

Mehr

Zentrale Installation

Zentrale Installation Einführung STEP 7 wird durch ein Setup-Programm installiert. Eingabeaufforderungen auf dem Bildschirm führen Sie Schritt für Schritt durch den gesamten Installationsvorgang. Mit der Record-Funktion steht

Mehr

SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce)

SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce) Hochschule Mannheim Fakultät für Informatik SEMT Prof. G. Bengel Sommersemester 2009 Semester 8I Searching as a Service (Programming Model: MapReduce) Michel Schmitt (520361) 1.06.2009 Inhalt 1. Einführung...

Mehr

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und

Mehr

Full Text Search in Databases

Full Text Search in Databases Full Text Search in Databases Verfasser: Stefan Kainrath (0651066) h0651066@wu-wien.ac.at 0664/1327136 Betreuer: Dipl.-Ing. Mag. Dr. Albert Weichselbraun Inhaltsverzeichnis 1 Motivation... 3 2 Anforderungen...

Mehr

Zeiterfassung-Konnektor Handbuch

Zeiterfassung-Konnektor Handbuch Zeiterfassung-Konnektor Handbuch Inhalt In diesem Handbuch werden Sie den Konnektor kennen sowie verstehen lernen. Es wird beschrieben wie Sie den Konnektor einstellen und wie das System funktioniert,

Mehr

AnNoText. AnNoText Online-Update. Copyright Wolters Kluwer Deutschland GmbH

AnNoText. AnNoText Online-Update. Copyright Wolters Kluwer Deutschland GmbH Copyright Wolters Kluwer Deutschland GmbH AnNoText AnNoText Online-Update Wolters Kluwer Deutschland GmbH Software + Services Legal Robert-Bosch-Straße 6 D-50354 Hürth Telefon (02 21) 9 43 73-6000 Telefax

Mehr

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper)

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper) Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10 Technische Informationen (White Paper) Inhaltsverzeichnis 1. Über dieses Dokument... 3 2. Überblick... 3 3. Upgrade Verfahren... 4

Mehr

PostgreSQL unter Debian Linux

PostgreSQL unter Debian Linux Einführung für PostgreSQL 7.4 unter Debian Linux (Stand 30.04.2008) von Moczon T. und Schönfeld A. Inhalt 1. Installation... 2 2. Anmelden als Benutzer postgres... 2 2.1 Anlegen eines neuen Benutzers...

Mehr

Anwendung von Geoinformatik: Entwicklung von Open Source Tools für die automatisierte Analyse von Geoinformationen

Anwendung von Geoinformatik: Entwicklung von Open Source Tools für die automatisierte Analyse von Geoinformationen Anwendung von Geoinformatik: Entwicklung von Open Source Tools für die automatisierte Analyse von Geoinformationen Abschlussprojekt: Klassifizierung von High Definition Panoramabildern Bearbeitung: Johannes

Mehr

PADS 3.0 Viewer - Konfigurationen

PADS 3.0 Viewer - Konfigurationen PADS 3.0 Viewer - Konfigurationen Net Display Systems (Deutschland) GmbH - Am Neuenhof 4-40629 Düsseldorf Telefon: +49 211 9293915 - Telefax: +49 211 9293916 www.fids.de - email: info@fids.de Übersicht

Mehr

Projektbericht Gruppe 12. Datenbanksysteme WS 05/ 06. Gruppe 12. Martin Tintel Tatjana Triebl. Seite 1 von 11

Projektbericht Gruppe 12. Datenbanksysteme WS 05/ 06. Gruppe 12. Martin Tintel Tatjana Triebl. Seite 1 von 11 Datenbanksysteme WS 05/ 06 Gruppe 12 Martin Tintel Tatjana Triebl Seite 1 von 11 Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 3 2. Datenbanken... 4 2.1. Oracle... 4 2.2. MySQL... 5 2.3 MS

Mehr

Installationsanleitung für die netzbasierte Variante Bis Version 3.5. KnoWau, Allgemeine Bedienhinweise Seite 1

Installationsanleitung für die netzbasierte Variante Bis Version 3.5. KnoWau, Allgemeine Bedienhinweise Seite 1 1 Installationsanleitung für die netzbasierte Variante Bis Version 3.5 Copyright KnoWau Software 2013 KnoWau, Allgemeine Bedienhinweise Seite 1 2 Seite absichtlich leer KnoWau, Allgemeine Bedienhinweise

Mehr

NetMan Desktop Manager Quick-Start-Guide

NetMan Desktop Manager Quick-Start-Guide NetMan Desktop Manager Quick-Start-Guide In diesem Dokument wird die Installation von NetMan Desktop Manager beschrieben. Beachten Sie, dass hier nur ein Standard-Installationsszenario beschrieben wird.

Mehr

Mengenvergleiche: Alle Konten außer das, mit dem größten Saldo.

Mengenvergleiche: Alle Konten außer das, mit dem größten Saldo. Mengenvergleiche: Mehr Möglichkeiten als der in-operator bietet der θany und der θall-operator, also der Vergleich mit irgendeinem oder jedem Tupel der Unteranfrage. Alle Konten außer das, mit dem größten

Mehr

Avantgarde www.avantgarde-vs.de. Avantgarde 3.0 User s Guide Benutzerhandbuch Guide de L utilisateur

Avantgarde www.avantgarde-vs.de. Avantgarde 3.0 User s Guide Benutzerhandbuch Guide de L utilisateur Avantgarde www.avantgarde-vs.de Avantgarde 3.0 User s Guide Benutzerhandbuch Guide de L utilisateur ING.-BÜRO JOACHIM NÜß Kremser Straße 25 D-78052 Villingen-Schwenningen Copyright: 2010 ING.-BÜRO JOACHIM

Mehr

So geht s Schritt-für-Schritt-Anleitung

So geht s Schritt-für-Schritt-Anleitung So geht s Schritt-für-Schritt-Anleitung Software WISO Mein Büro inkl. Modul Arbeitsplatz+ Thema Netzwerkinstallation Version/Datum 15.00.03.100 Modul Arbeitsplatz+ Zur Nutzung der Netzwerkfähigkeit ist

Mehr

Outlook-Abgleich. Änderungen, Irrtümer und Druckfehler vorbehalten. Bearbeitet von Harald Borges. Stand April 2015 www.cobra.de

Outlook-Abgleich. Änderungen, Irrtümer und Druckfehler vorbehalten. Bearbeitet von Harald Borges. Stand April 2015 www.cobra.de Outlook-Abgleich Copyright 2015 cobra computer s brainware GmbH cobra Adress PLUS, cobra CRM PLUS, cobra CRM PRO und cobra CRM BI sind eingetragene Warenzeichen der cobra computer s brainware GmbH. Andere

Mehr

3 Installation von Exchange

3 Installation von Exchange 3 Installation von Exchange Server 2010 In diesem Kapitel wird nun der erste Exchange Server 2010 in eine neue Umgebung installiert. Ich werde hier erst einmal eine einfache Installation mit der grafischen

Mehr

IBM SPSS Collaboration and Deployment Services (C&DS) version 7

IBM SPSS Collaboration and Deployment Services (C&DS) version 7 Dieses Handbuch richtet sich an Systemadministratoren, die IBM SPSS Modeler Entity Analytics (EA) für die Ausführung mit einem der folgenden Produkte konfigurieren: IBM SPSS Collaboration and Deployment

Mehr

Knottenwäldchen Software

Knottenwäldchen Software Knottenwäldchen Software Installationsanleitung für die netzbasierte Lösung Knottenwäldchen Software März.2011 Knottenwäldchen Software Seite 2 1 Inhalt 1 Inhalt... 2 2 Übersicht... 3 3 Installation...

Mehr

Dieses System kann wachsen und sich anpassen, wenn die Anwender entsprechende Anforderungen definieren.

Dieses System kann wachsen und sich anpassen, wenn die Anwender entsprechende Anforderungen definieren. cadsfm Raumbuch Übersicht CADSFM bedeutet Facility Management der Firma CADS Support GmbH und ist eine Applikation zur Pflege und Verwaltung von Metadaten für AutoCAD-Gebäude- und Flächenpläne. Die bietet

Mehr

ZMI Benutzerhandbuch Sophos. Sophos Virenscanner Benutzerhandbuch

ZMI Benutzerhandbuch Sophos. Sophos Virenscanner Benutzerhandbuch ZMI Benutzerhandbuch Sophos Sophos Virenscanner Benutzerhandbuch Version: 1.0 12.07.2007 Herausgeber Zentrum für Medien und IT ANSCHRIFT: HAUS-/ZUSTELLADRESSE: TELEFON: E-MAIL-ADRESSE: Zentrum für Medien

Mehr

IBM SPSS Modeler Entity Analytics - Erweiterte Konfiguration

IBM SPSS Modeler Entity Analytics - Erweiterte Konfiguration IBM SPSS Entity Analytics - Erweiterte Konfiguration Einführung Die vorgesehene Zielgruppe für dieses Handbuch sind Systemadministratoren, die IBM SPSS Entity Analytics (EA) für die Ausführung in einer

Mehr

Betriebshandbuch. MyInTouch Import Tool

Betriebshandbuch. MyInTouch Import Tool Betriebshandbuch MyInTouch Import Tool Version 2.0.5, 17.08.2004 2 MyInTouch Installationshandbuch Inhaltsverzeichnis Inhaltsverzeichnis... 2 Bevor Sie beginnen... 3 Einleitung...3 Benötigte Daten...3

Mehr

KREDITVERZEICHNIS Konfiguration Ausgabe: 20.02.13 1/13. Dokumentation KREDITVERZEICHNIS. Teil 2. Konfiguration

KREDITVERZEICHNIS Konfiguration Ausgabe: 20.02.13 1/13. Dokumentation KREDITVERZEICHNIS. Teil 2. Konfiguration KREDITVERZEICHNIS Konfiguration Ausgabe: 20.02.13 1/13 Dokumentation KREDITVERZEICHNIS Teil 2 Konfiguration Stand 20.02.2013 KREDITVERZEICHNIS Konfiguration Ausgabe: 20.02.13 2/13 Inhalt 1. KONFIGURATION...

Mehr

Kurzanleitung zu XML2DB

Kurzanleitung zu XML2DB Kurzanleitung zu XML2DB Inhaltsverzeichnis 1. Einleitung...3 2. Entwicklungsumgebung...3 3. Betriebsanleitung...3 3.1 Einrichten der Java Umgebung...3 3.2 Allgemeines zu java und javac...4 3.2.1 Allgemeines

Mehr

Copyrights. Rev. 2009-04-21-1. 1997-2009 O&O Software GmbH Am Borsigturm 48 13507 Berlin Germany. http://www.oo-software.com.

Copyrights. Rev. 2009-04-21-1. 1997-2009 O&O Software GmbH Am Borsigturm 48 13507 Berlin Germany. http://www.oo-software.com. O&O DiskImage Copyrights Text, Abbildungen und Beispiele wurden mit größter Sorgfalt erstellt. Der Herausgeber übernimmt für fehlerhafte Angaben und deren Folgen weder eine juristische noch irgendeine

Mehr

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet Ralph Lehmann. Computerservice und IT-Beratung. Kochstraße 34. 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Kochstraße 34 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Tel.:

Mehr

3 Variablen. 3.1 Allgemeines. 3.2 Definition und Verwendung von Variablen

3 Variablen. 3.1 Allgemeines. 3.2 Definition und Verwendung von Variablen 3 Variablen 3.1 Allgemeines Variablen werden in Prozeduren, Mustern und Parameter-Dokumenten definiert und verwendet und bei der Jobgenerierung durch die Werte, die ihnen zugewiesen werden, ersetzt. Variablen

Mehr

Leitfaden zur Installation von BitByters.Backup

Leitfaden zur Installation von BitByters.Backup Leitfaden zur Installation von BitByters.Backup Der BitByters.Backup - DASIService ist ein Tool mit dem Sie Ihre Datensicherung organisieren können. Es ist nicht nur ein reines Online- Sicherungstool,

Mehr

Definition Informationssystem

Definition Informationssystem Definition Informationssystem Informationssysteme (IS) sind soziotechnische Systeme, die menschliche und maschinelle Komponenten umfassen. Sie unterstützen die Sammlung, Verarbeitung, Bereitstellung, Kommunikation

Mehr

Dokumentation: Balanced Scorecard

Dokumentation: Balanced Scorecard Dokumentation: Balanced Scorecard 1. Einleitung Eine Balanced Scorecard (BSC) ist eine kennzahlenbasierte Managementmethode, welche sowohl Visionen als auch Strategien eines Unternehmens und relevante

Mehr

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux Seite 1 Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux... 1 Vorbemerkungen... 1 Benötigte Komponenten

Mehr

Tutorial. Tutorial. Microsoft Office 2010 Standard Edition verteilen. 2011 DeskCenter Solutions AG

Tutorial. Tutorial. Microsoft Office 2010 Standard Edition verteilen. 2011 DeskCenter Solutions AG Tutorial Microsoft Office 2010 Standard Edition verteilen 2011 DeskCenter Solutions AG Inhaltsverzeichnis 1. Einführung...3 2. Office 2010 Ressourcen bereitstellen...3 3. Anpassung der Office Installation...4

Mehr

Dingsda - Bedienungsanleitung unter Windows

Dingsda - Bedienungsanleitung unter Windows Dingsda - Bedienungsanleitung unter Windows Benötigte Software Um die Dateien von Dingsda zu öffnen und zu bearbeiten, benötigen Sie ein Textverarbeitungsprogramm, das doc- oder rtf-dateien lesen kann

Mehr

Auswertung der Workload-Befragung mit MS ACCESS

Auswertung der Workload-Befragung mit MS ACCESS Auswertung der Workload-Befragung mit MS ACCESS Inhaltsverzeichnis 1. Aufbereitung der Daten... 2 1.1. Herstellung der Textfiles... 2 1.2. Import der Textdateien... 3 1.3. Verbindungen erstellen... 8 2.

Mehr

Update Messerli MySQL auf Linux

Update Messerli MySQL auf Linux Update Messerli MySQL auf Linux Einleitung Grundsätzlich wird beim Update der Messerli Software auf einem Linux-Server wie folgt vorgegangen: 1. Vorhandener RMI-MySQL Server wird auf Linux aktualisiert

Mehr

Installation und erste Schritte laserdesk Version 1.0

Installation und erste Schritte laserdesk Version 1.0 Installation und erste Schritte 23. April 2013 SCANLAB AG Siemensstr. 2a 82178 Puchheim Deutschland Tel. +49 (89) 800 746-0 Fax: +49 (89) 800 746-199 support@laserdesk.info SCANLAB AG 2013 ( - 20.02.2013)

Mehr

Übersicht. UNIX-Dateisystem (ext2) Super-User unter Linux werden MSDOS: FAT16 und FAT32

Übersicht. UNIX-Dateisystem (ext2) Super-User unter Linux werden MSDOS: FAT16 und FAT32 Übersicht UNIX-Dateisystem (ext2) Super-User unter Linux werden MSDOS: FAT16 und FAT32 Die in diesem Teil vorgestellten Informationen stellen lediglich das Prinzip dar - im Detail ist alles etwas komplizierter...

Mehr

BANKETTprofi Web-Client

BANKETTprofi Web-Client BANKETTprofi Web-Client Konfiguration und Bedienung Handout für die Einrichtung und Bedienung des BANKETTprofi Web-Clients im Intranet / Extranet Der BANKETTprofi Web-Client Mit dem BANKETTprofi Web-Client

Mehr

Windows 7. Grundkurs kompakt. Peter Wies 1. Ausgabe, 2. Aktualisierung, Januar 2012 K-W7-G

Windows 7. Grundkurs kompakt. Peter Wies 1. Ausgabe, 2. Aktualisierung, Januar 2012 K-W7-G Peter Wies 1. Ausgabe, 2. Aktualisierung, Januar 2012 Windows 7 Grundkurs kompakt K-W7-G Inhalt Zu diesem Buch 4 1 Erste Schritte mit Windows 7 7 1.1 Das Betriebssystem Windows 7...8 1.2 Windows starten...8

Mehr

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse?

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Ein Beispiel Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Dipl.-Kfm. Claus Häberle WS 2015 /16 # 42 XML (vereinfacht) visa

Mehr

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches

Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Hochschule Darmstadt - Fachbereich Informatik - Fachschaft des Fachbereiches Verwendung der bereitgestellten Virtuellen Maschinen»Einrichten einer Virtuellen Maschine mittels VirtualBox sowie Zugriff auf

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Paynet Adapter Spezifikationen Voraussetzungen Datum : 21.07.08 Version : 1.0.0.2 21.07.2008 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung... 3 2 Architektur... 3 2.1 Grundsätze

Mehr

TimeMachine. Time CGI. Version 1.5. Stand 04.12.2013. Dokument: time.odt. Berger EDV Service Tulbeckstr. 33 80339 München

TimeMachine. Time CGI. Version 1.5. Stand 04.12.2013. Dokument: time.odt. Berger EDV Service Tulbeckstr. 33 80339 München Time CGI Version 1.5 Stand 04.12.2013 TimeMachine Dokument: time.odt Berger EDV Service Tulbeckstr. 33 80339 München Fon +49 89 13945642 Mail rb@bergertime.de Versionsangaben Autor Version Datum Kommentar

Mehr

Wirtschafts-Informatik-Wietzorek Ulmweg 7 73117 Wangen 31.10.2009. Programm zur komfortablen Datenauswertung der JTL-WAWI Betaversion

Wirtschafts-Informatik-Wietzorek Ulmweg 7 73117 Wangen 31.10.2009. Programm zur komfortablen Datenauswertung der JTL-WAWI Betaversion Cubeinfo Programm zur komfortablen Datenauswertung der JTL-WAWI Betaversion Kurzbeschreibung Diese Software ist Freeware und darf weitergegeben werden. Zum Öffen der ZIP- Files benötigen Sie ein Kennwort,

Mehr

Datenbanken für Online Untersuchungen

Datenbanken für Online Untersuchungen Datenbanken für Online Untersuchungen Im vorliegenden Text wird die Verwendung einer MySQL Datenbank für Online Untersuchungen beschrieben. Es wird davon ausgegangen, dass die Untersuchung aus mehreren

Mehr

MapReduce. www.kit.edu. Johann Volz. IPD Snelting, Lehrstuhl Programmierparadigmen

MapReduce. www.kit.edu. Johann Volz. IPD Snelting, Lehrstuhl Programmierparadigmen MapReduce Johann Volz IPD Snelting, Lehrstuhl Programmierparadigmen KIT Universität des Landes Baden-Württemberg und nationales Großforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wozu MapReduce?

Mehr

Connecting Content. User Manual. Version: 1.2

Connecting Content. User Manual. Version: 1.2 Connecting Content User Manual Version: 1.2 09.09.2015 Inhaltsverzeichnis Inhaltsverzeichnis 1 Einleitung 3 2 Installation 4 3 Konfiguration 5 3.1 Allgemeine Einstellungen 6 3.2 Jobs anlegen 6 3.3 Tasks

Mehr

DocuWare unter Windows 7

DocuWare unter Windows 7 DocuWare unter Windows 7 DocuWare läuft unter dem neuesten Microsoft-Betriebssystem Windows 7 problemlos. Es gibt jedoch einige Besonderheiten bei der Installation und Verwendung von DocuWare, die Sie

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon Visualisierung der Eidolon Auswertung VisEiA Graphischer Client für das Emailspiel Eidolon Entstanden im Ramen einer Seminararbeit in Informatik Universität Fribourg, Schweiz david.buchmann@gmx.net http://getit.at/viseia/

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

ESB - Elektronischer Service Bericht

ESB - Elektronischer Service Bericht Desk Software & Consulting GmbH ESB - Elektronischer Service Bericht Dokumentation des elektronischen Serviceberichts Matthias Hoffmann 25.04.2012 DESK Software und Consulting GmbH Im Heerfeld 2-4 35713

Mehr

Dokumentation Authentische Strukturdaten

Dokumentation Authentische Strukturdaten Dokumentation Version 1.1 Version 1.0 Seite 1/18 31.10.2008 Inhaltsverzeichnis 1. Allgemeines...3 1.1 Phasenmodell...3 1.1.1 Phase I...3 1.1.2 Phase II...3 1.1.3 Phase III...3 1.2 Datenaktualität...3 2.

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Grundlagen der Informatik 2

Grundlagen der Informatik 2 Grundlagen der Informatik 2 Dipl.-Inf., Dipl.-Ing. (FH) Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de Raum 2.202 Tel. 03943 / 659 338 1 Gliederung 1. Einführung

Mehr

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt. Arbeitsblätter Der Windows Small Business Server 2011 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 169 Aufgaben Kapitel 1 1. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

Mehr

MySQL Installation. AnPr

MySQL Installation. AnPr Name Klasse Datum 1 Allgemeiner Aufbau Relationale Datenbank Management Systeme (RDBMS) werden im Regelfall als Service installiert. Der Zugriff kann über mehrere Kanäle durchgeführt werden, wobei im Regelfall

Mehr

ISA Server 2004 - Best Practice Analyzer

ISA Server 2004 - Best Practice Analyzer ISA Server 2004 - Best Practice Analyzer Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Seit dem 08.12.2005 steht der Microsoft ISA Server 2004 Best Practice Analyzer

Mehr

EasternGraphics Produktunterlagen Anleitung zur Migration für pcon.update

EasternGraphics Produktunterlagen Anleitung zur Migration für pcon.update 2007-02-13 [BBA] 2007-02-14 [AWI] Hintergrund Zur Nutzung von pcon.update auf Ihrem System sind Anpassungen in Bezug auf Ihre pcon- Applikationen und OFML-Daten erforderlich. Dies trifft insbesondere dann

Mehr

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr.

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr. ls [optionen] [namen]: ls zeigt den Inhalt von Verzeichnissen. Sind keine namen angegeben, werden die Dateien im aktuellen Verzeichnis aufgelistet. Sind eine oder mehrere namen angegeben, werden entweder

Mehr

ABB i-bus KNX. Software-Information. Melde- und Bedientableau. Typ: MT 701.2

ABB i-bus KNX. Software-Information. Melde- und Bedientableau. Typ: MT 701.2 Produkt: Melde- und Bedientableau Typ: MT 701.2 Aktuelles Anwendungsprogramm Plug-In für ETS 2 MT_701_2_ETS2_SOW_xx_V1-12a_de_en.exe Plug-In für ETS 3 MT_701_2_ETS3_SOW_xx_V1-12a_de_en.exe EIBTAB: MT_701_2_EIBTAB_SOW_de_V2-08-00A_EibTab+Firmware.EXE

Mehr

Handbuch. MiniRIS-Monitor

Handbuch. MiniRIS-Monitor Handbuch MiniRIS-Monitor Ersteller: EWERK MUS GmbH Erstellungsdatum: 09.05.2011 Inhalt 1 Vorwort... 3 2 Installation... 4 2.1 Voraussetzungen... 4 2.2 Installation... 4 3 Einstellungen... 5 4 Handhabung...

Mehr

Outlook-Abgleich. Copyright 2012 cobra computer s brainware GmbH

Outlook-Abgleich. Copyright 2012 cobra computer s brainware GmbH Outlook-Abgleich Copyright 2012 cobra computer s brainware GmbH cobra Adress PLUS ist eingetragenes Warenzeichen der cobra computer s brainware GmbH. Andere Begriffe können Warenzeichen oder anderweitig

Mehr

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Fakultät für Informatik Hochschule Mannheim tobnee@gmail.com

Mehr

Postgresql. Michael Dienert. 10. Dezember 2007. 1.1 Installationsort der Programme... 1

Postgresql. Michael Dienert. 10. Dezember 2007. 1.1 Installationsort der Programme... 1 Postgresql Michael Dienert 10. Dezember 2007 Inhaltsverzeichnis 1 Übersetzen und Installieren 1 1.1 Installationsort der Programme..................... 1 2 Einrichten einer Testdatenbank 1 2.1 Das Datenbank-Cluster.........................

Mehr

eadmin Manual Universitätsstraße 3 56070 Koblenz Deutschland

eadmin Manual Universitätsstraße 3 56070 Koblenz Deutschland DOKUMENT: TYP: ERSTELLT VON: Manual nova ratio AG Universitätsstraße 3 56070 Koblenz Deutschland VERSION: STAND: 9.x 23. September 2015 Inhaltsverzeichnis 1 2 2.1 2.2 2.3 3 3.1 3.2 3.3 4 4.1 4.2 4.3 4.4

Mehr

Kapitel 6,»Objektorientierte Programmierung«, widmet sich der objektorientierten Programmierung mit Python.

Kapitel 6,»Objektorientierte Programmierung«, widmet sich der objektorientierten Programmierung mit Python. 1.3 Aufbau des Buchs lichkeiten offen. Auf die Unterschiede der beiden Versionen gehe ich besonders ein, sodass ein späterer Umstieg von der einen zur anderen Version leichtfällt. Erste Zusammenhänge werden

Mehr

Dokumentation Projekt Virtuelles Tagebuch

Dokumentation Projekt Virtuelles Tagebuch Priv.Doz. Dr. Michael Hahsler Institut für Informationswirtschaft Dokumentation Projekt (Matr. Nr. 9806106) - 1 - 1 Problembeschreibung Das Ziel dieses Projektes ist es, ein Tagebuch in elektronischer

Mehr

MySQL Community Server 5.6 Installationsbeispiel (Ab 5.5.29)

MySQL Community Server 5.6 Installationsbeispiel (Ab 5.5.29) MySQL Community Server 5.6 Installationsbeispiel (Ab 5.5.29) Dieses Dokument beschreibt das Herunterladen der Serversoftware, die Installation und Konfiguration der Software. Bevor mit der Migration der

Mehr

If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES

If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES Das Erstellen von Dokumenten mit Sharepoint Libraries bietet eine Reihe von Vorteilen gegenüber der traditionellen Arbeitsweise und dem

Mehr

regify Installationsanleitung für IBM Lotus Notes / Domino Version 1.3.0 volker.schmid@regify.com

regify Installationsanleitung für IBM Lotus Notes / Domino Version 1.3.0 volker.schmid@regify.com regify Installationsanleitung für IBM Lotus Notes / Domino Version 1.3.0 volker.schmid@regify.com INHALT Inhalt...2 Einleitung...3 Versionen und Voraussetzungen...3 Installation der regify Schablonen...4

Mehr