Masterarbeit. Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen. Verfasserin/Verfasser: Thomas Pascher, BSc. (WU)

Größe: px
Ab Seite anzeigen:

Download "Masterarbeit. Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen. Verfasserin/Verfasser: Thomas Pascher, BSc. (WU)"

Transkript

1 WIRTSCHAFTSUNIVERSITÄT WIEN Masterarbeit Titel der Masterarbeit: Parallelisieren von Textanalyse-Prozessen Verfasserin/Verfasser: Thomas Pascher, BSc. (WU) Matrikel-Nr.: Studienrichtung: Wirtschaftsinformatik Beurteiler: PD Dipl.-Ing. Mag. Dr. Albert Weichselbraun Ich versichere, dass: ich die Masterarbeit selbständig verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und mich auch sonst keiner unerlaubten Hilfe bedient habe. ich dieses Masterthema bisher weder im In- noch im Ausland (einer Beurteilerin/einem Beurteiler zur Begutachtung) in irgendeiner Form als Prüfungsarbeit vorgelegt habe. diese Arbeit mit der vom Begutachter/von der Begutachterin beurteilten Arbeit übereinstimmt. Datum Unterschrift

2 Abstrakt Die vorliegende Masterarbeit wurde am Institut für Informationswirtschaft der WU Wien verfasst und beschäftigt sich mit der Entwicklung einer Software, welche große Dokumentensammlungen mit Hilfe des Hadoop MapReduce-Frameworks analysiert. Durch dieses Framework wird es ermöglicht, komplexe Berechnungen auf mehrere Rechner in einem zusammenhängenden Rechnersystem aufzuteilen und somit die Rechenleistung zu verteilen. Diese Rechner ermitteln vordefinierte Zählwerte aus den Dokumenten und stellen diese wieder zentral zur Verfügung. Nach der Auswertung von Referenzdokumenten, die zuvor als relevant klassifiziert wurden, werden die Daten aus den Zieldokumenten ermittelt. Die gewonnenen Daten und die Berechnung von Wahrscheinlichkeitswerten im Vergleich mit den Referenzdaten ermöglicht Rückschlüsse auf die Relevanz einzelner Zieldokumente. Als Unterstützung bei der Speicherung und der Berechnung von Wahrscheinlichkeiten wird ein relationales Datenbanksystem eingesetzt. Abstract The present master thesis was written at the Insitute of Information Business at WU Vienna. It deals with the development of a software tool that is able to analyze huge document collections supported by the Hadoop MapReduce-Framework. This framework enables the execution complex processing tasks on more than one physical machine in a coherent system of linked machines to distribute processing power. These machines calculate predefined counts from the documents and centralize the results afterwards. At the beginning some reference documents are processed for retrieving the reference values. Then the target documents are scanned the same way. The analyzed data in combination with likelihood values enables a classification of documents regarding their relevance compared to the relevant documents. For saving the datasets and supporting calculations, a relational database system is used. Keywords Map, Reduce, Hadoop MapReduce, PostgreSQL, MySQL, Log Likelihood, Bigramm, Trigramm. 2 / 66

3 Inhaltsverzeichnis 1 Einführung und Forschungsfrage 5 2 Theorie Cloud Computing eine Einführung Grundlagen der maschinellen Sprachverarbeitung Automatische Beschlagwortung von Dokumenten Erfassung von Worthäufigkeiten Ermittlung signifikanter Phrasen Log Likelihood Ratio T-Test Korrektur Yates Korrektur Funktionsweise eines MapReduce-Frameworks Beispiel einer MapReduce Berechnung Hadoop MapReduce (Apache Software Foundation) Hadoop Distributed File System (HDFS) 24 3 Methode Allgemeiner Aufbau Zusammenspiel der Komponenten Vorbereitende Maßnahmen Das Job-Manager-Skript Parallelizer Ermittlung der N-Gramme Ablage der Zählwerte Aufbau der Datenbank Berechnung der Wahrscheinlichkeitswerte 43 3 / 66

4 4 Evaluierung Erster Testlauf: Test der Grundfunktionalität auf einem Single Node Cluster Testergebnisse ohne Berechnung und Updates Testergebnisse mit Berechnung und Updates Ermittelte Schlagwörter Zweiter Testlauf: Schlagworte für den Reuters Corpus auf einem Single Node Cluster _ Dritter Testlauf: Test der Grundfunktionalität auf einem Multi Node Cluster Adaptierung von Parallelizer Testergebnisse Vierter Testlauf: Schlagworte für den Reuters Corpus auf einem Multi Node Cluster Testergebnisse Ermittelte Schlagwörter Fünfter Testlauf: Schlagworte für den Reuters Corpus auf einem Single Node Cluster mit erhöhter Dokumentenmenge Fazit aus den Testläufen 58 5 Zusammenfassung und Ausblick 59 A Literaturverzeichnis 61 B Abbildungen 64 C Tabellen 65 D Glossar 65 4 / 66

5 1 Einführung und Forschungsfrage Im herrschenden Informationszeitalter werden Tag für Tag riesige Datenmengen produziert. Mit der Ablage dieser Daten ist es jedoch meist nicht getan, da viele Personen und Unternehmen gespeicherte Daten in irgendeiner Form auswerten möchten. Arbeitsplatzrechner aber auch Servermaschinen stoßen bei der Analyse von riesigen Datenbeständen meist schon sehr bald an die Grenzen ihrer Leistungsfähigkeit. Um diesen Leistungsgrenzen entgegenzuwirken, gibt es unterschiedliche Ansätze. Man könnte immer leistungsfähigere Rechner kaufen um für derartige Aufgaben gerüstet zu sein. Allerdings wäre dies sehr kostenintensiv und irgendwann erreichen auch modernste Geräte ihre Grenzen. Zielführender ist hier die Entwicklung von verteilten Softwaresystemen, die es möglich machen, komplexe Aufgaben auf mehrere Rechner aufzuteilen und die Ergebnisse wieder einzusammeln. Die Entwicklungen auf diesem Gebiet sind bereits weit verbreitet und setzen in den meisten Fällen auf der Nutzung von handelsüblichen Arbeitsplatzrechnern auf. Diese sind nicht teuer in der Anschaffung, da sie meist über durchschnittliche Leistungsmerkmale verfügen. Das ist auch nicht notwendig, denn die Überlegung hinter dieser Vorgehensweise ist, dass die Kosten pro Leistungseinheit bei Standardgeräten geringer sind, als bei High-End Hardware. Durch die Zusammenfassung von mehreren kostengünstigen Rechnern werden ebenso hohe Performance-Werte zu geringeren Kosten erreicht. Die vorliegende Masterarbeit wurde am Institut für Informationswirtschaft an der WU Wien verfasst, welches sich schwerpunktmäßig mit allen Disziplinen der effizienten Informationsgewinnung und Datenverarbeitung befasst. Die Forschungsfrage dieser Arbeit greift die Probleme in der Verarbeitung von großen Datenbeständen auf. Das zentrale Ziel bildet die Entwicklung einer Software zur verteilten Textverarbeitung. Mit Hilfe des frei erhältlichen Hadoop MapReduce-Frameworks von Apache wurde eine Applikation für die parallele Verarbeitung von Textdokumenten entwickelt. Dieses Software-Tool wurde in der Programmiersprache Java erstellt und kommuniziert zu gegebenen Zeitpunkten mit dem Hadoop MapReduce-Framework, welches wiederum die Verteilung der Rechenprozesse auf 5 / 66

6 die einzelnen Rechner im Netzwerk steuert. Die Ergebnisse der verteilten Berechnungen werden relational in einer Datenbank gespeichert und für weitere Auswertungen zur Verfügung gestellt. Auf Basis dieser Daten kann die Berechnung von Wahrscheinlichkeitswerten durchgeführt werden, welche wiederum für diverse Auswertungen von Interesse sein können. Im Speziellen handelt es sich bei den Berechnungen um die Ermittlung von Worthäufigkeiten in vorgegebenen Dokumentensammlungen. Die vorliegende Arbeit weist folgenden Aufbau auf: Kapitel 2 bildet die theoretische Basis und behandelt neben den Grundsätzen der maschinellen Sprachverarbeitung vor allem die Funktionsweise von MapReduce im Allgemeinen und jener von Hadoop MapReduce im Speziellen. Kapitel 3 beschäftigt sich mit einer detaillierten Beschreibung der erstellten Software. Dabei wird nicht nur das entwickelte Tool selbst beschrieben, sondern auch das Zusammenspiel mit anderen Komponenten, wie zum Beispiel dem Hadoop MapReduce-Framework und dem PostgreSQL- Datenbanksystem. Im vierten Kapitel wird die Software eingehend getestet und evaluiert. 6 / 66

7 2 Theorie In diesem Kapitel wird der Leser in das Konzept des Cloud Computings und anschließend in die Grundlagen der maschinellen Sprachverarbeitung eingeführt. Hauptaugenmerk liegt dabei auf der Verarbeitung von Texten, die nach verschiedenen Aspekten untersucht werden sollen. Neben den Grundlagen der Textaufbereitung wird auch die Aufteilung eines Prozesses auf mehrere Rechner näher erläutert. Um eine grundlegende Basis für die spätere Implementierung zu schaffen, werden verschiedene Techniken vorgestellt und deren Vor- und Nachteile beschrieben. Vor allem die von Google entwickelte MapReduce-Methode spielt für die Implementierung eine wichtige Rolle. 2.1 Cloud Computing eine Einführung Cloud Computing bezeichnet einen aktuellen Trend in der Informationstechnologie, der es zum Ziel hat, Berechnungsprozesse aber auch Daten vom Benutzer weg in große Rechenzentren zu verlagern [Dikaiakos et al 2009]. Ein Kunde, der sporadisch komplexe Problemstellungen berechnen möchte, ist nicht mehr gezwungen, selbst leistungsstarke Hardware anzuschaffen um diese Problemstellungen zu bearbeiten. Die benötigten Leistungsspitzen können von einer Cloud zugekauft werden und verursachen nur variable Kosten. Dabei ist es wichtig zu erwähnen, dass die Betreiber großer Clouds ebenfalls auf leistungsstarke Hardware verzichten und mit handelsüblichen Rechnern arbeiten. Die hohen Rechenleistungen werden durch eine große Anzahl an Rechnern erreicht, wobei jede Maschine jeweils ein Teilproblem bearbeitet und die Teilergebnisse am Ende wieder zu einem Gesamtergebnis verbunden und dem Auftraggeber zur Verfügung gestellt werden [Marston et al 2011]. 7 / 66

8 Erste Entwicklungen zu Cloud Computing gab es bereits in den frühen 1960er-Jahren, jedoch wurde dieses Konzept erst Mitte der 2000er-Jahre zu einem erfolgreichen Geschäftsmodell. Die wichtigsten Gründe dafür werden nachfolgend erläutert. Stetiger Ausbau von schnellen Internetleitungen: Da Cloud-Systeme in den meisten Fällen über das Internet angesprochen werden, müssen leistungsstarke Internetverbindungen dafür sorgen, dass die Geschwindigkeitsvorteile bei der Prozessverarbeitung nicht durch langsame Übertragungen zunichte gemacht werden [Dikaiakos et al 2009]. Steigende Anzahl von Nutzern des Internets: Nicht nur Firmen sind Auftraggeber für verteilte Berechnungen, auch Privatpersonen. Da die Anzahl von Benutzern des Internets stetig zunimmt, müssen auch die von den Nutzern verwendeten Systeme für Belastungsspitzen gerüstet sein. Beispielsweise verwendet Amazon den Ansatz der verteilten Verarbeitung für das Weihnachtsgeschäft, in dem täglich etwa der 10-fache Umsatz von normalen Tagen generiert wird [Marston et al 2011]. Meist ist es den Nutzer verteilter Systeme nicht bewusst, dass sie ein eben solches gerade verwenden. Neben Amazon bieten auch andere große Software-Hersteller wie Google, IBM, Microsoft und Apple Lösungen, die diesen Ansatz verfolgen. Als Beispiel für die Geschwindigkeitsvorteile soll hier das von Google veröffentlichte Statement vom 21. November 2008 dienen: Mit Begeisterung geben wir bekannt: wir konnten 1TB (gespeichert im Google File System in 10 Milliarden Dokumenten mit je 100 Bytes Datensatzgröße in unkomprimierten Textdateien), verteilt auf 1000 Computer, innerhalb von 68 Sekunden sortieren [googleblog01]. Steigende Anzahl an Software-Systemen, die für den verteilten Einsatz konzipiert werden: Kommerzielle wie auch freie Software-Entwicklungen wurden und werden weiterhin vorangetrieben, da die Vorteile dieses Konzeptes viele Nutzer überzeugen konnte und es zu einem erfolgreichen Geschäftsmodell machten [Dikaiakos et al 2009]. Für diese Arbeit wurde eine frei verfügbare Software, das Hadoop MapReduce-Framework, als Grundlage für die verteilte Bearbeitung verwendet. Die Problemstellung kann in einer beliebigen Programmiersprache erstellt und in das Framework eingebunden werden. Hadoop MapReduce 8 / 66

9 sorgt für die Verteilung der Problemstellung an die registrierten Rechner im Netzwerk und kombiniert die Teilergebnisse zum Gesamtergebnis. In Kapitel folgen detaillierte Informationen zu Hadoop MapReduce. 2.2 Grundlagen der maschinellen Sprachverarbeitung Die Disziplin der maschinellen Sprachverarbeitung wird oft auch als Computerlinguistik bezeichnet, im Englischen spricht man von Natural Language Processing. Dabei kann man einen Computer auf unterschiedliche Arten mit menschlicher Sprache versorgen. Zum einen in Form von Schallinformationen und zum anderen in Form von Buchstabenketten, also geschriebenem Text. Um Sprache verarbeiten und analysieren zu können, werden typischerweise folgende Schritte abgearbeitet [wikipedia01]: Spracherkennung wenn Schallinformationen vorliegen, müssen diese zunächst in Textform umgewandelt werden. Tokenisierung die vorliegenden Buchstabenketten werden in vordefinierte Einheiten segmentiert. Diese Einheiten können Wörter oder Sätze sein, aber auch Absätze oder Ähnliches. Morphologische Analyse Wörter werden analysiert und auf ihre Grundformen reduziert. Syntaktische Analyse strukturelle Funktionen der Wörter in einem Satz werden analysiert (zb Subjekt, Prädikat usw.). Semantische Analyse Wörter und Sätze werden auf ihre Bedeutung untersucht. Dabei sind typischerweise mehrere Einzelschritte notwendig, da die Bedeutung nicht einfach zu definieren ist. Dialog- und Diskursanalyse aufeinanderfolgende Sätze werden auf Abhängigkeiten zueinander untersucht. Frage und Antwort deuten auf einen Dialog hin, ein Diskurs wäre beispielsweise eine Aussage und ihre Begründung bzw. Einschränkung. 9 / 66

10 Üblicherweise durchlaufen Verfahren der maschinellen Sprachverarbeitung nicht alle der genannten Schritte. Diese Arbeit beschäftigt sich mit der Analyse von Buchstabenketten, daher wird bereits die Umwandlung von Schallinformationen in Buchstabenketten nicht benötigt. Die Verwendung von maschineller Sprachverarbeitung ist weitreichend und wird vom Benutzer oft nicht mehr speziell wahrgenommen. So handelt es sich beispielsweise bei der Rechtschreibund Grammatiküberprüfung in modernen Textverarbeitungsprogrammen um einen Anwendungsfall. Weiters bieten zahlreiche Suchmaschinen bereits Übersetzungsdienste an, mit denen man rasch und einfach die Inhalte von Webseiten in andere Sprachen übersetzen kann. Dabei wird das Ergebnis zwar grammatikalisch nicht vollkommen korrekt in die gewünschte Sprache transferiert, die Hauptaussagen werden aber korrekt vermittelt. Durch die ständige Weiterentwicklung werden diese Tools auch immer leistungsfähiger. Nicht zuletzt arbeiten auch die großen Suchmaschinen mit maschineller Sprachverarbeitung um Indizes zu erstellen und zu pflegen. Dadurch wird das schnelle Auffinden gewünschter Informationen im Internet in der Form gewährleistet, die wir heute als selbstverständlich betrachten. Bei all den Vorteilen der maschinellen Sprachverarbeitung sollte jedoch immer beachtet werden, dass derartige Systeme durch den Menschen geschaffen werden und der Computer kein denkendes Wesen ist. Die Lernfähigkeit von Computern wird also immer beschränkt sein und an natürliche Grenzen stoßen [wikipedia01]. Ein einfaches Beispiel ist die Frage an sich. Man kann dem Computer beibringen, eine Frage zu erkennen und darauf zu antworten. Können Sie mir bitte das Salz reichen? wird der Computer wohl mit Ja oder Nein beantworten. Unter natürlichen Personen würde diese Frage jedoch eine Handlung auslösen, nämlich die Reichung des Salzes [wikipedia01]. Dabei muss zusätzlich beachtet werden, dass verschiedene natürliche Sprachen auch verschiedene Eigenschaften haben und daher auch die Herangehensweise an maschinelle Sprachverarbeitung je nach Zielsprache unterschiedlich sein kann. 10 / 66

11 2.3 Automatische Beschlagwortung von Dokumenten Ziel der vorliegenden Arbeit ist die automatisierte Ermittlung von Schlüsselwörtern, anhand derer man Dokumente klassifizieren kann. In den folgenden Abschnitten werden die einzelnen Schritte dieses Klassifizierungsprozesses beschrieben, den Ausgangspunkt für diese Aufgabe bildet dabei die Ermittlung von Worthäufigkeiten in Texten. Anschließend werden signifikante Phrasen ermittelt, welche mithilfe statistischer Verfahren näher untersucht werden Erfassung von Worthäufigkeiten Bevor Dokumente klassifiziert werden können, müssen die Worthäufigkeiten aus den Dokumenten ermittelt werden. Grundsätzlich wird in dieser Arbeit davon ausgegangen, dass vor der Berechnung von Wahrscheinlichkeitswerten sogenannte n-gramme gebildet werden. N steht dabei für eine natürliche Zahl größer null und bezeichnet die Anzahl der aufeinanderfolgenden Wörter, die als Phrase untersucht werden sollen. Im konkreten Fall werden die natürlichen Zahlen eins, zwei und drei verwendet. Das heißt also, dass aus vorliegenden Dokumenten nicht nur einzelne Wörter berücksichtigt werden, sondern auch sogenannte Bigramme, die sich aus zwei aufeinanderfolgenden Wörtern zusammensetzen [Bose et al 2007] und analog dazu Trigramme, aus drei zusammenhängenden Wörtern. Die Bildung dieser Wort- und Phrasenhäufigkeiten kann auf unterschiedliche Arten erfolgen. Die einzelnen Elemente können in einer Liste angelegt und mit dem Wert 1 versehen werden, bei jedem weiteren Auftreten des gleichen Elements wird der entsprechende Wert um eins erhöht. Dieser Ansatz kann bei der Verarbeitung von großen Datenmengen zu Performance-Problemen führen, da für jedes Element geprüft werden muss, ob es bereits in der Liste existiert oder nicht [Kwasnicka & Paradowski 2008]. 11 / 66

12 Ein weiterer Ansatz ist die Aggregation der Werte über eine Baumstruktur, wobei jedes durchsuchte Dokument einen eigenen Knoten im Baum bildet und erst bei der Auswertung entsprechende Summen berechnet werden [Fadlalla 2005]. Abbildung 1: Beispielhafte Baumstruktur Abbildung 1 zeigt schemenhaft, wie eine Baumstruktur aufgebaut werden kann. Die Aggregation der Summen erfolgt horizontal in der dritten Ebene. Für jedes Dokument werden die Wort- und Phrasenhäufigkeiten der einzelnen Elemente ermittelt und zum Zeitpunkt der Ausführung aggregiert. In diesem Beispiel würde das Ergebnis folgendermaßen aussehen: foo: 9, bar: 7, java: 7, python: 10 Die einzelnen Häufigkeiten würden somit nach jedem Dokument abgelegt und dadurch die Ermittlung des folgenden Dokuments performancemäßig nicht mehr belasten. Für diese Art der Ablage bietet sich ein relationales Datenbanksystem an, da dieses im Regelfall bereits standardmäßige Aggregationsfunktionen bietet [Gómez et al 2009]. 12 / 66

13 2.3.2 Ermittlung signifikanter Phrasen Bereits in den 1980er-Jahren wurden verschiedene Modelle entwickelt, welche die rechnerunterstütze Erhebung signifikanter Phrasen zum Ziel hatten. Schon damals bestand eine zentrale Problemstellung darin, die ausgelesenen Daten bereits während der Verarbeitung für die weitere Verwendung korrekt aufzubereiten [Maeda et al 1980]. Bei der Ermittlung signifikanter Phrasen werden die erhobenen Zählwerte mit Referenzen verglichen. Referenzwerte können in unterschiedlichen Formen vorliegen. Morita et al [Morita et al 2004] beschreiben den Einsatz von Wörterbüchern bei der maschinellen Verarbeitung von Texten als unabdingbar, wobei die Qualität und der Umfang des verwendeten Wörterbuches von entscheidender Bedeutung für die Berechnungsergebnisse sind. Im Gegensatz zur Verwendung einer bestimmten Referenzsammlung beinhaltet ein Wörterbuch im Regelfall eine größere Anzahl an Wörtern. Dabei gilt es jedoch die Einschränkung zu beachten, dass diese Wörter nur einmal auftreten und das darauf aufsetzende System die Wörter aus dem Wörterbuch erst als relevant oder nicht relevant klassifizieren muss [Onishi et al 2008]. Eine schnellere Variante stellt die Verwendung einer meist sehr umfangreichen Referenzsammlung von Dokumenten dar, die thematisch denselben Themenkreis behandeln, wie die zu prüfenden Dokumente [Mitterndorfer & Winiwarter 2002]. Da die Zieldokumente auch Wörter enthalten können, die im Referenzkorpus nicht vorhanden sind, sollte das System bei der Verarbeitung eine Lösung bereithalten, wie diese Dokumente in Bezug auf deren Relevanz behandelt werden sollen [Salton et al 1990]. Hier könnte beispielsweise die Kombination eines lernenden Wörterbuches und einer Referenzsammlung Abhilfe schaffen. Der Vergleich von ermittelten Werten mit den Referenzwerten kann mit Hilfe verschiedener Rechenalgorithmen erfolgen. Für diese Arbeit wurde im Speziellen der Log Likelihood-Ansatz gewählt, welcher im folgenden Kapitel näher erläutert wird. 13 / 66

14 2.3.3 Log Likelihood Ratio Diese Kennzahl könnte man am besten übersetzen als das Verhältnis der logarithmischen Wahrscheinlichkeitswerte eines N-Gramms. Für die Berechnung benötigt man aus dem Referenzkorpus und dem Zielkorpus jeweils die Summe aller Wörter sowie das Auftreten des untersuchten N-Gramms. Man erhält daraus eine Kontingenztafel wie in Tabelle 1. Referenzkorpus Zielkorpus Worthäufigkeit a = 15 b = 14 Häufigkeit anderer Wörter c-a = d-b = Wörter gesamt c = d = Tabelle 1: Log Likelihood Kontingenztabelle [likelihood01] Diese Werte müssen in Formel (1) zur Berechnung der Erwartungswerte eingesetzt werden, wobei N i im ersten Fall durch den Wert von c und im zweiten Fall durch den Wert von d ersetzt wird. i O i (summarised observed value) bezeichnet die gesamte Worthäufigkeit des zu berechnenden N-Gramms in beiden Korpussen [likelihood01]. Mit diesen Testzahlen wäre dies jeweils die Summe aus a und b. (1) Durch Einsetzen in diese Formel ergeben sich folgende Erwartungswerte: E 1 = 12,80 E 2 = 16,20 14 / 66

15 Diese Erwartungswerte müssen im abschließenden Schritt noch in Formel (2) angewendet werden [Bautin & Hart 2007]. Das Ergebnis dieser Formel wird als G2-Wert bezeichnet. (2) Für die gewählten Beispielzahlen erhalten wir als G2-Wert 0,67. Je höher dieser Wert ist, desto signifikanter ist der Unterschied zwischen dem n-gramm aus dem Zielkorpus und dem Vergleichswert aus dem Referenzkorpus. Liegt der G2-Wert über 3,80 so fällt das n-gramm aus dem 95 Prozent-Quantil und ist somit weniger als fünf Prozent relevant [likelihood01]. Ein G2-Wert über 6,60 impliziert eine Relevanz von unter einem Prozent für das gewählte n-gramm [likelihood01]. Log Likelihood Ratio allein bietet jedoch nur unzureichende Genauigkeit für n-gramme, die weniger oft als erwartet auftreten [Bautin & Hart 2007]. Durch weitere statistische Überprüfungen der Werte können Korrekturen das Ergebnis noch verbessern. Nachfolgend werden zwei Möglichkeiten dieser Korrekturen erläutert T-Test Korrektur Eine Möglichkeit, die Log Likelihood Ratio zu verbessern ist der T-Test. Die Berechnung erfolgt nach Formel (3). (3) 15 / 66

16 N bezeichnet die Anzahl der Wörter im betreffenden Korpus, s 2 steht für die ermittelte Stichprobenvarianz. Der Erwartungswert (μ) wird von der ermittelten Worthäufigkeit ( ) abgezogen. Das Ergebnis des T-Tests gibt die Wahrscheinlichkeit an, dass ein bestimmtes n-gramm aus einer Verteilung mit dem Mittelwert μ gezogen wird [Bautin & Hart 2007] Yates Korrektur Um wesentliche Unterschiede in aufgetretenen Stichproben zu vergleichen bietet sich auch die Stetigkeitskorrektur nach Yates an. Dabei wird angenommen, dass die Stichproben symmetrisch verteilt sind [wikipedia05] und das Ergebnis der Log Likelihood Berechnung um den Faktor 0,5 verbessert wird. Als Grundlage für die Berechnung in Formel (4) dient die Kontingenztafel aus Tabelle 2. Referenzkorpus positiv Referenzkorpus negativ Zielkorpus positiv a b Zielkorpus negativ c d Tabelle 2: Kontingenztafel für Yates-Korrektur [wikipedia05] (4) Führt diese Berechnung zu einem Wert, der gleich groß oder größer als der ursprüngliche Wert ist, besteht ein signifikanter Unterschied zwischen den Zählwerten, der allerdings nur auf einen Unterschied hindeutet und keine Auskunft darüber gibt, ob dies eine Verbesserung oder eine Verschlechterung darstellt [wikipedia05]. 16 / 66

17 2.4 Funktionsweise eines MapReduce-Frameworks Die grundsätzliche Idee von MapReduce wurde durch Google entwickelt und patentiert. Es handelt sich um ein Konzept der parallelen Programmierung und wird für die Verarbeitung von großen Datenmengen eingesetzt [Manning et al 2008]. Eine typische Anwendung ist das Zählen von Wörtern in großen Dokumentensammlungen. Durch die großen Datenmengen zielt MapReduce darauf ab, Berechnungsprozesse auf mehrere physische Maschinen zu verteilen, welches durchaus handelsübliche Maschinen mit durchschnittlichen Leistungsmerkmalen sein können. Ein sogenanntes Master-Programm teilt jeder dieser Maschinen einen Teil der Dokumentensammlung für die Bearbeitung zu. Die vom Benutzer definierte Map-Funktion wird auf den Maschinen ausgeführt und produziert aus den zugewiesenen Dokumenten Schlüssel-Wert Paare [Ekanayake & Pallickara 2008]. Jedes n-gramm wird zum Schlüssel und erhält den Wert 1, danach werden gleiche Schlüssel gruppiert und das Ergebnis der Map-Funktion abgelegt [Ekanayake & Pallickara 2008]. Hier gibt es unterschiedliche Ansätze, die Ergebnisse der Map-Funktion zu speichern. Meist wird die Speicherung in einem verteilten File-System gewählt. Die gespeicherten Ergebnisse jeder Maschine werden vom Master-Programm abgeholt und die vom Benutzer definierte Reduce-Funktion aufgerufen. Gleiche Schlüssel in den Ergebnissen werden zu einem Schlüssel zusammengefasst und somit ein Gesamtergebnis der Dokumentensammlung erstellt. Abbildung 2 zeigt eine schematische Darstellung der einzelnen Phasen im MapReduce- Framework. [McCraedie et al 2011] erläutert die hauptsächliche Verwendung von MapReduce- Frameworks, nämlich das Zählen von Worten in großen Dokumentensammlungen. Dazu zeigt Abbildung 3 den möglichen Ablauf zur Bewältigung dieser Aufgabe als Pseudo-Code. 17 / 66

18 Abbildung 2: Phasen des MapReduce-Modells [McCraedie et al 2011] Abbildung 3: Pseudo-Code einer typischen Anwendung für das Zählen von Wörtern [McCraedie et al 2011] 18 / 66

19 Im folgenden Abschnitt werden die detaillierten Abläufe im MapReduce-Framework anhand eines Beispiels erläutert Beispiel einer MapReduce Berechnung Ausgehend von einem anschaulichen Beispiel auf der deutschsprachigen Wikipedia-Seite [wikipedia03] wird hier die Funktionsweise des MapReduce-Frameworks beschrieben. Zunächst benötigen wir einen Text, den es zu analysieren gilt. Für dieses Beispiel dient uns ein abgeänderter Ausschnitt aus einem Nachrichtentext der Tageszeitung Krone [krone01]. Text = Microsoft macht das Betriebssystem Windows fit für verschiedene Plattformen. Das nächste Windows Betriebssystem werde auf verschiedenen Plattformen voll funktionstüchtig sein. Dieser Text wird nun in Sätze aufgeteilt, zusätzlich werden die Satzzeichen entfernt und alle Wörter klein geschrieben. Das Zwischenergebnis: Input = * (satz_1, microsoft macht das betriebssystem windows fit für verschiedene plattformen ), (satz_2, das nächste windows betriebssystem werde auf verschiedenen plattformen voll funktionstüchtig sein ) + 19 / 66

20 Aufgrund dieser zwei Sätze sind zwei Schlüssel-Wert Paare als Inputwerte entstanden. Daher kann die Map-Funktion zweimal aufgerufen werden: Prozess1 = Map(satz_1, microsoft macht das betriebssystem windows fit für verschiedene plattformen ), Prozess2 = Map(satz_2, das nächste windows betriebssystem werde auf verschiedenen plattformen voll funktionstüchtig sein ) Durch diese Eingaben werden die folgenden Schlüssel-Wert Paare generiert: Prozess1 = Prozess2 = [ ( microsoft, 1), ( macht, 1), ( das, 1), ( betriebssystem, 1), ( windows, 1), ( fit, 1), ( für, 1), ( verschiedene, 1), ( plattformen, 1) ] [ ( das, 1), ( nächste, 1), ( windows, 1), ( betriebssystem, 1), ( werde, 1), ( auf, 1), ( verschiedenen, 1), ( plattformen, 1), ( voll, 1), ( funktionsfähig, 1), ( sein, 1) ] Die Ergebnisse werden an das MapReduce-Framework zurückgeliefert und gesammelt. Unter der Voraussetzung einer parallelen Verarbeitung könnte das MapReduce-Framework die folgende Teilergebnisse von den einzelnen Prozessen abrufen: 20 / 66

21 1. Schritt (Abruf des ersten Schlüssel-Wert Paares von den einzelnen Prozessen): T_microsoft = [ 1 ], neu T_das = [ 1 ], neu 2. Schritt (Abruf des zweiten Schlüssel-Wert Paares von den einzelnen Prozessen): T_macht = [ 1 ], neu T_nächste = [ 1 ], neu 3. Schritt (Abruf des dritten Schlüssel-Wert Paares von den einzelnen Prozessen): T_das = [ 1 ] T_windows = [ 1 ], neu usw. Dabei wird jedem Wort der Zusatz T_ für Term zugewiesen und ein Hinweis, ob dieser Term in diesem Schritt erzeugt wurde (neu). Im dritten Schritt wird beispielsweise erkannt, dass es den Term das bereits seit dem ersten Schritt gibt. Nachdem alle Map-Prozesse ihre Ergebnisse abgeliefert haben, beginnt die Reduce-Phase. Key [values] T_microsoft [1] T_das [1,1] T_macht [1] T_nächste [1] T_windows [1,1] reduce() => [ 1 ] => [ 2 ] => [ 1 ] => [ 1 ] => [ 2 ] usw. 21 / 66

22 Als Ergebnis erhalten wir folgenden Output, der für jeden Schlüssel die aggregierten Vorkommnisse in allen analysierten Dokumenten enthält: Output = [ ( microsoft, 1), ( das, 2), ( betriebssystem, 2) ( macht, 1), ( nächste, 1), ( windows, 2), ( fit, 1), ( für, 1), ( verschiedene, 1), ( plattformen, 2), ( werde, 1), ( auf, 1), ( verschiedenen, 1), ( voll, 1), ( funktionstüchtig, 1), ( sein, 1) ] Hadoop MapReduce (Apache Software Foundation) Die Idee des MapReduce-Frameworks wurde von zahlreichen Softwareentwicklern aufgegriffen und umgesetzt. Für die gegenwärtige Arbeit ist besonders das Hadoop MapReduce Framework der Apache Software Foundation [hadoop01] von Interesse, da dieses für die parallele Verarbeitung von Texten im Kontext dieser Arbeit verwendet wird. Das Hadoop MapReduce Framework stellt dem Benutzer die Grundlagen der parallelen Textverarbeitung zur Verfügung. Dadurch muss der Benutzer sich keine Gedanken um die Zerlegung von Datenmengen und deren Aufteilung auf die verarbeitenden Geräte kümmern und kann sich auf die Entwicklung der Anwendungen konzentrieren, welche später mit dem Hadoop MapReduce Framework zusammenarbeiten und Aufgaben erledigen. Lediglich einige grundlegende Dinge müssen bei der Entwicklung der Anwendungen beachtet und integriert werden, um das Hadoop MapReduce Framework aus dem Code heraus ansprechen zu können. Nähere Informationen dazu folgen in Kapitel 3. Anwendungen, die für die Verarbeitung mit Hadoop MapReduce entwickelt werden, nennt man Jobs, die Hauptbestandteile des Frameworks sind sinngemäß die Mapper- und die Reducer- Methode. Bei der Erstellung eines Jobs können diese Methoden als Interfaces eingebunden und an die Bedürfnisse des Jobs angepasst werden [hadoop2]. Da das Framework in Java program- 22 / 66

MapReduce in der Praxis

MapReduce in der Praxis MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Hadoop. Simon Prewo. Simon Prewo

Hadoop. Simon Prewo. Simon Prewo Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert

Mehr

Neue Ansätze der Softwarequalitätssicherung

Neue Ansätze der Softwarequalitätssicherung Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik

Mehr

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und

Mehr

SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce)

SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce) Hochschule Mannheim Fakultät für Informatik SEMT Prof. G. Bengel Sommersemester 2009 Semester 8I Searching as a Service (Programming Model: MapReduce) Michel Schmitt (520361) 1.06.2009 Inhalt 1. Einführung...

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Workbooster File Exchanger Command Line Tool

Workbooster File Exchanger Command Line Tool Thema Technische Benutzerdokumentation - WBFileExchanger Workbooster File Exchanger Command Line Tool Letzte Anpassung 18. Januar 2014 Status / Version Finale Version - V 1.1 Summary Erstellung Diese technische

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Fakultät für Informatik Hochschule Mannheim tobnee@gmail.com

Mehr

JOB SCHEDULER. Managed User Jobs. Dokumentation Juli 2005. MySQL-Job-Automation

JOB SCHEDULER. Managed User Jobs. Dokumentation Juli 2005. MySQL-Job-Automation MySQL-Job-Automation Managed User Jobs JOB SCHEDULER Dokumentation Juli 2005 Software- und Organisations-Service GmbH Giesebrechtstr. 15 D-10629 Berlin Telefon (030) 86 47 90-0 Telefax (030) 861 33 35

Mehr

Spark, Impala und Hadoop in der Kreditrisikoberechnung

Spark, Impala und Hadoop in der Kreditrisikoberechnung Spark, Impala und Hadoop in der Kreditrisikoberechnung Big Data In-Memory-Technologien für mittelgroße Datenmengen TDWI München, 22. Juni 2015 Joschka Kupilas, Data Scientist, Adastra GmbH 2 Inhalt Vorwort

Mehr

DSLinux Skriptbasierte Inventarisierung für Linux

DSLinux Skriptbasierte Inventarisierung für Linux DSLinux Skriptbasierte Inventarisierung für Linux www.docusnap.com TITEL DSLinux AUTOR Docusnap Consulting DATUM 21.04.2015 Die Weitergabe, sowie Vervielfältigung dieser Unterlage, auch von Teilen, Verwertung

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet Ralph Lehmann. Computerservice und IT-Beratung. Kochstraße 34. 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Kochstraße 34 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Tel.:

Mehr

Datensicherung. Beschreibung der Datensicherung

Datensicherung. Beschreibung der Datensicherung Datensicherung Mit dem Datensicherungsprogramm können Sie Ihre persönlichen Daten problemlos Sichern. Es ist möglich eine komplette Datensicherung durchzuführen, aber auch nur die neuen und geänderten

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Objektorientiertes Programmieren für Ingenieure

Objektorientiertes Programmieren für Ingenieure Uwe Probst Objektorientiertes Programmieren für Ingenieure Anwendungen und Beispiele in C++ 18 2 Von C zu C++ 2.2.2 Referenzen und Funktionen Referenzen als Funktionsparameter Liefert eine Funktion einen

Mehr

Automatisches Scannen und Ablegen mit Barcodeerkennung

Automatisches Scannen und Ablegen mit Barcodeerkennung Automatisches Scannen und Ablegen mit Barcodeerkennung Inhaltsverzeichnis 1. Einführung... 2 2. Einsatzkonzept... 3 2.1 Ablaufplan... 3 2.2 Ablaufbeschreibung... 4 3. Ziel... 4 4. Tools... 5 4.1 Drucken

Mehr

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache. Apache Hadoop Distribute your data and your application Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache The Apache Software Foundation Community und

Mehr

Praktikum Internetprotokolle - POP3

Praktikum Internetprotokolle - POP3 Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Institut für Praktische Informatik und Medieninformatik Fachgebiet Telematik/Rechnernetze 19. Mai 2008 1 Aufgabenstellung Praktikum

Mehr

Dateisysteme und Datenverwaltung in der Cloud

Dateisysteme und Datenverwaltung in der Cloud Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Übung 4: Schreiben eines Shell-Skripts

Übung 4: Schreiben eines Shell-Skripts Aufgabenteil 1 Ziel der Übung Übung 4: Schreiben eines Shell-Skripts Anhand eines einfachen Linux-Skripts sollen die Grundlagen der Shell-Programmierung vermittelt werden. Das für die Bash-Shell zu erstellende

Mehr

GPU-basierte Beschleunigung von MapReduce am Beispiel von OpenCL und Hadoop

GPU-basierte Beschleunigung von MapReduce am Beispiel von OpenCL und Hadoop am Beispiel von OpenCL und Masterseminar Hochschule für Technik, Wirtschaft und Kultur Leipzig Leipzig, 02.11.2011 Gliederung 1 Grundlagen 2 3 Gliederung 1 Grundlagen 2 3 Was ist? Clustersystem zur verteilten

Mehr

Grundlagen der Verwendung von make

Grundlagen der Verwendung von make Kurzskript zum Thema: Grundlagen der Verwendung von make Stefan Junghans Gregor Gilka 16. November 2012 1 Einleitung In diesem Teilskript sollen die Grundlagen der Verwendung des Programmes make und der

Mehr

Manueller Import von Dateien

Manueller Import von Dateien PhPepperShop Enterprise Datum: 22. Mai 2015 Version: 1.2 Manueller Import von Dateien Importe/Exporte Business Connector Glarotech GmbH Inhaltsverzeichnis 1. Manueller Import von Dateien im Caller...3

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Installation Anleitung für JTheseus und MS SQL Server 2000

Installation Anleitung für JTheseus und MS SQL Server 2000 Installation Anleitung für JTheseus und MS SQL Server 2000 Inhaltsverzeichnis 1 Installation der Datenbank 3 1.1 Erstellen der Datenbank 3 1.2 Tabellen und Minimal Daten einlesen 4 1.3 Benutzer JTheseus

Mehr

Outlook-Abgleich. Änderungen, Irrtümer und Druckfehler vorbehalten. Bearbeitet von Harald Borges. Stand April 2015 www.cobra.de

Outlook-Abgleich. Änderungen, Irrtümer und Druckfehler vorbehalten. Bearbeitet von Harald Borges. Stand April 2015 www.cobra.de Outlook-Abgleich Copyright 2015 cobra computer s brainware GmbH cobra Adress PLUS, cobra CRM PLUS, cobra CRM PRO und cobra CRM BI sind eingetragene Warenzeichen der cobra computer s brainware GmbH. Andere

Mehr

Migrationsanleitung von 2.0 auf 2.1

Migrationsanleitung von 2.0 auf 2.1 Die wichtigste Neuerung von 2.0 auf 2.1 aus Sicht der Anwendungs- Migration ist die Verwendung von Maven. Mit Maven holt sich die Anwendung alle notwendigen Bibliotheken in den jeweils angegebenen Versionen

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

eadmin Manual Universitätsstraße 3 56070 Koblenz Deutschland

eadmin Manual Universitätsstraße 3 56070 Koblenz Deutschland DOKUMENT: TYP: ERSTELLT VON: Manual nova ratio AG Universitätsstraße 3 56070 Koblenz Deutschland VERSION: STAND: 9.x 23. September 2015 Inhaltsverzeichnis 1 2 2.1 2.2 2.3 3 3.1 3.2 3.3 4 4.1 4.2 4.3 4.4

Mehr

15 Bilder und Dateien im SQL Server

15 Bilder und Dateien im SQL Server Leseprobe aus Access und SQL Server http://www.acciu.de/asqllesen 15 Bilder und Dateien im SQL Server Eines der großen Probleme von Access-Datenbanken ist der vergleichsweise geringe Speicher platz. Sicher,

Mehr

Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test

Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test Scripting Framework PowerShell Toolkit Quick-Install a Workplace for Packaging and Test Windows Client Management AG Alte Haslenstrasse 5 CH-9053 Teufen wincm.ch 1 Quick Install - Scripting Framework Workplace...3

Mehr

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis

Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux Seite 1 Installationsanleitung für DoRIS unter Linux Inhaltsverzeichnis Installationsanleitung für DoRIS unter Linux... 1 Vorbemerkungen... 1 Benötigte Komponenten

Mehr

Handbuch Datensicherung

Handbuch Datensicherung Copyright 1995-2009 by winvs software AG, alle Rechte vorbehalten Gewähr Urheberrechte Haftung Die in diesem Handbuch enthaltenen Angaben sind ohne Gewähr und können jederzeit ohne vorherige Benachrichtigung

Mehr

Transaktionen in der Praxis. Dr. Karsten Tolle

Transaktionen in der Praxis. Dr. Karsten Tolle Transaktionen in der Praxis Dr. Karsten Tolle Praxisbeispiel in Java Connection con = null; try { con = DriverManager.getConnection("jdbc:db2:sample"); } catch (Exception e) { e.printstacktrace(); } con.setautocommit(false);

Mehr

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE

KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE KURZANLEITUNG DUPLICITY MIT CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung...Seite 03 2. Einrichtung des Systems...Seite 04 3. Erzeugen eines Backup-Skripts...Seite

Mehr

Outlook-Abgleich. Copyright 2012 cobra computer s brainware GmbH

Outlook-Abgleich. Copyright 2012 cobra computer s brainware GmbH Outlook-Abgleich Copyright 2012 cobra computer s brainware GmbH cobra Adress PLUS ist eingetragenes Warenzeichen der cobra computer s brainware GmbH. Andere Begriffe können Warenzeichen oder anderweitig

Mehr

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung 2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer Beitrag von Peter Küsters Formen des Datentransfers bei der Erfassung von Websites Im folgenden werden Methoden und Software zur Erfassung vorgestellt.

Mehr

Microsoft SQL Server 2005 für Administratoren

Microsoft SQL Server 2005 für Administratoren Microsoft SQL Server 2005 für Administratoren Irene Bauder ISBN 3-446-22800-4 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-22800-4 sowie im Buchhandel Sichern von

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Data Mining in der Cloud

Data Mining in der Cloud Data Mining in der Cloud von Jan-Christoph Meier Hamburg, 21.06.2012 1 Ablauf Einführung Verwandte Arbeiten Fazit / Ausblick Literatur 2 Ablauf Einführung Verwandte Arbeiten Fazit / Ausblick Literatur

Mehr

Handbuch Assyrja Ersteller: EWERK MUS GmbH Erstellungsdatum: 17.02.2011

Handbuch Assyrja Ersteller: EWERK MUS GmbH Erstellungsdatum: 17.02.2011 Handbuch Assyrja Ersteller: EWERK MUS GmbH Erstellungsdatum: 17.02.2011 Inhalt 1 Vorwort... 3 2 Installation... 5 2.1 Voraussetzungen... 5 2.2 Installation... 5 3 Funktionen und Handhabung... 6 3.1 TurboMed

Mehr

Version 1.0 Erstellt am 12.12.2014 Zuletzt geändert am 17.12.2014. Gültig für Release 1.0.0.0

Version 1.0 Erstellt am 12.12.2014 Zuletzt geändert am 17.12.2014. Gültig für Release 1.0.0.0 Version 1.0 Erstellt am 12.12.2014 Zuletzt geändert am 17.12.2014 Gültig für Release 1.0.0.0 Inhalt 1 WebPart Site Informationen 3 1.1 Funktionalität 3 1.2 Bereitstellung und Konfiguration 4 2 WebPart

Mehr

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr.

Gibt Daten im erweiterten Format aus. Dies beinhaltet die Angabe von Zugriffsrechten, Besitzer, Länge, Zeitpunkt der letzten Änderung und mehr. ls [optionen] [namen]: ls zeigt den Inhalt von Verzeichnissen. Sind keine namen angegeben, werden die Dateien im aktuellen Verzeichnis aufgelistet. Sind eine oder mehrere namen angegeben, werden entweder

Mehr

Normfall 7.2. Whitepaper. Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von:

Normfall 7.2. Whitepaper. Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von: Normfall 7.2 Whitepaper Erstellen eines Normfall Projektspeichers auf Basis einer vorhandenen Installation von: Microsoft SQL Server 2008 R2/2012/2014 2014 Normfall GmbH Alle Rechte vorbehalten. Vorbemerkungen

Mehr

OLXFileMailer Anleitung

OLXFileMailer Anleitung 1. Warum OLXFileMailer? OLXFileMailer dient der automatischen Übergabe von beliebigen Dateien im Filesystem an z.b. MS-Outlook oder auch direkt an Öffentliche Ordner des MS-ExchangeServers. Die Dateien

Mehr

UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18

UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18 UI-Testing mit Microsoft Test Manager (MTM) Philip Gossweiler / 2013-04-18 Software Testing Automatisiert Manuell 100% 70% 1 Überwiegender Teil der Testing Tools fokusiert auf automatisiertes Testen Microsoft

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

PIWIN 1 Übung Blatt 5

PIWIN 1 Übung Blatt 5 Fakultät für Informatik Wintersemester 2008 André Gronemeier, LS 2, OH 14 Raum 307, andre.gronemeier@cs.uni-dortmund.de PIWIN 1 Übung Blatt 5 Ausgabedatum: 19.12.2008 Übungen: 12.1.2009-22.1.2009 Abgabe:

Mehr

3 Variablen. 3.1 Allgemeines. 3.2 Definition und Verwendung von Variablen

3 Variablen. 3.1 Allgemeines. 3.2 Definition und Verwendung von Variablen 3 Variablen 3.1 Allgemeines Variablen werden in Prozeduren, Mustern und Parameter-Dokumenten definiert und verwendet und bei der Jobgenerierung durch die Werte, die ihnen zugewiesen werden, ersetzt. Variablen

Mehr

C A L D E R A G R A P H I C S. Wie geht das? Benutzen des Backup Verfahrens

C A L D E R A G R A P H I C S. Wie geht das? Benutzen des Backup Verfahrens C A L D E R A G R A P H I C S Wie geht das? Benutzen des Backup Verfahrens Visage...einfach perfekt drucken! Caldera Graphics 2008 Caldera Graphics und alle Caldera Graphics Produkte, die in dieser Publikation

Mehr

Zeiterfassung-Konnektor Handbuch

Zeiterfassung-Konnektor Handbuch Zeiterfassung-Konnektor Handbuch Inhalt In diesem Handbuch werden Sie den Konnektor kennen sowie verstehen lernen. Es wird beschrieben wie Sie den Konnektor einstellen und wie das System funktioniert,

Mehr

Softwaretool Data Delivery Designer

Softwaretool Data Delivery Designer Softwaretool Data Delivery Designer 1. Einführung 1.1 Ausgangslage In Unternehmen existieren verschiedene und häufig sehr heterogene Informationssysteme die durch unterschiedliche Softwarelösungen verwaltet

Mehr

FTP Kommunikation. Kommunikation

FTP Kommunikation. Kommunikation Wählen Sie also für diesen Parameter den Basis i-effect TCP/IP Port Bereich und addieren Sie die aus der vorherigen Tabelle ersichtliche Zahl in Abhängigkeit zum gewählten Befehl. Art des Aufrufs Hier

Mehr

TimePunch SQL Server Datenbank Setup

TimePunch SQL Server Datenbank Setup TimePunch TimePunch SQL Server Datenbank Setup Benutzerhandbuch 26.11.2013 TimePunch KG, Wormser Str. 37, 68642 Bürstadt Dokumenten Information: Dokumenten-Name Benutzerhandbuch, TimePunch SQL Server Datenbank

Mehr

Dateisysteme mit Plugin-Funktion

Dateisysteme mit Plugin-Funktion Dateisysteme mit Plugin-Funktion Basierend auf Reiser 4 unter Linux http://llugb.amsee.de/logo.gif Ausgearbeitet und vorgetragen von Michael Berger 1/23 Agenda Die Idee Dateisysteme mit Plugin-Funktion

Mehr

Programmieren was ist das genau?

Programmieren was ist das genau? Programmieren was ist das genau? Programmieren heisst Computerprogramme herstellen (von griechisch programma für Vorschrift). Ein Computerprogramm ist Teil der Software eines Computers. Als Software bezeichnet

Mehr

PostgreSQL unter Debian Linux

PostgreSQL unter Debian Linux Einführung für PostgreSQL 7.4 unter Debian Linux (Stand 30.04.2008) von Moczon T. und Schönfeld A. Inhalt 1. Installation... 2 2. Anmelden als Benutzer postgres... 2 2.1 Anlegen eines neuen Benutzers...

Mehr

Ausarbeitung des Interpreter Referats

Ausarbeitung des Interpreter Referats Ausarbeitung des Interpreter Referats Gliederung 1. Programmiersprache 1.2. Syntax 1.2.1. Konkrete Syntax 1.2.2. Abstrakter Syntax Baum (Abstrakte Syntax) 2. Parser 2.1. Syntaktische Struktur einer Sprache

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Einführung in SQL Datenbanken bearbeiten

Einführung in SQL Datenbanken bearbeiten Einführung in SQL Datenbanken bearbeiten Jürgen Thomas Entstanden als Wiki-Buch Bibliografische Information Diese Publikation ist bei der Deutschen Nationalbibliothek registriert. Detaillierte Angaben

Mehr

Installation und erste Schritte laserdesk Version 1.0

Installation und erste Schritte laserdesk Version 1.0 Installation und erste Schritte 23. April 2013 SCANLAB AG Siemensstr. 2a 82178 Puchheim Deutschland Tel. +49 (89) 800 746-0 Fax: +49 (89) 800 746-199 support@laserdesk.info SCANLAB AG 2013 ( - 20.02.2013)

Mehr

Leistungsbeschreibung. PHOENIX Archiv. Oktober 2014 Version 1.0

Leistungsbeschreibung. PHOENIX Archiv. Oktober 2014 Version 1.0 Leistungsbeschreibung PHOENIX Archiv Oktober 2014 Version 1.0 PHOENIX Archiv Mit PHOENIX Archiv werden Dokumente aus beliebigen Anwendungen dauerhaft, sicher und gesetzeskonform archiviert. PHOENIX Archiv

Mehr

Parallele und funktionale Programmierung Wintersemester 2013/14. 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr

Parallele und funktionale Programmierung Wintersemester 2013/14. 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr 8. Übung Abgabe bis 20.12.2013, 16:00 Uhr Aufgabe 8.1: Zeigerverdopplung Ermitteln Sie an folgendem Beispiel den Rang für jedes Listenelement sequentiell und mit dem in der Vorlesung vorgestellten parallelen

Mehr

ABB i-bus KNX. Software-Information. Melde- und Bedientableau. Typ: MT 701.2

ABB i-bus KNX. Software-Information. Melde- und Bedientableau. Typ: MT 701.2 Produkt: Melde- und Bedientableau Typ: MT 701.2 Aktuelles Anwendungsprogramm Plug-In für ETS 2 MT_701_2_ETS2_SOW_xx_V1-12a_de_en.exe Plug-In für ETS 3 MT_701_2_ETS3_SOW_xx_V1-12a_de_en.exe EIBTAB: MT_701_2_EIBTAB_SOW_de_V2-08-00A_EibTab+Firmware.EXE

Mehr

Grundsätzliche Struktur und Entwurfsprinzipien des Gesamtsystems. Grundsätzliche Struktur und Entwurfsprinzipien der einzelnen Pakete

Grundsätzliche Struktur und Entwurfsprinzipien des Gesamtsystems. Grundsätzliche Struktur und Entwurfsprinzipien der einzelnen Pakete Allgemeines 2 Produktübersicht 2 Grundsätzliche Struktur und Entwurfsprinzipien des Gesamtsystems 3 Grundsätzliche Struktur und Entwurfsprinzipien der einzelnen Pakete Account-Verwaltung 5 Freund-Funktionen

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

25. Februar 2009, Version 1.0. Installationsanleitung Tivoli Storage Manager für Windows. Verwaltungsdirektion. Informatikdienste

25. Februar 2009, Version 1.0. Installationsanleitung Tivoli Storage Manager für Windows. Verwaltungsdirektion. Informatikdienste 25. Februar 2009, Version 1.0 Installationsanleitung für Windows Verwaltungsdirektion Informatikdienste Installationsanleitung für Windows Inhaltsverzeichnis...1 Installation... 1 Voraussetzungen...1 Ablauf

Mehr

Benutzerhandbuch für FaxClient für HylaFAX

Benutzerhandbuch für FaxClient für HylaFAX Benutzerhandbuch für FaxClient für HylaFAX Vielen Dank, daß Sie entschlossen haben, dieses kleine Handbuch zu lesen. Es wird Sie bei der Installation und Benutzung des FaxClients für HylaFAX unterstützen.

Mehr

Das Beste aus zwei Welten

Das Beste aus zwei Welten : Das Beste aus zwei Welten Das Beste aus zwei Welten Aufruf von R Funktionen mit PROC IML KSFE 2012 08.03.2012 ist IT Dienstleister für Business Intelligence und Datenanalyse gibt es seit über 20 Jahren

Mehr

Aktualisierungsrichtlinie für die KMnet Admin Versionen 3.x und 2.x

Aktualisierungsrichtlinie für die KMnet Admin Versionen 3.x und 2.x Aktualisierungsrichtlinie für die KMnet Admin Versionen 3.x und 2.x Dieses Dokument beschreibt, wie KMnet Admin aktualisiert wird. Für den Übergang auf KMnet Admin 3.x und 2.x sind Sicherungs- und Wiederherstellungstätigkeiten

Mehr

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org

Apache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache Lucene Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org 1 Apache Apache Software Foundation Software free of charge Apache Software

Mehr

Technische Beschreibung: EPOD Server

Technische Beschreibung: EPOD Server EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für

Mehr

5.2 Analyse des File Slack

5.2 Analyse des File Slack 5.2 Analyse des File Slack 109 Es gibt an vielen Stellen eines Betriebssystems Fundorte für Gebrauchsspuren oder Hinweise auf Auffälligkeiten. Diese Stellen sollten grundsätzlich aufgesucht und analysiert

Mehr

MySQL Queries on "Nmap Results"

MySQL Queries on Nmap Results MySQL Queries on "Nmap Results" SQL Abfragen auf Nmap Ergebnisse Ivan Bütler 31. August 2009 Wer den Portscanner "NMAP" häufig benutzt weiss, dass die Auswertung von grossen Scans mit vielen C- oder sogar

Mehr

Generating Fingerprints of Network Servers and their Use in Honeypots. Thomas Apel

Generating Fingerprints of Network Servers and their Use in Honeypots. Thomas Apel Generating Fingerprints of Network Servers and their Use in Honeypots Thomas Apel Der Überblick Fingerprinting von Netzwerkdiensten Banner Verfügbare Optionen Reaktionen auf falsche Syntax Verwendung für

Mehr

Repeatable Benchmarking Mahout

Repeatable Benchmarking Mahout Studienarbeitsexposé Repeatable Benchmarking Mahout Entwicklung eines Lasttest-Rahmenwerkes für Apache Mahout von: Oliver Fischer Institut für Informatik Humbold-Universität zu Berlin Matrikelnummer: 19

Mehr

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE DOKUMENTATION MAAS - MONITORING AS A SERVICE DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE Dokumentation MaaS - Monitoring as a Service Inhalt 1. MaaS - Monitoring as Service... 3 1.1 Einleitung...

Mehr

Linux im Windows-Netzwerk Franzis Verlag, Poing 2 2001 ISBN 3-7723-6065-3 (DM 89,95) www.linuxbu.ch

Linux im Windows-Netzwerk Franzis Verlag, Poing 2 2001 ISBN 3-7723-6065-3 (DM 89,95) www.linuxbu.ch 7HLO, X www.samba.org 5HVVRXUFHQ X Eckstein, R.; Collier-Brown, D.: Samba. Ein Datei- und Druckserver für heterogene Netzwerke O'Reilly-Verlag, Köln 2000 ISBN 3-89721-16-0 (DM 74,-) X Burre, B.; Debacher

Mehr

Übung 1: Ein Website News-System mit MySQL

Übung 1: Ein Website News-System mit MySQL Übung 1: Ein Website News-System mit MySQL In der Vorübung haben wir bereits mit Hilfe eines ERMs den Datenbankentwurf erstellt und daraus die folgenden Tabellen abgeleitet: Nun muss diese Datenbank in

Mehr

Typo 3 installieren. Schritt 1: Download von Typo3

Typo 3 installieren. Schritt 1: Download von Typo3 Typo 3 installieren Bevor Sie Typo3 installieren, müssen Sie folgende Informationen beachten: Typo3 benötigt eine leere Datenbank. Mit Ihrem Abonnement verfügen Sie über eine einzige Datenbank. Sie können

Mehr

MapReduce-Konzept. Thomas Findling, Thomas König

MapReduce-Konzept. Thomas Findling, Thomas König MapReduce - Konzept 1 Inhalt 1. Motivation 2. Einführung MapReduce Google Rechenzentren Vergleich MapReduce und Relationale DBS 3. Hadoop Funktionsweise Input / Output Fehlerbehandlung 4. Praxis-Beispiel

Mehr

Covum Mailsignatur für Microsoft Outlook

Covum Mailsignatur für Microsoft Outlook Benutzerdokumentation: Covum Mailsignatur für Microsoft Outlook Inhaltsverzeichnis 1. Was macht das Programm? Allgemeine Beschreibung... 2 1.1. Welche Voraussetzungen müssen erfüllt sein?... 2 1.2. Welche

Mehr

Kunden individuelle Papierpreise

Kunden individuelle Papierpreise Mit WinPress Version 4.6 können die Papierpreislisten mit den Kunden individuellen Preisen bei den Papierlieferanten angefordert und in das WinPress Kalkulationssystem integriert Folgende Einstellungen

Mehr

TECHNISCHE PRODUKTINFORMATION CARUSO

TECHNISCHE PRODUKTINFORMATION CARUSO 1111 TECHNISCHE PRODUKTINFORMATION CARUSO TECHNISCHE PRODUKTINFORMATION Seite 0/7 Inhalt 1 Systemdefinition............2 2 Technische Details für den Betrieb von CARUSO......2 2.1 Webserver... 2 2.2 Java

Mehr

Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i

Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i Inhaltsverzeichnis Überblick... 3 Die QlikView Applikation im Kontext... 4 Technische Rahmenbedinungen... 5 Funktionelle

Mehr

Websites optimieren für Google & Co.

Websites optimieren für Google & Co. Sebastian Röring Websites optimieren für Google & Co. schnell+kompakt Suchmaschinen link zu meiner Seite Diesen

Mehr

Managed VPSv3 Was ist neu?

Managed VPSv3 Was ist neu? Managed VPSv3 Was ist neu? Copyright 2006 VERIO Europe Seite 1 1 EINFÜHRUNG 3 1.1 Inhalt 3 2 WAS IST NEU? 4 2.1 Speicherplatz 4 2.2 Betriebssystem 4 2.3 Dateisystem 4 2.4 Wichtige Services 5 2.5 Programme

Mehr

Kurzbeschreibung PC-Software für das Gerät URO-2050

Kurzbeschreibung PC-Software für das Gerät URO-2050 Kurzbeschreibung PC-Software für das Gerät URO-2050 1 Einleitung 1.1 Allgemeines Das Programm kann zum Verwalten der durchgeführten Untersuchungen mit dem Gerät URO-2050 benutzt werden. Es funktioniert

Mehr

2 GRUNDLEGENDE PROGRAMMBEDIENUNG

2 GRUNDLEGENDE PROGRAMMBEDIENUNG In diesem Kapitel erfahren Sie, wie das Textverarbeitungsprogramm Microsoft Word 2007 gestartet wird, wie Sie bestehende Dokumente öffnen und schließen oder Dokumente neu erstellen können. Es wird erläutert,

Mehr

IMBA. Installationsanleitung. SQL Server-Datenbankadapter. Das Instrument für den fähigkeitsgerechten Personaleinsatz

IMBA. Installationsanleitung. SQL Server-Datenbankadapter. Das Instrument für den fähigkeitsgerechten Personaleinsatz Das Instrument für den fähigkeitsgerechten Personaleinsatz IMBA SQL Server-Datenbankadapter Installationsanleitung gefördert durch das Bundesministerium für Gesundheit und Soziale Sicherung Vorbereitung

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

Installation und Benutzung AD.NAV.ZipTools

Installation und Benutzung AD.NAV.ZipTools Installation und Benutzung AD.NAV.ZipTools Version 1.0.0.0 ALTENBRAND Datentechnik GmbH Am Gelicht 5 35279 Neustadt (Hessen) Tel: 06692/202 290 Fax: 06692/204 741 email: support@altenbrand.de Die Komponente

Mehr