Barbara Krumay (Matr.-Nr ) Studium Wirtschaftsinformatik an der WU-Wien Betreuer: Dr. Michael Hahsler - 1 -

Größe: px
Ab Seite anzeigen:

Download "Barbara Krumay (Matr.-Nr. 8605492) Studium Wirtschaftsinformatik an der WU-Wien Betreuer: Dr. Michael Hahsler - 1 -"

Transkript

1 Von der Clickstream Analyse zur Linkstream Analyse. Clickstream Analyse und ihre Anwendung, Evaluierung von Clickstream Analyse Tools, Entwicklung eines Konzepts einer Linkstream Analyse für derstandard.at Bakkalaureatsarbeit im Rahmen des Seminars 0648 Seminar aus Informationswirtschaft SE/PI SS 2005 o. Univ. Prof. Dkfm. Dr. Wolfgang H. Janko Univ.-Ass. Dr. Michael Hahsler Abteilung für Informationswirtschaft WU Wien Barbara Krumay (Matr.-Nr ) Studium Wirtschaftsinformatik an der WU-Wien Betreuer: Dr. Michael Hahsler - 1 -

2 Inhaltsverzeichnis Inhaltsverzeichnis...2 Abbildungsverzeichnis...4 Vorwort...5 Ziel und Motivation der Arbeit...5 Dank...5 Hinweis auf geschlechterspezifische Benennung Zusammenfassung, Stichworte und Kernpunkte für das Management Zusammenfassung Abstract Stichworte Keywords Kernpunkte für das Management Einleitung Grundlagen Web Mining Definition Web Content Mining Web Structure Mining Web Usage Mining Phasen im Web Usage Mining Data Collection Logfiles Use- Identifizerung Cookies Registrierung und Login Pixel-Bilder Identifizierung von Sessions bwz. Transaktionen Identifizierung von Sessions Data Mining Methoden im Web Mining Assoziations- und Sequenzanalyse Segmentierung Methoden zur Klassifikation und Prognose im Web Mining Clickstream Analyse Clickstream Definition Clickstream Analyse Clickstream Analyse - Web Traffic Analyse Clickstream Analyse - E-Commerce basierte Analyse Data Webhouse Architecture Clickstream Analyse - Unterschiedliche Ansätze Markov Models PACT Golden Path Analyzer (GPA) Clickstream Tree Model Privacy und Datenschutz Privacy Preferences Project - P3P Evaluierung unterschiedlicher Clickstream Analyse Tools

3 6.1 Webalizer Sawmill Clicktracks Web Utilization Miner (WUM) Linkstream Analyse Definition Bestehende Architektur bei Online Zeitungen Exkurs: IVW bzw. ÖWA Allgemein Technologie der IVW bzw. ÖWA-Analyse Implementierung Besonderheiten bei derstandard.at Livestat Kritikpunkte an Livestat und Motivation für ein zusätzliches Analyse Tool Möglicher Lösungsansatz für eine Linkstream Analyse Zusätzliche Daten Methodik der Datenerfassung Methodik der Datenauswertung Visualisierung Mögliche Probleme Ausblick Clickstream Analyse, Linkstream Analyse und Recommender Systems Literaturverzeichnis Dictionary

4 Abbildungsverzeichnis Abbildung 1: Phasen des Web Usage Mining [Perr04, S. 6]...10 Abbildung 2: Screenshot The Common Logfile Format [W3C95]...13 Abbildung 3: Logfile Einträge des Webservers vio.at...13 Abbildung 4: Combined Logfile Format [Apac05]...14 Abbildung 5: Extended Logfile Format [Micr05]...14 Abbildung 6: IIS Logfile [Micr05]...15 Abbildung 7: Zeitorientierte Heurisitk h1 [vgl. BMSW01, S. 3]...17 Abbildung 8: Zeitorientierte Heuristik h2 [vgl. BMSW01, S. 3]...17 Abbildung 9: Navigationsorientierte Heuristik h-ref [vgl. BMSW01, S. 3]...17 Abbildung 10: Architektur eines Data Webhouse [Saty02]...21 Abbildung 11: Monatliche Statistik Webalizer (Quelle: VIO.at)...25 Abbildung 12: Stündliche Statistik Webalizer (Quelle: VIO.at)...25 Abbildung 13: Visualisierung von Session-Pfaden in Sawmill (Quelle: Abbildung 14: Visualisierung der Click-Häufigkeit von benutzten Links in Clicktracks...28 Abbildung 15: Visualisierung der Pfade in Clicktracks...28 Abbildung 16: Schematische Darstellung der Web-Infrastruktr von Online-Medien (Quelle: ixware.at)...30 Abbildung 17: ÖWA Daten April 2005 (Auszug), [vgl. ÖWA05, Menüpunkt Daten]...31 Abbildung 18: Aufbau des SZM-Verfahrens (Quelle: Abbildung 19: Schematische Darstellung der Web-Infrastruktr bei derstandard.at (Quelle: ixware.at)...33 Abbildung 20: Auswertungszeitraum h = 1 Tag Livestat über alle Resorts (Quelle: Livestat)...34 Abbildung 21: Auswertungszeitraum 15 min Livestat über alle Resorts (Quelle: Livestat)

5 Vorwort Ziel und Motivation der Arbeit Die Arbeit wird im Rahmen der IT-Spezialisierung Informationswirtschaft des Studiums Wirtschaftsinformatik Bakkalaureat an der WU-Wien erstellt. Die in den bereits absolvierten Lehrveranstaltungen erarbeiteten Themen können in der Arbeit verwendet und weiterentwickelt werden. Für das vorliegende Thema besteht ein Anknüpfungspunkt zum Information Retrieval. Die Arbeit ist gleichzeitig eine Möglichkeit, wissenschaftliches Arbeiten zu praktizieren und aktuelle Themen aufzubereiten. Ziel der konkreten Arbeit ist, ein Konzept für ein Linkstream Analyse Tool zu entwickeln, das in weiterer Folge für derstandard.at programmiert und entwickelt werden kann. Ausgangspunkt ist die theoretische Basis der Clickstream Analyse und nach Vergleich unterschiedlicher Clickstream Analyse Tools soll aus den gewonnenen Erkenntnissen das Konzept für eine Linkstream Analyse entstehen. Dabei soll aber berücksichtigt werden, dass das Tool auch wieder verwendbar (Reuse von Code) ist. Die Programmierung und Implementierung des Tools sind nicht Teil der Arbeit. Dank Mein besonderer Dank gilt meinem Sohn Clemens, der mir viel mehr Verständnis für mein Studium entgegengebracht hat, als man es von einem 5-jährigen erwarten kann. Weiters danke ich Alex, der mir immer mit Rat und Tat zur Verfügung stand und durch sein fundamentales Informatikwissen so manche fachliche Diskussion in Gang gebracht hat. Und ich danke meiner Mutter, die viel Zeit dafür verwendet hat, Clemens zu beschäftigen, damit ihm die Mama nicht ganz so fehlt. Weiters danke ich Mag. Alexander Mitteräcker von derstandard.at, der mir den praktischen Nutzen des theoretisch Erarbeiteten vor Augen geführt hat. Hinweis auf geschlechterspezifische Benennung Aufgrund der besseren Lesbarkeit wurde immer dann die männliche Form verwendet und wurden damit beide Geschlechter gemeint, wenn keine konkrete Person damit angesprochen war

6 1 Zusammenfassung, Stichworte und Kernpunkte für das Management 1.1 Zusammenfassung Die vorliegende Arbeit zeigt einen Überblick über den Einsatz des Web Usage Mining und die verschiedenen Ansätze der Clickstream Analyse. Da existierende Clickstream Analyse Tools vor allem auf die Bedürfnisse von Webshops eingehen, können diese nur schwerlich an die Anforderungen von Online-Zeitungen angepasst werden. Die hier vorgestellte Linkstream Analyse beobachtet nicht nur den Weg des Users durch eine Website, sondern auch die Links, die dabei verwendet werden. Dies ist vor allem im Online-Zeitungs-Bereich relevant, da zwei Seiten durch unterschiedliche Links, platziert in verschiedenen Link-Lokationen, verbunden sein können. Die User können anhand ihrer präferierten Link-Lokation Clustern zugeordnet und beobachtet werden. Die Analyse des Linkstream hat zum Ziel, dem Sitebetreiber die Attraktivität verschiedener Link-Lokationen anzuzeigen. Daraus können unterschiedliche Handlungsweisen abgeleitet werden. Von Umgestaltung der Seite über Banner-Platzierung bis hin zu personalisierte Links in der bevorzugten Link-Lokation. 1.2 Abstract This article gives an overview of the usage of Web Usage Mining and the different approaches of Clickstream Analysis. Existing Clickstream Analysing Tools are dedicated to be used in Webshops. Online Newspapers have totally different requirements, which can t be satisfied by existing tools. In this paper we introduce a Linkstream Analysis, which fits more to the needs of Online Newspapers. The Linkstream Analysis gives the possibility to watch a users behaviour, not only across a website, but also the links he uses too. This is important for Online Newspapers, since they offer their users different link location to the same destination. The users can be clustered by their preferred link locations and the Online Newspapers can react. The reaction can be the positioning of banners near to the preferred link location or redesign of the whole site or recommendations in this area. 1.3 Stichworte Web Mining, Web Usage Mining, Clickstream Analyse, Evaluierung von Clickstream Tools, Linkstream Analyse 1.4 Keywords Web Mining, Web Usage Mining, Clickstream Analysis, Evaluation of Clickstream Tools, Linkstream Analysis 1.5 Kernpunkte für das Management Dieser Beitrag beschreibt, wie Web Usage Mining eingesetzt werden kann. Clickstream Analyse als Spezialgebiet des Web Usage Mining steht dabei im Vordergrund. Vorstellung von Clickstream Analyse und verschiedene Ansätze Es werden drei am Markt befindliche Logfile bzw. Clickstream Analyse Tools (Webalizer, Sawmill, Clicktracks) kurz evaluiert, WUM als kurz vorgestellt - 6 -

7 Die Möglichkeit einer Linkstream Analyse wird unter Berücksichtigung der besonderen Anforderung von Online Zeitungen als möglicher Lösungsansatz entworfen

8 2 Einleitung Im Jahr 2005 ist es für ein großes Unternehmen kaum noch möglich, ohne Webauftritt existieren zu können. Ob Unternehmenswebsite, Produktkataloge, Online Shop in allen Branchen wurde das Netz als Marketinginstrument entdeckt. Doch der Webauftritt allein verschafft dem Unternehmen heutzutage keinen strategischen Vorteil mehr. Viel wichtiger ist, wie dieser Webauftritt beim Kunden ankommt. Web Usage Mining ist eine Möglichkeit, um zu analysieren, wie die User sich auf der Seite bewegen. Anhand von ausgeklügelten Heuristiken können die Websites dem Userverhalten angepasst werden. Die Clickstream Analyse bietet vor allem die Möglichkeit zu ermitteln, wie sich die User über die Website bewegen. Dadurch können wertvolle Informationen für die Websitegestaltung und die Platzierung von Werbung, Produkten etc. gewonnen werden. Die vorliegende Arbeit soll Auskunft geben, wie eine Clickstream Analyse durchgeführt werden kann, welche Voraussetzungen dafür notwendig sind und wie diese abgewandelt werden kann, um eine den Anforderungen einer Online-Zeitung entsprechende Linkstream Analyse entwickeln zu können

9 3 Grundlagen Web Mining 3.1 Definition Web mining can be broadly defined as the discovery and analysis of useful information from the World Wide Web [CMSr97, S 1] Web mining is the use of date mining techniques to automatically discover and extract information from Web documents and services [KoBl00, S. 2] Wird beim herkömmlichen Data Mining vor allem auf ein meist strukturiertes oder zumindest wohlbekanntes Data Warehouse zugegriffen, so liegen die Daten für Web Mining im unstrukturierten, unüberschaubaren Internet vor. Grob kann man die im Internet auftretenden Daten einteilen in Content: die tatsächlichen Daten in Webseiten (meist Text und Grafiken, aber auch Video, Musik...) Struktur: Daten, die die Organisation des Content beschreiben Usage: Daten, die die Verwendungsmuster von Webseiten repräsentieren User Profile: Daten, die demographische Information enthalten All diese Daten liegen in unterschiedlichen Datenquellen vor, serverseitig (z.b. HTML-Files, Server Logfiles, Proxy Logfiles...) und clientseitig (Remote Agents, Modified Browsers). Aus den gegebenen Daten und den unterschiedlichen Zielrichtungen haben sich drei Forschungsgebiete des Web Mining entwickelt: Web Content Mining Web Structure Mining Web Usage Mining Web Content Mining Web Content Mining befasst sich mit der Analyse der im Web vorhandenen Daten. Hierbei wird in der gängigen Literatur zwischen Information Retrieval View Database Approach (DB-View) unterschieden, wobei Agenten Teile oder den gesamten Web Mining Prozess übernhemen können (Agent Based Approach). [siehe CoMS97, S. 2 f und KoBl00, S. 4ff] The goal of Web content mining from the IR view is mainly to assist or to improve the information finding or filtering the information to the users usually based on either inferred or solicited user profiles, while the goal of Web content mining from the DB view mainly tries to model the data on the Web and to integrate them so that more sophisticated queries other than the keywords base search could be performed [KoBl00, S.4] Allgemein kann man sagen, dass der IR-View und auch der Agent Based Approach sich mit den unstrukturierten oder semi-strukturierten Daten im Web beschäftigt, also mit Hypertextund Textdokumenten, während der DB-View von semi-strukturierten Daten und datenbankgestützten Webseiten ausgeht. Der Agent Based Approach unterscheidet Intelligente Suchagenten Informations-Filterung und Kategorisierung Personalisierte Webagenten Mehr zum Web Content Mining siehe auch [CoMS97]

10 3.1.2 Web Structure Mining Das Web Structure Mining beschäftigt sich mit den Hyperlinks, die das World Wide Web ausmachen. Inspiriert ist dieses Forschungsfeld durch Untersuchungen zum Thema soziales Netzwerk und Zitationsanalyse. So können mittels Web Structure Mining anhand der hinführenden und wegführenden Links spezielle Seiten kategorisiert werden (z.b. Hubs, Authorities). Web Structure Mining hat insofern hohe Bedeutung, da sich Googles Page Rank Verfahren darauf begründet [KoBl00] Web Usage Mining Definition Mit Web Usage Mining bezeichnet man die Analyse des Nutzungsverhaltens von Websites. [Rahm02, S. 1] Die Kernfragen des Web Usage Mining sind dabei, wie sich der User auf der Webseite verhält, welche Inhalte ihn zu welchem Handeln anregen. Das Verhalten der User kann aus Logfiles mit Hilfe von statistischen und Data Mining Methoden analysiert werden. Die folgende Abbildung zeigt eine Darstellung der Phasen des Web Usage Mining: Abbildung 1: Phasen des Web Usage Mining [Perr04, S. 6] Häufiger kann in der Literatur aber auch folgende Phaseneinteilung gefunden werden: Preprocessing Pattern Discovery Pattern Analysis Im Vergleich kann man sagen, dass bei Perry [Perr04] die Phase Data Collection ebenfalls berücksichtigt wurde und die Phasen Pattern Discovery und Pattern Analysis in der Phase Data Analysis zusammengefasst sind. Da für die Clickstream Analyse die Phase Data Collection eine wichtige Rolle spielt, werden die Phasen hier anhand der Einteilung von Perry kurz erläutert Data Collection In order to be able to mine any information, an accurate and reliable method of recording data is required. The basis of any statistical analysis is a reliable source of data, as representative of real use as possible, without introducing any bias or significant overhead;. [Perr04, S. 7]

11 Webseiten werden über das http Protokoll abgerufen und jeder Abruf oder Hit (siehe Kapitel 10) wird in einem Logfile (siehe Kapitel 4.1.1) gespeichert. Allerdings kann man aufgrund von Hits keinerlei Aussage über die Usage also die Verwendung einer Seite treffen, da Hits die über den Webserver abgerufenen Dokumente wiedergeben (z.b. Grafiken, Frames...). Für die Usage sind Page Views die aussagekräftigen Daten, das ist die Anzahl von komplett ausgelieferten Seiten.. Abgesehen von den serverseitigen Logfiles ist es aber möglich, dass Usage Informationen auf Client-Seite gespeichert werden. Dafür sind eigene Agenten oder modifzierte Browser notwendig. Eine weitere Möglichkeit, Daten über das Verhalten von Usern auf einer Website zu sammeln ist das sogenannte Packet Sniffing. Dabei werden Datenpakete, die zwischen Server und Client hin und her geschickt werden mitgesnifft. Diese Daten können zur Analyse herangezogen werden (in der Praxis nicht sehr relevant, wird vorwiegend in Testumgebungen eingesetzt) Preprocessing Ziel des Preprocessing ist die Aufbereitung der Daten, das heißt all jene Einträge in Logfiles, die für die Analyse keine Aussagekraft haben werden entfernt, fehlende Daten aus anderen Logfiles werden hinzugefügt, User und Sessions werden identifiziert. Am Ende des Preprocessing sollen die Daten in der Form vorliegen, dass sie so genau wie möglich die Aktivitäten der User wiedergeben. Die dabei entstehenden Probleme ergeben sich vor allem aus Caching-Mechnismen und Proxy-Servern Data Analysis Im Pattern Discovery wird versucht, mit Hilfe von statistischen und Data Mining Methoden, Muster (Pattern) zu erkennen. Die Data Mining Methoden, die im Web Mining Anwendung finden werden im Kapitel 4.4 genauer erläutert. In der Phase der Pattern Analysis wird versucht, die gefundenen Muster zu analysieren

12 4 Phasen im Web Usage Mining 4.1 Data Collection Logfiles Wie bereits in Kapitel Web Usage Mining erörtert, werden Logfiles herangezogen, um darin Pattern zu finden und zu analysieren. Die meisten Logfiles werden als ASCII Zeichen in einem File ohne Formatierung gespeichert, um Analyse Tools zur Verfügung zu stehen. Von Webservern werden unterschiedliche Logfiles (error-log, access-log...) in unterschiedlichen Formaten (CLF, DLF ) geschrieben. Für die Analyse wird meist das access-log herangezogen, in dem der Zugriff der User protokolliert wird Definition W3C httpd can log all the incoming requests to an access log file. It also has an error log where internal server errors are logged. All log files are generated using the common log file format that several WWW servers use. [W3C95] Logfileeinträge werden immer dann Mal geschrieben, wenn eine Seite von einem Webserver abgerufen wird CLF Das Common Logfile Format (CLF) kann von den meisten Webservern geschrieben und daher auch von den meisten Analyse Tools bearbeitet werden. Das CLF hat eine fixe Form und genaue Vorgaben, was in welche Felder geschrieben werden darf. Werden Felder nicht belegt, so wird das Zeichen - eingefügt, zwischen den Feldern ist ein Leerzeichen oder Tabulator gesetzt, die Zeile endet mit einem Linefeed (LF). Folgender Screenshot zeigt den fixen Aufbau des CLF:

13 Abbildung 2: Screenshot The Common Logfile Format [W3C95] Gespeichert werden Namen oder die IP-Adresse, von der der User zugreift, den Remote Logname des Users (identd nach RFC931 wird nur selten verwendet), seinen Usernamen, falls er sich über htaccess authentifiziert hat, Datum und Uhrzeit des Zugriffs inkl. Zeitzone, den Request also die Anfrage, die der User im Browser über einen Link oder direkt in der Address-Zeile eingetragen hat, den http Status-Code und die Größe des übertragenen Dokuments in Bytes. Die nächste Abbildung zeigt einen Auszug aus einem Logfile des Webserver der Autorin, die Zeilennummer wurden für die bessere Verständlichkeit hinzugefügt [27/Apr/2005:18:13: ] "GET / HTTP/1.1" [27/Apr/2005:18:13: ] "GET /vio.css HTTP/1.1" [27/Apr/2005:18:13: ] "GET /img/favicon.ico HTTP/1.1" [27/Apr/2005:18:13: ] "GET /img/spacer.gif HTTP/1.1" [27/Apr/2005:18:13: ] "GET /img/draht.gif HTTP/1.1" [27/Apr/2005:18:13: ] "GET /img/vio-logo.gif HTTP/1.1" [27/Apr/2005:18:14: ] "GET /index.php?page=4 HTTP/1.1" [27/Apr/2005:18:14: ] "GET /img/vio_fingers.gif HTTP/1.1" Abbildung 3: Logfile Einträge des Webservers vio.at

14 Man kann erkennen, dass in diesem Fall die Felder Remote Logname und Username nicht verwendet wurden dass viele Logfileeinträge keinerlei Relevanz für Web Usage Mining enthalten (Zeilen 2, 3, 4, 5, 6, 8), die daher im Preprocessing entfernt werden können. dass die Zeilen 1 und 7 zeigen, welche Requests der User an den Webserver geschickt hat. Wenn die Felder Username und Remote Logname nicht gesetzt sind ist es sehr schwierig, Sessions und User zu identifizieren. Ist der User aus Zeile 1 der gleiche User wie der aus Zeile 7, hat er sich lediglich durch einen Link in der Seite bewegt oder ist ein anderer User von der gleichen IP-Adresse direkt bei Zeile 7 eingestiegen? Combined Logfile Format (DLF) Das Combined Logfile Format entspricht weitgehend dem CLF, enhält aber zwei weitere zusätzliche Felder, die für die Bildung von Sessions und Clickstream Analysen sehr entscheidend sind. Das DLF ist ebenfalls fix vorgegeben, nicht belegte Felder müssen mit _ gekennzeichnet werden. Diese zusätzlichen Felder sind Referrer (Seite, von der der User auf die soeben aufgerufenen Seite gelangt ist) und User Agent (Browser). Die folgende Abbildung zeigt einen Auszug aus einem Combined Logfile Format, welches den Referrer (http://www.example.com/start.html) und den User Agent (Mozilla/4.08[en]...) enthält frank [10/Oct/2000:13:55: ] "GET /apache_pb.gif HTTP/1.0" "http://www.example.com/start.html" "Mozilla/4.08 [en] (Win98; I ;Nav)" Abbildung 4: Combined Logfile Format [Apac05] eclf Das in Kapitle CLF vorgestellte Common Logfile Format ist starr und daher limitiert, so dass vom W3C im Jahr 1996 ein Extended Common Logfile Format definiert wurde. Dieses Logfile-Format bietet dem Administrator die Möglichkeit, die zu speichernde Loginformation im Rahmen des HTTP-Protokolls zu konfigurieren. Das eclf kann sowohl directives (Richtlinien) wie auch Logfileeinträge enthalten. [siehe W3C96] #Software: Internet Information Services 6.0 #Version: 1.0 #Date: :42:15 #Fields: time c-ip cs-method cs-uri-stem sc-status cs-version 17:42: GET /default.htm 200 HTTP/1.0 Abbildung 5: Extended Logfile Format [Micr05] Proprietäre Logfiles am Beispiel des IIS Logfile Format Einige Webserverhersteller verwenden proprietäre Logfile-Formate. Als Beispiel soll hier das Logfile des IIS (Internet Information Server) von Microsoft vorgestellt werden. Der IIS kann abhängig von der Version jedoch auch Logfiles in gängigen Logfile- Formaten speichern (z.b. CLF, DLF, eclf). Ein Logfile-Eintrag besteht aus

15 vorgegebenen Feldern, die teilweise mit dem CLF ident sind und durch Beistriche getrennt werden. In addition, IIS format includes detailed items, such as the elapsed time, number of bytes sent, action (for example, a download carried out by a GET command), and target file. [Micr05] Die definierten Felder sind: IP-Adresse des Clients Benutzername Datum Uhrzeit Dienst (W3SVC z.b. für WWW-Server, MSFTPSVC für FTP-Server...) Computername (NetBIOS-Name) IP-Adresse des Servers Verarbeitungszeit Erhaltene Bytes Gesendete Bytes Service-Statuscode Windows-Statuscode Name der Opteration (GET, POST) Ziel der Operation Parameter , -, 03/20/01, 7:55:20, W3SVC2, SALES1, , 4502, 163, 3223, 200, 0, GET, /DeptLogo.gif, -, , anonymous, 03/20/01, 23:58:11, MSFTPSVC, SALES1, , 60, 275, 0, 0, 0, PASS, /Intro.htm, -, Abbildung 6: IIS Logfile [Micr05] 4.2 Use- Identifizerung Wie im Kapitel erwähnt, kann aus Logfiles kaum eine Session- oder Useridentifizierung erfolgen. Daher gibt es unterschiedliche Möglichkeiten, um die Usersessions erkennen zu können Cookies Cookies (siehe Kapitel 10) werden vom Server ausgegeben und beim Client (meist ein Browser) des User gespeichert. Mit jedem Aufruf werden die im Cookie hinterlegten Daten an den Server zurück übergeben. Wenn diese Cookies persistent sind, also auch nach dem Schließen des Clients gespeichert bleiben, so können User erkannt werden, die immer wieder auf die Seite zurückkehren. In den Cookies können aber auch Daten gespeichert werden können, daher werden sie häufigt eignesetzt, um einem wiederkehrenden User ein nochmaliges Login zu ersparen Registrierung und Login Durch Registrierung von Usern (Username/Password) kann mehr Information über den einzelnen User gesammelt werden. Dies bezieht sich nicht nur auf Web Usage Mining, es können auch demographische Daten erhoben werden. Das Login und die damit verbundene

16 Session sind unanbhängig von Browser und Computer der User kann immer eindeutig identifiziert werden. Allerdings können User dadurch auch abgeschreckt werden, da sie entweder keine Lust zur Registrierung haben oder vor Nachverfolgbarkeit Angst haben Pixel-Bilder 1-Pixel-Bilder werden vor allem von großen Unternehmen verwendet, die eine verläßliche, standardisierte Logfileauswertung benötigen. Auf jeder Seite wird ein 1-Pixel großes Bild platziert und mit Daten zum Beispiel im Namen versehen. Der Abruf dieser Bilder in einer Seite löst einen Logfile-Eintrag aus. Dies ist auch die von der ÖWA für Online Medien vorgegebene Technologie (siehe Kapitel 7.3). 4.3 Identifizierung von Sessions bwz. Transaktionen Um die vorliegenden Daten in Hinblick auf Web Usage Mining und Clickstream Analyse analysieren zu können, müssen Sessions und Transaktionen eindeutig identifiziert werden. Some authors propose dividing or joining the session into meaningful clusters, i.e. transaction. [Grca03, S. 2] Identifizierung von Sessions Session Identification is carried out using the assumption that if a certain predefined period of time between to accesses is exceeded, a new session starts at that point. [Grca03, S.2] User und damit ihre Sessions können anhand von Cookies, Login und 1-Pixel-Bildern erkannt werden (siehe Kapitel 4.2). Für die Zuordnung von Sessions zu einem User gibt es spezielle Lösungsansätze. Da eine Session ein Set von Aktivitäten des Users auf einer Website ist, hängt die Art des sessionizing von der nachfolgenden Analyse ab. Für Marketing-Analysen reicht meist das Zählen der von einem User besuchten Seiten und die Verweildauer aus, für Analysen, die das Navigieren des Users auf der Website zum Ergebnis haben sollen ist die Reihenfolge ein wichtiges Kriterium. [vgl. BMSW01, S. 2] A sessionizing heuristic partitions the user activity log into a set of constructed sessions therby deciding which activities of the same user belong together. A real session on the other hand, contains the activities, that the user performed together accourding to a reference modell,... [BMSW01, S. 2] Zeitorientierte Heuristiken Zeitorientierte Heuristiken gehen von einer maximalen Session-Zeit aus (z.b. 30 Minuten), die Real Sessions in Constructed Sessions teilt (einige Autoren setzen Constructed Sessions mit Transaktionen gleich). Die Verweildauer auf einer Website ist abhängig von Content und Struktur sowie Zweck einer Website. So kann es auch dazu kommen, dass eine Constructed Session durch den Ablauf einer gewissen Zeitspanne vor dem nächsten Request beendet wird und dieser Request zum ersten einer neuen Session wird. Zwei dieser zeitorientierten Heuristiken sollen hier kurz vorgestellt werden. Zeitorientierte Heuristik h1 θ = Maximale Dauer einer Session t 0 = timestamp des ersten URL-Requests in einer Constructed Session Ein Request gehört dann zur Session wenn t t 0 θ

17 Das heißt in Konsequenz daraus beginnt eine neue Constructed Session wenn t t 0 + θ Abbildung 7: Zeitorientierte Heurisitk h1 [vgl. BMSW01, S. 3] Zeitorientierte Heuristik h2 δ = Maximale Verweildauer auf einer Website t = Timestamp eines URL-Requests der zuletzt einer Constructed Session zugeordnet wurde Der nächste Request mit dem Timestamp t gehört dann zur gleichen Session wenn t t δ Ansonsten wird dieser Request zum ersten einer neuen Constructed Session. Abbildung 8: Zeitorientierte Heuristik h2 [vgl. BMSW01, S. 3] Navigationsorientierte Heuristiken Navigationsorientierte Heuristiken basieren darauf, das User eher Links verwenden, um zwischen Seiten zu navigieren als URLs einzutippen. Daher kann der Referrer für diese Heuristik herangezogen werden. Referrer, die auf keine vorhergehende Seite verweisen sind der Beginn einer neuen Session. Navigationsorientierte Heuristik h-ref (Referrer-based) p, q = aufeinanderfolgende Page Requests mit einem Timestamp t p und t q = definierter Zeitrahmen für Verzögerung (Delay) S = Constrcuted Session p S q wird zur Session S hinzugefügt wenn der Referrer für q in der Session S bereits aufgerufen wurde oder wenn der Referrer undefiniert ist und (t q t p ) Abbildung 9: Navigationsorientierte Heuristik h-ref [vgl. BMSW01, S. 3]

18 4.4 Data Mining Methoden im Web Mining Data Mining Methoden, die im Web Mining Einsatz finden: Assoziations- und Sequenzanalyse Segmentierung Klassifikation und Prognose Kausale Netze [vgl. HiMW02, S. 20 ff] Assoziations- und Sequenzanalyse Die Assoziationsanalyse bildet Regeln, die Beziehungen zwischen Elementen aus einer Transaktionsmenge wiedergeben... Gesucht werden Elemente, die verstärkt gemeinsam innerhalb von Transaktionen auftreten. [HiMW02, S. 20] In Bezug auf Web Usage Mining heißt das, dass Seiten identifiziert werden, die in einer Sessions gemeinsam aufgerufen werden. Grundlage sind immer Sessions oder Tranksaktionen mit bestimmten Attributen (z.b. Transaktionszeitpunkt, Useridentifikation). Für jeden User wird eine Sequenz zeitlich angeordneter Tranksaktionen gebildet, häufige Sequenzen werden gesucht. Eine Sequenz <a,b,c> mit dem Support von x% bedeutet, daß x% aller betrachteteten Sequenzen in zeitlich aufeinanderfolgenden Transaktionen die Elemente a, b und c enthalten [HiMW02, S. 21] Mit Hilfe der Sequenzanalyse lassen sich im Netz typische Bewegungspfade der Besucher, das so gennante Clickstream Behavior, analysieren. [HiMW02, S. 21]. Pfade, auf denen sich die User häufig bewegen, können so analyisert werden Segmentierung User lassen sich anhand ihrer Eigenschaften in verschiedene Segmente einteilen. Dies kann mittels Clusteranalyse oder Self Organizing Maps (SOMs) geschehen. Aus der heterogenen Usermasse sollen homogene Teilmengen gebildet werden, die Teilmengen sollen möglichst voneinander abgegrenzt sein. Die Segmentierung kann nach unterschiedlichen Kriterien abhängig von der Zielsetzung der Analyse erfolgen Methoden zur Klassifikation und Prognose im Web Mining Dazu eigenen sich besonders Eintscheidungsbäume, künstliche neuronale Netze und die logistische Regression Entscheidungsbäume Entscheidungsbäume dienen der Zuordnung eines Objekts zu einer oder mehreren Klassen anhand dessen Merkmalsausprägung. Im Verfahren wird versucht, jene Merkmalskombinationen zu finden, die eine möglichst gute Zuordnung der Objekte zu den einzelnen Klassen zulassen. Die Teilmengen werden Schritt für Schritt kleiner, abhängig von dem Merkmal, das zum Zeitpunkt am besten zur Klassifikation geeignet ist. Dadurch entsteht ein sich verzeigender Baum. Aus den Verzweigungskriterien werden Regeln gebildet und dadurch können nicht zugeordnete Objekte den Teilmengen zugeordnet werden

19 Künstliche Neuronale Netze Künstliche Neuronale Netze bestehen aus Schichten miteinander verbundener Neuronen. In der Eingabeschicht (Input Layer) werden Signale aufgenommen und an die verborgenen Schichten weitergegeben (Hidden Layer). Dort findet die eigentliche Verarbeitung statt. Über den Output Layer werden diese verarbeiteten Daten ausgegeben. Anhand von Trainingsdaten lernt das Neuronale Netz. Das einzelnen Neuronen werden gewichtet und so lange wird so lange justiert, bis die bekannten Inputdaten den gewünschten Output ergeben. Werden dem Netz unbekannte Input-Daten übergeben, behandelt es diese auf die gelernte Weise und produziert Output den Vorgaben entsprechende. Neuronale Netze werden vor allem zur Analyse nichtlinearer Datenstrukturen herangezogen Regressionsanalyse Die Regressionsanalyse ist ein vielseitig einsetzbares und weithin anerkanntes statistisches Verfahren, das sich sowohl zur Wikungsabschätzung von Einflussgrößen als auch zur Prognose eignet. [Mathias Meyer in HiMW02, S. 195] Die Regressionsanalyse ermöglicht es, Scoring Modelle zu entwerfen, z.b Scoring zur Zielgruppenbestimmung und Entscheidungsunterstützung beim gezielten Marketingeinsatz. Allerdings unterliegt der Einsatz der Regressionsanalyse im Web Mining bestimmten Einschränkungen. [vgl. HiMW02, S. 195 ff]

20 5 Clickstream Analyse 5.1 Clickstream A clickstream is a sequential series of pageview requests, made from a single user. [EiVa00, S. 9] Der Unterschied zwischen Clickstream und navigationsorientierte Heuristiken wie in Kapitel besprochen liegt vor allem darin, dass navigationsorientierte Heuristiken Constructed Sessions in den Vordergrund stellen, Clickstreams sozusagen den Weg durch die Seite in einer Real Session abbilden. Man könnte auch sagen, dass eine Constructed Session der Teil eines Clickstream ist. Beim Clickstream oder den Real Sessions treten ähnliche aber auch zusätzliche Probleme auf, z.b. die Identifizierung des Verlassens einer Website, Erkennen von Back-Button und Reloads, der Startpunkt eines Clickstream. 5.2 Definition Clickstream Analyse Clickstream analysis is a special type of web usage mining which provides information essential to understanding users behavior. [Bray03, Kap. 4.4] Clickstream data analysis describes the analysis of the streams of requests (clicks) users generate as they move from page to page within a web site. [Saty02] Aus den in den Logfiles gespeicherten Daten kann mittels Clickstream Analyse festgestellt werden, wie der User sich durch die Seiten bewegt, woher er gekommen ist und wie lange er auf welcher Seite geblieben ist. Die Analyse gibt Antwort auf viele Fragen, z.b: was sind die populärsten Seiten, welche sind die unpopulärsten, welche Pfade verwendet der User auf einer Seite, wie lange bleiben Besucher, die über ein Banner auf meine Seite gekommen sind, wie oft kommen User wieder und viele mehr. [vgl. Saty02] Clickstream Analysen werden vor allem im Bereich von Webshops eingesetzt Clickstream Analyse - Web Traffic Analyse Die Web Traffic Analyse konzentriert sich auf die Frage, wie User sich durch eine Website bewegen. Sie misst die PageViews, wieviel der Seite ausgeliefert wurde wenn ein User den Stop-Butten clickt und wie lange der User gewartet hatte, bevor er den Stop-Butten gedrückt hat. Auch die Performance einer Webseite kann gemessen werden. All dieser Messungen werden auf dem Server-Level einer Webseite durchgeführt. [vgl. Saty02] Clickstream Analyse - E-Commerce basierte Analyse Die E-Commerce basierte Analyse verwendet Clickstream-Daten um herauszufinden, wie effektiv die Website als Marketinginstrument eingesetzt werden kann. Die User werden aufgrund Ihres Verhaltens quantifiziert solange sie sich auf der Webseite befinden. Ein typischer Anwendungsbereich sind Webshops, um herauszufinden, welche Produkte ein User betrachtet, in den Einkaufskorb legt und eventuell wieder herausnimmt. [vgl. Saty02] Data Webhouse Architecture Clickstream Analysen können am besten mittels Data Webhouse durchgeführt werden. Dabei wird der erzeugte Clickstream in einem Data Webhouse hinterlegt, das als Grundlage für den Data Mining Process dient

Messung des Online-Erfolges / Optimierung einer Website

Messung des Online-Erfolges / Optimierung einer Website Messung des Online-Erfolges / Optimierung einer Website Stuttgart, Mai 2001 Guido Hartmann Senior Project Manager Talstrasse 41 Stuttgart phone: +49.711.90717-177 guido.hartmann@pixelpark.com http://www.pixelpark.com

Mehr

Datenschutzerklärung. Published: 2009-08-03 Author: 42media services GmbH

Datenschutzerklärung. Published: 2009-08-03 Author: 42media services GmbH Datenschutzerklärung Published: 2009-08-03 Author: 42media services GmbH Inhaltsverzeichnis Datenschutzerklärung... 4 Datenverarbeitung auf dieser Internetseite... 4 Cookies... 4 Newsletter... 4 Auskunftsrecht...

Mehr

Personalisierung und Benutzermodellierung. Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests

Personalisierung und Benutzermodellierung. Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests Personalisierung und Benutzermodellierung Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests Prof. Dr. N. Henze 18. Juni 2007 Inhaltsverzeichnis 6 Aufdecken von Benutzerbedürfnissen

Mehr

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Fellowship Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Katja Steuernagel Universität Kaiserslautern Momentan: GIP AG Göttelmannstraße 17 55130 Mainz katja@katja-steuernagel.de Zusammenfassung

Mehr

Symbio system requirements. Version 5.1

Symbio system requirements. Version 5.1 Symbio system requirements Version 5.1 From: January 2016 2016 Ploetz + Zeller GmbH Symbio system requirements 2 Content 1 Symbio Web... 3 1.1 Overview... 3 1.1.1 Single server installation... 3 1.1.2

Mehr

Vorstellung des Diplomarbeitsthemas. dawn. (direction. anticipation in web-navigation. navigation) Sebastian Stober 12.

Vorstellung des Diplomarbeitsthemas. dawn. (direction. anticipation in web-navigation. navigation) Sebastian Stober 12. Vorstellung des Diplomarbeitsthemas dawn (direction anticipation in web-navigation navigation) Sebastian Stober 12. August 2005 Motivation Suchmaschinen & Verzeichnisse bieten einem User einen guten Einstiegspunkt

Mehr

Mining the Web. Analyse von Benutzerpfaden und Nutzertypen im Internet. Business Unit CRM Solutions SAS Deutschland. Dr.

Mining the Web. Analyse von Benutzerpfaden und Nutzertypen im Internet. Business Unit CRM Solutions SAS Deutschland. Dr. Mining the Web Analyse von Benutzerpfaden und Nutzertypen im Internet Dr. Frank Säuberlich Business Unit CRM Solutions SAS Deutschland Agenda 1. Einleitung: Der Lebenszyklus eines e-kunden Begriffsdefinition

Mehr

Erklärung der Webalizer Statistik

Erklärung der Webalizer Statistik Webhost Linux Erklärung der Webalizer Statistik - 1 - Erklärung der Webalizer-Statistik Dieses Dokument beschreibt den Aufbau der Auswertung der Webserver-Statistiken. Die Auswertungen sind täglich ab

Mehr

Anleitung Webalizer. Inhaltsverzeichnis

Anleitung Webalizer. Inhaltsverzeichnis Inhaltsverzeichnis. Aufgabe / Nutzen des s... 2. Allgemeine Informationen...2.2 Begriffserklärungen...2 2. Zugang zum... 2 3. Die Eingangsseite... 3 4. Die Monatsübersichten und Tagesübersichten... 3 4.

Mehr

Datenschutzerklärung ENIGO

Datenschutzerklärung ENIGO Datenschutzerklärung ENIGO Wir, die, nehmen den Schutz Ihrer persönlichen Daten sehr ernst und halten uns strikt an die Regeln der Datenschutzgesetze. Personenbezogene Daten werden auf dieser Website nur

Mehr

Graphing - SNMP DATA - MRTG II

Graphing - SNMP DATA - MRTG II Graphing - SNMP DATA - MRTG II Netzwerkmanagement Software hat sich in den letzten Jahren vom hilfreichen Produkt zur integralen Grundlage für den professionellen IT Betrieb gewandelt. Grosse und leistungsfähige

Mehr

Handbuch zum besseren Verständnis des Webalizers Kurzanleitung

Handbuch zum besseren Verständnis des Webalizers Kurzanleitung Handbuch zum besseren Verständnis des Webalizers Kurzanleitung Eine Orientierungshilfe von die-netzwerkstatt.de Vorwort Inhalt Dieses Dokument beschreibt den Aufbau der Auswertung der Webserver-Statistiken.

Mehr

SemTalk Services. SemTalk UserMeeting 29.10.2010

SemTalk Services. SemTalk UserMeeting 29.10.2010 SemTalk Services SemTalk UserMeeting 29.10.2010 Problemstellung Immer mehr Anwender nutzen SemTalk in Verbindung mit SharePoint Mehr Visio Dokumente Viele Dokumente mit jeweils wenigen Seiten, aber starker

Mehr

NEWSLETTER. FileDirector Version 2.5 Novelties. Filing system designer. Filing system in WinClient

NEWSLETTER. FileDirector Version 2.5 Novelties. Filing system designer. Filing system in WinClient Filing system designer FileDirector Version 2.5 Novelties FileDirector offers an easy way to design the filing system in WinClient. The filing system provides an Explorer-like structure in WinClient. The

Mehr

Projekt Weblog :: Integration

Projekt Weblog :: Integration Projekt Weblog :: Integration Die Implementation des Formhandling Frameworks wird nun im Projekt Weblog integriert. Dafür stehen 2 Möglichkeiten zur Auswahl. Sie haben Ihre eigene Implementation der Actions,

Mehr

Web Mining effektive Analyse des Nutzer- Verhaltens im Internet

Web Mining effektive Analyse des Nutzer- Verhaltens im Internet Web Mining effektive Analyse des Nutzer- Verhaltens im Internet Dr. Frank Säuberlich Business Unit e-intelligence SAS Deutschland Agenda 1. Begriffsdefinition e-intelligence: Systemdimension Angebotsdimension

Mehr

KURZANLEITUNG. Firmware-Upgrade: Wie geht das eigentlich?

KURZANLEITUNG. Firmware-Upgrade: Wie geht das eigentlich? KURZANLEITUNG Firmware-Upgrade: Wie geht das eigentlich? Die Firmware ist eine Software, die auf der IP-Kamera installiert ist und alle Funktionen des Gerätes steuert. Nach dem Firmware-Update stehen Ihnen

Mehr

Webhost Unix Statistik

Webhost Unix Statistik Webhost Unix Statistik Für jeden Betreiber eines Webservers ist es natürlich auch interessant zu wissen, welchen Erfolg das eigene Angebot hat und welche Seiten denn am öftesten abgerufen werden. Da jeder

Mehr

Datenschutz 1. Allgemein

Datenschutz 1. Allgemein Datenschutz 1 Allgemein Der Betreiber dieser Website nimmt den Schutz Ihrer persönlichen Daten sehr ernst. Ihre personenbezogenen Daten werden vertraulich und entsprechend der gesetzlichen Datenschutzvorschriften

Mehr

Wählen Sie das MySQL Symbol und erstellen Sie eine Datenbank und einen dazugehörigen User.

Wählen Sie das MySQL Symbol und erstellen Sie eine Datenbank und einen dazugehörigen User. 1 English Description on Page 5! German: Viele Dank für den Kauf dieses Produktes. Im nachfolgenden wird ausführlich die Einrichtung des Produktes beschrieben. Für weitere Fragen bitte IM an Hotmausi Congrejo.

Mehr

Mitglied der Leibniz-Gemeinschaft

Mitglied der Leibniz-Gemeinschaft Methods of research into dictionary use: online questionnaires Annette Klosa (Institut für Deutsche Sprache, Mannheim) 5. Arbeitstreffen Netzwerk Internetlexikografie, Leiden, 25./26. März 2013 Content

Mehr

OEDIV SSL-VPN Portal Access for externals

OEDIV SSL-VPN Portal Access for externals OEDIV SSL-VPN Portal Access for externals Abteilung Serverbetreuung Andre Landwehr Date 31.07.2013 Version 1.2 Seite 1 von 9 Versionshistorie Version Datum Autor Bemerkung 1.0 06.08.2011 A. Landwehr Initial

Mehr

Web Information Retrieval. Zwischendiskussion. Überblick. Meta-Suchmaschinen und Fusion (auch Rank Aggregation) Fusion

Web Information Retrieval. Zwischendiskussion. Überblick. Meta-Suchmaschinen und Fusion (auch Rank Aggregation) Fusion Web Information Retrieval Hauptseminar Sommersemester 2003 Thomas Mandl Überblick Mehrsprachigkeit Multimedialität Heterogenität Qualität, semantisch, technisch Struktur Links HTML Struktur Technologische

Mehr

HIR Method & Tools for Fit Gap analysis

HIR Method & Tools for Fit Gap analysis HIR Method & Tools for Fit Gap analysis Based on a Powermax APML example 1 Base for all: The Processes HIR-Method for Template Checks, Fit Gap-Analysis, Change-, Quality- & Risk- Management etc. Main processes

Mehr

Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision

Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision Zielsetzung: System Verwendung von Cloud-Systemen für das Hosting von online Spielen (IaaS) Reservieren/Buchen von Resources

Mehr

Datenbank-basierte Webserver

Datenbank-basierte Webserver Datenbank-basierte Webserver Datenbank-Funktion steht im Vordergrund Web-Schnittstelle für Eingabe, Wartung oder Ausgabe von Daten Datenbank läuft im Hintergrund und liefert Daten für bestimmte Seiten

Mehr

Logfile Analyse II. Referent: Philipp Mayr. 8. InternetSalon am 26. Mai 2004, pr-ide. 8. InternetSalon / pr-ide Logfile Analyse II

Logfile Analyse II. Referent: Philipp Mayr. 8. InternetSalon am 26. Mai 2004, pr-ide. 8. InternetSalon / pr-ide Logfile Analyse II Logfile Analyse II Referent: Philipp Mayr 8. InternetSalon am 26. Mai 2004, pr-ide 1 Agenda Dauer ca. 1,5 h Begrüßung Einführung, Grundlagen, Probleme, Potenziale Zehn Reports am Beispiel von vers. Logfiles

Mehr

HIR Method & Tools for Fit Gap analysis

HIR Method & Tools for Fit Gap analysis HIR Method & Tools for Fit Gap analysis Checklist Example APS-functionality Check FELIOS versus PRIMAVERA 1 Base for all: The Processes HIR-Method for Template Checks, Fit Gap-Analysis, Change-, Quality-

Mehr

Invitation - Benutzerhandbuch. User Manual. User Manual. I. Deutsch 2. 1. Produktübersicht 2. 1.1. Beschreibung... 2

Invitation - Benutzerhandbuch. User Manual. User Manual. I. Deutsch 2. 1. Produktübersicht 2. 1.1. Beschreibung... 2 Invitation - Inhaltsverzeichnis I. Deutsch 2 1. Produktübersicht 2 1.1. Beschreibung......................................... 2 2. Installation und Konfiguration 2 2.1. Installation...........................................

Mehr

Verzeichnisdienste in heterogenen Systemen

Verzeichnisdienste in heterogenen Systemen Verzeichnisdienste in heterogenen Systemen Zielsetzungen Implementierung Aufbau: Active Directory (AD) auf Basis von Windows Server 008 R mit Windows Client(s), Linux Client(s) und einem Linux Server (Dateiserver).

Mehr

Datenschutzrichtlinie für die Plattform FINPOINT

Datenschutzrichtlinie für die Plattform FINPOINT Datenschutzrichtlinie für die Plattform FINPOINT Die FINPOINT GmbH ( FINPOINT ) nimmt das Thema Datenschutz und Datensicherheit sehr ernst. Diese Datenschutzrichtlinie erläutert, wie FINPOINT die personenbezogenen

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

Dokumentation Authentische Strukturdaten

Dokumentation Authentische Strukturdaten Dokumentation Version 1.1 Version 1.0 Seite 1/18 31.10.2008 Inhaltsverzeichnis 1. Allgemeines...3 1.1 Phasenmodell...3 1.1.1 Phase I...3 1.1.2 Phase II...3 1.1.3 Phase III...3 1.2 Datenaktualität...3 2.

Mehr

Einfluss der Treatment Sets auf Ladezeiten und Datenvolumen am Beispiel von SharePoint Server 2010

Einfluss der Treatment Sets auf Ladezeiten und Datenvolumen am Beispiel von SharePoint Server 2010 : Einfluss der Treatment Sets auf Ladezeiten und Datenvolumen am Beispiel von SharePoint Server 2010 von Thomas Stensitzki, Senior Consultant icomcept GmbH Management Summary Der Aufbau von Webseiten kann

Mehr

LDAP für HiPath OpenOffice ME V1 Installation von ESTOS Metadir unter Windows XP

LDAP für HiPath OpenOffice ME V1 Installation von ESTOS Metadir unter Windows XP LDAP für HiPath OpenOffice ME V1 Installation von ESTOS Metadir unter Windows XP Inhaltsverzeichnis Dokumenteninformation... 2 Voraussetzungen... 2 Einschränkungen... 2 Installation von ESTOS Metadir...

Mehr

https://portal.microsoftonline.com

https://portal.microsoftonline.com Sie haben nun Office über Office365 bezogen. Ihr Account wird in Kürze in dem Office365 Portal angelegt. Anschließend können Sie, wie unten beschrieben, die Software beziehen. Congratulations, you have

Mehr

+OK aixrs1.hrz.uni-essen.de POP3 3.3(18) w/imap2 client (Comments to MRC@CAC.Washington.EDU) at Fri, 23 Jan 1998 17:08:20 +0100 (MEZ)

+OK aixrs1.hrz.uni-essen.de POP3 3.3(18) w/imap2 client (Comments to MRC@CAC.Washington.EDU) at Fri, 23 Jan 1998 17:08:20 +0100 (MEZ) Anwendung der BON Problemstellung Implementierung eines einfachen POP3-Clients Anforderungsbeschreibung Es soll ein einfacher POP3-Kommandozeilen-Client entworfen werden, welcher über eine Internet- Verbindung

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Paynet Adapter Spezifikationen Voraussetzungen Datum : 21.07.08 Version : 1.0.0.2 21.07.2008 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung... 3 2 Architektur... 3 2.1 Grundsätze

Mehr

Datenschutzbestimmungen und rechtliche Hinweise

Datenschutzbestimmungen und rechtliche Hinweise Datenschutzbestimmungen und rechtliche Hinweise SEA Save Energy Austria GmbH schützt Ihre Privatsphäre. Diese Datenschutzbestimmungen finden auf die Nutzung unserer Website (http://saveenergy-austria.at/)

Mehr

Softwareschnittstellen

Softwareschnittstellen P4.1. Gliederung Rechnerpraktikum zu Kapitel 4 Softwareschnittstellen Einleitung, Component Object Model (COM) Zugriff auf Microsoft Excel Zugriff auf MATLAB Zugriff auf CATIA Folie 1 P4.2. Einleitung

Mehr

Prozessbeschreibung des Trackings zur Firmenerkennung

Prozessbeschreibung des Trackings zur Firmenerkennung Prozessbeschreibung des Trackings zur Firmenerkennung Überblick Nach 1 Abs.1 des Datenschutzgesetzes soll der Einzelne davor geschützt werden, durch den Umgang mit seinen personenbezogenen Daten in seinem

Mehr

ReadMe zur Installation der BRICKware for Windows, Version 6.1.2. ReadMe on Installing BRICKware for Windows, Version 6.1.2

ReadMe zur Installation der BRICKware for Windows, Version 6.1.2. ReadMe on Installing BRICKware for Windows, Version 6.1.2 ReadMe zur Installation der BRICKware for Windows, Version 6.1.2 Seiten 2-4 ReadMe on Installing BRICKware for Windows, Version 6.1.2 Pages 5/6 BRICKware for Windows ReadMe 1 1 BRICKware for Windows, Version

Mehr

Motivation. Inhalt. URI-Schemata (1) URI-Schemata (2)

Motivation. Inhalt. URI-Schemata (1) URI-Schemata (2) 14. URIs Uniform Resource Identifier 14-1 14. URIs Uniform Resource Identifier 14-2 Motivation Das WWW ist ein Hypermedia System. Es enthält: Resourcen (Multimedia Dokumente) Verweise (Links) zwischen

Mehr

LOG AND SECURITY INTELLIGENCE PLATFORM

LOG AND SECURITY INTELLIGENCE PLATFORM TIBCO LOGLOGIC LOG AND SECURITY INTELLIGENCE PLATFORM Security Information Management Logmanagement Data-Analytics Matthias Maier Solution Architect Central Europe, Eastern Europe, BeNeLux MMaier@Tibco.com

Mehr

Galileo Desktop Benutzerhandbuch Version 1.02

Galileo Desktop Benutzerhandbuch Version 1.02 Galileo Desktop Benutzerhandbuch Version 1.02 Galileo Deutschland GmbH. All rights reserved. Dieses Dokument enthält Informationen, an denen Galileo International Rechte besitzt. Dieses Dokument darf nur

Mehr

WP2. Communication and Dissemination. Wirtschafts- und Wissenschaftsförderung im Freistaat Thüringen

WP2. Communication and Dissemination. Wirtschafts- und Wissenschaftsförderung im Freistaat Thüringen WP2 Communication and Dissemination Europa Programm Center Im Freistaat Thüringen In Trägerschaft des TIAW e. V. 1 GOALS for WP2: Knowledge information about CHAMPIONS and its content Direct communication

Mehr

Verbindung zu WRDS über SAS auf dem Terminalserver

Verbindung zu WRDS über SAS auf dem Terminalserver Verbindung zu WRDS über SAS auf dem Terminalserver Michael Surkau IVV 2 Universitätsstr. 14-16 D-48143 Münster Version 1.0 Datum: 2014-09-18 WRDS-Daten mit SAS auf dem Terminalserver bearbeiten Der Terminalserver

Mehr

Datenbanken für Online Untersuchungen

Datenbanken für Online Untersuchungen Datenbanken für Online Untersuchungen Im vorliegenden Text wird die Verwendung einer MySQL Datenbank für Online Untersuchungen beschrieben. Es wird davon ausgegangen, dass die Untersuchung aus mehreren

Mehr

Parameter-Updatesoftware PF-12 Plus

Parameter-Updatesoftware PF-12 Plus Parameter-Updatesoftware PF-12 Plus Mai / May 2015 Inhalt 1. Durchführung des Parameter-Updates... 2 2. Kontakt... 6 Content 1. Performance of the parameter-update... 4 2. Contact... 6 1. Durchführung

Mehr

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Schön, dass Sie da sind. 16. Juni 2008 E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Personalisierung (Online- Marketing) Anpassung des Angebotes/der Seite/der Elemente an den

Mehr

Softwareanforderungen für Microsoft Dynamics CRM Server 2015

Softwareanforderungen für Microsoft Dynamics CRM Server 2015 Softwareanforderungen für Microsoft Dynamics CRM Server 2015 https://technet.microsoft.com/de-de/library/hh699671.aspx Windows Server-Betriebssystem Microsoft Dynamics CRM Server 2015 kann nur auf Computern

Mehr

p^db=`oj===pìééçêíáåñçêã~íáçå=

p^db=`oj===pìééçêíáåñçêã~íáçå= p^db=`oj===pìééçêíáåñçêã~íáçå= Error: "Could not connect to the SQL Server Instance" or "Failed to open a connection to the database." When you attempt to launch ACT! by Sage or ACT by Sage Premium for

Mehr

TOGAF The Open Group Architecture Framework

TOGAF The Open Group Architecture Framework TOGAF The Open Group Architecture Ein Überblick Gesellschaft für Informatik, Regionalgruppe München Dr. Michael Bulenda München, 7.12.2009 Vorstellung Dr. M. Bulenda Seit 2001 bei Cirquent IT Management

Mehr

DIE GRUNDLAGEN DER FERNÜBERWACHUNG

DIE GRUNDLAGEN DER FERNÜBERWACHUNG DIE GRUNDLAGEN DER FERNÜBERWACHUNG Verbraucherleitfaden Version 1.0 Deutsch Einleitung Derzeit sind am Markt zahlreiche Videoüberwachungssysteme erhältlich, die einen digitalen Zugriff über Netzwerkverbindungen

Mehr

Algorithms for graph visualization

Algorithms for graph visualization Algorithms for graph visualization Project - Orthogonal Grid Layout with Small Area W INTER SEMESTER 2013/2014 Martin No llenburg KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum

Mehr

Konfiguration des Web Connectors

Konfiguration des Web Connectors Konfiguration des Web Connectors Installation und Konfiguration Version 2013 Spring Release Status: 09. März 2013 Copyright Mindbreeze Software GmbH, A-4020 Linz, 2013. Alle Rechte vorbehalten. Alle verwendeten

Mehr

Universität Dortmund Integrating Knowledge Discovery into Knowledge Management

Universität Dortmund Integrating Knowledge Discovery into Knowledge Management Integrating Knowledge Discovery into Knowledge Management Katharina Morik, Christian Hüppe, Klaus Unterstein Univ. Dortmund LS8 www-ai.cs.uni-dortmund.de Overview Integrating given data into a knowledge

Mehr

Group and Session Management for Collaborative Applications

Group and Session Management for Collaborative Applications Diss. ETH No. 12075 Group and Session Management for Collaborative Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZÜRICH for the degree of Doctor of Technical Seiences

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Gruppe für den Schutz von Personen bei der Verarbeitung personenbezogener Daten. Empfehlung 1/99

Gruppe für den Schutz von Personen bei der Verarbeitung personenbezogener Daten. Empfehlung 1/99 5093/98/DE/final WP 17 Gruppe für den Schutz von Personen bei der Verarbeitung personenbezogener Daten Empfehlung 1/99 über die unsichtbare und automatische Verarbeitung personenbezogener Daten im Internet

Mehr

Security Patterns. Benny Clauss. Sicherheit in der Softwareentwicklung WS 07/08

Security Patterns. Benny Clauss. Sicherheit in der Softwareentwicklung WS 07/08 Security Patterns Benny Clauss Sicherheit in der Softwareentwicklung WS 07/08 Gliederung Pattern Was ist das? Warum Security Pattern? Security Pattern Aufbau Security Pattern Alternative Beispiel Patternsysteme

Mehr

Backup and Recovery. Der Abschnitt beschreibt Vorgehensweisen zur Sicherung und Wiederherstellung der Daten mit Applikationsmitteln.

Backup and Recovery. Der Abschnitt beschreibt Vorgehensweisen zur Sicherung und Wiederherstellung der Daten mit Applikationsmitteln. by Jens Kupferschmidt 2015-03-05 Der Abschnitt beschreibt Vorgehensweisen zur Sicherung und Wiederherstellung der Daten mit Applikationsmitteln. Table of contents 1 Allgemeines... 2 2 Backup... 2 3 Recovery...

Mehr

Context-adaptation based on Ontologies and Spreading Activation

Context-adaptation based on Ontologies and Spreading Activation -1- Context-adaptation based on Ontologies and Spreading Activation ABIS 2007, Halle, 24.09.07 {hussein,westheide,ziegler}@interactivesystems.info -2- Context Adaptation in Spreadr Pubs near my location

Mehr

Skalierbare Webanwendungen mit Python und Google App Engine

Skalierbare Webanwendungen mit Python und Google App Engine Skalierbare Webanwendungen mit Python und Google App Engine Oliver Albers 03. Juli 2008 1/32 Einführung Worum geht es? Pro und Contra Technik Genereller Aufbau Anwendungskonfiguration Verarbeitung von

Mehr

Load balancing Router with / mit DMZ

Load balancing Router with / mit DMZ ALL7000 Load balancing Router with / mit DMZ Deutsch Seite 3 English Page 10 ALL7000 Quick Installation Guide / Express Setup ALL7000 Quick Installation Guide / Express Setup - 2 - Hardware Beschreibung

Mehr

Starten Sie das Shopinstallatonsprogramm und übertragen Sie alle Dateien

Starten Sie das Shopinstallatonsprogramm und übertragen Sie alle Dateien 3. Installation Ihres Shops im Internet / Kurzanleitung Kurzanleitung: Starten Sie das Shopinstallatonsprogramm und übertragen Sie alle Dateien Geben Sie während der Webbasierten Installationsroutine alle

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Praktikum Entwicklung von Mediensystemen mit ios

Praktikum Entwicklung von Mediensystemen mit ios Praktikum Entwicklung von Mediensystemen mit ios WS 2011 Prof. Dr. Michael Rohs michael.rohs@ifi.lmu.de MHCI Lab, LMU München Today Heuristische Evaluation vorstellen Aktuellen Stand Software Prototyp

Mehr

Contents. Interaction Flow / Process Flow. Structure Maps. Reference Zone. Wireframes / Mock-Up

Contents. Interaction Flow / Process Flow. Structure Maps. Reference Zone. Wireframes / Mock-Up Contents 5d 5e 5f 5g Interaction Flow / Process Flow Structure Maps Reference Zone Wireframes / Mock-Up 5d Interaction Flow (Frontend, sichtbar) / Process Flow (Backend, nicht sichtbar) Flow Chart: A Flowchart

Mehr

ISO 15504 Reference Model

ISO 15504 Reference Model Process flow Remarks Role Documents, data, tools input, output Start Define purpose and scope Define process overview Define process details Define roles no Define metrics Pre-review Review yes Release

Mehr

Mac OS X Consoliero Teil 14: Webmail Agent unter Mac OS X Server 10.2

Mac OS X Consoliero Teil 14: Webmail Agent unter Mac OS X Server 10.2 Mac OSX Consoliero Teil 14 Seite: 1/10 Mac OS X Consoliero Weiterführende Dokumentationen für Administratoren. Mac OS X Consoliero Teil 14: Webmail Agent unter Mac OS X Server 10.2 Christoph Müller, PTS

Mehr

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part II) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All

Mehr

Browser- gestützte Visualisierung komplexer Datensätze: Das ROAD System

Browser- gestützte Visualisierung komplexer Datensätze: Das ROAD System AG Computeranwendungen und QuanLtaLve Methoden in der Archäologie 5. Workshop Tübingen 14. 15. Februar 2014 Browser- gestützte Visualisierung komplexer Datensätze: Das ROAD System Volker Hochschild, Michael

Mehr

Benutzer- und Referenzhandbuch

Benutzer- und Referenzhandbuch Benutzer- und Referenzhandbuch MobileTogether Client User & Reference Manual All rights reserved. No parts of this work may be reproduced in any form or by any means - graphic, electronic, or mechanical,

Mehr

p^db=`oj===pìééçêíáåñçêã~íáçå=

p^db=`oj===pìééçêíáåñçêã~íáçå= p^db=`oj===pìééçêíáåñçêã~íáçå= How to Disable User Account Control (UAC) in Windows Vista You are attempting to install or uninstall ACT! when Windows does not allow you access to needed files or folders.

Mehr

2. Interaktive Web Seiten. action in Formularen. Formular. Superglobale Variablen $ POST, $ GET und $ REQUEST. GET und POST

2. Interaktive Web Seiten. action in Formularen. Formular. Superglobale Variablen $ POST, $ GET und $ REQUEST. GET und POST 2. Interaktive Web Seiten GET und POST Die Übertragungsmethoden GET und POST sind im http Protokoll definiert: POST: gibt an, dass sich weitere Daten im Körper der übertragenen Nachricht befinden: z.b.

Mehr

TwinSpace Leitfaden. Herzlich Willkommen im TwinSpace!

TwinSpace Leitfaden. Herzlich Willkommen im TwinSpace! TwinSpace Leitfaden Herzlich Willkommen im TwinSpace! Der TwinSpace ist ein Kommunikations- und Kooperationsforum für etwinning Partnerschaften. Alle Schulen haben von ihrem Arbeitsplatz aus Zugang zu

Mehr

Der Adapter Z250I / Z270I lässt sich auf folgenden Betriebssystemen installieren:

Der Adapter Z250I / Z270I lässt sich auf folgenden Betriebssystemen installieren: Installationshinweise Z250I / Z270I Adapter IR USB Installation hints Z250I / Z270I Adapter IR USB 06/07 (Laden Sie den Treiber vom WEB, entpacken Sie ihn in ein leeres Verzeichnis und geben Sie dieses

Mehr

If you have any issue logging in, please Contact us Haben Sie Probleme bei der Anmeldung, kontaktieren Sie uns bitte 1

If you have any issue logging in, please Contact us Haben Sie Probleme bei der Anmeldung, kontaktieren Sie uns bitte 1 Existing Members Log-in Anmeldung bestehender Mitglieder Enter Email address: E-Mail-Adresse eingeben: Submit Abschicken Enter password: Kennwort eingeben: Remember me on this computer Meine Daten auf

Mehr

Reverse Cloud. Michael Weisgerber. Channel Systems Engineer DACH September 2013

Reverse Cloud. Michael Weisgerber. Channel Systems Engineer DACH September 2013 Reverse Cloud Michael Weisgerber Channel Systems Engineer DACH September 2013 Öffentliche Wahrnehmung - heute Flame Duqu Stuxnet Page 2 2011 Palo Alto Networks. Proprietary and Confidential. Öffentliche

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Top Tipp. Ref. 08.05.23 DE. Verwenden externer Dateiinhalte in Disclaimern. (sowie: Verwenden von Images in RTF Disclaimern)

Top Tipp. Ref. 08.05.23 DE. Verwenden externer Dateiinhalte in Disclaimern. (sowie: Verwenden von Images in RTF Disclaimern) in Disclaimern (sowie: Verwenden von Images in RTF Disclaimern) Ref. 08.05.23 DE Exclaimer UK +44 (0) 845 050 2300 DE +49 2421 5919572 sales@exclaimer.de Das Problem Wir möchten in unseren Emails Werbung

Mehr

juergen.vogt@uni-ulm.de

juergen.vogt@uni-ulm.de Benutzerregistrierung für SciFinder on WWW Mitglieder, auch Studenten, der Universität Ulm können SciFinder Scholar für nicht-kommerzielle Zwecke nutzen. Allerdings ist der Zugang personalisiert. Damit

Mehr

Mitarbeiterbefragung

Mitarbeiterbefragung Arbeitspsychologie CoPAMed Arbeitspsychologie Mitarbeiterbefragung Zusatzmodul zur Verwaltung von arbeitspsychologischen Leistungen und zur Durchführung von anonymen Mitarbeiterbefragungen. CoPAMed Arbeitspsychologie

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon

Visualisierung der Eidolon Auswertung. VisEiA. Graphischer Client für das Emailspiel Eidolon Visualisierung der Eidolon Auswertung VisEiA Graphischer Client für das Emailspiel Eidolon Entstanden im Ramen einer Seminararbeit in Informatik Universität Fribourg, Schweiz david.buchmann@gmx.net http://getit.at/viseia/

Mehr

Proseminar: Website-Management-Systeme

Proseminar: Website-Management-Systeme Proseminar: Website-Management-Systeme Thema: Web: Apache/Roxen von Oliver Roeschke email: o_roesch@informatik.uni-kl.de Gliederung: 1.) kurze Einleitung 2.) Begriffsklärung 3.) Was ist ein Web? 4.) das

Mehr

Customer-specific software for autonomous driving and driver assistance (ADAS)

Customer-specific software for autonomous driving and driver assistance (ADAS) This press release is approved for publication. Press Release Chemnitz, February 6 th, 2014 Customer-specific software for autonomous driving and driver assistance (ADAS) With the new product line Baselabs

Mehr

Continuous Auditing eine gut gemeinte aber schlechte Idee kommt zurück

Continuous Auditing eine gut gemeinte aber schlechte Idee kommt zurück Continuous Auditing eine gut gemeinte aber schlechte Idee kommt zurück Michel Huissoud Lic.iur, CISA, CIA 5. November 2012 - ISACA/SVIR-Fachtagung - Zürich Überwachung Continuous Monitoring Continuous

Mehr

Technische Beschreibung: EPOD Server

Technische Beschreibung: EPOD Server EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für

Mehr

check_cisco_voice Dokumentation

check_cisco_voice Dokumentation check_cisco_voice Dokumentation Inhaltsverzeichnis 1. Vorbereitung...2 2. Verwendung...3 2.1 Usage / Parameter...3 2.2 Modi...5 2.2.1 Lern-Modus...5 2.2.2 Interface-Modus...6 2.2.3 Gesamtstatus...8 2.2.4

Mehr

SharePoint 2010 Mobile Access

SharePoint 2010 Mobile Access Erstellung 23.05.2013 SharePoint 2010 Mobile Access von TIMEWARP IT Consulting GmbH Stephan Nassberger Hofmühlgasse 17/1/5 A-1060 Wien Verantwortlich für das Dokument: - Stephan Nassberger (TIMEWARP) 1

Mehr

Erweiterung für Premium Auszeichnung

Erweiterung für Premium Auszeichnung Anforderungen Beliebige Inhalte sollen im System als Premium Inhalt gekennzeichnet werden können Premium Inhalte sollen weiterhin für unberechtigte Benutzer sichtbar sein, allerdings nur ein bestimmter

Mehr

MobiDM-App Handbuch für Windows Mobile

MobiDM-App Handbuch für Windows Mobile MobiDM-App Handbuch für Windows Mobile Dieses Handbuch beschreibt die Installation und Nutzung der MobiDM-App für Windows Mobile Version: x.x MobiDM-App Handbuch für Windows Mobile Seite 1 Inhalt 1. WILLKOMMEN

Mehr

Sicherheit im Internet - Datenschutz als Standortvorteil im E-Business -

Sicherheit im Internet - Datenschutz als Standortvorteil im E-Business - Sicherheit im Internet - Datenschutz als Standortvorteil im E-Business - Dipl.-Inform. Marit Köhntopp Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein Düsternbrooker Weg 82, 24105 Kiel Tel.:

Mehr

TCP/UDP. Transport Layer

TCP/UDP. Transport Layer TCP/UDP Transport Layer Lernziele 1. Wozu dient die Transportschicht? 2. Was passiert in der Transportschicht? 3. Was sind die wichtigsten Protkolle der Transportschicht? 4. Wofür wird TCP eingesetzt?

Mehr

Restschmutzanalyse Residual Dirt Analysis

Restschmutzanalyse Residual Dirt Analysis Q-App: Restschmutzanalyse Residual Dirt Analysis Differenzwägeapplikation, mit individueller Proben ID Differential weighing application with individual Sample ID Beschreibung Gravimetrische Bestimmung

Mehr

SAP FrontEnd HowTo Guide

SAP FrontEnd HowTo Guide SAP FrontEnd HowTo Guide zum Zugriff auf die SAP-Systeme des UCC Magdeburg über das Hochschulnetz der FH Brandenburg Version 1.4 bereitgestellt durch den TLSO des Fachbereichs Wirtschaft Dieser HowTo Guide

Mehr