Web Mining und Personalisierung in Echtzeit

Größe: px
Ab Seite anzeigen:

Download "Web Mining und Personalisierung in Echtzeit"

Transkript

1 Ludwig-Maximilians-Universität München Schriften zur Empirischen Forschung und Quantitativen Unternehmensplanung Heft 5 / 2001 Web Mining und Personalisierung in Echtzeit Dr. Matthias Meyer, Stefan Weingärtner, Thilo Jahke, Oliver Lieven Ludwig-Maximilians-Universität München Institut für Organisation Seminar für Empirische Forschung und Quantitative Unternehmensplanung Prof. Dr. Manfred Schwaiger Kaulbachstr. 45 / I D München Tel.: (089) Fax: (089)

2 Web Mining und Personalisierung in Echtzeit Dr. Matthias Meyer Ludwig-Maximilians-Universität München Seminar für Empirische Forschung und Quantitative Unternehmensplanung Kaulbachstraße 45 / I München Stefan Weingärtner DYMATRIX CONSULTING GROUP GmbH Postfach Stuttgart Thilo Jahke, Oliver Lieven provantis IT Solutions OHG Siemensstr Ditzingen {thilo.jahke Zusammenfassung Dieses Arbeitspapier behandelt Ansätze zur Personalisierung von Websites. Die in diesem Zusammenhang entscheidenden Web Mining-Analysen verwenden dabei in der Regel Daten, die aus Webserver-Logfiles gewonnen werden. Zur Vermeidung dieser aufwändigen und nicht unproblematischen Vorgehensweise stellen die Autoren einen alternativen Ansatz vor, der eine wesentlich schnellere Datenbereitstellung und -aufbereitung gestattet. Ein geschlossener Analysekreislauf stellt zudem die umgehende Umsetzung der gewonnenen Ergebnisse sicher.

3 Inhaltsübersicht 1 Einleitung Logfile-Analyse, Personalisierung und Web Mining Logfile-Analyse Personalisierung Web Mining und Collaborative Filtering DynaMine Zielgerichtete Vorgehensweise zur Personalisierung Zieldefinition Realtime Tracking Aufbau des Data Mart Web Controlling DynaMine-Personalisierungskreislauf Zusammenfassung und Ausblick Literaturhinweise... 17

4 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 1 1 Einleitung Die gegenwärtige und künftige Bedeutung des E-Commerce, im Sinne von Ansätzen zur Unterstützung von Markttransaktionen auf elektronischen Märkten, wird sicher niemand ernsthaft bestreiten können (siehe auch [BlFa99; ZePi99; Lamp98]). Eine entscheidende Rolle kommt in diesem Zusammenhang dem Internet zu, wobei aktuelle und geplante Forschungs- und Entwicklungsanstrengungen gerade im Bereich des B2C-Marketing zeigen, welche Nutzenpotenziale erwartet werden bzw. noch zu erschließen sind. Die Vielfalt der Informations- und Nutzungsangebote im Internet macht deutlich, dass Websites grundsätzlich Nutzer mit unterschiedlichsten Interessen und Hintergründen ansprechen (sollen). Die Vielfalt kommerzieller Websites zeigt sich insbesondere an der enormen Menge an Produkten, Dienstleistungen und Informationen, die dort angeboten wird. Fraglich ist allerdings, durch wen diese Angebote in welcher Weise und mit welchem Ergebnis genutzt werden. Die Herausforderung besteht daher darin, entweder mit seinem Angebot die richtigen Nutzer gezielt zu erreichen oder den Nutzern die richtigen Angebote gezielt zu unterbreiten. In beiden Fällen ist damit zu klären, wer mit dem Webauftritt erreicht wird und wie dieser genutzt wird. Im Gegensatz zum klassischen Handel bieten Websites dabei die Möglichkeit, die Nutzung des Angebots genauer zu analysieren und unter Umständen nutzerspezifisch auszugestalten. Wesentliche Grundlage für die Untersuchung der Nutzung von Websites stellen in der Regel Webserver-Logfiles dar, in denen eine Vielzahl relevanter Informationen protokolliert wird (siehe dazu im Einzelnen Abschnitt 2.1.1). Je nach Komplexität der Website und Zugriffshäufigkeit können sich dabei pro Tag Logfiles mit einer Größe von mehreren Gigabyte ergeben. Mittlerweile gibt es zahlreiche Tools zur Auswertung von Logfiles, wie z.b. FastStats Analyzer, WebTrends, WebSuxess und LogAnalyzer. Diese Tools sollen Antworten auf folgende Fragestellungen liefern (Auswahl): Wer besucht die Website (Herkunft: Land, Provider, Unternehmen etc.)? Wann wird die Website am häufigsten besucht? Wie oft wird auf welche Seite zugegriffen? Welche Seiten werden von welchen Besuchern (Kunden, Konkurrenten) abgerufen? Welche Browser (Typ und Version) verwenden die Besucher der Website?

5 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 2 Es handelt sich somit vorwiegend um rein deskriptive Analysen zur Nutzung der Website unabhängig vom Verhalten einzelner Besucher. Will man dagegen nutzerspezifische Aussagen gewinnen, ist man auf tiefergehende Analysen angewiesen, die üblicherweise unter dem Begriff Web Mining zusammengefasst werden. Allgemein unterscheidet man drei Ausprägungen des Web Mining [KoBl00]: Web Content Mining umfasst die Suche bzw. Entdeckung nützlicher Informationen zu Inhalten, Daten und Dokumenten im Web, wobei Informationen aus verschiedenen Datenquellen (http, FTP, Gopher etc.) und mit unterschiedlichsten Formaten (Text, Audio, Video, PDF, PS, Hyperlinks, Metadaten) in Frage kommen können. Web Structure Mining bezeichnet Ansätze zur Untersuchung von Linkstrukturen im Internet und basiert auf der Topologie von Hyperlinks. Ergebnisse dienen der Kategorisierung von Web-Seiten und liefern u.a. Angaben zur Ähnlichkeit von Websites [KoBl00]. Web Usage Mining beschäftigt sich mit der Untersuchung der Daten, die während der Benutzung einer Website innerhalb einer Session oder über mehrere Sessions aufgezeichnet werden. While the Web content and structure mining utilize the real or primary data on the Web, Web usage mining mines the secondary data derived from the interactions of the users while interacting with the Web. The Web usage data includes the data from Web server access logs, proxy server logs, browser logs, user profiles, registration data, user sessions or transactions, cookies, user queries, bookmark data, mouse clicks and scrolls, and any other data as results of interactions. [KoBl00] Die weiteren Ausführungen in 2.3 konzentrieren sich auf das Web Usage Mining, wobei die Begriffe Web Usage Mining und Web Mining synonym verwendet werden. Abbildung 1: Web Usage Mining-Prozess [SrCo00]

6 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 3 Zentrale Bedeutung für die Analyse von Nutzungsdaten im Web hat eine geeignete Bereitstellung und Aufbereitung entsprechender Daten (Abbildung 1). Wie die weiteren Ausführungen zeigen werden, konzentrieren sich dabei die meisten Publikationen auf die Analyse von Logfiles (z.b. [SrCo00; SrCo00; ZaXi98]), deren geeignete Aufbereitung erheblichen Aufwand verursachen kann. Gegenstand dieses Beitrags ist nun ein neuer Ansatz und ein entsprechendes Produkt, bei dem anstelle der Analyse von bereits generierten Web Server Logs in den Entstehungsprozess von Nutzungsdaten eingegriffen wird. Somit stehen qualitativ höherwertigere Logs für den Web Mining Prozess zur Verfügung. Dieser Ansatz ermöglicht die Generierung von Regelwerken aus protokollierten Benutzeraktivitäten, aus denen sich die Präferenzen unterschiedlicher Besuchergruppen ableiten lassen. Die Regelwerke dienen als Basis für die zielgruppenorientierte Kundenansprache und ermöglichen somit die Personalisierung (siehe 2.2) des Webauftrittes im Sinne eines effizienten One-to-One-Marketing. Im Einzelnen lassen sich folgende Nutzungsmöglichkeiten unterscheiden: Unterstützung bei der Konzeption und Umsetzung des Web-Auftritts bzw. der Optimierung des Contentmanagements. Anwendung zum Marketing-Controlling. Generierung aussagekräftiger Besucherprofile und Extraktion typischer Klickpfade auf der Webseite (Click Stream Behaviour). Ableitung von Geschäftsregeln als Voraussetzung für die Personalisierung der Webseiten. 2 Logfile-Analyse, Personalisierung und Web Mining 2.1 Logfile-Analyse Grundlagen und Ziele Die Nutzung einer Website wird in der Regel durch den Webserver protokolliert, indem sämtliche Zugriffsinformationen in einem Logfile gespeichert werden. Die Einträge des Logfiles bestehen dabei aus (i) der IP-Adresse des Nutzers, (ii) der Zugriffszeit, (iii) HTML-Befehlen ( GET, POST etc.), (iv) der URL der aufgerufenen Seite, (v) der referrer-url, (vi) dem Protokoll (normalerweise http), (vii) Statuscode Feld, (viii) der Anzahl übertragener Bytes und (ix) unter Umständen einer UserID [JoJo00; ZaXi98]. Zur Untersuchung des Nutzerverhaltens sind nicht alle Informationen relevant. Beispielsweise wird beim Aufruf einer Seite für jede darin eingebettete Grafik ein Logfile-Eintrag erzeugt. Da derartige Logfile-Einträge nicht das eigentliche Nutzerverhalten wiedergeben, werden sie in einem Preprocessing-Schritt herausgefiltert. Analog werden Error Codes entfernt.

7 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 4 Voraussetzung für die Untersuchung des Nutzerverhaltens ist allerdings die eindeutige Identifizierung von Benutzern bzw. von Sessions, worauf im folgenden Abschnitt eingegangen wird (siehe dazu auch [SrCo00; CoMo00]) Mechanismen zur Benutzer- bzw. Session-Identifikation Typischerweise steht in Logfiles des Web Servers zur Benutzeridentifikation nur die IP- Adresse zur Verfügung. Da heute jedoch jedes Unternehmen über Firewalls an das Internet angebunden ist, werden normalerweise die internen IP-Adressen verborgen. Es ist im Allgemeinen daher nicht möglich, anhand der IP-Adresse auf einzelne Benutzer zurückzuschließen. Um aber das Verhalten von sämtlichen Benutzern analysieren zu können, ist es unbedingt erforderlich, die Aktionen eines Benutzers während einer Session zusammen betrachten zu können. Eine Session ist ein zusammenhängender Besuch eines Benutzers auf einer Website vergleichbar mit einem Besuch eines (potenziellen) Käufers in einem Laden. Durch den Sessionbezug lassen sich Click-Streams ermitteln, die Verweildauer auf der Site bestimmen, typische Benutzergruppen ermitteln usw. Ziel der nachfolgend beschriebenen Ansätze Cookies, URL Rewriting, Java Applets, Session Tracking auf Application Server Ebene und Reverse Proxy Web Server ist daher die Vergabe eindeutiger Session ID s, die letztlich eine Reihe von Zugriffen in einer Session zusammenhalten. Cookies Der Web Server oder ein zusätzlich vorgeschalteter Server können im Browser des Benutzers ein Cookie setzten. Dieses Cookie wird dann bei jedem Request des Benutzers mitübertragen und erlaubt so das Tracking einer Session ID. Dabei können zwei Varianten unterschieden werden: Transiente Cookies werden vom Browser nicht abgespeichert und gelten daher nur, solange der Browser geöffnet ist, d.h. innerhalb einer Session. Persistente Cookies werden auf dem Rechner des Benutzers abgespeichert. Dadurch kann ein Benutzer bei jedem neuen Besuch wiedererkannt werden, d.h. auch sessionübergreifend. URL Rewriting Voraussetzung für die Verwendung von Cookies ist die Akzeptanz durch den Benutzer. Oftmals werden Cookies grundsätzlich nicht oder nur in bestimmten Fällen akzeptiert. Anstelle von Cookies kann die notwendige Session ID auch als zusätzlicher Parameter bei jeder aufgerufenen URL angehängt werden. Auch dadurch wird erreicht, dass sich bei jedem Request die Session ID mitprotokollieren lässt.

8 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 5 Java Applets Eine eindeutige Benutzeridentifikation wird ebenfalls mit Hilfe spezieller Java Applets ermöglicht. Diese können neben einer ID weitere nutzerspezifische Informationen übermitteln. Voraussetzung ist ähnlich wie bei Cookies die explizite Kooperationsbereitschaft und Einwilligung des Benutzers, da die Funktionalität dieser Java Applets weit über die der Cookies hinausgeht (siehe dazu auch [CoMo00; SrCo00]). Ein Vorteil der Verwendung von Java Applets ist unter anderem, dass sie Aktionen weiterer Java Applets aufzeichnen können, die im Logfile des Web Servers nicht protokolliert werden können, da man dort höchstens noch den Aufruf dieser Applets sehen kann. Hier ist ein applikatorisches Tracking erforderlich, was eine entsprechende Erweiterung der Applets voraussetzt. Zudem entsteht das Problem, dass die applikatorischen Log- Informationen des Applets und Log-Informationen des Web Servers wieder zusammengeführt werden müssen. Session Tracking auf Application Server Ebene Hinter großen Websites, Portalen oder Shop-Lösungen verbergen sich meist komplexe Anwendungen, die oft unter Einsatz von Application Servern realisiert werden. Hier wird die komplexe Logik z.b. in Java-Programmen abgebildet. Um das Verhalten eines Benutzers in einer solchen Anwendung protokollieren zu können, ist es erforderlich, an relevanten Punkten der Anwendung entsprechende Aufrufe des Tracking Servers zu integrieren. Dabei handelt es sich um sogenannte Business Events, also Ereignisse, die entscheidend für den Ablauf der Anwendung sind. Hier hat man dann auch die Möglichkeit, sowohl Session IDs als auch Benutzernamen zu tracken. Reverse Proxy Web Server Reverse Proxy Server werden in Unternehmen gerne eingesetzt, um verschiedene interne Web Server vor dem Internet zu verbergen und so problemlos eine Lastverteilung zu erreichen. Für den Client stellt sich die Website des Unternehmens wie ein einziger Web Server dar, er erkennt dadurch nicht, dass sich einzelne Teile der Site oder verschiedene Anwendungen tatsächlich auf unterschiedlichen Servern befinden. In Hinblick auf Session IDs und Tracking sind zwei Punkte zu beachten: Der Reverse Proxy Server kann eingesetzt werden, um Log Files zu erzeugen, die an einer Stelle entstehen und alle Seiten beinhalten, da alle Requests beim Reverse Proxy durchgereicht werden. Somit lassen sich an alle Requests Session IDs anhängen. Die Web Server, die sich hinter dem Reverse Proxy verbergen, können in der Regel nicht mehr den Absender des Original Requests ermitteln, da für sie alle Anfragen vom Reverse Proxy kommen. Dadurch werden die Log-Möglichkeiten hier eingeschränkt.

9 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 6 WWW WWW Session Log Zusätzlich Session ID über Cookie oder URL-Parameter Bezug zu einem Benutzer Click Stream Analyse möglich SessionMaker Web Server Application Tracker Server Log Zusätzlich Business Events Bezug zu Session und Benutzer Direkt als Eingabe für Data Mining nutzbar Application Log Nur IPAdresse, URL, Timestamp, Request Parameter Kein Bezug zu einem Benutzer Problematisch bei dynamischen Websites Umfangreiche Datenbereinigung notwendig Abbildung 2: Tracking-Varianten im Überblick Grenzen der Logfile-Analyse Unabhängig von der Problematik einer eindeutigen Benutzeridentifikation während einer Session sind Caching und dynamische Webseiten unter Umständen Ursache für unvollständige Informationen über das Benutzerverhalten (siehe auch [SrCo00; CoMo00]). Caching Für eine vollständige Log-Auswertung stellen die im Internet weit verbreiteten Proxy- Cache-Server ein Problem dar [BeWe99]. Diese cachen eine Menge von Seiten, so dass die Requests bereits aus dem Cache bedient werden können. Damit hat aber der Betreiber der Site nicht mehr die Möglichkeit, die Requests zu tracken, d.h. sie werden im Logfile nicht aufgezeichnet. Um jetzt wieder alle Requests tracken zu können, ist es erforderlich, die wesentlichen oder sogar alle Seiten entweder im http-header als NO-CACHE zu spezifizieren oder künstlich um einen eindeutigen Zähler als Parameter zu ergänzen, damit sichergestellt ist, dass die Seite nicht zwischengespeichert wird. Dadurch erhöht sich allerdings die Server- und Netzauslastung und damit die Wartezeit für den Benutzer unter Umständen erheblich. Dynamische Webseiten Heute entstehen immer mehr Websites, die fast ausschließlich aus dynamisch erzeugten Webseiten bestehen. Dies ist insbesondere bei Portalen zu beobachten, bei denen sich ein Benutzer sowohl Inhalt als auch Layout selbst konfigurieren kann. Das Logfile des Web Servers enthält hier oft nur noch eine einzige URL und nur sehr wenige Request-Parameter, aus denen nicht auf den aktuell vom Benutzer betrachteten Inhalt geschlossen werden kann, da dieser eben dynamisch ermittelt wird.

10 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 7 Die Lösung ist auch hier, zusätzlich zum Web Server Log einen applikatorischen Log einzuführen, wiederum verbunden mit der Problematik, den applikatorischen Log und den Log des Web Servers zusammenzuführen und dabei den Bezug zu einer Session nicht zu verlieren. 2.2 Personalisierung Die Untersuchung des Such- und Entscheidungsverhaltens von (potenziellen) Kunden ist seit jeher zentraler Forschungsgegenstand im Bereich Handel und Marketing. Stets geht es um eine optimale Kundenansprache, sei es mit der Laden- oder Regalgestaltung im stationären Handel oder mit Werbeanzeigen und -spots in verschiedenen Medien. Betrachtet man das Medium Internet als weiteren Vertriebskanal, eröffnen sich vergleichbare und auch neue Möglichkeiten zur personalisierten Benutzeransprache [Röde99; Ze- Pi99]. Unter Personalisierung versteht man dabei das Anzeigen von Inhalten abgestimmt auf den jeweiligen Benutzer, basierend auf über den Benutzer gespeicherten Informationen. Solche Informationen können dabei z.b. eine Kaufhistorie, Benutzerverhalten auf der Website oder sonstige personenbezogene Daten sein. Personalisierung durch den Benutzer Bestimmte Websites bieten Benutzern die Möglichkeit, sich die Gestaltung und/oder das gewünschte Informationsangebot der Seiten selbst zu definieren und damit an ihre Bedürfnisse anzupassen. Beispiele sind Websites von Direct Brokern, wie z.b. Comdirect, bei denen sich der Benutzer ein Musterdepot einrichten und Informationsangebote zum Marktgeschehen auswählen kann. Diese Form der Personalisierung wird gelegentlich auch als explizite Profilerstellung oder Individualisierung bezeichnet [IBM00]. Sessionbezogene Personalisierung durch den Anbieter Während einer Session lässt sich das (Informations-)Angebot an das Suchverhalten des Benutzers anpassen. Beispielsweise nennt der Online-Buchhändler Amazon nach Abschluss einer Suche nach einem Buchtitel weitere Titel, die andere Käufer des gesuchten Buchtitels ebenfalls gekauft haben [ZePi99]. Regeln, die zur Anzeige derartiger, auf die aktuelle Suche bezogenen Informationen führen, werden üblicherweise offline auf der Basis von Logfiles und Warenkörben generiert. In Anlehnung an [IBM00] soll dies als implizite Profilerstellung während einer Session bezeichnet werden. Sessionübergreifende Personalisierung durch den Anbieter Eine weitere Möglichkeit der Personalisierung des Angebots einer Website ergibt sich, sofern sich der Benutzer per Login und Passwort identifizieren kann und/oder muss. Dies ist beispielsweise beim Internetbanking der Fall. Hier bietet sich die Möglichkeit, neben den angeforderten Informationen, z.b. Kontostand, weitere auf den Kunden zugeschnittene Informationen, z.b. Angebote für Geldanlagen, zu integrieren. Dies setzt unter Umständen die Berücksichtigung weiterer über den Kunden gespeicherter Informationen, d.h. die Integration der aktuellen Session-Daten mit kundenspezifischen Informationen aus einem bestehenden Data Warehouse voraus, um daraus Regeln zur personifizierten Kundenan-

11 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 8 sprache abzuleiten. Diese Form der Personaliserung wird in Anlehnung an [IBM00] als implizite Profilerstellung unter Verwendung älterer Daten bezeichnet. Zu beachten ist, dass bei sämtlichen Aktivitäten der Personalisierung datenschutzrechtlichen Aspekten eine entscheidende Rolle zukommt. In Anbetracht der technischen Möglichkeiten liegt natürlich die Befürchtung nahe, dass personenbezogene Daten, die dem besonderen Schutz des Bundesdatenschutzgesetzes (BDSG) unterliegen, missbraucht werden könnten (dieser Schutz betrifft in erster Linie personenbezogene Daten, die Rückschlüsse auf persönliche oder sachliche Verhältnisse einer Person zulassen) [BeWe99; Lamp98]. Ein wesentlicher Punkt bei Personalisierungsaktivitäten ist, dass personenbezogene Daten und Nutzungsmuster gemäß dem Teledienstedatenschutzgesetz (TDDSG) nicht zusammen gespeichert werden und damit die Anonymisierung gespeicherter Daten gewährleistet ist. Allgemein und unabhängig davon gibt es zudem Bestrebungen zum Schutz vor Missbrauch von Kundendaten, die Anbieter und/oder Nutzer von Websites selbst beeinflussen können. Konsumenten können dabei ihr eigenes Profil zusammenstellen und dabei kontrollieren, an wen sie diese Daten weitergeben, Anbieter können ihre Website-Praktiken zertifizieren lassen und z.b. durch TrustMarks kennzeichnen lassen. 2.3 Web Mining und Collaborative Filtering Um den Webauftritt personalisieren zu können, sind die Bedürfnisse der jeweiligen Besucher zu antizipieren. Dabei sind mögliche Navigationsmuster, Informationsrecherchen aber auch Kaufabsichten von Online-Besuchern zu prognostizieren. Da jede Navigation und jede Transaktion ein Business Event darstellt und über applikatorische Logs (Session Tracking auf Application Server Ebene) in strukturierter Form in Datenbanken vorgehalten wird, werden diese gesammelten Informationen dazu benutzt, dem Online-Besucher mit gezielten Personalisierungsaktivitäten in Form von individualisierten Produktangeboten, adaptiven Anpassungen der Website oder zielgruppengerechten Werbebannern zu begegnen. Da es praktisch unmöglich ist, derartige Empfehlungen 'fest zu verdrahten', werden adaptive Data Mining Techniken angewandt, wie z.b. neuronale Netzwerke, Entscheidungsbaum-Algorithmen oder multivariate statistische Methoden, um aus der üblicherweise sehr großen Datenmenge typische Navigationsmuster und Besucherprofile zu extrahieren und anzupassen. Die Besucherprofile werden durch Regelwerke beschrieben und ermöglichen für jedes Besucherprofil zielgruppenspezifische Aktivitäten in Echtzeit (z.b. Anzeigen eines bestimmten Werbebanners) Web Mining Unter Web Mining versteht man die Anwendung von Data Mining-Algorithmen auf applikatorische Logs (siehe auch Abschnitt 1 und [BeLi00; HiKü01] zu den Grundlagen des Data Mining), welche die Aktivitäten und Transaktionen von Online-Besuchern protokollieren. Diese Logs werden in einem Web Data Mart strukturiert abgespeichert und in Abhängigkeit vom gewählten Data Mining-Algorithmus in geeigneter Form bereitgestellt. Je nach Fragestellung und Analyseschwerpunkt können beispielsweise die nachfolgend erläu-

12 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 9 terten Algorithmen für Web Mining-Analysen eingesetzt werden [Wein01; SrCo00; Be- We99]: Sequenzanalyse zur Untersuchung des Click Stream Behaviours Durch den Einsatz von Sequenzanalyse-Algorithmen lassen sich typische Navigationsmuster aus protokollierten Log-Daten extrahieren. Somit lassen sich präferierte Klickpfade zur optimalen Positionierung von Werbebannern evaluieren. Weitere Anwendungsgebiete von Sequenzanalysen finden sich in der Optimierung der Ergonomie von Webauftritten [Wein01]. Clustering zur Ableitung von Besucherprofilen Kombiniert mit einer geeigneten Aufbereitung der applikatorischen Logs lassen sich mit Hilfe von Clusteranalysen spezifische Besucherprofile extrahieren. Die unterschiedlichen Profile sind die Basis für die Personalisierung des Online-Auftrittes. Die Profile oder Cluster werden durch Regelwerke beschrieben, welche auf dem Application Server hinterlegt werden. Sobald ein Online-Besucher als Mitglied eines Profils erkannt wird, bekommt er den für dieses Profil zielgruppenspezifischen Content zugewiesen. Entscheidungsbaum-Algorithmen Zur Aufdeckung komplexer Zusammenhänge auf einer Website bieten sich Entscheidungsbaum-Algorithmen an. Mit Hilfe von Entscheidungsbäumen lassen sich mächtige Klassifikations- und Prognosemodelle erstellen, welche eine Menge von Datensätzen in einer baumähnlichen Struktur darstellen und in Form von IF-THEN-Statements beschreiben. In einem Kundenprojekt bei einem führenden Online-Software-Retailer konnten dadurch Aussagen auf Kaufwahrscheinlichkeiten in Abhängigkeit von verschiedenen Parametern, wie Klickpfad, Sessionlänge, Verweildauer und Art der Referrer getroffen werden [Wein01] Collaborative Filtering Collaborative Filtering bzw. Recommender-Systeme gehören ebenfalls zu den adaptiven Techniken, die Online-Besuchern in Form von personalisierten Inhalten bei der Informationsbeschaffung oder bei einem Kaufvorgang helfen sollen. Basierend auf dem Verhalten von vorherigen Besuchern macht das System Vorschläge, die mit hoher Wahrscheinlichkeit den Präferenzen des Besuchers genügen sollen [IBM00; ZePi99]. Collaborative Filtering benötigt eine Startperiode, bis genügend Daten vorhanden sind, um die Präferenzen eines individuellen Besuchers bestimmen zu können. In vielen Fällen kann das Clustering von Besuchern zu Besucherprofilen helfen, diese Startphase zu verkürzen: Sobald ein Besucher als einer Gruppe zugehörig erkannt wird, können bei ihm als anfängliche Präferenzen die der Gruppe verwendet werden. Gelegentlich unterscheidet man vom Collaborative Filtering das Rule-based Filtering, bei dem basierend auf über gezielte Fragen erhobenen Präferenzen Produkte vorgeschlagen werden.

13 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 10 3 DynaMine Zielgerichtete Vorgehensweise zur Personalisierung Der intensive Wettbewerb und die hohe Dynamik im Zeitalter der New Economy stellt neue Anforderungen an IT-Systeme, Organisationsstrukturen und die zugrundeliegenden Prozesse. Da kürzere Reaktionszeiten oft über den Wettbewerbsvorsprung eines Unternehmens entscheiden, ist die Einbeziehung aktueller und qualitativ hochwertiger Informationen zur Entscheidungsunterstützung unabdingbar. Die Bereitstellung dieser erfolgskritischen Informationen und somit die Reaktionsfähigkeit eines Unternehmens werden jedoch in der Regel durch unzureichend integrierte Insellösungen behindert. Die Mehrheit aller Unternehmen nutzt zur Effektivitätsmessung der Online-Präsenz Analysewerkzeuge, die den Anforderungen für fundierte Entscheidungsgrundlagen zur Planung, Steuerung und Erfolgskontrolle im E-Commerce nicht mehr genügen. Als Datenbasis dieser Werkzeuge dienen in der Regel die Logfiles der eingesetzten Web-Server, die Analysen beschränken sich oft auf deskriptive Statistiken, wie z.b. Anzahl der Hits oder Anzahl der Page- Impressions. Aufgrund der eingeschränkten Analysemöglichkeiten bleiben wichtige Zusammenhänge, wie beispielsweise das Navigationsverhalten der Online-Besucher, unentdeckt. Zudem lassen sich Logfiles aufgrund ihrer Datenqualität nur unzureichend in eine Data Warehouse-Architektur einbinden. DynaMine ist ein implementiertes Vorgehensmodell, das mit Hilfe applikatorischer Logs eine Datenbasis generiert, um das Verhalten der Online-Besucher und der Online- Transaktionen zu protokollieren. Die Datenqualität der applikatorischen Logs und die Echtzeit-Bereitstellung der Logs in einem Datenbank-Managementsystem gewährleisten eine Basis für aussagekräftige Reports und qualitativ hochwertige Web Mining-Analysen. Somit steht ein Framework bereit, um Website-Personalisierung mit Unterstützung von intelligenten Data Mining-Algorithmen umzusetzen. Die folgende Abbildung skizziert die einzelnen Komponenten der DynaMine-Architektur. WWW WWW Web Server Log Data Warehouse DynaTracker Web Data Mart Application Business Events DynaExecutor DynaBase XML Data Mining System Business Data XML DynaGenerator Regeln (Java, XML) Realtime Loop Abbildung 3: Die DynaMine-Architektur Analytical Loop

14 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit Zieldefinition Ein wesentlicher Erfolgsfaktor bei der Personaliserung von Websites ist eine zielorientierte Vorgehensweise. Zu Beginn jeglicher Personalisierungs-Aktivitäten ist festzulegen, was mit Hilfe der Personalisierung erreicht werden soll. Dabei ist es erfahrungsgemäß sinnvoll, nicht den gesamten Webauftritt personalisieren zu wollen, sondern mit dem Ausschnitt der Website zu beginnen, der für die Zielerreicherung die wesentliche Rolle einnimmt. Der Vorteil dieser modularen Vorgehensweise liegt darin, dass die Umsetzung der Personalisierung in relativ kurzer Zeit möglich ist. Die Ergebnisse und Erfahrungen können dann beim weiteren Ausbau der Personalisierungs-Aktivitäten eingebracht werden. Hat man den zu personalisierenden Ausschnitt des Webauftrittes bestimmt, ist im Folgeschritt zu definieren, welches Verhalten der Onlinebesucher letztendlich personalisierte Aktivitäten auslösen soll. Die Definition von Business Events und deren Detaillierungsniveau bestimmt letztendlich, aufgrund welchen Besucherverhaltens eine Aktivität in Form eines Werbebanners oder individuellen Produktangebotes auf der Website erscheint. Dazu sind die einzelnen Business Events während einer Session mit Hilfe eines intelligenten Trackingmechanismus zu protokollieren. Business Events stellen fachlich relevante Ereignisse dar, z.b. die Aufnahme einer Aktie in ein Musterdepot oder ein Kaufauftrag einer Aktie. Die DynaMine-Vorgehensweise ermöglicht es, mit definierten Schritten zu einem geschlossenen Personalisierungs-Kreislauf zu gelangen, angefangen beim User-Tracking über die Datenaggregation und das Web Mining, bis hin zur Regelerstellung und -anwendung und schließlich zur Personalisierung der Website. 3.2 Realtime Tracking Aufbau des Web Data Mart Mit der Definition der Ziele und der Spezifikation der Business Events ist genau festgelegt, welche Informationen einer Web-Anwendung benötigt werden und somit mit Hilfe des DynaTrackers zu protokollieren sind. Die dabei entstehenden applikatorischen Logs stehen im Web Data Mart zur Verfügung, wo die Daten aggregiert und historisiert werden. Der Web Data Mart ist die Datenbasis für Web Mining-Analysen und zudem die Basis für ein umfassendes Web Controlling Tracking Sind genau spezifizierte Ereignisse innerhalb der Anwendung als Business Events definiert worden, müssen diese aus der Anwendung heraus an den DynaTracker weitergegeben werden. Zu beachten ist an dieser Stelle, dass die Performance der Website durch die Ergänzung von Tracking möglichst nicht beeinflusst werden darf. Daher muss bereits hier eine Client/Server Lösung realisiert werden, die mit möglichst wenig Overhead für den Client alle benötigten Daten zum Tracking-Server übermittelt. Daher kommen hier Protokolle wie Datagramme (UDP), Sockets (TCP) oder Messaging Systeme wie IBM MQSeries zum Einsatz. Der DynaTracker hat die Aufgabe, die aus verschiedenen Systemen gelieferten Daten, wie z.b. Web Anwendungen und Web Server Logs, zusammenzuführen und in passende Da-

15 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 12 tenbanktabellen zu verteilen. Dabei können bereits erste Filterungen, Datenkonvertierungen und eine Aufteilung in verschiedene Ziel-Datenbanken vorgenommen werden. Entscheidend dabei ist, dass Daten unterschiedlicher Quellen, die von einer Session stammen, auch mit der dazugehörigen eindeutigen Session ID versehen sind und dadurch in einen Zusammenhang gebracht werden können. So ist gewährleistet, dass Web Server Logs von statischen Seiten, Logs des Application Servers und Logs von in den Seiten integrierten Java-Applets zusammengeführt und in Echtzeit in den Web Data Mart geschrieben werden. WWW WWW Web Server DynaTracker Client Log Application Protokolle UDP, TCP, MQ DynaTracker Client DynaTracker Server Web Data Mart Business Data Business Events Abbildung 4: Performance-optimiertes Tracking mit dem DynaTracker Web Data Mart Die Datenmodellierung des Web Data Marts erfolgt nach dem Star-Schema, um der Notwendigkeit zur Abbildung multidimensionaler Datenstrukturen Rechnung zu tragen. Der Begriff Star-Schema leitet sich aus der sternförmigen Anordnung der Dimensionstabellen um eine zentrale Fakttabelle ab. In der zentralen Fakttabelle befinden sich die relevanten Kennzahlen (z.b. Anzahl der Klicks pro Session, Dauer einer Session, Anzahl der Transaktionen pro Session), in den Dimensionstabellen sind die kennzahlenbeschreibenden Attribute abgespeichert. Eine derartige Datenmodellierung erleichtert einerseits die Präsentation und das Verständnis der Datenstrukturen im Web Data Mart, andererseits werden durch die denormalisierte Datenhaltung Performancevorteile bei der Datenabfrage erreicht. Durch eine anpassbare Konformität der Dimensionstabellen an eine bereits bestehende unternehmensweite Data Warehouse Architektur kann die Integrität des Web Data Marts garantiert werden.

16 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 13 Calendar Date Dimension Time of Day Dimension Customer Dimension Session Dimension Clickstream Sessions Fact Table Page Dimension Referrer Dimension Causal Dimension Abbildung 5: Vereinfachtes Datenmodell eines Web Data Marts [KiMe00] Web Data Mart als Basis für OLAP Mit Hilfe von OLAP-Werkzeugen können die im Web Data Mart abgespeicherten Kennzahlen aus verschiedenen Sichten (Dimensionen) und Aggregationsstufen analysiert werden. Per Mausklick haben Endanwender die Möglichkeit intuitiv und interaktiv durch die Daten zu navigieren. Da Web Data Marts ihren Zusatznutzen gegenüber herkömmlichen Logfile-Analyse-Lösungen vor allem dann generieren, wenn der Web Data Mart in die unternehmensweite Data Warehouse-Architektur eingebettet wird, stehen den Endanwendern für ihre OLAP-Analysen bereits vertraute Lösungen zu Verfügung. Web Data Mart als Basis für Web Mining Da in Abhängigkeit vom eingesetzten Data Mining-Algorithmus unterschiedliche Anforderungen an die Struktur der Ausgangsdatenbasis gestellt werden, stellt der Web Data Mart die passenden Konfigurationsmöglichkeiten bereit. Mit Hilfe von Web Mining lassen sich Zusammenhänge ermitteln, die über die Analysefunktionalitäten von OLAP hinausgehen (siehe dazu im Einzelnen Abschnitt 2.3.1). 3.3 Web Controlling Der Web Data Mart in Verbindung mit den aufsetzenden OLAP-Technologien und Web Mining-Analysen bereitet das Framework für ein ganzheitliches Web Controlling sämtlicher Online-Aktivitäten. Mit Hilfe von DynaMine ist es möglich, sämtliche erfolgskritischen Daten der Wertschöpfungskette in die Analyseprozesse einzubeziehen und miteinander zu verknüpfen. Da die Qualität der Reports und Prognosen immer nur so gut sein kann wie die zugrundeliegende Datenbasis, bietet DynaMine gegenüber klassischen logfilebasierten isolierten Lösungen aufgrund qualitativ hochwertigerer Daten, der Integrationsmöglichkeit in Data Warehouse-Architekturen und der Datenbereitstellung in Echtzeit erhebliche Vorteile.

17 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit Zero Latency Web Controlling Die DynaMine-Architektur ermöglicht durch den Zero Latency Access auf erfolgskritische Informationen die Überwachung der E-Commerce-Aktivitäten in Echtzeit. Reporting- Lösungen greifen direkt auf die Echtzeit-Komponente im Web Data Mart zu und ermöglichen dadurch die Steuerung der Online-Aktivitäten. Beispielsweise kann der Webauftritt durch Realtime-Web Controlling permanent auf eventuelle Systemausfälle oder Lastprobleme überwacht werden Web Scorecard Die Grundidee der Web Scorecard beruht auf der Annahme, dass eine rein quantitative Analyse von Hits und Page-Impressions, wie sie die meisten herkömmlichen Logfile- Analyse-Tools anbieten, zur Beschreibung und Steuerung der E-Business-Aktivitäten der Realität nicht gerecht werden. Die Web Scorecard stellt einen Rahmen für ein strategisches Leistungsmessungs- und Managementsystem dar, um aus der E-Business-Strategie klar formulierte, messbare und kontrollierbare Steuerungsgrößen abzuleiten. Da unterschiedliche Einflussfaktoren den Erfolg der E-Business-Strategie bedingen, werden die zur Steuerung benötigten Informationen über verschiedene Sichtweisen (Dimensionen) abgebildet und in Form von Kennzahlen bereitgestellt. Die folgenden Abbildung beschreibt eine beispielhafte Web Scorecard für einen Online Retailer. System Dimension Kunden Dimension Web Scorecard Finanzielle Dimension Kampagnen Dimension Abbildung 6: Beispiel für eine Web Scorecard für einen Online Retailer Die als relevant zu erachtenden Dimensionen lassen sich wie folgt beschreiben: Die System Dimension stellt Informationen über die Verfügbarkeit, Performance und Ergonomie des Online-Auftrittes zur Verfügung. Aus der Kunden Dimension lassen sich Informationen über Kundenzufriedenheit und Kundenbindung gewinnen. Die Kampagnen Dimension stellt Kennzahlen bereit, die Aussagen über die Wirkung von Personalisierungsaktivitäten und Werbebannern ermöglichen.

18 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 15 Die Finanzielle Dimension einer Web Scorecard stellt Kennzahlen über die Profitabilität und Rentabilität der E-Business-Aktivitäten bereit. Die Kennzahlen der einzelnen Dimensionen der Web Scorecard sind jedoch keinesfalls isoliert zu betrachten. Erst durch die Verknüpfung der einzelnen Dimensionen mit Hilfe der OLAP-Technologie und Web Mining können die Ursache-Wirkungs-Ketten und somit die Beziehungen der einzelnen Dimensionen transparent gemacht werden und ermöglichen somit Aussagen über die wirklichen Werttreiber der E-Business-Aktivitäten. 3.4 DynaMine-Personalisierungskreislauf Die Realisierung des Personalisierungskreislaufes und dessen Wirkungsweise in der Praxis ist mit Hilfe eines Analytical Loops und eines Realtime Loops umgesetzt worden. Die folgende Abbildung beschreibt die einzelnen betroffenen Komponenten und deren Position innerhalb der Personalisierungsapplikation. DynaTracker Web Data Mart Application Server DynaExecutor DynaBase Data Mining System Analytical Loop Realtime Loop DynaGenerator Abbildung 7: DynaMine - Analytical Loop und Realtime Loop Analytical Loop Der Analytical Loop ist verantwortlich für die Aufbereitung der Application Logs und deren Analyse mit Hilfe von Web Mining. Ergebnis der Web Mining-Analysen sind Regelwerke, die typische Besucherprofile von Onlinebesuchern beschreiben. Diese Regelwerke erlauben die Echtzeit-Klassifizierung eines aktiven Benutzers zu den ermittelten Kundengruppen. Diese Regeln können mehr oder weniger direkt in bestehende Anwendungen aufgenommen werden, um diese zu personalisieren. Damit können beispielsweise für die ermittelte Benutzergruppe passende Produkte angeboten werden, oder es kann das gesamte Layout der Site automatisch an ein ermitteltes Besucherprofil angepasst werden.

19 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 16 Die aus dem Web Mining ermittelten Regeln basieren allerdings auf transformierten und aggregierten Daten, die der Anwendung nicht direkt zur Verfügung stehen. Der Versuch, die ursprünglichen Logfiles in Echtzeit zu transformieren und die Regeln bei jedem Click anzuwenden, ist zum Scheitern verurteilt, da der Zeitaufwand hierfür immens ist Realtime Loop Der Realtime Loop ist verantwortlich für die Personalisierung in Echtzeit. Über den Dyna- Generator, einem Wizzard, der die gewonnenen Data Mining-Ergebnisse in XML transformiert, werden die Regelwerke aus dem Analytical Loop in den Realtime Loop überführt. Dazu stehen für verschiedene Systeme entsprechende Adapter (DynaExecutor) zur Verfügung, welche die Regeldefinition in XML auf die DynaBase anwenden (siehe auch Abbildung 3). Der DynaExecutor klassifiziert den aktuellen Besucher in ein zuvor ermitteltes Besucherprofil und reagiert mit zielgruppenspezifischem Content. Damit hat sich der Kreis geschlossen, da die personalisierte Website natürlich wiederum Tracking-Daten liefert, die in einen nächsten Data Mining-Prozess eingehen. Die Ergebnisse des Data Mining sind jedoch nicht nur die Regelwerke selbst, sondern auch die Definition der Variablen, die für die Regeln relevant sind. Oft sind nur wenige der getrackten Variablen ausschlaggebend für die Zuordnung eines Benutzers zu einer Benutzergruppe. Um Personalisierung in Echtzeit zu realisieren, werden die Informationen über die relevanten Daten benutzt, um den DynaTracker-Server so zu konfigurieren, dass dieser sofort entsprechend transformierte und aggregierte Daten in eine spezielle Datenbank schreibt (DynaBase). Dies bietet entscheidende Vorteile: Es müssen wesentlich weniger Daten protokolliert werden (Performanceoptimierung). Die Regeln können in Echtzeit angewendet werden, da die notwendigen Daten bereits genau passend aufbereitet sind. 4 Zusammenfassung und Ausblick In dem vorliegenden Arbeitspapier wurden typische Formen der Personalisierung von Websites erläutert. Schwerpunkt der weiteren Ausführungen war das Web (Usage) Mining, mit dessen Hilfe Aussagen über das Such- und Entscheidungsverhalten von Besuchern einer Website gewonnen werden sollen. Als Datengrundlage werden dabei in der Regel Webserver-Logfiles und falls vorhanden weitere kundenspezifische Informationen verwendet. Aufgrund des Umfangs und der Struktur von Logfiles kann sich dabei ein erheblicher Aufwand für das Preprocessing der Daten ergeben. Zudem erweist sich unter Umständen die eindeutige Identifizierung des Benutzers während einer Session als problematisch.

20 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 17 Diesen Einschränkungen bzw. Nachteilen begegnen die Autoren mit dem neu entwickelten und implementierten Ansatz DynaMine. DynaMine gestattet neben einer strukturierten Datenbereitstellung die Analyse von Webnutzungsdaten und Rückkopplung der gewonnenen Regeln, um eine umgehende personalisierte Ansprache der Besucher zu realisieren. Neben der Personalisierung des Webauftritts auf der Basis der gewonnenen benutzerspezifischen Webnutzungsinformationen ergibt sich darüber hinaus die Möglichkeit einer Einbindung in Content-Managementsysteme, um auf der Basis von Nutzertypologien wesentlich flexibler Inhalte für verschiedene Zielgruppen aktuell zur Verfügung zu stellen. Speziell bei dynamischen Web-Content-Management-Systemen, bei denen Änderungen am Content sofort auf dem Live-Server sichtbar werden (die Webseiten werden erst zur Laufzeit generiert), wird dadurch ständige Aktualität der Inhalte gewährleistet. Literaturhinweise [BeLi00] [BeWe99] [BlFa99] [CoMo99] [HiKü01] Berry, M.J.A.; Linoff, G.S.: Mastering Data Mining. Wiley, New York Bensberg, F.; Weiß, T.: Web Log Mining als Marktforschungsinstrument für das World Wide Web. In: Wirtschaftsinformatik 41 (1999), S Bliemel, F.; Fassott, G.; Theobald, A.: Einleitung Das Phänomen Electronic Commerce. In: Bliemel, F.; Fassott, G.; Theobald, A. (Hrsg.): Electronic Commerce. Gabler, Wiesbaden 1999, S Cooley, R.; Mobasher, B.; Srivastan, J.: Data Preparation for Mining World Wide Web Browsing Patterns. In: Knowledge and Information Systems, Vol. 1, 1/1999, S Hippner, H.; Küsters, U.; Meyer, M.; Wilde, K.D. (Hrsg.): Handbuch Data Mining im Marketing, Wiesbaden [IBM00] IBM High-Volume Website-Team: Personalisierung von Websites. /personalization.htm (Zugriff am ). [KiMe00] [KoJä00] [KoBl00] [Lamp98] Kimball, R.; Merz, R.: The Data Webhouse Toolkit. Wiley, New York Koop, H.J.; Jäckel, K.K.; Heinold E.F.: Business E-volution. Vieweg/Gabler, Wiesbaden Kosala, R.; Blockeel, H.: Web Mining Research: A Survey. In: SIGKDD Explorations, Vol. 2, No. 1/2000, S Lampe, F.: Unternehmenserfolg im Internet. 2. Aufl., Vieweg/Gabler, Wiesbaden 1998.

Mining the Web. Analyse von Benutzerpfaden und Nutzertypen im Internet. Business Unit CRM Solutions SAS Deutschland. Dr.

Mining the Web. Analyse von Benutzerpfaden und Nutzertypen im Internet. Business Unit CRM Solutions SAS Deutschland. Dr. Mining the Web Analyse von Benutzerpfaden und Nutzertypen im Internet Dr. Frank Säuberlich Business Unit CRM Solutions SAS Deutschland Agenda 1. Einleitung: Der Lebenszyklus eines e-kunden Begriffsdefinition

Mehr

Personalisierung im Internet durch Web Mining

Personalisierung im Internet durch Web Mining Personalisierung im Internet durch Web Mining Dr. Matthias Meyer 31.05.2001 0 Inhalt Grundlagen der Personalisierung Data Mining und Web Mining Web Mining zur Personalisierung des Webauftritts Beispiel

Mehr

Web Mining effektive Analyse des Nutzer- Verhaltens im Internet

Web Mining effektive Analyse des Nutzer- Verhaltens im Internet Web Mining effektive Analyse des Nutzer- Verhaltens im Internet Dr. Frank Säuberlich Business Unit e-intelligence SAS Deutschland Agenda 1. Begriffsdefinition e-intelligence: Systemdimension Angebotsdimension

Mehr

Personalisierung und Benutzermodellierung. Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests

Personalisierung und Benutzermodellierung. Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests Personalisierung und Benutzermodellierung Aufdecken von Benutzerinteressen und Benutzerbedürfnissen: Mining U s Interests Prof. Dr. N. Henze 18. Juni 2007 Inhaltsverzeichnis 6 Aufdecken von Benutzerbedürfnissen

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Messung des Online-Erfolges / Optimierung einer Website

Messung des Online-Erfolges / Optimierung einer Website Messung des Online-Erfolges / Optimierung einer Website Stuttgart, Mai 2001 Guido Hartmann Senior Project Manager Talstrasse 41 Stuttgart phone: +49.711.90717-177 guido.hartmann@pixelpark.com http://www.pixelpark.com

Mehr

Datenschutzerklärung ENIGO

Datenschutzerklärung ENIGO Datenschutzerklärung ENIGO Wir, die, nehmen den Schutz Ihrer persönlichen Daten sehr ernst und halten uns strikt an die Regeln der Datenschutzgesetze. Personenbezogene Daten werden auf dieser Website nur

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Datenbank-basierte Webserver

Datenbank-basierte Webserver Datenbank-basierte Webserver Datenbank-Funktion steht im Vordergrund Web-Schnittstelle für Eingabe, Wartung oder Ausgabe von Daten Datenbank läuft im Hintergrund und liefert Daten für bestimmte Seiten

Mehr

Zeitgemäße Verfahren für ganzheitliche Auswertungen

Zeitgemäße Verfahren für ganzheitliche Auswertungen Intelligente Vernetzung von Unternehmensbereichen Zeitgemäße Verfahren für ganzheitliche Auswertungen Sächsische Industrie- und Technologiemesse Chemnitz, 27. Juni 2012, Markus Blum 2012 TIQ Solutions

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Fellowship Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Katja Steuernagel Universität Kaiserslautern Momentan: GIP AG Göttelmannstraße 17 55130 Mainz katja@katja-steuernagel.de Zusammenfassung

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung

Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung den Besucher wiedererkennen den Besucher oder Kunden deutlich besser klassifizieren A3S Fingerprint Dem richtigen Kunden das passende Produkt...

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die mu l- tidimensionale Betrachtung von Daten zwecks Ermit t- lung eines entscheidungsunterstützenden

Mehr

DIE GRUNDLAGEN DER FERNÜBERWACHUNG

DIE GRUNDLAGEN DER FERNÜBERWACHUNG DIE GRUNDLAGEN DER FERNÜBERWACHUNG Verbraucherleitfaden Version 1.0 Deutsch Einleitung Derzeit sind am Markt zahlreiche Videoüberwachungssysteme erhältlich, die einen digitalen Zugriff über Netzwerkverbindungen

Mehr

Web-Log-Mining. Dr. Peter Gluchowski. Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf

Web-Log-Mining. Dr. Peter Gluchowski. Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf Web-Log-Mining Dr. Peter Gluchowski Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf MIS 2001 7. Kongressmesse für DW und BI 26.09.2001 Gliederung Internet und E-Commerce Aufbau

Mehr

Datenschutz. Kontakt. Der Fachbereich Datenschutz ist unter den folgenden Kontaktdaten zu erreichen:

Datenschutz. Kontakt. Der Fachbereich Datenschutz ist unter den folgenden Kontaktdaten zu erreichen: Datenschutz Wir nehmen den Schutz und die Sicherheit von persönlichen Daten sehr ernst. Daher informieren wir unsere Kunden an dieser Stelle über das Thema Datenerfassung und -schutz sowie über unseren

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Datenschutzerklärung. Published: 2009-08-03 Author: 42media services GmbH

Datenschutzerklärung. Published: 2009-08-03 Author: 42media services GmbH Datenschutzerklärung Published: 2009-08-03 Author: 42media services GmbH Inhaltsverzeichnis Datenschutzerklärung... 4 Datenverarbeitung auf dieser Internetseite... 4 Cookies... 4 Newsletter... 4 Auskunftsrecht...

Mehr

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE DOKUMENTATION MAAS - MONITORING AS A SERVICE DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE Dokumentation MaaS - Monitoring as a Service Inhalt 1. MaaS - Monitoring as Service... 3 1.1 Einleitung...

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Der Nachdruck und die Auswertung von Pressemitteilungen bzw. Reden sind mit Quellenangabe allgemein gestattet.

Der Nachdruck und die Auswertung von Pressemitteilungen bzw. Reden sind mit Quellenangabe allgemein gestattet. Nutzungsbedingungen Texte, Bilder, Grafiken sowie die Gestaltung dieser Internetseiten unterliegen dem Urheberrecht. Sie dürfen von Ihnen nur zum privaten und sonstigen eigenen Gebrauch im Rahmen des 53

Mehr

Unsere Datenschutzerklärung

Unsere Datenschutzerklärung Unsere Datenschutzerklärung Cookies Das Akzeptieren von Cookies ist keine Voraussetzung zum Besuch unserer Webseiten. Jedoch weisen wir Sie darauf hin, dass die Nutzung der Warenkorbfunktion und die Bestellung

Mehr

Datenschutz und E-Commerce - Gegensätze in der digitalen Wirtscheft?

Datenschutz und E-Commerce - Gegensätze in der digitalen Wirtscheft? Datenschutz und E-Commerce - Gegensätze in der digitalen Wirtscheft? Rechtsanwalt Oliver J. Süme Vortrag im Rahmen der Medientage München 2000 Dienstag, den 7. November 2000 - Panel 7.3. Einleitung Wer

Mehr

Collaborative Performance Management mit hyscore - Der gemeinsame Weg zur Verbesserung von Unternehmensleistung und Profitabilität

Collaborative Performance Management mit hyscore - Der gemeinsame Weg zur Verbesserung von Unternehmensleistung und Profitabilität Collaborative Performance Management mit hyscore - Der gemeinsame Weg zur Verbesserung von Unternehmensleistung und Profitabilität Version 4.6 Juni 2010 Seite 1 Inhalt... 3 Breite Zugänglichkeit der Performance

Mehr

Mobile ERP Business Suite

Mobile ERP Business Suite Greifen Sie mit Ihrem ipad oder iphone jederzeit und von überall auf Ihr SAP ERP System zu. Haben Sie Up-To-Date Informationen stets verfügbar. Beschleunigen Sie Abläufe und verkürzen Sie Reaktionszeiten

Mehr

Technische Beschreibung: EPOD Server

Technische Beschreibung: EPOD Server EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für

Mehr

Impressum der Grund- und Mittelschule Geisenfeld

Impressum der Grund- und Mittelschule Geisenfeld Nutzungsbedingungen Impressum der Grund- und Mittelschule Geisenfeld Texte, Bilder, Grafiken sowie die Gestaltung dieser Internetseiten unterliegen dem Urheberrecht. Sie dürfen von Ihnen nur zum privaten

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite 1 Case Studie:? 2 Spezielle Integrationsanforderungen / Problematiken, die Ihnen bisher begegnet sind:? 3 Beispiele aus

Mehr

OPNET s Application Response Expert (ARX)

OPNET s Application Response Expert (ARX) OPNET s Application Response Expert (ARX) Root Cause Analyse und End2End Monitoring für Web Anwendungen Summary Werden im IT Betrieb Probleme durch die Anwender gemeldet, müssen schnell Informationen aus

Mehr

NAVdiscovery. Der Qlik Connector für Microsoft Dynamics NAV. www.nav-discovery.de

NAVdiscovery. Der Qlik Connector für Microsoft Dynamics NAV. www.nav-discovery.de NAVdiscovery Der Qlik Connector für Microsoft Dynamics NAV www.nav-discovery.de PRISMA INFORMATIK HAT SPEZIELL FÜR AN- WENDER VON MICROSOFT DYNAMICS NAV, QLIKVIEW UND QLIK SENSE DIE NAVDISCO- VERY TOOLBOX

Mehr

Dreamwap. Systemanalyse

Dreamwap. Systemanalyse Dreamwap Systemanalyse Änderungskontrolle Version Datum Name Bemerkung 0.1 15.7.2000 P. Troxler Initialversion 0.2 16.7.2000 P. Troxler Neue Tabelle: Kap. 2.1. Vgl. Datenbank Tabellen 0.3 18.7.2000 P.

Mehr

Jump Project. Softwarelösungen für professionelles Projektmanagement

Jump Project. Softwarelösungen für professionelles Projektmanagement Jump Project Softwarelösungen für professionelles Projektmanagement Jump Project Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen. Steuern Sie Ihre Projekte

Mehr

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II Ora Education GmbH www.oraeducation.de info@oraeducation.de Lehrgang: Oracle Application Server 10g R2: Administration II Beschreibung: Die Teilnehmer lernen verschiedene Topologien des Oracle Application

Mehr

Innova>on Xseed. Keine Registrierung erforderlich, Services basieren auf anonymisierten Daten

Innova>on Xseed. Keine Registrierung erforderlich, Services basieren auf anonymisierten Daten xseed your Mobile Vision Die steigende Mobilität der Menschen führt zu hohen Anforderungen und Ansprüchen an die Werkzeuge der Zukunve, ortsbezogene Anwendungen werden dabei eine elementare Rolle

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Schön, dass Sie da sind. 16. Juni 2008 E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Personalisierung (Online- Marketing) Anpassung des Angebotes/der Seite/der Elemente an den

Mehr

Datenschutzerklärung

Datenschutzerklärung (kurz ADE) der Alexander Manfred Pöllmann eu Mautner-Markhof-Gasse 53, 1110 Wien hello@vendocr.at // https://vendocr.at FN 402280 p, Handelsgericht Wien (nachfolgend vendocrat genannt) Stand 15. März 2015

Mehr

Anleitung Webalizer. Inhaltsverzeichnis

Anleitung Webalizer. Inhaltsverzeichnis Inhaltsverzeichnis. Aufgabe / Nutzen des s... 2. Allgemeine Informationen...2.2 Begriffserklärungen...2 2. Zugang zum... 2 3. Die Eingangsseite... 3 4. Die Monatsübersichten und Tagesübersichten... 3 4.

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement Jump Helpdesk Softwarelösungen für professionelles Servicemanagement Jump Network GmbH 2004-2006 Jump Helpdesk Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen.

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Einrichtung Secure-FTP

Einrichtung Secure-FTP Einrichtung Secure-FTP ONEGroup Hochriesstrasse 16 83101 Rohrdorf Steffen Prochnow Hochriesstrasse 16 83101 Rohrdorf Tel.: (08032) 989 492 Fax.: (01212) 568 596 498 agb@onegroup.de 1. Vorwort... 2 2. Einrichtung

Mehr

Von der Literaturverwaltung zur Dokumentenverwaltung

Von der Literaturverwaltung zur Dokumentenverwaltung Von der Literaturverwaltung zur Dokumentenverwaltung Literaturverwaltung erfasst Metadaten über ein Dokument Dokumentenverwaltung kümmert sich um die Dokumenten-Technologien Umsetzung meist in einem Dokumentmanagementsystem

Mehr

Datenschutzerklärung

Datenschutzerklärung (kurz ADE) der Lecturize OG Mautner-Markhof-Gasse 53, 1110 Wien hello@lecturize.com // https://lecturize.com FN 420535 i, Handelsgericht Wien (nachfolgend Lecturize genannt) Stand 13. Oktober 2014 Inhalt

Mehr

Unsere Gruppe Online Mediaplanung & Web Analyse

Unsere Gruppe Online Mediaplanung & Web Analyse Unsere Gruppe Online Mediaplanung & Web Analyse 2. Webanalyse Erfolgskontrolle DATEN Daten sammeln (Cookies, Nutzerprofile, ) TOOLS Umwandlung in wertvolle Informationen AN WENDUNG Kennzahlen Auswertungen

Mehr

Prozessbeschreibung des Trackings zur Firmenerkennung

Prozessbeschreibung des Trackings zur Firmenerkennung Prozessbeschreibung des Trackings zur Firmenerkennung Überblick Nach 1 Abs.1 des Datenschutzgesetzes soll der Einzelne davor geschützt werden, durch den Umgang mit seinen personenbezogenen Daten in seinem

Mehr

ARTS Server 3.5. Produktbeschreibung. Uptime Services AG

ARTS Server 3.5. Produktbeschreibung. Uptime Services AG Uptime Services AG Brauerstrasse 4 CH-8004 Zürich Tel. +41 44 560 76 00 Fax +41 44 560 76 01 www.uptime.ch ARTS Server 3.5 Produktbeschreibung Uptime Services AG Inhaltsverzeichnis 1 Einleitung... 2 2

Mehr

How- to. E- Mail- Marketing How- to. Subdomain anlegen. Ihr Kontakt zur Inxmail Academy

How- to. E- Mail- Marketing How- to. Subdomain anlegen. Ihr Kontakt zur Inxmail Academy E- Mail- Marketing How- to How- to Subdomain anlegen Getrackte Links in Ihren E- Mails haben keinen Bezug zu Ihrer Domain und werden deswegen häufig von Ihren Empfängern als nicht vertrauenswürdig eingestuft.

Mehr

Oracle BI EE mit großen Datenmengen

Oracle BI EE mit großen Datenmengen Oracle BI EE mit großen Datenmengen Christian Casek Riverland Solutions GmbH München Schlüsselworte: Oracle BI EE, Oracle BI Applications, Informatica, RPD, große Datenmengen, Performance, Performanceoptimierung,

Mehr

Application Note. Anbindung von Kunden-Software an SpiderControl Web Visualisierung

Application Note. Anbindung von Kunden-Software an SpiderControl Web Visualisierung 2015-02-25 1 of 6 Application Note Anbindung von Kunden-Software an SpiderControl Web Visualisierung Version ApplicationNote_AnbindungFremdsoftware /Version Seite 1 / 6 Version Datum Kommentar Autor 0.1

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

Datenschutzerklärung der emco electroroller GmbH für die emcoelektroroller.de

Datenschutzerklärung der emco electroroller GmbH für die emcoelektroroller.de Datenschutzerklärung der emco electroroller GmbH für die emcoelektroroller.de Wir freuen uns über Ihr Interesse an unserer Website. Der Schutz Ihrer Privatsphäre ist für uns sehr wichtig. Nachstehend informieren

Mehr

CCWebkatalog for professional sales

CCWebkatalog for professional sales CCWebkatalog for professional sales INNOVATIONSPREIS-IT BEST OF 2015 E BUSINESS Unternehmen, die auf E-Commerce setzen, machen deutlich, dass Sie die Zukunft verstehen. John Chambers Der Kunde im Mittelpunkt

Mehr

Sofortige Erfolgskontrolle

Sofortige Erfolgskontrolle 1 Sofortige Erfolgskontrolle Der Erfolg einer Website wird im klassischen Sinne an der Zahl der Besucher, der Zahl der Seitenaufrufe und an der Verweildauer gemessen, kurz: dem "User Tracking". Es gilt

Mehr

Inhaltsverzeichnis. Open-Xchange Authentication & Sessionhandling

Inhaltsverzeichnis. Open-Xchange Authentication & Sessionhandling Open-Xchange Authentication & Sessionhandling Version Date Author Changes 1.0 28.08.2006 Stephan Martin Initiale Version 1.1 29.08.2006 Marcus Klein Details Authentication via JSON 1.2 04.09.2006 Stephan

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Verantwortlich für den Inhalt. NAUE GmbH & Co. KG Kent von Maubeuge Gewerbestraße 2 D-32339 Espelkamp-Fiestel

Verantwortlich für den Inhalt. NAUE GmbH & Co. KG Kent von Maubeuge Gewerbestraße 2 D-32339 Espelkamp-Fiestel Verantwortlich für den Inhalt NAUE GmbH & Co. KG Kent von Maubeuge Gewerbestraße 2 D-32339 Espelkamp-Fiestel Tel.: +49 5743 41-0 Fax.: +49 5743 41-240 E-Mail: kvmaubeuge@naue.com NAUE GmbH & Co. KG Rechtsform:

Mehr

Universal Mobile Gateway V4

Universal Mobile Gateway V4 PV-Electronic, Lyss Universal Mobile Gateway V4 Autor: P.Groner Inhaltsverzeichnis Allgemeine Informationen... 3 Copyrightvermerk... 3 Support Informationen... 3 Produkte Support... 3 Allgemein... 4 Definition

Mehr

Intranet/Extranet: Zentrales CMS oder Portal-Lösung

Intranet/Extranet: Zentrales CMS oder Portal-Lösung Intranet/Extranet: Zentrales CMS oder Portal-Lösung Erstellt am durch Jan Eickmann Ihr Ansprechpartner: Jan Eickmann Telefon: 0221-569576-22 E-Mail: j.eickmann@kernpunkt.de Inhalt Einleitung... 3 Content

Mehr

Caching Handbuch. Auftraggeber: Version: 01. INM Inter Network Marketing AG Usterstrasse 202 CH-8620 Wetzikon

Caching Handbuch. Auftraggeber: Version: 01. INM Inter Network Marketing AG Usterstrasse 202 CH-8620 Wetzikon Caching Handbuch Auftraggeber: Version: 01 Projekttyp: Erstellt durch: Internet David Bürge INM Inter Network Marketing AG Usterstrasse 202 CH-8620 Wetzikon Email david.buerge@inm.ch URL http://www.inm.ch

Mehr

Sie können uns auch über unsere Postadresse kontaktieren: Engelbrecht Medizin- und Labortechnik GmbH, Postfach 10, 34293 Edermünde.

Sie können uns auch über unsere Postadresse kontaktieren: Engelbrecht Medizin- und Labortechnik GmbH, Postfach 10, 34293 Edermünde. Datenschutzerklärung Engelbrecht Medizin- und Labortechnik GmbH respektiert das Recht auf Privatsphäre Ihrer Online-Besucher und ist verpflichtet, die von Ihnen erhobenen Daten zu schützen. In dieser Datenschutzerklärung

Mehr

Datenschutz 1. Allgemein

Datenschutz 1. Allgemein Datenschutz 1 Allgemein Der Betreiber dieser Website nimmt den Schutz Ihrer persönlichen Daten sehr ernst. Ihre personenbezogenen Daten werden vertraulich und entsprechend der gesetzlichen Datenschutzvorschriften

Mehr

Software Design Patterns. Ausarbeitung über. Security Patterns SS 2004

Software Design Patterns. Ausarbeitung über. Security Patterns SS 2004 Ausarbeitung über SS 2004 Dennis Völker [dv04@hdm-stuttgart.de] Steffen Schurian [ss59@hdm-stuttgart.de] Überblick Sicherheit sollte eine Eigenschaft moderner, verteilter Anwendungen sein, jedoch ist ein

Mehr

Netzwerk Technologien in LabVIEW

Netzwerk Technologien in LabVIEW Netzwerk Technologien in LabVIEW von Dirk Wieprecht NI Germany Hier sind wir: Agenda Agenda Bedeutung des Ethernet für die Messtechnik Ethernet-basierende Technologien in LabVIEW Low Level- TCP/IP Objekt

Mehr

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH CEPaaS Complex Event Processing as a Service Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH Daniar Achakeyev, Daniel Schäfer, Philip Schmiegelt CEP-Forschung in Marburg: aus

Mehr

ESB - Elektronischer Service Bericht

ESB - Elektronischer Service Bericht Desk Software & Consulting GmbH ESB - Elektronischer Service Bericht Dokumentation des elektronischen Serviceberichts Matthias Hoffmann 25.04.2012 DESK Software und Consulting GmbH Im Heerfeld 2-4 35713

Mehr

Das Open Source Content Management System

Das Open Source Content Management System Das Open Source Content Management System Erweiterbarkeit und Individualisierung visions-marketing Unternehmensberatung Alexander Winkler Postfach 950180 81517 München Tel.+Fax: 089 / 38 90 06 53 Mobil.:

Mehr

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is. ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.de insight und dynasight sind eingetragene Markenzeichen der

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

Web Information Retrieval. Zwischendiskussion. Überblick. Meta-Suchmaschinen und Fusion (auch Rank Aggregation) Fusion

Web Information Retrieval. Zwischendiskussion. Überblick. Meta-Suchmaschinen und Fusion (auch Rank Aggregation) Fusion Web Information Retrieval Hauptseminar Sommersemester 2003 Thomas Mandl Überblick Mehrsprachigkeit Multimedialität Heterogenität Qualität, semantisch, technisch Struktur Links HTML Struktur Technologische

Mehr

Kapitel 4 Zugriffsbeschränkungen

Kapitel 4 Zugriffsbeschränkungen Kapitel 4 Zugriffsbeschränkungen In diesem Kapitel erfahren Sie, wie Sie Ihr Netzwerk durch Zugriffsbeschränkungen des 54 MBit/s Wireless Router WGR614 v6 schützen können. Diese Funktionen finden Sie im

Mehr

Datenschutzrichtlinie für die Plattform FINPOINT

Datenschutzrichtlinie für die Plattform FINPOINT Datenschutzrichtlinie für die Plattform FINPOINT Die FINPOINT GmbH ( FINPOINT ) nimmt das Thema Datenschutz und Datensicherheit sehr ernst. Diese Datenschutzrichtlinie erläutert, wie FINPOINT die personenbezogenen

Mehr

«e-services» Integration mit bestehenden Systemen. Juli 2013

«e-services» Integration mit bestehenden Systemen. Juli 2013 «e-services» Integration mit bestehenden Systemen Juli 2013 Inhalt 1 Zweck und Leserschaft...3 2 Einleitung...3 3 Anforderungsszenarien...3 3.1 Frontend-bezogene Anforderungen...4 3.2 Technische Anforderungen...4

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

CRM Architektur. New Economy CRM Architektur Page 1

CRM Architektur. New Economy CRM Architektur Page 1 CRM Architektur Titel des Lernmoduls: CRM Architektur Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.4.2 Zum Inhalt: Dieses Modul beschreibt mögliche Architekturen von CRM-Systemen. Insbesondere

Mehr

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA Liste der Handbücher Liste der Benutzerhandbücher von MEGA MEGA 2009 SP4 1. Ausgabe (Juni 2010) Die in diesem Dokument enthaltenen Informationen können jederzeit ohne vorherige Ankündigung geändert werden

Mehr

Data/Information Quality Management

Data/Information Quality Management Data/Information Quality Management Seminar WI/Informationsmanagement im Sommersemester 2002 Markus Berberov, Roman Eder, Peter Gerstbach 11.6.2002 Inhalt! Daten und Datenqualität! Einführung und Definition!

Mehr

Analyse einer speziellen Lernangebotsnutzung mit Hypertextstruktur

Analyse einer speziellen Lernangebotsnutzung mit Hypertextstruktur LFE Medieninformatik Abschlussvortrag Projektarbeit Analyse einer speziellen Lernangebotsnutzung mit Hypertextstruktur Dhana Sauernheimer Betreuer: Anke Lindmeier, Sara Streng 17.11.2009 Gliederung Gliederung

Mehr

Produktinformation eevolution OLAP

Produktinformation eevolution OLAP Produktinformation eevolution OLAP Was ist OLAP? Der Begriff OLAP steht für Kurz gesagt: eevolution -OLAP ist die Data Warehouse Lösung für eevolution. Auf Basis verschiedener

Mehr

Cookies Cookies E-Mail-Marketing Live Chat Analytik

Cookies Cookies E-Mail-Marketing Live Chat Analytik Cookies Cookies Was ist ein Cookie? Ein Cookie ist eine Datei, die von einem Internetserver in Ihrem Browser oder auf Ihrem Gerät installiert wird. Das Cookie ermöglicht es dem Server, Ihre Erfahrung zu

Mehr

Identity Management mit OpenID

Identity Management mit OpenID Lehrstuhl Netzarchitekturen und Netzdienste Institut für Informatik Technische Universität München Identity Management mit OpenID Innovative Internet Technologien und Mobilkommunikation WS2008/2009 Verfasser:

Mehr

Anhang A: Impressum / Anbieterkennzeichnung. Goodstock GmbH Neuer Weyerstrasserweg 135 50969 Köln. Geschäftsführer: Michael Klein Anschrift wie oben

Anhang A: Impressum / Anbieterkennzeichnung. Goodstock GmbH Neuer Weyerstrasserweg 135 50969 Köln. Geschäftsführer: Michael Klein Anschrift wie oben Anhang A: Impressum / Anbieterkennzeichnung Goodstock GmbH Neuer Weyerstrasserweg 135 50969 Köln Geschäftsführer: Michael Klein Anschrift wie oben E-Mail: info@goodstock.eu Tel.: +49 (0)221 936 11 00 Fax:

Mehr

Semtation GmbH SemTalk

Semtation GmbH SemTalk Semtation GmbH SemTalk Christian Fillies Was ist SemTalk? Prozessmodellierung mit Visio2003 Viele Methoden (EPK, PROMET, FlowChart, KSA ), einfach an Kundenbedürfnisse anzupassen und zu erweitern HTML

Mehr

Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel.

Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel. M/S VisuCom Beratung Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel. Design Auch das Erscheinungsbild Ihres E-Business-Projektes ist entscheidend. Unsere Kommunikationsdesigner

Mehr

Agenda. Grundlagen und Begriffe. Ergebnis und Tendenz. Konzeption eines marketingorientierten Statistik- und Account- 11. Mai 2005.

Agenda. Grundlagen und Begriffe. Ergebnis und Tendenz. Konzeption eines marketingorientierten Statistik- und Account- 11. Mai 2005. eines marketingorientierten Statistik- und Monitoringtools für das B2B Key-Account Account- Management der Jamba!! AG 11. Mai 2005 Agenda eines marketingorientierten Statistik- und Monitoringtools Mobile

Mehr

OLAP und der MS SQL Server

OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP-Systeme werden wie umfangreiche Berichtssysteme heute nicht mehr von Grund auf neu entwickelt. Stattdessen konzentriert man sich auf die individuellen

Mehr

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper Wussten Sie, dass lediglich der kleinere Teil der Datenverarbeitung in Ihrem System von End-Anwendern generiert wird? Der größere Teil der Informationen

Mehr

Datenmanagement. Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau. Strategisches Informationsmanagement 1 (01/2006)

Datenmanagement. Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau. Strategisches Informationsmanagement 1 (01/2006) Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau (01/2006) Strategisches Informationsmanagement 1 Definition Notwendige Vermaischung der Daten in der Vorstufe zur Destillation von hochprozentiger

Mehr

Analyzer für SAP E Recruiting

Analyzer für SAP E Recruiting Beschreibung Zur Analyse und Erfolgsmessung im Recruiting benötigen die Prozessbeteiligten aktuelle und verlässliche Kennzahlen und flexibel auswertbare Ansichten. Die Informationsversorgung reicht im

Mehr

Jens Zwer. End-to-End Monitoring für Web-, SOA- und Oracle Applikationen

Jens Zwer. End-to-End Monitoring für Web-, SOA- und Oracle Applikationen Jens Zwer Applications & Systems Management Solutions End-to-End Monitoring für Web-, SOA- und Oracle Applikationen Mai 2010 Kosten Online-Applikation vs. Nutzen & Kundenzufriedenheit? Entwicklung Test

Mehr

Analytisches CRM und Data Mining

Analytisches CRM und Data Mining Analytisches CRM und Data Mining Magische Zahlen für das Marketing Computerwoche Initiative CRM 2009 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Mitglied im CRM Expertenrat

Mehr

Das Wesentliche im Blick.

Das Wesentliche im Blick. Das Wesentliche im Blick. Unternehmen effektiv steuern mit relevanten Daten im Management Dashboard CP-Cockpit ist ein Modul der Corporate Planning Suite. Den Blick auf das Wesentliche lenken. Effektiv

Mehr

Nachrichten (News) anlegen und bearbeiten

Nachrichten (News) anlegen und bearbeiten Nachrichten (News) anlegen und bearbeiten Dieses Dokument beschreibt, wie Sie Nachrichten anlegen und bearbeiten können. Login Melden Sie sich an der jeweiligen Website an, in dem Sie hinter die Internet-

Mehr