Web Mining und Personalisierung in Echtzeit

Größe: px
Ab Seite anzeigen:

Download "Web Mining und Personalisierung in Echtzeit"

Transkript

1 Ludwig-Maximilians-Universität München Schriften zur Empirischen Forschung und Quantitativen Unternehmensplanung Heft 5 / 2001 Web Mining und Personalisierung in Echtzeit Dr. Matthias Meyer, Stefan Weingärtner, Thilo Jahke, Oliver Lieven Ludwig-Maximilians-Universität München Institut für Organisation Seminar für Empirische Forschung und Quantitative Unternehmensplanung Prof. Dr. Manfred Schwaiger Kaulbachstr. 45 / I D München Tel.: (089) Fax: (089)

2 Web Mining und Personalisierung in Echtzeit Dr. Matthias Meyer Ludwig-Maximilians-Universität München Seminar für Empirische Forschung und Quantitative Unternehmensplanung Kaulbachstraße 45 / I München Stefan Weingärtner DYMATRIX CONSULTING GROUP GmbH Postfach Stuttgart Thilo Jahke, Oliver Lieven provantis IT Solutions OHG Siemensstr Ditzingen {thilo.jahke Zusammenfassung Dieses Arbeitspapier behandelt Ansätze zur Personalisierung von Websites. Die in diesem Zusammenhang entscheidenden Web Mining-Analysen verwenden dabei in der Regel Daten, die aus Webserver-Logfiles gewonnen werden. Zur Vermeidung dieser aufwändigen und nicht unproblematischen Vorgehensweise stellen die Autoren einen alternativen Ansatz vor, der eine wesentlich schnellere Datenbereitstellung und -aufbereitung gestattet. Ein geschlossener Analysekreislauf stellt zudem die umgehende Umsetzung der gewonnenen Ergebnisse sicher.

3 Inhaltsübersicht 1 Einleitung Logfile-Analyse, Personalisierung und Web Mining Logfile-Analyse Personalisierung Web Mining und Collaborative Filtering DynaMine Zielgerichtete Vorgehensweise zur Personalisierung Zieldefinition Realtime Tracking Aufbau des Data Mart Web Controlling DynaMine-Personalisierungskreislauf Zusammenfassung und Ausblick Literaturhinweise... 17

4 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 1 1 Einleitung Die gegenwärtige und künftige Bedeutung des E-Commerce, im Sinne von Ansätzen zur Unterstützung von Markttransaktionen auf elektronischen Märkten, wird sicher niemand ernsthaft bestreiten können (siehe auch [BlFa99; ZePi99; Lamp98]). Eine entscheidende Rolle kommt in diesem Zusammenhang dem Internet zu, wobei aktuelle und geplante Forschungs- und Entwicklungsanstrengungen gerade im Bereich des B2C-Marketing zeigen, welche Nutzenpotenziale erwartet werden bzw. noch zu erschließen sind. Die Vielfalt der Informations- und Nutzungsangebote im Internet macht deutlich, dass Websites grundsätzlich Nutzer mit unterschiedlichsten Interessen und Hintergründen ansprechen (sollen). Die Vielfalt kommerzieller Websites zeigt sich insbesondere an der enormen Menge an Produkten, Dienstleistungen und Informationen, die dort angeboten wird. Fraglich ist allerdings, durch wen diese Angebote in welcher Weise und mit welchem Ergebnis genutzt werden. Die Herausforderung besteht daher darin, entweder mit seinem Angebot die richtigen Nutzer gezielt zu erreichen oder den Nutzern die richtigen Angebote gezielt zu unterbreiten. In beiden Fällen ist damit zu klären, wer mit dem Webauftritt erreicht wird und wie dieser genutzt wird. Im Gegensatz zum klassischen Handel bieten Websites dabei die Möglichkeit, die Nutzung des Angebots genauer zu analysieren und unter Umständen nutzerspezifisch auszugestalten. Wesentliche Grundlage für die Untersuchung der Nutzung von Websites stellen in der Regel Webserver-Logfiles dar, in denen eine Vielzahl relevanter Informationen protokolliert wird (siehe dazu im Einzelnen Abschnitt 2.1.1). Je nach Komplexität der Website und Zugriffshäufigkeit können sich dabei pro Tag Logfiles mit einer Größe von mehreren Gigabyte ergeben. Mittlerweile gibt es zahlreiche Tools zur Auswertung von Logfiles, wie z.b. FastStats Analyzer, WebTrends, WebSuxess und LogAnalyzer. Diese Tools sollen Antworten auf folgende Fragestellungen liefern (Auswahl): Wer besucht die Website (Herkunft: Land, Provider, Unternehmen etc.)? Wann wird die Website am häufigsten besucht? Wie oft wird auf welche Seite zugegriffen? Welche Seiten werden von welchen Besuchern (Kunden, Konkurrenten) abgerufen? Welche Browser (Typ und Version) verwenden die Besucher der Website?

5 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 2 Es handelt sich somit vorwiegend um rein deskriptive Analysen zur Nutzung der Website unabhängig vom Verhalten einzelner Besucher. Will man dagegen nutzerspezifische Aussagen gewinnen, ist man auf tiefergehende Analysen angewiesen, die üblicherweise unter dem Begriff Web Mining zusammengefasst werden. Allgemein unterscheidet man drei Ausprägungen des Web Mining [KoBl00]: Web Content Mining umfasst die Suche bzw. Entdeckung nützlicher Informationen zu Inhalten, Daten und Dokumenten im Web, wobei Informationen aus verschiedenen Datenquellen (http, FTP, Gopher etc.) und mit unterschiedlichsten Formaten (Text, Audio, Video, PDF, PS, Hyperlinks, Metadaten) in Frage kommen können. Web Structure Mining bezeichnet Ansätze zur Untersuchung von Linkstrukturen im Internet und basiert auf der Topologie von Hyperlinks. Ergebnisse dienen der Kategorisierung von Web-Seiten und liefern u.a. Angaben zur Ähnlichkeit von Websites [KoBl00]. Web Usage Mining beschäftigt sich mit der Untersuchung der Daten, die während der Benutzung einer Website innerhalb einer Session oder über mehrere Sessions aufgezeichnet werden. While the Web content and structure mining utilize the real or primary data on the Web, Web usage mining mines the secondary data derived from the interactions of the users while interacting with the Web. The Web usage data includes the data from Web server access logs, proxy server logs, browser logs, user profiles, registration data, user sessions or transactions, cookies, user queries, bookmark data, mouse clicks and scrolls, and any other data as results of interactions. [KoBl00] Die weiteren Ausführungen in 2.3 konzentrieren sich auf das Web Usage Mining, wobei die Begriffe Web Usage Mining und Web Mining synonym verwendet werden. Abbildung 1: Web Usage Mining-Prozess [SrCo00]

6 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 3 Zentrale Bedeutung für die Analyse von Nutzungsdaten im Web hat eine geeignete Bereitstellung und Aufbereitung entsprechender Daten (Abbildung 1). Wie die weiteren Ausführungen zeigen werden, konzentrieren sich dabei die meisten Publikationen auf die Analyse von Logfiles (z.b. [SrCo00; SrCo00; ZaXi98]), deren geeignete Aufbereitung erheblichen Aufwand verursachen kann. Gegenstand dieses Beitrags ist nun ein neuer Ansatz und ein entsprechendes Produkt, bei dem anstelle der Analyse von bereits generierten Web Server Logs in den Entstehungsprozess von Nutzungsdaten eingegriffen wird. Somit stehen qualitativ höherwertigere Logs für den Web Mining Prozess zur Verfügung. Dieser Ansatz ermöglicht die Generierung von Regelwerken aus protokollierten Benutzeraktivitäten, aus denen sich die Präferenzen unterschiedlicher Besuchergruppen ableiten lassen. Die Regelwerke dienen als Basis für die zielgruppenorientierte Kundenansprache und ermöglichen somit die Personalisierung (siehe 2.2) des Webauftrittes im Sinne eines effizienten One-to-One-Marketing. Im Einzelnen lassen sich folgende Nutzungsmöglichkeiten unterscheiden: Unterstützung bei der Konzeption und Umsetzung des Web-Auftritts bzw. der Optimierung des Contentmanagements. Anwendung zum Marketing-Controlling. Generierung aussagekräftiger Besucherprofile und Extraktion typischer Klickpfade auf der Webseite (Click Stream Behaviour). Ableitung von Geschäftsregeln als Voraussetzung für die Personalisierung der Webseiten. 2 Logfile-Analyse, Personalisierung und Web Mining 2.1 Logfile-Analyse Grundlagen und Ziele Die Nutzung einer Website wird in der Regel durch den Webserver protokolliert, indem sämtliche Zugriffsinformationen in einem Logfile gespeichert werden. Die Einträge des Logfiles bestehen dabei aus (i) der IP-Adresse des Nutzers, (ii) der Zugriffszeit, (iii) HTML-Befehlen ( GET, POST etc.), (iv) der URL der aufgerufenen Seite, (v) der referrer-url, (vi) dem Protokoll (normalerweise http), (vii) Statuscode Feld, (viii) der Anzahl übertragener Bytes und (ix) unter Umständen einer UserID [JoJo00; ZaXi98]. Zur Untersuchung des Nutzerverhaltens sind nicht alle Informationen relevant. Beispielsweise wird beim Aufruf einer Seite für jede darin eingebettete Grafik ein Logfile-Eintrag erzeugt. Da derartige Logfile-Einträge nicht das eigentliche Nutzerverhalten wiedergeben, werden sie in einem Preprocessing-Schritt herausgefiltert. Analog werden Error Codes entfernt.

7 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 4 Voraussetzung für die Untersuchung des Nutzerverhaltens ist allerdings die eindeutige Identifizierung von Benutzern bzw. von Sessions, worauf im folgenden Abschnitt eingegangen wird (siehe dazu auch [SrCo00; CoMo00]) Mechanismen zur Benutzer- bzw. Session-Identifikation Typischerweise steht in Logfiles des Web Servers zur Benutzeridentifikation nur die IP- Adresse zur Verfügung. Da heute jedoch jedes Unternehmen über Firewalls an das Internet angebunden ist, werden normalerweise die internen IP-Adressen verborgen. Es ist im Allgemeinen daher nicht möglich, anhand der IP-Adresse auf einzelne Benutzer zurückzuschließen. Um aber das Verhalten von sämtlichen Benutzern analysieren zu können, ist es unbedingt erforderlich, die Aktionen eines Benutzers während einer Session zusammen betrachten zu können. Eine Session ist ein zusammenhängender Besuch eines Benutzers auf einer Website vergleichbar mit einem Besuch eines (potenziellen) Käufers in einem Laden. Durch den Sessionbezug lassen sich Click-Streams ermitteln, die Verweildauer auf der Site bestimmen, typische Benutzergruppen ermitteln usw. Ziel der nachfolgend beschriebenen Ansätze Cookies, URL Rewriting, Java Applets, Session Tracking auf Application Server Ebene und Reverse Proxy Web Server ist daher die Vergabe eindeutiger Session ID s, die letztlich eine Reihe von Zugriffen in einer Session zusammenhalten. Cookies Der Web Server oder ein zusätzlich vorgeschalteter Server können im Browser des Benutzers ein Cookie setzten. Dieses Cookie wird dann bei jedem Request des Benutzers mitübertragen und erlaubt so das Tracking einer Session ID. Dabei können zwei Varianten unterschieden werden: Transiente Cookies werden vom Browser nicht abgespeichert und gelten daher nur, solange der Browser geöffnet ist, d.h. innerhalb einer Session. Persistente Cookies werden auf dem Rechner des Benutzers abgespeichert. Dadurch kann ein Benutzer bei jedem neuen Besuch wiedererkannt werden, d.h. auch sessionübergreifend. URL Rewriting Voraussetzung für die Verwendung von Cookies ist die Akzeptanz durch den Benutzer. Oftmals werden Cookies grundsätzlich nicht oder nur in bestimmten Fällen akzeptiert. Anstelle von Cookies kann die notwendige Session ID auch als zusätzlicher Parameter bei jeder aufgerufenen URL angehängt werden. Auch dadurch wird erreicht, dass sich bei jedem Request die Session ID mitprotokollieren lässt.

8 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 5 Java Applets Eine eindeutige Benutzeridentifikation wird ebenfalls mit Hilfe spezieller Java Applets ermöglicht. Diese können neben einer ID weitere nutzerspezifische Informationen übermitteln. Voraussetzung ist ähnlich wie bei Cookies die explizite Kooperationsbereitschaft und Einwilligung des Benutzers, da die Funktionalität dieser Java Applets weit über die der Cookies hinausgeht (siehe dazu auch [CoMo00; SrCo00]). Ein Vorteil der Verwendung von Java Applets ist unter anderem, dass sie Aktionen weiterer Java Applets aufzeichnen können, die im Logfile des Web Servers nicht protokolliert werden können, da man dort höchstens noch den Aufruf dieser Applets sehen kann. Hier ist ein applikatorisches Tracking erforderlich, was eine entsprechende Erweiterung der Applets voraussetzt. Zudem entsteht das Problem, dass die applikatorischen Log- Informationen des Applets und Log-Informationen des Web Servers wieder zusammengeführt werden müssen. Session Tracking auf Application Server Ebene Hinter großen Websites, Portalen oder Shop-Lösungen verbergen sich meist komplexe Anwendungen, die oft unter Einsatz von Application Servern realisiert werden. Hier wird die komplexe Logik z.b. in Java-Programmen abgebildet. Um das Verhalten eines Benutzers in einer solchen Anwendung protokollieren zu können, ist es erforderlich, an relevanten Punkten der Anwendung entsprechende Aufrufe des Tracking Servers zu integrieren. Dabei handelt es sich um sogenannte Business Events, also Ereignisse, die entscheidend für den Ablauf der Anwendung sind. Hier hat man dann auch die Möglichkeit, sowohl Session IDs als auch Benutzernamen zu tracken. Reverse Proxy Web Server Reverse Proxy Server werden in Unternehmen gerne eingesetzt, um verschiedene interne Web Server vor dem Internet zu verbergen und so problemlos eine Lastverteilung zu erreichen. Für den Client stellt sich die Website des Unternehmens wie ein einziger Web Server dar, er erkennt dadurch nicht, dass sich einzelne Teile der Site oder verschiedene Anwendungen tatsächlich auf unterschiedlichen Servern befinden. In Hinblick auf Session IDs und Tracking sind zwei Punkte zu beachten: Der Reverse Proxy Server kann eingesetzt werden, um Log Files zu erzeugen, die an einer Stelle entstehen und alle Seiten beinhalten, da alle Requests beim Reverse Proxy durchgereicht werden. Somit lassen sich an alle Requests Session IDs anhängen. Die Web Server, die sich hinter dem Reverse Proxy verbergen, können in der Regel nicht mehr den Absender des Original Requests ermitteln, da für sie alle Anfragen vom Reverse Proxy kommen. Dadurch werden die Log-Möglichkeiten hier eingeschränkt.

9 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 6 WWW WWW Session Log Zusätzlich Session ID über Cookie oder URL-Parameter Bezug zu einem Benutzer Click Stream Analyse möglich SessionMaker Web Server Application Tracker Server Log Zusätzlich Business Events Bezug zu Session und Benutzer Direkt als Eingabe für Data Mining nutzbar Application Log Nur IPAdresse, URL, Timestamp, Request Parameter Kein Bezug zu einem Benutzer Problematisch bei dynamischen Websites Umfangreiche Datenbereinigung notwendig Abbildung 2: Tracking-Varianten im Überblick Grenzen der Logfile-Analyse Unabhängig von der Problematik einer eindeutigen Benutzeridentifikation während einer Session sind Caching und dynamische Webseiten unter Umständen Ursache für unvollständige Informationen über das Benutzerverhalten (siehe auch [SrCo00; CoMo00]). Caching Für eine vollständige Log-Auswertung stellen die im Internet weit verbreiteten Proxy- Cache-Server ein Problem dar [BeWe99]. Diese cachen eine Menge von Seiten, so dass die Requests bereits aus dem Cache bedient werden können. Damit hat aber der Betreiber der Site nicht mehr die Möglichkeit, die Requests zu tracken, d.h. sie werden im Logfile nicht aufgezeichnet. Um jetzt wieder alle Requests tracken zu können, ist es erforderlich, die wesentlichen oder sogar alle Seiten entweder im http-header als NO-CACHE zu spezifizieren oder künstlich um einen eindeutigen Zähler als Parameter zu ergänzen, damit sichergestellt ist, dass die Seite nicht zwischengespeichert wird. Dadurch erhöht sich allerdings die Server- und Netzauslastung und damit die Wartezeit für den Benutzer unter Umständen erheblich. Dynamische Webseiten Heute entstehen immer mehr Websites, die fast ausschließlich aus dynamisch erzeugten Webseiten bestehen. Dies ist insbesondere bei Portalen zu beobachten, bei denen sich ein Benutzer sowohl Inhalt als auch Layout selbst konfigurieren kann. Das Logfile des Web Servers enthält hier oft nur noch eine einzige URL und nur sehr wenige Request-Parameter, aus denen nicht auf den aktuell vom Benutzer betrachteten Inhalt geschlossen werden kann, da dieser eben dynamisch ermittelt wird.

10 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 7 Die Lösung ist auch hier, zusätzlich zum Web Server Log einen applikatorischen Log einzuführen, wiederum verbunden mit der Problematik, den applikatorischen Log und den Log des Web Servers zusammenzuführen und dabei den Bezug zu einer Session nicht zu verlieren. 2.2 Personalisierung Die Untersuchung des Such- und Entscheidungsverhaltens von (potenziellen) Kunden ist seit jeher zentraler Forschungsgegenstand im Bereich Handel und Marketing. Stets geht es um eine optimale Kundenansprache, sei es mit der Laden- oder Regalgestaltung im stationären Handel oder mit Werbeanzeigen und -spots in verschiedenen Medien. Betrachtet man das Medium Internet als weiteren Vertriebskanal, eröffnen sich vergleichbare und auch neue Möglichkeiten zur personalisierten Benutzeransprache [Röde99; Ze- Pi99]. Unter Personalisierung versteht man dabei das Anzeigen von Inhalten abgestimmt auf den jeweiligen Benutzer, basierend auf über den Benutzer gespeicherten Informationen. Solche Informationen können dabei z.b. eine Kaufhistorie, Benutzerverhalten auf der Website oder sonstige personenbezogene Daten sein. Personalisierung durch den Benutzer Bestimmte Websites bieten Benutzern die Möglichkeit, sich die Gestaltung und/oder das gewünschte Informationsangebot der Seiten selbst zu definieren und damit an ihre Bedürfnisse anzupassen. Beispiele sind Websites von Direct Brokern, wie z.b. Comdirect, bei denen sich der Benutzer ein Musterdepot einrichten und Informationsangebote zum Marktgeschehen auswählen kann. Diese Form der Personalisierung wird gelegentlich auch als explizite Profilerstellung oder Individualisierung bezeichnet [IBM00]. Sessionbezogene Personalisierung durch den Anbieter Während einer Session lässt sich das (Informations-)Angebot an das Suchverhalten des Benutzers anpassen. Beispielsweise nennt der Online-Buchhändler Amazon nach Abschluss einer Suche nach einem Buchtitel weitere Titel, die andere Käufer des gesuchten Buchtitels ebenfalls gekauft haben [ZePi99]. Regeln, die zur Anzeige derartiger, auf die aktuelle Suche bezogenen Informationen führen, werden üblicherweise offline auf der Basis von Logfiles und Warenkörben generiert. In Anlehnung an [IBM00] soll dies als implizite Profilerstellung während einer Session bezeichnet werden. Sessionübergreifende Personalisierung durch den Anbieter Eine weitere Möglichkeit der Personalisierung des Angebots einer Website ergibt sich, sofern sich der Benutzer per Login und Passwort identifizieren kann und/oder muss. Dies ist beispielsweise beim Internetbanking der Fall. Hier bietet sich die Möglichkeit, neben den angeforderten Informationen, z.b. Kontostand, weitere auf den Kunden zugeschnittene Informationen, z.b. Angebote für Geldanlagen, zu integrieren. Dies setzt unter Umständen die Berücksichtigung weiterer über den Kunden gespeicherter Informationen, d.h. die Integration der aktuellen Session-Daten mit kundenspezifischen Informationen aus einem bestehenden Data Warehouse voraus, um daraus Regeln zur personifizierten Kundenan-

11 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 8 sprache abzuleiten. Diese Form der Personaliserung wird in Anlehnung an [IBM00] als implizite Profilerstellung unter Verwendung älterer Daten bezeichnet. Zu beachten ist, dass bei sämtlichen Aktivitäten der Personalisierung datenschutzrechtlichen Aspekten eine entscheidende Rolle zukommt. In Anbetracht der technischen Möglichkeiten liegt natürlich die Befürchtung nahe, dass personenbezogene Daten, die dem besonderen Schutz des Bundesdatenschutzgesetzes (BDSG) unterliegen, missbraucht werden könnten (dieser Schutz betrifft in erster Linie personenbezogene Daten, die Rückschlüsse auf persönliche oder sachliche Verhältnisse einer Person zulassen) [BeWe99; Lamp98]. Ein wesentlicher Punkt bei Personalisierungsaktivitäten ist, dass personenbezogene Daten und Nutzungsmuster gemäß dem Teledienstedatenschutzgesetz (TDDSG) nicht zusammen gespeichert werden und damit die Anonymisierung gespeicherter Daten gewährleistet ist. Allgemein und unabhängig davon gibt es zudem Bestrebungen zum Schutz vor Missbrauch von Kundendaten, die Anbieter und/oder Nutzer von Websites selbst beeinflussen können. Konsumenten können dabei ihr eigenes Profil zusammenstellen und dabei kontrollieren, an wen sie diese Daten weitergeben, Anbieter können ihre Website-Praktiken zertifizieren lassen und z.b. durch TrustMarks kennzeichnen lassen. 2.3 Web Mining und Collaborative Filtering Um den Webauftritt personalisieren zu können, sind die Bedürfnisse der jeweiligen Besucher zu antizipieren. Dabei sind mögliche Navigationsmuster, Informationsrecherchen aber auch Kaufabsichten von Online-Besuchern zu prognostizieren. Da jede Navigation und jede Transaktion ein Business Event darstellt und über applikatorische Logs (Session Tracking auf Application Server Ebene) in strukturierter Form in Datenbanken vorgehalten wird, werden diese gesammelten Informationen dazu benutzt, dem Online-Besucher mit gezielten Personalisierungsaktivitäten in Form von individualisierten Produktangeboten, adaptiven Anpassungen der Website oder zielgruppengerechten Werbebannern zu begegnen. Da es praktisch unmöglich ist, derartige Empfehlungen 'fest zu verdrahten', werden adaptive Data Mining Techniken angewandt, wie z.b. neuronale Netzwerke, Entscheidungsbaum-Algorithmen oder multivariate statistische Methoden, um aus der üblicherweise sehr großen Datenmenge typische Navigationsmuster und Besucherprofile zu extrahieren und anzupassen. Die Besucherprofile werden durch Regelwerke beschrieben und ermöglichen für jedes Besucherprofil zielgruppenspezifische Aktivitäten in Echtzeit (z.b. Anzeigen eines bestimmten Werbebanners) Web Mining Unter Web Mining versteht man die Anwendung von Data Mining-Algorithmen auf applikatorische Logs (siehe auch Abschnitt 1 und [BeLi00; HiKü01] zu den Grundlagen des Data Mining), welche die Aktivitäten und Transaktionen von Online-Besuchern protokollieren. Diese Logs werden in einem Web Data Mart strukturiert abgespeichert und in Abhängigkeit vom gewählten Data Mining-Algorithmus in geeigneter Form bereitgestellt. Je nach Fragestellung und Analyseschwerpunkt können beispielsweise die nachfolgend erläu-

12 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 9 terten Algorithmen für Web Mining-Analysen eingesetzt werden [Wein01; SrCo00; Be- We99]: Sequenzanalyse zur Untersuchung des Click Stream Behaviours Durch den Einsatz von Sequenzanalyse-Algorithmen lassen sich typische Navigationsmuster aus protokollierten Log-Daten extrahieren. Somit lassen sich präferierte Klickpfade zur optimalen Positionierung von Werbebannern evaluieren. Weitere Anwendungsgebiete von Sequenzanalysen finden sich in der Optimierung der Ergonomie von Webauftritten [Wein01]. Clustering zur Ableitung von Besucherprofilen Kombiniert mit einer geeigneten Aufbereitung der applikatorischen Logs lassen sich mit Hilfe von Clusteranalysen spezifische Besucherprofile extrahieren. Die unterschiedlichen Profile sind die Basis für die Personalisierung des Online-Auftrittes. Die Profile oder Cluster werden durch Regelwerke beschrieben, welche auf dem Application Server hinterlegt werden. Sobald ein Online-Besucher als Mitglied eines Profils erkannt wird, bekommt er den für dieses Profil zielgruppenspezifischen Content zugewiesen. Entscheidungsbaum-Algorithmen Zur Aufdeckung komplexer Zusammenhänge auf einer Website bieten sich Entscheidungsbaum-Algorithmen an. Mit Hilfe von Entscheidungsbäumen lassen sich mächtige Klassifikations- und Prognosemodelle erstellen, welche eine Menge von Datensätzen in einer baumähnlichen Struktur darstellen und in Form von IF-THEN-Statements beschreiben. In einem Kundenprojekt bei einem führenden Online-Software-Retailer konnten dadurch Aussagen auf Kaufwahrscheinlichkeiten in Abhängigkeit von verschiedenen Parametern, wie Klickpfad, Sessionlänge, Verweildauer und Art der Referrer getroffen werden [Wein01] Collaborative Filtering Collaborative Filtering bzw. Recommender-Systeme gehören ebenfalls zu den adaptiven Techniken, die Online-Besuchern in Form von personalisierten Inhalten bei der Informationsbeschaffung oder bei einem Kaufvorgang helfen sollen. Basierend auf dem Verhalten von vorherigen Besuchern macht das System Vorschläge, die mit hoher Wahrscheinlichkeit den Präferenzen des Besuchers genügen sollen [IBM00; ZePi99]. Collaborative Filtering benötigt eine Startperiode, bis genügend Daten vorhanden sind, um die Präferenzen eines individuellen Besuchers bestimmen zu können. In vielen Fällen kann das Clustering von Besuchern zu Besucherprofilen helfen, diese Startphase zu verkürzen: Sobald ein Besucher als einer Gruppe zugehörig erkannt wird, können bei ihm als anfängliche Präferenzen die der Gruppe verwendet werden. Gelegentlich unterscheidet man vom Collaborative Filtering das Rule-based Filtering, bei dem basierend auf über gezielte Fragen erhobenen Präferenzen Produkte vorgeschlagen werden.

13 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 10 3 DynaMine Zielgerichtete Vorgehensweise zur Personalisierung Der intensive Wettbewerb und die hohe Dynamik im Zeitalter der New Economy stellt neue Anforderungen an IT-Systeme, Organisationsstrukturen und die zugrundeliegenden Prozesse. Da kürzere Reaktionszeiten oft über den Wettbewerbsvorsprung eines Unternehmens entscheiden, ist die Einbeziehung aktueller und qualitativ hochwertiger Informationen zur Entscheidungsunterstützung unabdingbar. Die Bereitstellung dieser erfolgskritischen Informationen und somit die Reaktionsfähigkeit eines Unternehmens werden jedoch in der Regel durch unzureichend integrierte Insellösungen behindert. Die Mehrheit aller Unternehmen nutzt zur Effektivitätsmessung der Online-Präsenz Analysewerkzeuge, die den Anforderungen für fundierte Entscheidungsgrundlagen zur Planung, Steuerung und Erfolgskontrolle im E-Commerce nicht mehr genügen. Als Datenbasis dieser Werkzeuge dienen in der Regel die Logfiles der eingesetzten Web-Server, die Analysen beschränken sich oft auf deskriptive Statistiken, wie z.b. Anzahl der Hits oder Anzahl der Page- Impressions. Aufgrund der eingeschränkten Analysemöglichkeiten bleiben wichtige Zusammenhänge, wie beispielsweise das Navigationsverhalten der Online-Besucher, unentdeckt. Zudem lassen sich Logfiles aufgrund ihrer Datenqualität nur unzureichend in eine Data Warehouse-Architektur einbinden. DynaMine ist ein implementiertes Vorgehensmodell, das mit Hilfe applikatorischer Logs eine Datenbasis generiert, um das Verhalten der Online-Besucher und der Online- Transaktionen zu protokollieren. Die Datenqualität der applikatorischen Logs und die Echtzeit-Bereitstellung der Logs in einem Datenbank-Managementsystem gewährleisten eine Basis für aussagekräftige Reports und qualitativ hochwertige Web Mining-Analysen. Somit steht ein Framework bereit, um Website-Personalisierung mit Unterstützung von intelligenten Data Mining-Algorithmen umzusetzen. Die folgende Abbildung skizziert die einzelnen Komponenten der DynaMine-Architektur. WWW WWW Web Server Log Data Warehouse DynaTracker Web Data Mart Application Business Events DynaExecutor DynaBase XML Data Mining System Business Data XML DynaGenerator Regeln (Java, XML) Realtime Loop Abbildung 3: Die DynaMine-Architektur Analytical Loop

14 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit Zieldefinition Ein wesentlicher Erfolgsfaktor bei der Personaliserung von Websites ist eine zielorientierte Vorgehensweise. Zu Beginn jeglicher Personalisierungs-Aktivitäten ist festzulegen, was mit Hilfe der Personalisierung erreicht werden soll. Dabei ist es erfahrungsgemäß sinnvoll, nicht den gesamten Webauftritt personalisieren zu wollen, sondern mit dem Ausschnitt der Website zu beginnen, der für die Zielerreicherung die wesentliche Rolle einnimmt. Der Vorteil dieser modularen Vorgehensweise liegt darin, dass die Umsetzung der Personalisierung in relativ kurzer Zeit möglich ist. Die Ergebnisse und Erfahrungen können dann beim weiteren Ausbau der Personalisierungs-Aktivitäten eingebracht werden. Hat man den zu personalisierenden Ausschnitt des Webauftrittes bestimmt, ist im Folgeschritt zu definieren, welches Verhalten der Onlinebesucher letztendlich personalisierte Aktivitäten auslösen soll. Die Definition von Business Events und deren Detaillierungsniveau bestimmt letztendlich, aufgrund welchen Besucherverhaltens eine Aktivität in Form eines Werbebanners oder individuellen Produktangebotes auf der Website erscheint. Dazu sind die einzelnen Business Events während einer Session mit Hilfe eines intelligenten Trackingmechanismus zu protokollieren. Business Events stellen fachlich relevante Ereignisse dar, z.b. die Aufnahme einer Aktie in ein Musterdepot oder ein Kaufauftrag einer Aktie. Die DynaMine-Vorgehensweise ermöglicht es, mit definierten Schritten zu einem geschlossenen Personalisierungs-Kreislauf zu gelangen, angefangen beim User-Tracking über die Datenaggregation und das Web Mining, bis hin zur Regelerstellung und -anwendung und schließlich zur Personalisierung der Website. 3.2 Realtime Tracking Aufbau des Web Data Mart Mit der Definition der Ziele und der Spezifikation der Business Events ist genau festgelegt, welche Informationen einer Web-Anwendung benötigt werden und somit mit Hilfe des DynaTrackers zu protokollieren sind. Die dabei entstehenden applikatorischen Logs stehen im Web Data Mart zur Verfügung, wo die Daten aggregiert und historisiert werden. Der Web Data Mart ist die Datenbasis für Web Mining-Analysen und zudem die Basis für ein umfassendes Web Controlling Tracking Sind genau spezifizierte Ereignisse innerhalb der Anwendung als Business Events definiert worden, müssen diese aus der Anwendung heraus an den DynaTracker weitergegeben werden. Zu beachten ist an dieser Stelle, dass die Performance der Website durch die Ergänzung von Tracking möglichst nicht beeinflusst werden darf. Daher muss bereits hier eine Client/Server Lösung realisiert werden, die mit möglichst wenig Overhead für den Client alle benötigten Daten zum Tracking-Server übermittelt. Daher kommen hier Protokolle wie Datagramme (UDP), Sockets (TCP) oder Messaging Systeme wie IBM MQSeries zum Einsatz. Der DynaTracker hat die Aufgabe, die aus verschiedenen Systemen gelieferten Daten, wie z.b. Web Anwendungen und Web Server Logs, zusammenzuführen und in passende Da-

15 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 12 tenbanktabellen zu verteilen. Dabei können bereits erste Filterungen, Datenkonvertierungen und eine Aufteilung in verschiedene Ziel-Datenbanken vorgenommen werden. Entscheidend dabei ist, dass Daten unterschiedlicher Quellen, die von einer Session stammen, auch mit der dazugehörigen eindeutigen Session ID versehen sind und dadurch in einen Zusammenhang gebracht werden können. So ist gewährleistet, dass Web Server Logs von statischen Seiten, Logs des Application Servers und Logs von in den Seiten integrierten Java-Applets zusammengeführt und in Echtzeit in den Web Data Mart geschrieben werden. WWW WWW Web Server DynaTracker Client Log Application Protokolle UDP, TCP, MQ DynaTracker Client DynaTracker Server Web Data Mart Business Data Business Events Abbildung 4: Performance-optimiertes Tracking mit dem DynaTracker Web Data Mart Die Datenmodellierung des Web Data Marts erfolgt nach dem Star-Schema, um der Notwendigkeit zur Abbildung multidimensionaler Datenstrukturen Rechnung zu tragen. Der Begriff Star-Schema leitet sich aus der sternförmigen Anordnung der Dimensionstabellen um eine zentrale Fakttabelle ab. In der zentralen Fakttabelle befinden sich die relevanten Kennzahlen (z.b. Anzahl der Klicks pro Session, Dauer einer Session, Anzahl der Transaktionen pro Session), in den Dimensionstabellen sind die kennzahlenbeschreibenden Attribute abgespeichert. Eine derartige Datenmodellierung erleichtert einerseits die Präsentation und das Verständnis der Datenstrukturen im Web Data Mart, andererseits werden durch die denormalisierte Datenhaltung Performancevorteile bei der Datenabfrage erreicht. Durch eine anpassbare Konformität der Dimensionstabellen an eine bereits bestehende unternehmensweite Data Warehouse Architektur kann die Integrität des Web Data Marts garantiert werden.

16 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 13 Calendar Date Dimension Time of Day Dimension Customer Dimension Session Dimension Clickstream Sessions Fact Table Page Dimension Referrer Dimension Causal Dimension Abbildung 5: Vereinfachtes Datenmodell eines Web Data Marts [KiMe00] Web Data Mart als Basis für OLAP Mit Hilfe von OLAP-Werkzeugen können die im Web Data Mart abgespeicherten Kennzahlen aus verschiedenen Sichten (Dimensionen) und Aggregationsstufen analysiert werden. Per Mausklick haben Endanwender die Möglichkeit intuitiv und interaktiv durch die Daten zu navigieren. Da Web Data Marts ihren Zusatznutzen gegenüber herkömmlichen Logfile-Analyse-Lösungen vor allem dann generieren, wenn der Web Data Mart in die unternehmensweite Data Warehouse-Architektur eingebettet wird, stehen den Endanwendern für ihre OLAP-Analysen bereits vertraute Lösungen zu Verfügung. Web Data Mart als Basis für Web Mining Da in Abhängigkeit vom eingesetzten Data Mining-Algorithmus unterschiedliche Anforderungen an die Struktur der Ausgangsdatenbasis gestellt werden, stellt der Web Data Mart die passenden Konfigurationsmöglichkeiten bereit. Mit Hilfe von Web Mining lassen sich Zusammenhänge ermitteln, die über die Analysefunktionalitäten von OLAP hinausgehen (siehe dazu im Einzelnen Abschnitt 2.3.1). 3.3 Web Controlling Der Web Data Mart in Verbindung mit den aufsetzenden OLAP-Technologien und Web Mining-Analysen bereitet das Framework für ein ganzheitliches Web Controlling sämtlicher Online-Aktivitäten. Mit Hilfe von DynaMine ist es möglich, sämtliche erfolgskritischen Daten der Wertschöpfungskette in die Analyseprozesse einzubeziehen und miteinander zu verknüpfen. Da die Qualität der Reports und Prognosen immer nur so gut sein kann wie die zugrundeliegende Datenbasis, bietet DynaMine gegenüber klassischen logfilebasierten isolierten Lösungen aufgrund qualitativ hochwertigerer Daten, der Integrationsmöglichkeit in Data Warehouse-Architekturen und der Datenbereitstellung in Echtzeit erhebliche Vorteile.

17 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit Zero Latency Web Controlling Die DynaMine-Architektur ermöglicht durch den Zero Latency Access auf erfolgskritische Informationen die Überwachung der E-Commerce-Aktivitäten in Echtzeit. Reporting- Lösungen greifen direkt auf die Echtzeit-Komponente im Web Data Mart zu und ermöglichen dadurch die Steuerung der Online-Aktivitäten. Beispielsweise kann der Webauftritt durch Realtime-Web Controlling permanent auf eventuelle Systemausfälle oder Lastprobleme überwacht werden Web Scorecard Die Grundidee der Web Scorecard beruht auf der Annahme, dass eine rein quantitative Analyse von Hits und Page-Impressions, wie sie die meisten herkömmlichen Logfile- Analyse-Tools anbieten, zur Beschreibung und Steuerung der E-Business-Aktivitäten der Realität nicht gerecht werden. Die Web Scorecard stellt einen Rahmen für ein strategisches Leistungsmessungs- und Managementsystem dar, um aus der E-Business-Strategie klar formulierte, messbare und kontrollierbare Steuerungsgrößen abzuleiten. Da unterschiedliche Einflussfaktoren den Erfolg der E-Business-Strategie bedingen, werden die zur Steuerung benötigten Informationen über verschiedene Sichtweisen (Dimensionen) abgebildet und in Form von Kennzahlen bereitgestellt. Die folgenden Abbildung beschreibt eine beispielhafte Web Scorecard für einen Online Retailer. System Dimension Kunden Dimension Web Scorecard Finanzielle Dimension Kampagnen Dimension Abbildung 6: Beispiel für eine Web Scorecard für einen Online Retailer Die als relevant zu erachtenden Dimensionen lassen sich wie folgt beschreiben: Die System Dimension stellt Informationen über die Verfügbarkeit, Performance und Ergonomie des Online-Auftrittes zur Verfügung. Aus der Kunden Dimension lassen sich Informationen über Kundenzufriedenheit und Kundenbindung gewinnen. Die Kampagnen Dimension stellt Kennzahlen bereit, die Aussagen über die Wirkung von Personalisierungsaktivitäten und Werbebannern ermöglichen.

18 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 15 Die Finanzielle Dimension einer Web Scorecard stellt Kennzahlen über die Profitabilität und Rentabilität der E-Business-Aktivitäten bereit. Die Kennzahlen der einzelnen Dimensionen der Web Scorecard sind jedoch keinesfalls isoliert zu betrachten. Erst durch die Verknüpfung der einzelnen Dimensionen mit Hilfe der OLAP-Technologie und Web Mining können die Ursache-Wirkungs-Ketten und somit die Beziehungen der einzelnen Dimensionen transparent gemacht werden und ermöglichen somit Aussagen über die wirklichen Werttreiber der E-Business-Aktivitäten. 3.4 DynaMine-Personalisierungskreislauf Die Realisierung des Personalisierungskreislaufes und dessen Wirkungsweise in der Praxis ist mit Hilfe eines Analytical Loops und eines Realtime Loops umgesetzt worden. Die folgende Abbildung beschreibt die einzelnen betroffenen Komponenten und deren Position innerhalb der Personalisierungsapplikation. DynaTracker Web Data Mart Application Server DynaExecutor DynaBase Data Mining System Analytical Loop Realtime Loop DynaGenerator Abbildung 7: DynaMine - Analytical Loop und Realtime Loop Analytical Loop Der Analytical Loop ist verantwortlich für die Aufbereitung der Application Logs und deren Analyse mit Hilfe von Web Mining. Ergebnis der Web Mining-Analysen sind Regelwerke, die typische Besucherprofile von Onlinebesuchern beschreiben. Diese Regelwerke erlauben die Echtzeit-Klassifizierung eines aktiven Benutzers zu den ermittelten Kundengruppen. Diese Regeln können mehr oder weniger direkt in bestehende Anwendungen aufgenommen werden, um diese zu personalisieren. Damit können beispielsweise für die ermittelte Benutzergruppe passende Produkte angeboten werden, oder es kann das gesamte Layout der Site automatisch an ein ermitteltes Besucherprofil angepasst werden.

19 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 16 Die aus dem Web Mining ermittelten Regeln basieren allerdings auf transformierten und aggregierten Daten, die der Anwendung nicht direkt zur Verfügung stehen. Der Versuch, die ursprünglichen Logfiles in Echtzeit zu transformieren und die Regeln bei jedem Click anzuwenden, ist zum Scheitern verurteilt, da der Zeitaufwand hierfür immens ist Realtime Loop Der Realtime Loop ist verantwortlich für die Personalisierung in Echtzeit. Über den Dyna- Generator, einem Wizzard, der die gewonnenen Data Mining-Ergebnisse in XML transformiert, werden die Regelwerke aus dem Analytical Loop in den Realtime Loop überführt. Dazu stehen für verschiedene Systeme entsprechende Adapter (DynaExecutor) zur Verfügung, welche die Regeldefinition in XML auf die DynaBase anwenden (siehe auch Abbildung 3). Der DynaExecutor klassifiziert den aktuellen Besucher in ein zuvor ermitteltes Besucherprofil und reagiert mit zielgruppenspezifischem Content. Damit hat sich der Kreis geschlossen, da die personalisierte Website natürlich wiederum Tracking-Daten liefert, die in einen nächsten Data Mining-Prozess eingehen. Die Ergebnisse des Data Mining sind jedoch nicht nur die Regelwerke selbst, sondern auch die Definition der Variablen, die für die Regeln relevant sind. Oft sind nur wenige der getrackten Variablen ausschlaggebend für die Zuordnung eines Benutzers zu einer Benutzergruppe. Um Personalisierung in Echtzeit zu realisieren, werden die Informationen über die relevanten Daten benutzt, um den DynaTracker-Server so zu konfigurieren, dass dieser sofort entsprechend transformierte und aggregierte Daten in eine spezielle Datenbank schreibt (DynaBase). Dies bietet entscheidende Vorteile: Es müssen wesentlich weniger Daten protokolliert werden (Performanceoptimierung). Die Regeln können in Echtzeit angewendet werden, da die notwendigen Daten bereits genau passend aufbereitet sind. 4 Zusammenfassung und Ausblick In dem vorliegenden Arbeitspapier wurden typische Formen der Personalisierung von Websites erläutert. Schwerpunkt der weiteren Ausführungen war das Web (Usage) Mining, mit dessen Hilfe Aussagen über das Such- und Entscheidungsverhalten von Besuchern einer Website gewonnen werden sollen. Als Datengrundlage werden dabei in der Regel Webserver-Logfiles und falls vorhanden weitere kundenspezifische Informationen verwendet. Aufgrund des Umfangs und der Struktur von Logfiles kann sich dabei ein erheblicher Aufwand für das Preprocessing der Daten ergeben. Zudem erweist sich unter Umständen die eindeutige Identifizierung des Benutzers während einer Session als problematisch.

20 Meyer, Weingärtner, Jahke, Lieven: Web Mining und Personalisierung in Echtzeit 17 Diesen Einschränkungen bzw. Nachteilen begegnen die Autoren mit dem neu entwickelten und implementierten Ansatz DynaMine. DynaMine gestattet neben einer strukturierten Datenbereitstellung die Analyse von Webnutzungsdaten und Rückkopplung der gewonnenen Regeln, um eine umgehende personalisierte Ansprache der Besucher zu realisieren. Neben der Personalisierung des Webauftritts auf der Basis der gewonnenen benutzerspezifischen Webnutzungsinformationen ergibt sich darüber hinaus die Möglichkeit einer Einbindung in Content-Managementsysteme, um auf der Basis von Nutzertypologien wesentlich flexibler Inhalte für verschiedene Zielgruppen aktuell zur Verfügung zu stellen. Speziell bei dynamischen Web-Content-Management-Systemen, bei denen Änderungen am Content sofort auf dem Live-Server sichtbar werden (die Webseiten werden erst zur Laufzeit generiert), wird dadurch ständige Aktualität der Inhalte gewährleistet. Literaturhinweise [BeLi00] [BeWe99] [BlFa99] [CoMo99] [HiKü01] Berry, M.J.A.; Linoff, G.S.: Mastering Data Mining. Wiley, New York Bensberg, F.; Weiß, T.: Web Log Mining als Marktforschungsinstrument für das World Wide Web. In: Wirtschaftsinformatik 41 (1999), S Bliemel, F.; Fassott, G.; Theobald, A.: Einleitung Das Phänomen Electronic Commerce. In: Bliemel, F.; Fassott, G.; Theobald, A. (Hrsg.): Electronic Commerce. Gabler, Wiesbaden 1999, S Cooley, R.; Mobasher, B.; Srivastan, J.: Data Preparation for Mining World Wide Web Browsing Patterns. In: Knowledge and Information Systems, Vol. 1, 1/1999, S Hippner, H.; Küsters, U.; Meyer, M.; Wilde, K.D. (Hrsg.): Handbuch Data Mining im Marketing, Wiesbaden [IBM00] IBM High-Volume Website-Team: Personalisierung von Websites. /personalization.htm (Zugriff am ). [KiMe00] [KoJä00] [KoBl00] [Lamp98] Kimball, R.; Merz, R.: The Data Webhouse Toolkit. Wiley, New York Koop, H.J.; Jäckel, K.K.; Heinold E.F.: Business E-volution. Vieweg/Gabler, Wiesbaden Kosala, R.; Blockeel, H.: Web Mining Research: A Survey. In: SIGKDD Explorations, Vol. 2, No. 1/2000, S Lampe, F.: Unternehmenserfolg im Internet. 2. Aufl., Vieweg/Gabler, Wiesbaden 1998.

Personalisierung im Internet durch Web Mining

Personalisierung im Internet durch Web Mining Personalisierung im Internet durch Web Mining Dr. Matthias Meyer 31.05.2001 0 Inhalt Grundlagen der Personalisierung Data Mining und Web Mining Web Mining zur Personalisierung des Webauftritts Beispiel

Mehr

Messung des Online-Erfolges / Optimierung einer Website

Messung des Online-Erfolges / Optimierung einer Website Messung des Online-Erfolges / Optimierung einer Website Stuttgart, Mai 2001 Guido Hartmann Senior Project Manager Talstrasse 41 Stuttgart phone: +49.711.90717-177 guido.hartmann@pixelpark.com http://www.pixelpark.com

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Unsere Datenschutzerklärung

Unsere Datenschutzerklärung Unsere Datenschutzerklärung Cookies Das Akzeptieren von Cookies ist keine Voraussetzung zum Besuch unserer Webseiten. Jedoch weisen wir Sie darauf hin, dass die Nutzung der Warenkorbfunktion und die Bestellung

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh

Schön, dass Sie da sind. 16. Juni 2008. E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Schön, dass Sie da sind. 16. Juni 2008 E-Commerce im Handel SS 2008 Lehrbeauftragte: Maria-Christina Nimmerfroh Personalisierung (Online- Marketing) Anpassung des Angebotes/der Seite/der Elemente an den

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Datenschutz. Kontakt. Der Fachbereich Datenschutz ist unter den folgenden Kontaktdaten zu erreichen:

Datenschutz. Kontakt. Der Fachbereich Datenschutz ist unter den folgenden Kontaktdaten zu erreichen: Datenschutz Wir nehmen den Schutz und die Sicherheit von persönlichen Daten sehr ernst. Daher informieren wir unsere Kunden an dieser Stelle über das Thema Datenerfassung und -schutz sowie über unseren

Mehr

Web-Log-Mining. Dr. Peter Gluchowski. Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf

Web-Log-Mining. Dr. Peter Gluchowski. Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf Web-Log-Mining Dr. Peter Gluchowski Wirtschaftswissenschaftliche Fakultät Heinrich-Heine-Universität Düsseldorf MIS 2001 7. Kongressmesse für DW und BI 26.09.2001 Gliederung Internet und E-Commerce Aufbau

Mehr

Unsere Gruppe Online Mediaplanung & Web Analyse

Unsere Gruppe Online Mediaplanung & Web Analyse Unsere Gruppe Online Mediaplanung & Web Analyse 2. Webanalyse Erfolgskontrolle DATEN Daten sammeln (Cookies, Nutzerprofile, ) TOOLS Umwandlung in wertvolle Informationen AN WENDUNG Kennzahlen Auswertungen

Mehr

Datenbank-basierte Webserver

Datenbank-basierte Webserver Datenbank-basierte Webserver Datenbank-Funktion steht im Vordergrund Web-Schnittstelle für Eingabe, Wartung oder Ausgabe von Daten Datenbank läuft im Hintergrund und liefert Daten für bestimmte Seiten

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung

Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung Conspicaris A3S-Bausteine für ganzheitliche CRM -Optimierung den Besucher wiedererkennen den Besucher oder Kunden deutlich besser klassifizieren A3S Fingerprint Dem richtigen Kunden das passende Produkt...

Mehr

Analytisches CRM und Data Mining

Analytisches CRM und Data Mining Analytisches CRM und Data Mining Magische Zahlen für das Marketing Computerwoche Initiative CRM 2009 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Mitglied im CRM Expertenrat

Mehr

Infrastruktur für Web Intelligent Systems

Infrastruktur für Web Intelligent Systems Infrastruktur für Web Intelligent Systems Thema: Business Intelligence Teil II: Data Mining & Knowledge Discovery von Christian Merker Gliederung Web-Intelligent-Systeme Begriffsklärung Personalisiertes

Mehr

Sie können uns auch über unsere Postadresse kontaktieren: Engelbrecht Medizin- und Labortechnik GmbH, Postfach 10, 34293 Edermünde.

Sie können uns auch über unsere Postadresse kontaktieren: Engelbrecht Medizin- und Labortechnik GmbH, Postfach 10, 34293 Edermünde. Datenschutzerklärung Engelbrecht Medizin- und Labortechnik GmbH respektiert das Recht auf Privatsphäre Ihrer Online-Besucher und ist verpflichtet, die von Ihnen erhobenen Daten zu schützen. In dieser Datenschutzerklärung

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Data Deluge. Welche Informationen wie gesammelt werden... Doris Köberl Nicole Kowatsch

Data Deluge. Welche Informationen wie gesammelt werden... Doris Köberl Nicole Kowatsch Data Deluge Welche Informationen wie gesammelt werden... Doris Köberl Nicole Kowatsch Wir ertrinken in Informationen, aber hungern nach Wissen. John Naisbitt (*1930), amerik. Prognostiker Web Analytics

Mehr

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation?

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation? 1. Konferenz der A Benutzer KFE in Forschung und Entwicklung Data Mining - Marketing-chlagwort oder ernstzunehmende Innovation? Hans-Peter Höschel,, Heidelberg 1. Konferenz der A Benutzer KFE in Forschung

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

10 Online-Werbung. 10/1 Werbearten. 10/1.1 Bannerwerbung bzw. Anzeigenwerbung

10 Online-Werbung. 10/1 Werbearten. 10/1.1 Bannerwerbung bzw. Anzeigenwerbung 10 Online-Werbung Online-Werbung gehört inzwischen zum Alltag jedes Nutzers des Internets. Während sich mancher Nutzer darüber ärgert und die Werbung als Belästigung empfindet, ist sie für viele Anbieter

Mehr

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite 1 Case Studie:? 2 Spezielle Integrationsanforderungen / Problematiken, die Ihnen bisher begegnet sind:? 3 Beispiele aus

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Business Intelligence im Krankenhaus

Business Intelligence im Krankenhaus Business Intelligence im Krankenhaus Dr. Thomas Lux Holger Raphael IT-Trends in der Medizin 03.September 2008 Essen Gliederung Herausforderungen für das Management im Krankenhaus Business Intelligence

Mehr

Data/Information Quality Management

Data/Information Quality Management Data/Information Quality Management Seminar WI/Informationsmanagement im Sommersemester 2002 Markus Berberov, Roman Eder, Peter Gerstbach 11.6.2002 Inhalt! Daten und Datenqualität! Einführung und Definition!

Mehr

Virtual Roundtable Web Analytics - Wichtigste Intelligenz für Unternehmen der Zukunft!?

Virtual Roundtable Web Analytics - Wichtigste Intelligenz für Unternehmen der Zukunft!? Virtual Roundtable Web Analytics - Wichtigste Intelligenz für Unternehmen der Zukunft!? Titel des Interviews: Virtual Roundtable Web Analytics - Wichtigste Intelligenz für Unternehmen der Zukunft!? Name:

Mehr

Inhaltsverzeichnis. Axel Amthor, Thomas Brommund. Mehr Erfolg durch Web Analytics. Ein Leitfaden für Marketer und Entscheider ISBN: 978-3-446-42139-4

Inhaltsverzeichnis. Axel Amthor, Thomas Brommund. Mehr Erfolg durch Web Analytics. Ein Leitfaden für Marketer und Entscheider ISBN: 978-3-446-42139-4 sverzeichnis Axel Amthor, Thomas Brommund Mehr Erfolg durch Web Analytics Ein Leitfaden für Marketer und Entscheider ISBN: 978-3-446-42139-4 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-42139-4

Mehr

Prozessbeschreibung des Trackings zur Firmenerkennung

Prozessbeschreibung des Trackings zur Firmenerkennung Prozessbeschreibung des Trackings zur Firmenerkennung Überblick Nach 1 Abs.1 des Datenschutzgesetzes soll der Einzelne davor geschützt werden, durch den Umgang mit seinen personenbezogenen Daten in seinem

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE

DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE DOKUMENTATION MAAS - MONITORING AS A SERVICE DRESDEN, 08.10.2009 CHRISTIAN.KNAUER@INF.TU-DRESEDEN.DE Dokumentation MaaS - Monitoring as a Service Inhalt 1. MaaS - Monitoring as Service... 3 1.1 Einleitung...

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Internetauftritt perfekt Intranet vernachlässigt?

Internetauftritt perfekt Intranet vernachlässigt? Internetauftritt perfekt Intranet vernachlässigt? Mitarbeiterportale, Intranetanalyse, Monitoring, Mouse Tracking, Onsite-Befragung In zahlreichen Unternehmen haben Abteilungen wie die interne Unternehmenskommunikation,

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Bibliotheken im Spannungsfeld zwischen Nutzungsmessung und Datenschutz

Bibliotheken im Spannungsfeld zwischen Nutzungsmessung und Datenschutz Bibliotheken im Spannungsfeld zwischen Nutzungsmessung und Datenschutz Jan Lüth, Dr. Timo Borst IT-Entwicklung ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften Leibniz-Informationszentrum

Mehr

MAXIMIEREN SIE IHR DIGITALES POTENZIAL DURCH DIE VISUALISIERUNG DES NUTZERVERHALTENS SESSION WIEDERGABE

MAXIMIEREN SIE IHR DIGITALES POTENZIAL DURCH DIE VISUALISIERUNG DES NUTZERVERHALTENS SESSION WIEDERGABE MAXIMIEREN SIE IHR DIGITALES POTENZIAL DURCH DIE VISUALISIERUNG DES NUTZERVERHALTENS ClickTale Core erfasst alle Mausbewegungen, Klicks und Scroll-Bewegungen und spiegelt diese in abspielbaren Videos der

Mehr

Data Warehousing in der Lehre

Data Warehousing in der Lehre Data Warehousing in der Lehre Prof. Dr.-Ing. Tomas Benz Dipl.-Inform. Med. Alexander Roth Agenda Vorstellung Fachhochschule Heilbronn Vorstellung i3g Vorlesungen im DWH-Bereich Seminare Projekte Studien-

Mehr

Lead-Management-System

Lead-Management-System Lead-Management-System Namentliche Erkennung von Firmenbesuchern mit Angabe von Verhaltens- und Strukturdaten zur Bewertung von Unternehmen mit hohem Kaufpotential Die meisten Besucher Ihrer Website bleiben

Mehr

Technische Beschreibung: EPOD Server

Technische Beschreibung: EPOD Server EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

Web Applications Vulnerabilities

Web Applications Vulnerabilities Bull AG Wien Web Applications Vulnerabilities Philipp Schaumann Dipl. Physiker Bull AG, Wien www.bull.at/security Die Problematik Folie 2 Der Webserver ist das Tor zum Internet auch ein Firewall schützt

Mehr

CCWebkatalog for professional sales

CCWebkatalog for professional sales CCWebkatalog for professional sales INNOVATIONSPREIS-IT BEST OF 2015 E BUSINESS Unternehmen, die auf E-Commerce setzen, machen deutlich, dass Sie die Zukunft verstehen. John Chambers Der Kunde im Mittelpunkt

Mehr

Analyse des Kundenverhaltens im WWW

Analyse des Kundenverhaltens im WWW Der Weg zum erfolgreichen Online-Marketing Analyse des Kundenverhaltens im WWW Informationsveranstaltung ebusiness-lotse Oberschwaben-Ulm Weingarten, 12.06.2013 Agenda Uhrzeit Programmpunkt 17:00 Begrüßung

Mehr

Datenschutzhinweis Bei allen Vorgängen der Datenverarbeitung (z.b. Erhebung, Verarbeitung und Übermittlung) verfahren wir nach den gesetzlichen Vorschriften. Ihre für die Geschäftsabwicklung notwendigen

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

CRM Architektur. New Economy CRM Architektur Page 1

CRM Architektur. New Economy CRM Architektur Page 1 CRM Architektur Titel des Lernmoduls: CRM Architektur Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.4.2 Zum Inhalt: Dieses Modul beschreibt mögliche Architekturen von CRM-Systemen. Insbesondere

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Eigenschaften von Web Content Management Systemen (WCMS) Thorsten Kanzleiter Web Content Management Systeme

Eigenschaften von Web Content Management Systemen (WCMS) Thorsten Kanzleiter Web Content Management Systeme Eigenschaften von Web Content Management Systemen () 1 Gliederung 1.1 Motivation 1.2 Problemstellung 2. 2.1 Begriffsbestimmung CMS 2.2 Übergang von CMS zu 2.3 sonstige 2.4 Content Life Cycle 2.5 Webpublishing

Mehr

Die intelligente Sicht auf Ihre Kundendaten

Die intelligente Sicht auf Ihre Kundendaten Die intelligente Sicht auf Ihre Kundendaten Business Case Ein tiefgehendes Verständnis der Kunden, ihrer Bedürfnisse und Kaufgewohnheiten ist im heutigen wirtschaftlichen Umfeld - das durch intensive Anbieter-Konkurrenz,

Mehr

Xtract EXA. Plug n Play mit SAP und EXASolution

Xtract EXA. Plug n Play mit SAP und EXASolution Xtract EXA Plug n Play mit SAP und EXASolution Xtract EXA garantiert eine nahtlose Integration zwischen Ihrem SAP ERP- bzw. SAP BW-System und EXASolution. Mit nur wenigen Mausklicks extrahieren Sie Massendaten

Mehr

Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog

Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog Big Data im Marke

Mehr

DIE GRUNDLAGEN DER FERNÜBERWACHUNG

DIE GRUNDLAGEN DER FERNÜBERWACHUNG DIE GRUNDLAGEN DER FERNÜBERWACHUNG Verbraucherleitfaden Version 1.0 Deutsch Einleitung Derzeit sind am Markt zahlreiche Videoüberwachungssysteme erhältlich, die einen digitalen Zugriff über Netzwerkverbindungen

Mehr

Die spezifischen Stärken und Schwächen der Online-Medien werden im Web-Controlling abgebildet:

Die spezifischen Stärken und Schwächen der Online-Medien werden im Web-Controlling abgebildet: Web-Controlling Die spezifischen Stärken und Schwächen der Online-Medien werden im Web-Controlling abgebildet: Interaktivität Spezifische Möglichkeiten Zielgruppen zu identifizieren und zu erreichen (Targeting)

Mehr

Data Warehouse Grundlagen

Data Warehouse Grundlagen Seminarunterlage Version: 2.10 Version 2.10 vom 24. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Anwendertage WDV2012 28.02.-01.03.2013 in Pferdingsleben

Anwendertage WDV2012 28.02.-01.03.2013 in Pferdingsleben Anwendertage WDV2012 28.02.-01.03.2013 in Pferdingsleben Thema: xrepo Auswirkungen auf zukünftige Entwicklungen Referent: Dipl.Ing. Simon Scheler MSc PRAXIS-Consultant Alles ist möglich! 1 Zu meiner Person

Mehr

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO innovation@work Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO thinkbetter AG Florian Moosmann 8. Mai 2013 1 Agenda Prädiktive Analyse Begriffsdefinition Herausforderungen Schwerpunktbereiche

Mehr

Sofortige Erfolgskontrolle

Sofortige Erfolgskontrolle 1 Sofortige Erfolgskontrolle Der Erfolg einer Website wird im klassischen Sinne an der Zahl der Besucher, der Zahl der Seitenaufrufe und an der Verweildauer gemessen, kurz: dem "User Tracking". Es gilt

Mehr

Fakten! In Deutschland gibt es 110 Mio. aktive Mobilfunkkarten.

Fakten! In Deutschland gibt es 110 Mio. aktive Mobilfunkkarten. Fakten! In Deutschland gibt es 110 Mio. aktive Mobilfunkkarten. 50% 14- bis 49-Jährigen nutzt einen mobilen Computer. (Quellen: Global Press 20.07.2010/ Medien Radar 2010) 90% aller Mobiltelefone haben

Mehr

Oxybul éveil et jeux

Oxybul éveil et jeux Online Intelligence Solutions Oxybul éveil et jeux Oxybul éveil et jeux nutzt das Potential der Daten von AT Internet erfolgreich um kontinuierlich effizientere und effektivere Retargeting-Kampagnen zu

Mehr

Technik der SAP-Anbindung Christian Aigner Team Entwicklung, Kranzberg

Technik der SAP-Anbindung Christian Aigner Team Entwicklung, Kranzberg Christian Aigner Team Entwicklung, Kranzberg Inhalt Schnell- und Kürzestübersicht über SAP Architektur Inhalt, Login, Session SapGUI Workbench,Editor,Explorer Mechanismen Die Gemeinsamkeiten: nutzbare

Mehr

Sicherheit in Webanwendungen CrossSite, Session und SQL

Sicherheit in Webanwendungen CrossSite, Session und SQL Sicherheit in Webanwendungen CrossSite, Session und SQL Angriffstechniken und Abwehrmaßnahmen Mario Klump Die Cross-Site -Familie Die Cross-Site-Arten Cross-Site-Scripting (CSS/XSS) Cross-Site-Request-Forgery

Mehr

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA Liste der Handbücher Liste der Benutzerhandbücher von MEGA MEGA 2009 SP4 1. Ausgabe (Juni 2010) Die in diesem Dokument enthaltenen Informationen können jederzeit ohne vorherige Ankündigung geändert werden

Mehr

Nutzungsbedingungen. Urheberschutz

Nutzungsbedingungen. Urheberschutz Nutzungsbedingungen Urheberschutz Die in der genutzten Event-App veröffentlichten Inhalte und Werke sind urheberrechtlich geschützt. Jede vom deutschen Urheberrecht nicht zugelassene Verwertung bedarf

Mehr

Vertriebs-Dashboards für das Management

Vertriebs-Dashboards für das Management Vertriebs-Dashboards für das Management Die wichtigsten Vertriebskennzahlen jederzeit und aktuell auf einen Blick. www.schleupen.de Schleupen AG 2 Der Wettbewerb Die Stadtwerke stehen im direkten Wettbewerb

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Web Analytics & Web Controlling

Web Analytics & Web Controlling Edition TDWI Web Analytics & Web Controlling Webbasierte Business Intelligence zur Erfolgssicherung von Andreas Meier, Darius Zumstein 1. Auflage Web Analytics & Web Controlling Meier / Zumstein schnell

Mehr

Big Data Analytics Roadshow. Nils Grabbert. Wie man mit einer analytischen Datenbank im Retargeting mehr erreicht. Düsseldorf, 24.04.

Big Data Analytics Roadshow. Nils Grabbert. Wie man mit einer analytischen Datenbank im Retargeting mehr erreicht. Düsseldorf, 24.04. Folie Retargeting intelligent Wie man mit einer analytischen Datenbank im Retargeting mehr erreicht. Big Data Analytics Roadshow Düsseldorf, 24.04.2012 Nils Grabbert Director Data Science Der Retargeting

Mehr

Web-Anwendungsentwicklung mit dem Delivery Server

Web-Anwendungsentwicklung mit dem Delivery Server Web-Anwendungsentwicklung mit dem Delivery Server Java-Framework auf Basis der Open API Bernfried Howe, Webertise Consulting GmbH WEBertise Consulting Dipl. Informatiker (Wirtschaftsinformatik) 2001-2010

Mehr

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement Jump Helpdesk Softwarelösungen für professionelles Servicemanagement Jump Network GmbH 2004-2006 Jump Helpdesk Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen.

Mehr

Bildungsportal-Verbund

Bildungsportal-Verbund Bildungsportal-Verbund BPVP Bildungsportal-Verbund Protokoll Kurzspezifikation Für weitere technische Details nehmen kontaktieren Sie bitte: Robert.kristoefl@bmbwk.gv.at Thomas.menzel@bmbwk.gv.at Version

Mehr

Andreas Emhart Geschäftsführer Alegri International Group

Andreas Emhart Geschäftsführer Alegri International Group Andreas Emhart Geschäftsführer Alegri International Group Agenda Vorstellung Alegri International Überblick Microsoft Business Intelligence Sharepoint Standard Business Intelligence Tool Excel Service

Mehr

Nutzungsbezogene Analyse von Web-Sites mit induktiven statistischen Methoden in der Praxis

Nutzungsbezogene Analyse von Web-Sites mit induktiven statistischen Methoden in der Praxis Nutzungsbezogene Analyse von Web-Sites mit induktiven statistischen Methoden in der Praxis Prof. Dr. Frank Dellmann Wirtschaftsmathematik und Statistik Fachhochschule Münster Corrensstr. 25 D-48149 Münster

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

DATA-DRIVEN E-COMMERCE SUITE WEB ANALYTICS & PERSONALISIERUNG

DATA-DRIVEN E-COMMERCE SUITE WEB ANALYTICS & PERSONALISIERUNG Wir bei econda brennen für Data-Driven E-Commerce. Sie als E- Commerce Professional bekommen bei uns maßgeschneidert die High- Tech Software und die Unterstützung, die Sie brauchen, um den maximalen Wert

Mehr

Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen

Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen Christoph Arnold (B. Sc.) Prof. Dr. Harald Ritz Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen AKWI-Tagung, 17.09.2012, Hochschule Pforzheim Christoph Arnold, Prof. Dr. Harald

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Internet/Intranet nutzbringend angewandt!?!

Internet/Intranet nutzbringend angewandt!?! Internet/Intranet nutzbringend angewandt!?! Maik G. Seewald Agenda 1. Einleitung und Ziel der Präsentation 2. Internet u. Web Based Computing eine Erfolgsgeschichte 3. Architektur web-basierter Anwendungssysteme

Mehr

Datenmanagement. Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau. Strategisches Informationsmanagement 1 (01/2006)

Datenmanagement. Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau. Strategisches Informationsmanagement 1 (01/2006) Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau (01/2006) Strategisches Informationsmanagement 1 Definition Notwendige Vermaischung der Daten in der Vorstufe zur Destillation von hochprozentiger

Mehr

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH CEPaaS Complex Event Processing as a Service Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH Daniar Achakeyev, Daniel Schäfer, Philip Schmiegelt CEP-Forschung in Marburg: aus

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

Vorhersage mit CA CleverPath Predictive Analysis Server. Laszlo Mihalka Senior Consultant Laszlo.Mihalka@ca.com

Vorhersage mit CA CleverPath Predictive Analysis Server. Laszlo Mihalka Senior Consultant Laszlo.Mihalka@ca.com Vorhersage mit CA CleverPath Predictive Analysis Server Laszlo Mihalka Senior Consultant Laszlo.Mihalka@ca.com Agenda Herausforderung CP PAS Neugents Modelle Mustererkennung Tools CA World 1 Herausforderung

Mehr

Michael Bauer Niederlassungsleiter Köln

Michael Bauer Niederlassungsleiter Köln Click to edit Master title style 1 Michael Bauer Niederlassungsleiter Köln Hamburg, 18. Juni 2009 2009 IBM Corporation Agenda Click to edit Master title style 2 zur Person Wo, Warum.., Was - CPM liefert

Mehr

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Michael Hahne T&I GmbH Workshop MSS-2000 Bochum, 24. März 2000 Folie 1 Worum es geht...

Mehr

Rosetta Stone Datenschutzrichtlinien

Rosetta Stone Datenschutzrichtlinien Rosetta Stone Datenschutzrichtlinien Rosetta Stone Inc. "Rosetta Stone" respektiert die Privatsphäre unserer Kunden. Wir legen Wert darauf, Ihre Privatsphäre zu schützen, ohne dabei auf ein personalisiertes

Mehr

Datenintegration mit Informatica PowerCenter

Datenintegration mit Informatica PowerCenter Datenintegration mit Informatica PowerCenter Mein Weg vom Studenten zum Consultant Christoph Arnold 03.07.2013 1 Agenda Von der THM zu Infomotion Datenschieberei oder doch mehr? Die weite Welt von Informatica

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131 Architekturen Von der DB basierten zur Multi-Tier Anwendung DB/CRM (C) J.M.Joller 2002 131 Lernziele Sie kennen Design und Architektur Patterns, welche beim Datenbankzugriff in verteilten Systemen verwendet

Mehr

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II

Ora Education GmbH. Lehrgang: Oracle Application Server 10g R2: Administration II Ora Education GmbH www.oraeducation.de info@oraeducation.de Lehrgang: Oracle Application Server 10g R2: Administration II Beschreibung: Die Teilnehmer lernen verschiedene Topologien des Oracle Application

Mehr

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen MATERNA Beschwerde-Management-Check Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen >> MATERNA Beschwerde-Management-Check Ist in Ihrer Versicherung die Einführung,

Mehr

David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects

David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects Thema: David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects Autor: Dipl. Wirtsch.-Inf. Torsten Kühn PRAXIS-Consultant PRAXIS EDV- Betriebswirtschaft- und

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Impressum. Angaben gemäß 5 TMG: Vertreten durch: Kontakt: Registereintrag: Umsatzsteuer-ID: Farbenmühle mcdrent GmbH & CO. KG Hagdorn 13 45468 Mülheim

Impressum. Angaben gemäß 5 TMG: Vertreten durch: Kontakt: Registereintrag: Umsatzsteuer-ID: Farbenmühle mcdrent GmbH & CO. KG Hagdorn 13 45468 Mülheim Impressum Angaben gemäß 5 TMG: Farbenmühle mcdrent GmbH & CO. KG Hagdorn 13 45468 Mülheim Vertreten durch: Jens Müller Kontakt: Telefon: 004915168497847 E-Mail: info@mcdrent.de Registereintrag: Eintragung

Mehr

7. Data-Warehouse-Einsatz für Web-Zugriffsanalyse und Recommendations

7. Data-Warehouse-Einsatz für Web-Zugriffsanalyse und Recommendations 7. Data-Warehouse-Einsatz für Web-Zugriffsanalse und Recommendations Einführung Web-Zugriffsanalse / Website-Optimierung Recommendations und Recommender Adaptive Bestimmung von Recommendations (AWESOME)

Mehr

Social Media als Bestandteil der Customer Journey

Social Media als Bestandteil der Customer Journey Social Media als Bestandteil der Customer Journey Gregor Wolf Geschäftsführer Experian Marketing Services Frankfurt, 19.6.2015 Experian and the marks used herein are service marks or registered trademarks

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr