Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation

Größe: px
Ab Seite anzeigen:

Download "Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation"

Transkript

1 Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation Masterarbeit Professor Dr. Andreas Meier Information System Research Group Universität Fribourg Assistent Michael Kaufmann Information System Research Group Universität Fribourg Cédric Graf Rue de la Carrière Fribourg 02/09/2010

2 Inhaltsverzeichnis 1 Einführung Situation Entscheidungsunterstützungssysteme Business Intelligence Architektur der Business Intelligence Data Mining Gründe für den Einzug des Data Mining in die Business Analyse Definition des Data Mining Dichotome und unscharfe Klassifikation Heterogenität der Data Mining Methode Anwendungsbereiche von Mustererkennungsmethoden Wirtschaftliche Anwendungsbereiche Kundenbeziehungsmanagement (CRM Customer Relationship Management) Elektronischer Handel (e Commerce) Versorgungskettenmanagement (Chain Management) Ziel der Masterarbeit Wissenschaftliche Fragen zum Data Mining Ansatz Benutzen von WEKA für die Datenbeschaffung (Pre processing) Implementierung eines IFC Filters zur induktiven Fuzzy fizierung Auswertung von Datensätzen Aussicht auf die Arbeit Theoretischer Teil Klassifikation Definition der Klassifikation Definition der dichotomen Klassifikation Definition der unscharfen Klassifikation Maschinelles Lernen Künstliche Intelligenz Beschreibung des maschinellen Lernens Lernmethoden Unbewachtes Lernen (unsupervised learning) Bewachtes Lernen (supervised learning)

3 2.2.4 Der Prozess des maschinellen Lernens Problemstellung Wahl der Zieldaten Datenaufbereitung, Datenbereinigung und Datenreduktion (Preprocessing) Data Mining Selektion der inhaltlichen Data Mining Aufgaben Selektion des konkret anzuwendenden Algorithmus Durchführen des Data Mining Evaluation Konsolidieren der gewonnenen Informationen, Visualisierung und Dokumentation Unscharfe Mengen und unscharfe Logik Unscharfe Mengen Die Bedeutung der Zugehörigkeitsfunktionen Messen von Zugehörigkeitsgrade Unscharfe Mengenoperatoren Charakteristiken von unscharfen Mengen Herleiten von unscharfen Mengen Unscharfe Restriktionen Zugehörigkeitsfunktionen generieren Linguistische Variable Unscharfe Logik und approximative Beweisführung Unscharfe Logik Approximative Beweisführung Regelbasiertes unscharfes Denksystem Defuzzyfizierung Induktion Probabilistische induktive Logik Einsatzgebiet der induktiven Logik Generelles Gesetz der Likelihood Vergleich von Klassifikationsmethoden Trainieren und Testen von Daten Prognosefehler Mittlere quadratische Abweichung Korrelationskoeffizient

4 2.6 Induktive unscharfe Klassifikation oder Inductive Fuzzy Classification IFC Vorverarbeitung Datenpräparation Merkmalsauswahl Induktion der Zugehörigkeitsfunktion Induktion der kategorischen Zugehörigkeitsfunktion Induktion der numerischen Zugehörigkeitsfunktion Schritt 1: Eingabe Schritt 2: Berechnung der Quantile Schritt 3: Berechnen der NLR Schritt 4: Berechnen der Durchschnittswerte der Quantile Schritt 5: Approximation Zugehörigkeitsgrade Schritt 6: Berechnen des Korrelationskoeffizienten Univariate unscharfe Klassifikation Multivariate unscharfe Klassifikation Evaluation Lineare Regression Modellbäume Softwarearchitektur Was ist WEKA? Explorer Knowledge Flow Experimenter Datenformate von WEKA Eingabeformate von WEKA Interne Datenformate von WEKA Wichtigste Module von WEKA WEKA GUI WEKA Core WEKA Classifier WEKA Filter Softwareimplementierung Benutzte Hardware und Software Entwurfsmuster Fabrikmethode Strategiemuster

5 3.4.3 Implementierung des IFC Filters Schnittstelle zu WEKA Ziel der Schnittstelle Funktionsweise der Schnittstelle Klassenbeschreibung der Schnittstelle Implementierung des kategorischen Algorithmus Ziel des kategorischen Algorithmus Funktionsweise des kategorischen Algorithmus Klassenbeschreibung des kategorischen Algorithmus Implementierung des numerischen Algorithmus Ziel des numerischen Algorithmus Funktionsweise des numerischen Algorithmus Klassenbeschreibung des numerischen Algorithmus Grafische Schnittstelle Ziel der grafischen Schnittstelle Funktionsweise der grafischen Schnittstelle Implementierung der grafischen Schnittstelle Bedienungsanleitung Bedienungsanleitung für den Knowledge Flow Knowledge Flow mit IFC Filter Konfigurieren des RemovePercentage Filters Konfigurieren des IFC_Filters Resultatsausgabe im Knowledge Flow Bedienungsanleitung für den Explorer Preprocess Panel des Explorers Grafische Resultatenausgabe Grafische Ausgabe der numerischen Variablen Die grafische Darstellung der kategorischen Variablen Schlussfolgerung Vergleich von Data Mining Methoden mit und ohne Wahrscheinlichkeitsverhältnis Inductive Fuzzy Classification versus linearer Regression Inductive Fuzzy Classification versus Modellbäume Verbesserungs und Erweiterungsvorschläge Welche Lehren kann man aus der Arbeit ziehen? Wissenschaftliche Fragen

6 4.3.2 Diskussion Bibliographie Anhang

7 1 Einführung Diese Masterarbeit richtet sich an alle Leser, welche ein Interesse am Data Mining haben. Insbesondere soll sie mit Hilfe des von (Kaufmann & Meier, An Inductive Fuzzy Classification Approach applied to Individual Marketing, June 2009) entwickelten IFC (Inductiv Fuzzy Classification) Algorithmus einen Einblick in die unscharfe Klassifikation geben. Doch bevor auf den Algorithmus eingegangen werden kann, soll in dieser Einführung das Data Mining innerhalb der Wirtschaftswissenschaft situiert werden, um schliesslich die Ziele und Vorgehensweise dieser Arbeit zu präsentieren. 1.1 Situation Das heutige Wirtschaftsumfeld hat laut (Turban, Aronson, Liang, & Sharda, 2007, S. 3 6) an Komplexität und Dynamik zugenommen. Dies führt zu einer Zunahme des Konkurrenzdrucks. Als Folge müssen sich Firmen den Marktbedingungen möglichst schnell stellen. Dies bedingt wiederum, dass Firmen ihre Strukturen schnell und innovativ anpassen. Managemententscheide bilden Grundlagen, auf welche sich die strategische und operationelle Struktur einer Firma stützt. Somit sind diese Entscheide für die effiziente und dynamische Marktanpassung der Firma grundlegend. Um strukturierte und effiziente Managemententscheide treffen zu können, werden Entscheidungsmodelle benutzt. Laut (Turban, Aronson, Liang, & Sharda, 2007, S. 9 11) bestehen diese Modelle aus folgenden Phasen: Definiere das Problem. Konstruiere ein Model, welches die Wirklichkeit beschreibt. Erkenne mögliche Lösungen. Vergleiche, bewerte oder wähle eine dieser Lösungen. Um diesen Prozess zu befolgen, muss man sicherstellen, dass möglichst viele Lösungsalternativen beachtet werden. Doch erschwert diese methodische Vorgehensweise die Auswertung des Entscheidungsprozesses folgenderweise: Durch Informationssysteme, Suchmaschinen und Globalisierung steigt die Anzahl Wahlmöglichkeiten im Entscheidungsprozess exponentiell. Rechtsnormen, politische und monetäre Instabilität, Wettbewerb und Verhaltensänderungen der Kunden erschweren Zukunftsprognosen. Das Wirtschaftsumfeld wird durch die Globalisierung, das Internet und den e Commerce immer komplexer. Aufgrund dieses komplexen Wirtschaftsumfelds wurden, wie wir es im nächsten Abschnitt sehen werden, Entscheidungsunterstützungssysteme entwickelt. 1.2 Entscheidungsunterstützungssysteme Als erstes stellt sich die Frage, was ein Entscheidungsunterstützungssystem oder DSS (Decision Support System) ist. Da es keine einheitliche Definition für DSS gibt, schlägt (Turban, Aronson, Liang, & Sharda, 2007, S. 21) eine übergreifende Definition vor: Ein Entscheidungsunterstützungssystem oder DSS ist jedes computergestützte System, welches die Entscheidungsfindung in Organisationen unterstützt, wobei 7

8 unter Organisationen einzelne Abteilungen einer Firma sein können. So kann die Marketing, Finanz oder Buchhaltungsabteilung einer Firma ein eigenes DSS besitzen. Eine Liste der Charakteristiken der Computersysteme aus (Turban, Aronson, Liang, & Sharda, 2007, S. 12) soll zeigen, welchen Vorteil man aus den DSS ziehen kann: Schnelle Rechenzeit der Computer ermöglicht dem Entscheidungstreffer, Rechenaufgaben günstig und schnell zu lösen. Dies ermöglicht eine schnelle Reaktion auf den Wandel von Umweltsituationen. Computer ermöglichen die Verbesserung der Kommunikation und Zusammenarbeit zwischen Gruppen. So gibt es eine ganze Reihe von webbasierenden Werkzeugen, welche den Informationsaustausch ermöglichen. Im Bereich der Versorgungsketten kann dies einen ausschlaggebenden Wettbewerbsvorteil verschaffen. Produktivitätssteigerung kann durch den Einsatz von webbasierenden Kommunikationsmitteln erreicht werden. Gruppenmitglieder können mit ihrer Hilfe an getrennten Orten gemeinsame Entscheide treffen, was zur Einsparung von Transportkosten und Zeit führt. Computer ermöglichen eine verbesserte Datenverwaltung. Oft beinhalten Entscheide komplexe Daten, welche aus verschiedenen Datenbanken stammen können. So bildet die schnelle und verschlüsselte Übertragung von verschiedenen Datenformaten einen Vorteil. Computer haben die Fähigkeit, grosse Datenbestände zu verwalten. Dabei ermöglichen Daten Warehouse Systeme die Verwaltung von Lagerbestände und digitaler Informationen. Computer erhöhen die Qualität der getroffenen Entscheide. Mit ihrer Hilfe kann auf grösseren Datenmengen zugegriffen werden, was die Anzahl Lösungsalternativen für Entscheide erhöht. Ihre künstliche Intelligenz ermöglicht die Erstellung von Reports, welche Prognosen beinhalten. Diese Prognosen verbessern die Risikoanalysen, und können schnell von Experten begutachtet werden. Konkurrenzvorteile werden heutzutage aus der Fähigkeit gewonnen, schnell für den Kunden zugeschnittene Qualitätsprodukte anzubieten. Daraus folgt, dass Organisationen fähig sein müssen, ihren Operationsmodus kundenorientiert anzupassen, um sich von der Konkurrenz abzugrenzen. Entscheidungsunterstützungssysteme ermöglichen die Entscheidungsfindung auch mit unvollständigen Informationen, so dass beispielsweise im Bereich des Supply Chain Management die Produktion effizient dem Kundenwunsch angepasst werden kann. Da der Mensch nur limitierte Fähigkeiten hat, Informationen zu speichern und zu verarbeiten, helfen Entscheidungsunterstützungssysteme diese Grenzen zu überwinden. Computer haben die Fähigkeit schnell und sicher riesige Datenmengen zu verarbeiten, um sie in verständlicher Form dem Entscheidungstreffer zur Verfügung zu stellen, was den Menschen hilft, ihre Limitierung zu überwinden. Durch die Einführung des Internets hat die Informationsflut zugenommen. Es können nun weltweit in kürzester Zeit auf Informationen und Datenquellen zugegriffen werden. Die Einführung von Computer gesteuerten intelligenten Suchfunktionen ermöglicht eine effiziente Informationssuche. 8

9 Aus den obengenannten Eigenschaften kann man kaum den Nutzen von DSS abstreiten. Da jedes computergestützte System ein DSS ist, welches Informationen zur Entscheidungsfindung beiträgt, gewährleistet dies die Datenübertragungskompatibilität zwischen den Systemen nicht. Dieser Nachteil wurde durch die BI oder Business Intelligence überwunden. 1.3 Business Intelligence Wie im letzten Abschnitt angedeutet, ist die BI oder Business Intelligence eine Vereinigung von verschiedenen Softwarearchitekturen, Werkzeugen, Datenbanken, analytischen Werkzeugen, Applikationen und Methoden. BI ermöglicht den Managern den interaktiven Zugriff auf Daten. Er kann mit ihrer Hilfe Datenmanipulationen durchführen, um gewünschte Analysen zu bewerkstelligen. Durch die BI unterstützte Datenanalyse kann die Entscheidungsfindung konsequent untermauert werden, so dass sie methodisch durchgeführt werden kann. Die Architektur der BI wird, wie im nächsten Unterabschnitt beschrieben, in mehreren Komponenten unterteilt Architektur der Business Intelligence Data Warehouse Business Analyse Data Mining Business Performance Management Datenquellensysteme Benutzerschnittstelle Abbildung 1: Architektur der Business Intelligence Systeme Die Architektur der BI ist das Bindeglied, welches die verschiedenen DSS in einem System vereint. So besteht sie, laut (Turban, Aronson, Liang, & Sharda, 2007, S ), aus vier Komponenten: Das Data Warehouse bildet die Basis des BI Systems. Es ermöglicht den Zugriff auf historische und aktuelle Daten. Als Konsequenz seiner Aufgabe führt das Data Warehouse eine Standardisierung, Integration, Historisierung und Organisation der Daten aus. Die Business Analyse stellt eine Vielzahl von Werkzeugen und Techniken zur Verfügung, welche die Auswertung der Daten ermöglicht. Diese können in drei Kategorien unterteilt werden: 9

10 o Berichte und Abfragen ermöglichen dem Businessanalyst, in Daten Erkenntnisse zu entdecken. o Fortgeschrittene Analysen beinhalten statistische, finanzielle, mathematische und andere Modelle, welche benutzt werden können, um Daten und Informationen zu analysieren. o Data Mining, Text Mining und andere anspruchsvolle mathematische und statistische Werkzeuge bilden die dritte Kategorie. Das Business Performance Management reicht über das Monitoring zum Messen und Vergleichen von Abätzen. So bilden Gewinne, Kosten, Rentabilität und andere Indikatoren Grundlagen für die Erstellung der Prognosen und Planung der Firmenstrategie. Das Hauptanliegen des Business Performance Managements ist die Stärkung der firmenweiten Strategie. Die Benutzerschnittstelle bietet einen verständlichen und intuitiven Zugriff auf Daten und Darstellung der Daten. So kann ein Benutzerinterface Informationen aus verschiedenen Geschäftszweigen integrieren und sie visuell in Form von verschiedenen Graphen darstellen, so dass ihre Zusammenhänge ersichtlich werden. Da wir nun das Data Mining innerhalb der Business Analyse situieren konnten, werden wir nun näher auf den Kern dieser Arbeit eingehen, nämlich das Data Mining. 1.4 Data Mining Data Mining wird nun in die Business Analyse eingeordnet. Es bleibt noch zu zeigen, was Data Mining eigentlich ist, und welchen Nutzen es der Datenanalyse bringt. So wird im nächsten Unterkapitel gezeigt, was der Grund zur Einführung des Data Mining ist Gründe für den Einzug des Data Mining in die Business Analyse Wie schon in der Einführung beschrieben, haben Komplexität und Dynamik des Wirtschaftsumfelds zugenommen. Dieser Tatbestand und die Tatsache, dass Informationstechnologien einen festen Platz in Firmen eingenommen haben, erschweren die Arbeit des Datenanalysten erheblich. Auch haben sich Daten als Folge der Einbindung in Organisationsstrukturen verändert und erschweren seine Arbeit folgendermassen: Die Grösse der Datenbestände hat exponentiell zugenommen. Datenbestände können auf verschiedene Datenträger gelagert sein und in Verbindung zueinander stehen. Daten sind oft heterogen. So können sie aus verschiedenen Organisationen stammen und in verschiedenen Formaten sowie mit verschiedenen Standards gespeichert sein. Nicht mit neuem Applikationsstandard kompatible Daten stehen oft brach und sind Geld und Ressourcen aufreibend. Durch die Komplexität der Datenbestände und die Grenzen des menschlichen Geistes, ist es einem Datenanalyst kaum möglich, das volle Potenzial der Datenbestände auszuschöpfen. Da aber der aus diesen Daten gewonnene Nutzen, laut (Apte, Lui, Pednault, & Smyth, 2002) und (Kohavi, Rothleder, & Simoudis, Emerging trends in Buisness Analytics, August 2002), erhebliche Marktvorteile mit sich bringt, ist die Nutzung von Business Analyse Methoden für 10

11 Firmen unverzichtbar. In dieser Hinsicht spielt neben klassischen statistischen Methoden das Data Mining eine zentrale Rolle Definition des Data Mining Grundsätzlich ist das Data Mining die Verwendung von verschiedenen mathematischen und statistischen Methoden, welche Informationen aus extrem grossen Datenbeständen automatisch oder semiautomatisch aufarbeitet. Diese Datenbestände werden dann nach Mustern durchsucht, so dass zukünftiges Verhalten prognostiziert werden kann. Prognosen spielen im Data Mining eine zentrale Rolle, doch stellt sich die Frage, was prognostiziert werden soll. Durch das Verwenden von Merkmalsausprägungen oder Attribute der Datenbestände können diese in Klassen unterteilt werden. Die Klassenzugehörigkeit der Datenelemente kann demzufolge prognostiziert werden. So kann man z.b. die Zuordnung von Kunden zu ihren Kundensegmenten mit Hilfe von Klassifikationsmethoden prognostizieren. Da die Komplexität und Grösse der Datenbestände mit der zunehmenden Integration der Informationstechnologien in der Gesellschaft und Wissenschaft zugenommen hat, mussten automatische Verfahren entwickelt werden, welche Klassifikation automatisch vornehmen können. Diese Verfahren werden neben Data Mining generell unter dem Begriff maschinelles Lernen zusammengefasst Dichotome und unscharfe Klassifikation Es existiert eine Vielzahl von Klassifikationsverfahren. Baysian Netze, knn Verfahren (k Nearest Neighbour), logistische Regression und Clustering sind Beispiele für Methoden, die ihren Einzug als Klassifikationsmethoden gefunden haben. Obwohl sich diese Methoden aufgrund ihrer Funktionsweise kategorisieren lassen, gibt es eine tiefergreifende Unterscheidung der Klassifikationsmethoden. Diese Unterscheidung greift auf den Kern der Klassifikation, nämlich der Art und Weise, wie Elemente einer Klasse zugeordnet werden. So kann man in dieser Hinsicht zwei Kategorien von Klassenzuordnungsmethoden unterscheiden: Bei der dichotomen Klassifikation werden genau definierte Grenzwerte Klassen unterteilt. Wenn man die Klassifikation auf ein Merkmal reduzieren würde, könnte man z.b. sagen, dass alle Personen, die jünger als 20 Jahren sind, jung sind, während alle anderen, die diese Bedingung nicht erfüllen, alt sein müssen. Man sieht hier, dass ein klarer Grenzwert gezogen wird, um Klassen zu trennen. Bei der unscharfen Klassifikation gibt es keinen scharfen Grenzwert. Die Grenzen der Klassifikation sind in dieser Hinsicht graduell. Eine Person würde nicht entweder zur Klasse der jungen Personen oder zur Klasse der alten Personen gehören. Man würde sagen, dass eine Person zu 0,2 Prozent zur Klasse der jungen Personen gehört. So haben Werte im Intervall zwischen 0 und 1 einen informativen oder gewichteten Charakter auf das Attribut jung. Der Unterschied zwischen diesen zwei Klassifikationsmethoden ist besonders einprägsam, wenn man beachtet, dass wenn man ein besonderes Interesse an junge Personen hat, man bei der dichotomen Klassifikationsmethode alle Elemente über den Grenzwert ignoriert, 11

12 während bei der unscharfen Klassifikation alle Elemente beachtet werden, sie aber graduell durch einen Wert zwischen 0 und 1 wertet Heterogenität der Data Mining Methode Wir haben gesehen, dass das Data Mining einen erheblichen Vorteil der Business Analyse bringt. Doch die Anzahl verschiedenartiger Methoden, die in den Disziplinen des Data Mining und im maschinellen Lernen verwendet werden, deutet darauf hin, dass sich keine allgemein einsetzbare Methode fürs Data Mining herauskristallisiert hat. Es scheint so, dass einerseits die Daten und andererseits die Aufgaben, welche die Methoden übernehmen müssen, die Wahl der Methode beeinflusst. Eine Liste der in den Datenbeständen existierenden Merkmale gibt eine Idee, wie divers die verschiedenen Methoden sein können: Die Datenmenge spielt in der Wahl der Data Mining Methode eine Rolle. Je grösser ein Datensatz ist, desto effizienter muss die Methode sein. So können Algorithmen exponentieller Ordnung dazu führen, dass Datenmengen nicht in angemessener Zeit bearbeitet werden können. Die Datenmerkmale spielen in der Wahl der Methoden eine wichtige Rolle. Besitzt ein Datensatz Trainingsdatensätze mit Klassenzuordnungen, so werden Data Mining Methoden wie logistische Regressionen und Baysian Netze verwendet. Besitzen die Datensätze keine Klassenzuordnungen, so stehen Clusteringverfahren im Vordergrund. Unstrukturierte Daten wie z.b. Bilder, Texte, Videos usw., werden nicht in Relationen gespeichert, sondern bilden einen einheitlichen Datenklumpen. Um diesen aufzubrechen und zu analysieren, muss je nach Kontext eine unterschiedliche Data Mining Methode verwendet werden. Aus diesen Gründen kann sich das Data Mining nicht mit einer einzigen Methode zufriedenstellen, sondern beinhaltet eine Vielzahl von Methoden Anwendungsbereiche von Mustererkennungsmethoden Bisher wurde vor allem von den Vorteilen des Data Mining in der Business Analyse gesprochen. Da sich das Data Mining auf die Mustererkennung stützt, kann man eine Liste der Anwendungsbereiche der Mustererkennungsmethoden ziehen, welche sich auf (Fawley, Piatetsky Shapiro, & Matheus, 1992) bezieht: In der Bilderkennung wird sie benutzt, um Bilder zu kategorisieren. In der Schrifterkennung werden Mustererkennungsmethoden verwendet, um Handschriften (OCR Optical Character Recognition) zu erkennen und zu digitalisieren oder um Schrifttypen zu unterscheiden. Im Bereich Gestenerkennung, welche als Ziel das Erkennen von Gesten hat (z.b. das Erkennen von Zeichensprachen), werden Mustererkennungsmethoden verwendet. In der Spracherkennung werden Mustererkennungsmethoden verwendet. In Websuchmaschinen werden im Bereich des Text Mining Mustererkennungsmethoden benutzt. 12

13 In der Medizin wird die Mustererkennung eingesetzt, um Nebenwirkungen von Medikamenten zu testen, Gensequenzierungen durchzuführen und um Kostenkontrolle zu bewältigen. Die Finanzwelt nutzt Mustererkennung, um Kreditzusagen zu unterstützen, Finanzmarktprognosen zu generieren, Verletzungen der Marktaufsichtsvorlagen zu entdecken und um Fundportfolios zu gestalten. In der Agrarwirtschaft werden Klassifikationen von Krankheiten von Sojabohnen und Tomaten mit Hilfe der Mustererkennung bewältigt. Im Marketing werden Verhaltensmuster der Kunden gesucht, um geeignete Zielgruppen zu gewinnen. Im Versicherungswesen dient die Mustererkennung dem Aufdecken von Versicherungsbetrug. In den Ingenieurswissenschaften wird die Mustererkennung in automatischen Diagnosesystemen, in Computer Aided Design und in Simulationen eingesetzt. In der Physik und Chemie wird die Mustererkennung im Bereich der Elektrochemie und Supraleitfähigkeit eingesetzt. In der Strafverfolgung wird Mustererkennung im Bereich der Steuerhinterziehung, Fingerabdruckerkennung und Bergung gestohlener Personenwagen benutzt. In der Astronomie wird Mustererkennung für das Suchen nach intelligentem Leben und das Bewältigen der Datenmengen, welche aus den Teleskopen stammen, benutzt. Im Verlagswesen wird die Mustererkennung für die massgeschneiderte Publikation von Zeitschriften benutzt. Diese Liste ist kaum vollständig, doch sollte sie einen Einblick in den weitreichenden Einsatz der Mustererkennung geben. Dies wiederum festigt die Anerkennung, die die Mustererkennung und somit auch das Data Mining in der Business Analyse geniesst Wirtschaftliche Anwendungsbereiche Um die zuvor genannte Liste zu vervollständigen, werden wir in den folgenden Unterkapiteln die oben genannte Auflistung durch ausgewählte Gebiete der Wirtschaft näher erläutern. Dies soll die Standfestigkeit des Data Mining untermauern. Hierfür wird auf das Kundenbeziehungsmanagement (CRM Customer Relationship Management), das Versorgungskettenmanagement und das e Commerce eingegangen Kundenbeziehungsmanagement (CRM Customer Relationship Management) Das Kundenbeziehungsmanagement (CRM Customer Relationship Management) kann man dem Marketing zuordnen. Das Ziel des Kundenbeziehungsmanagement ist es, Kunden an Firmen zu binden und neue Kunden zu akquirieren. Hierfür steht die Beziehung der Kunden zum Dienstleistungsanbieter im Kern der Marketinganalyse. Da die Informationsmenge durch moderne Informationssysteme zugenommen hat, schlägt (Meier, Werro, Albrecht, & Miltiadis, 2005) die Segmentierung der Kunden mit Hilfe eines fcql Toolkit vor, welches die Formulierung von unscharfen Abfragen auf Datenbanken ermöglicht. In seiner Segmentierung werden Kunden in unscharfe Klassen eingeordnet. So kann man den Kunden folgende Merkmale zuordnen: Umsatz, Zahlungsverhalten und Loyalität. Diese Merkmale erlauben die Segmentierung der Kunden und reduziert gleichzeitig die die Kunden 13

14 bezeichnende Anzahl Variablen. Dieser multivariate Ansatz ermöglicht der Marketingstrategie, die Kunden zu analysieren und kundenorientierte Kampagnen zu initiieren. Auch können Kunden mit hoher Wertschöpfung für ein Unternehmen mit Hilfe dieser Segmentierung erkannt werden, so dass man ihnen Rabatte gewähren kann. Um diesen Sachverhalt zu untermauern, werden im Folgenden drei den erwähnten Sachverhalt stützende Arbeiten vorgestellt: (Chan, Au, & Choi, 2002) erklärt, dass durch die Deregulierung des Flugbetriebs in China der Druck auf die einzelnen Fluggesellschafen zugenommen hat. Seine Arbeit stützt sich auf die Tatsache, dass 20% der Kunden 80% des Umsatzes eines Unternehmens ausmachen. Dies und die Tatsache, dass die Kundenakquisition höhere Kosten verursacht als loyale Kunden zu binden, führt zu gezielten Kampagnen, welche die Kundenbeziehungen mit hoher Wertschöpfung festigen soll. Der Kundensegmentierung muss somit eine besondere Aufmerksamkeit geschenkt werden. Um die Segmentierung durchzuführen, stehen den Fluggesellschaften Daten aus Meilenkarten der Kunden zur Verfügung. Diese Karten beinhalten aber keine demographischen Informationen und besitzen somit einen geringen Wert für traditionelle Kundensegmentierung. Aus diesem Grund schlagen (Chan, Au, & Choi, 2002) Data Mining Methoden vor, um Erkenntnisse aus Daten mit geringen Charakteristiken zu ziehen, was die Kundensegmentierung ermöglicht. (Zhang & Chen, 2009) wendet Assoziationsanalysen, ein Bereich des Data Mining, an, um Spender einer karitativen Institution zu regelmässigen Geldspenden zu bewegen. Dieses Ziel wird über direktes Marketing bzw. durch Werbepost erreicht. Beim Einsatz ihrer Kundenadressen erhalten sie im Normalfall 11.7% Antworten. Da aber die Kosten solcher Kampagnen hoch und die Mittel dieser Institution beschränkt sind, sollen die Versandkosten gedrosselt werden, ohne den Geldfluss aus den Kampanien signifikant zu reduzieren. Anhand der Assoziationsanalyse konnte dies erreicht werden. So wurden 63.57% der Kunden dem richtigen Kundensegment zugeordnet, was die Kampagnenkosten reduzierte und somit den Gewinn aus den Kampagnen erhöhen konnte. (Setnes, Kaymakt H. R., & van Nauta, 1998) stellt eine Methode der Kundensegmentierung durch unscharfen Cluster vor. Der Algorithmus wurde für den Einsatz in der Firma Postbank, welche der Gruppe Dutch ING angehört, entwickelt. Da die Postbank durch direktes Marketing ihren Kunden Funds, Sparkontos und Hypotheken anbietet, spielen, wie im letzten Abschnitt, die Versandkosten eine wichtige Rolle, doch viel wichtiger ist, dass Kunden, welche falsch umworben werden, die bisherig genossenen Dienstleistungen künden können. So wurde ihr Algorithmus erfolgreich über eine Kundensammlung von Kunden eingesetzt, wobei 77 Kundenmerkmale zur Anwendung kamen Elektronischer Handel (e Commerce) Der Elektronische Handel ist ein virtueller Einkaufsvorgang mittels Datenübertragung, wobei das Internet die Geschäftsbeziehung zwischen Kunden und Dienstleistungsanbieter sichert. (Kohavi, Application of Data Mining to Electronic Commerce, 2001) weist darauf hin, dass der Einsatz von Data Mining Methoden in traditionellen Geschäftsbeziehungen mit Hürden verbunden ist. Eine dieser Hürden ist das Vorhandensein von Daten mit geeigneten Attributen, die das Data Mining ermöglichen. Data Mining Attribute verlangen eine kritische 14

15 Datenmenge, um repräsentativ zu sein. Oft ist die Sammlung dieser Daten eine Herausforderung für Organisationen. So soll das Sammeln der Daten wenn möglich automatisch erfolgen. Dies führt zu verlässlichen Daten und zu Kostenersparnisse. Die Auswertung der Data Mining Methoden stellt ebenfalls ein nicht zu unterschätzendes Hindernis für Organisationen. So können Umsatzsteigerungen unumgängliche Argumente für den Einsatz von Data Mining Methoden sein. Obwohl Data Mining Methoden eine sichere Wertsteigerung darstellen, muss ihre Integration in Geschäftsprozessen oft mit sozialen und politischen Oppositionen kämpfen. Der elektronische Handel wird oft in Web Shop Form abgewickelt. Dabei besteht ein Web Shop aus einem Frontstore, bei welchen die Kunden ihre Einkäufe tätigen können, und einem Backstore, welcher die Abwicklung und Validierung der Geschäfte ermöglicht. Da persönliche Daten der Kunden für die Geschäftsabwicklung nötig sind, kann man die Datenerfassung im Backstore vornehmen. Gleichzeitig ist die Erfassung von Mausklicks und das Verfolgen der Navigation der Kunden eine herausragende Datenquelle, um Erkenntnisse über das Kaufverhalten der Kunden zu erlangen. Dies führt zur Selbstverständlichkeit der automatischen Datenerfassung im elektronischen Handel. Diese Datenerfassung resultiert in einem exponentiellen Wachstum der Datenmengen, welche einzig mit Hilfe von Data Mining Methoden analysiert werden können. Somit sind die zuvor aufgezählten Hürden für das Data Mining im elektronischen Handel geringer als in anderen Geschäftszweigen. E Commerce und Kundenbeziehungsmanagement verfolgen ähnliche Ziele. So ist ihr Hauptanliegen die Individualisierung des Produktangebots und der Preispolitik, um die Umsätze und Gewinne zu steigern. Wir werden nun zwei diesen Sachverhalt stützende Arbeiten kurz beschreiben. (Meier & Werro, A Fuzzy Classification Model for Online Customers, 2007) entwickelte ein fcql Toolkit, welches im Web Shop esarine eingesetzt wurde. Dieses Toolkit ermöglicht die unscharfe Klassifikation der Kunden und somit ihre Segmentierung gemäss ihrer Wertschöpfung. Das fcql Toolkit ermöglicht das Formulieren von unscharfen Queries, welche die Kunden anhand eines Kontextmodels auf der zugrundeliegenden relationalen Datenbank unscharf klassifiziert, ohne die Datenbank zu modifizieren. Anhand der Merkmale Umsatz, Gewinnmarge, Produktbewertungen, Forumseinträge und die Besuchsfrequenz messende Clickstream der Kunden, erfolgt eine Aggregation, die die unscharfen Merkmale Loyalität und Umsatz den Kunden zuordnende. Diese Zuordnung wird dann für die Kundensegmentierung verwendet. Diese Aggregation reduziert die Marketinganalyse auf zwei Merkmale. Im Fall von esarine konnte dieses Vorgehen auf Online Marketingkampangien erfolgreich eingesetzt werden. (Chen, Jianghong, He, Maoi, & La, 2005) analysiert in seiner Arbeit die Navigation von Kunden im Internet. Das Ziel ist es, die Lieblingsinternetseiten der Kunden zu finden, um das Design von Webseiten zu verbessern. Durch die Analyse des Navigationsverhaltens der Kunden können Rückschlüsse auf Internetseitenpräsentationen geschlossen werden. Dies kann zu möglichen Verbesserungen der Internetseitenpräsentationen führen. So sollten kaum besuchte Seiten und hohe Marge abwerfende Produkte so dargestellt werden, dass sie möglichst oft besucht werden, was zu einer höheren Verkaufsrate führen kann. Um Lieblingsseiten zu finden, benutzt er Assoziationsregeln auf maximale Vorwärtsreferenz. Diese Referenz besteht aus Mustern im Navigationsverhalten. So besteht eines dieser Muster aus dem Navigieren von einer Seite zur nächsten und 15

16 wieder zurück zur ersten Seite. Daraus wird gefolgert, das die Seite auf die zurückgegriffen wird, vom Kunden bevorzugt wird. Man stellt hier fest, dass das Data Mining nicht nur auf das Kaufverhalten wirken kann, sondern auf die Gestaltung von Web Seiten und somit des Werbeträgers Versorgungskettenmanagement (Chain Management) Lieferkettenmanagement oder Supply Chain Management kümmert sich um die Planung auf Managementebene der Beschaffung und Umwandlung von Güter und Dienstleistung. So gehören Lieferantenwahl, und Logistikaufgaben zu seinen Aufgabenbereich. Das Lean Management spielt im Lieferkettenmanagement eine zentrale Rolle, um die eine vernetzte Lieferungskette bildende Koordinierung und Zusammenarbeit der Partner der Logistikkette zu optimieren. In dieser Hinsicht werden Arbeiten kurz vorgestellt, die das Data Mining im Lieferkettenmanagement integrieren: (He & Song, 2009 ) benutzte Datenbanken welche Information über Lagerbestände, Lieferungszeiten, Fluktuationen der Marktpreise usw. beinhalten, um die Risikofaktoren der Lieferketten zu ermitteln. Sein Ziel war es, Risikofaktoren, welche eine Reaktion auf die Änderungen der Marktverhältnisse einer Lieferungskette ermöglicht, zu isolieren. In seinem Ansatz benutzte er Assoziationsanalysen. Mit ihrer Hilfe konnten Regeln für die Isolierung der Hauptrisiken entdeckt werden. So stellte er fest, dass die Transportweglänge und die Vertrauenswürdigkeit der Zulieferer ein wichtiger Risikofaktor ist. Auch spielen Zwischenhändler mit verzögerten Zahlungsvereinbarungen eine wichtige Rolle in der Lieferungskette. So können Data Mining Methoden für die Risikoanalyse in der Lieferungskette dem Management die nötigen Entscheidungsgrundlagen für Managemententscheide geben. (Xu, Lin, & Xu, 2009) stellt fest, dass die Wahl der Zulieferer eine wichtige Rolle im Lieferkettenmanagement spielt, da sie direkt mit den generierten Kosten zu verbinden ist. Er meint dass im Normalfall Optimierungsanalysen für die Ermittlung von Zulieferer benutzt werden, doch werden durch diese Vorgehensweise wichtige Zusammenhänge zwischen Merkmalen der Zulieferer ignoriert. Deshalb schlägt er einen multivariaten Einsatz der Assoziationsanalysen vor, welche die Zulieferer in eine Ranglisten mit den Kriterien Produktqualität, Vertrauenswürdigkeit, Lieferungszeiten, Grösse des Zulieferungsnetzwerks, Ruf des Zulieferer, Kosten und Kundenbetreuung einordnen kann. Diese Arbeit zeigt, dass das Data Mining in der Wahl der Zulieferer für das Lieferkettenmanagement ein wichtiges Instrument darstellen kann. Da durch geeignete Wahl der Zulieferer Produktionsengpässe verhindert und Kosten gesenkt werden können. 1.5 Ziel der Masterarbeit Wie die Einleitung es vermuten lässt, befasst sich diese Arbeit mit dem Einsatz von Data Mining Methoden in der Business Analyse. Insbesondere ist das Ziel der Arbeit, den Einsatz von unscharfen Algorithmen im Data Mining zu erläutern. So soll diese Arbeit durch die Implementierung eines unscharfen Algorithmus den Einsatz von unscharfen Algorithmen im Data Mining untermauert werden. 16

17 1.6 Wissenschaftliche Fragen zum Data Mining Wissenschaftliche Fragen lassen sich aus dem Ziel der Arbeit ableiten und können wie folgt aufgelistet werden: Ist die induktive unscharfe Klassifikation eine geeignete Methode für das Data Mining und wenn ja, weshalb? Wann ist induktive unscharfe Klassifikation einer dichotomen Methode vorzuziehen? Wie beweist man, dass eine Klassifikationsmethode im Data Mining besser geeignet ist als eine andere? Mit welchen Merkmalen und mit welcher Dimension sollte man Data Mining anwenden? Diese Fragen werden im Verlauf dieser Arbeit erläutert und wenn möglich beantwortet oder Ansätze für ihre Beantwortung gegeben. 1.7 Ansatz Dieser Unterabschnitt beschreibt die Strategie, mit welcher die wissenschaftlichen Fragen und Ziele dieser Arbeit erfüllt werden sollen Benutzen von WEKA für die Datenbeschaffung (Preprocessing) Durch das Benutzen von WEKA, eine Open Source Data Mining Workbench, soll die Datenbeschaffung erleichtert werden, da diese Schnittstellen in WEKA schon integriert sind. WEKA soll somit durch einen IFC Filter erweitert werden. Mit diesem Filter wird das Implementierungsziel der Arbeit erfüllt. Das Testen des Algorithmus übernimmt WEKA mit ihrem Methodenbündel Implementierung eines IFC Filters zur induktiven Fuzzyfizierung Beim in WEKA implementierten Filter, handelt es sich um einen IFC (Inductive Fuzzy Clasification)Filter, der von (Kaufmann & Meier, An Inductive Fuzzy Classification Approach applied to Individual Marketing, June 2009) entwickelt wurde. Der Filter wird die von WEKA vorverarbeiteten Daten entgegen nehmen und in unscharfen Werten, im Intervall zwischen 0 und 1, umwandeln. Innerhalb des Filters ist eine grafische Schnittstelle implementiert, so dass eine benutzerfreundliche Visualisierung der Zugehörigkeitsfunktionen (Membership Funcions) stattfinden kann Auswertung von Datensätzen Um Datensätze auszuwerten, wird ein Supervised Algorithmus Filter in WEKA implementiert, welches den IFC Algorithmus enthält. Der Filter generiert eine Prognose, in dem er Quelldaten von WEKA empfängt und aus ihnen eine Zugehörigkeitsfunktion induziert. Danach ordnet die Zugehörigkeitsfunktion jedem Element des Datensatzes einen unscharfen Wert zu. Diese Werte können dann mit der in WEKA implementierten linearen 17

18 Regression, und Modellbäume aggregiert werden, um eine multivariante Analyse durchzuführen. Der Korrelationskoeffizienten kann dann zur Evaluation des Algorithmus verwendet werden. 1.8 Aussicht auf die Arbeit Da wir nun das Ziel und den Ansatz der Arbeit definiert haben, werden wir als erstes mit einem theoretischen Teil weiterschreiten, in welchem die Grundlagen für den IFC Algorithmus beschrieben werden. In einem zweiten Schritt werden wir die Implementierung des Algorithmus präsentieren und schliesslich folgt die Auswertung des Algorithmus mit einem Schlusswort. 18

19 2 Theoretischer Teil Der theoretische Teil soll die nötigen Grundlagen bilden, um den IFC Algorithmus zu beschreiben. Als Einführung werden wir die Definition der Klassifikation einführen, um danach auf den maschinellen Lernprozess einzugehen, welcher für ein effizientes Data Mining notwendig ist. Darauf folgt ein Abschnitt über die Induktion und einer über das Messen von Prognosefehler. Schliesslich sollen Kenntnisse der unscharfen Mengen und Logik den Weg zur Beschreibung des IFC Algorithmus ebnen. 2.1 Klassifikation Data Mining hat zum Ziel, aus Datenquellen implizit vorhandene Muster, Erkenntnisse und Zusammenhänge zu extrahieren. Bei der Klassifikation wird ein Modell gebildet, welches Elemente einer Klasse zuordnet. Dieses Modell kann induktiv auf Elemente mit unbekannter Klassenzugehörigkeit angewendet werden, so dass Prognosen entstehen. In den folgenden Unterabschnitten wird die Klassifikation definiert, um dann auf zwei Hauptkategorien der Klassifikationsmethoden, der unscharfen und den dichotomen Klassifizierungsmethoden, einzugehen Definition der Klassifikation Um die Klassifikation beschreiben zu können, ist es von Vorteil sie formell zu definieren. Gestützt auf die Definition von (Werro, Meier, & Pasquier, 2008) kann die Klassifikation wie folgt definiert werden: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen. Die Klassifikation gruppiert Elemente mit gewissen Eigenschaften zu einer Menge: C i ={x O P(x O )}, somit ist C i die Menge aller x O, welche die Eigenschaft P erfüllen. Die Klassen werden somit durch Einschränkungen oder Bedingungen auf die Merkmalsausprägungen der Objekte definiert Definition der dichotomen Klassifikation Die dichotome Klassifikation definiert scharfe Zugehörigkeitsbedingungen für Klassen. Wenn man die Definition von (Werro, Meier, & Pasquier, 2008) mit der von (Schindler, 1998) verbindet, erhält man folgende Definition für die dichotome Klassifikation: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen, wobei die Klassenbezeichnung a priori gegeben ist oder zu entdecken ist. Eine scharfe Klassifikation berechnet ein Zugehörigkeitsvektor M={m 1, m 2,, m n } für die Objekte O. Das Vektorelement m i {0, 1} berechnet die Zugehörigkeit eines Objekts O zur Menge C i. Das Objekt O wird somit durch m i der Menge C i zugeordnet. Wenn m i =1 gehört das Objekt O zur Klasse C i. Wenn m i =0 gehört es nicht der Klasse C i. 19

20 Man kann hier beispielsweise die Klasse der rentablen Kunden betrachten. Mit der scharfen Klassifikation wird diese Klasse wie folgt formuliert: rentable Kunden={Kunde Umsatz(Kunde)>50 Mio CHF und Kosten (Kunde)<=0.2 Mio CHF} Die Grenzwerte 50 Mio und 0.2 Mio trennen die Kunden eindeutig. Ein Kunde dessen Umsatzt >50 Mio CHF und dessen Aufwand für eine Firma <= 0.2 Mio CHF beträgt, wird eindeutig der Menge der rentablen Kunden zugeordnet, während die Kunden die diese Einschränkungen oder Bedingungen nicht erfüllen, nicht der Menge der rentablen Kunden angehören. Die eindeutige Klassenzuordnung ist charakteristisch für die scharfe Klassifikation Definition der unscharfen Klassifikation Bei der unscharfen Klassifikation werden Objekte graduell jeder definierten Klasse zugeordnet. Hier bildet der Grad der Zuordnung eines Objekts zu einer Klasse die Beziehung des Objekts zur Klasse. Formell kann man die Definition von (Werro, Meier, & Pasquier, 2008) übernehmen: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen, wobei die Klassenbezeichnung a priori gegeben ist oder zu entdecken ist. Eine unscharfe Klassifikation berechnet ein Zugehörigkeitsvektor M={m 1, m 2,, m n } für die Objekte O. Das Vektorelement m i [0, 1] berechnet den Zugehörigkeitsgrad des Objekts O zur Menge C i. Wenn man das Beispiel aus dem letzten Abschnitt übernimmt, kann man die rentablen Kunden mit der unscharfen Klassifikation wie folgt beschreiben: rentable Kunden ={Kunde Umsatz(Kunde)=hoch und Kosten (Kunde)=tief} Tief und hoch finden ihren Ursprung im natürlichen Sprachgebrauch und bilden kein quantifizierbarer Ausdruck. Doch werden sie durch die Zuordnung von Werten zwischen 0 und 1 graduell den rentablen Kunden zugeordnet, so dass sie messbar werden. Im Gegensatz zur dichotomen Klassifikation wird bei der unscharfen Klassifikation jeder Kunde der Menge der rentablen Kunden zu einem gewissen Grad zugeordnet. Dies verhindert eine klare oder scharfe Zuordnung der Kunden zur Menge der rentablen Kunden. 2.2 Maschinelles Lernen Laut (Turban, Aronson, Liang, & Sharda, 2007, S ) gehört das maschinelle Lernen zum Teilgebiet der künstlichen Intelligenz. Aus diesem Grund werden wir kurz auf die künstliche Intelligenz eingehen, um danach das maschinelle Lernen zu beschreiben, was schliesslich zum Prozess des maschinellen Lernens führen wird. 20

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

WEKA A Machine Learning Interface for Data Mining

WEKA A Machine Learning Interface for Data Mining WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010

Mehr

Data Mining als Arbeitsprozess

Data Mining als Arbeitsprozess Data Mining als Arbeitsprozess Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 31. Dezember 2015 In Unternehmen werden umfangreichere Aktivitäten oder Projekte im Bereich des Data Mining

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die mu l- tidimensionale Betrachtung von Daten zwecks Ermit t- lung eines entscheidungsunterstützenden

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Analytisches CRM in der Automobilindustrie

Analytisches CRM in der Automobilindustrie Analytisches CRM in der Automobilindustrie Dr. Frank Säuberlich Practice Manager European Customer Solutions Urban Science International GmbH Automobilhersteller müssen neue Wege gehen Anforderungen in

Mehr

Entscheidungsunterstützungssysteme

Entscheidungsunterstützungssysteme Vorlesung WS 2013/2014 Christian Schieder Professur Wirtschaftsinformatik II cschie@tu-chemnitz.eu Literatur zur Vorlesung Gluchowski, P.; Gabriel, R.; Dittmar, C.: Management Support Systeme und Business

Mehr

9 Resümee. Resümee 216

9 Resümee. Resümee 216 Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls

Mehr

Mehrwert durch Beratungen aus einer Hand

Mehrwert durch Beratungen aus einer Hand Mehrwert durch Beratungen aus einer Hand Lösungen für Versicherungen Versicherung Business & Decision für Versicherungen Die Kundenerwartungen an Produkte und Dienstleistungen von Versicherungen sind im

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Andreas Seufert Organisation: Institut für Business Intelligence

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement Jump Helpdesk Softwarelösungen für professionelles Servicemanagement Jump Network GmbH 2004-2006 Jump Helpdesk Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen.

Mehr

SEO Services von dmc. Mehr Erfolg mit Suchmaschinenoptimierung durch dmc

SEO Services von dmc. Mehr Erfolg mit Suchmaschinenoptimierung durch dmc SEO Services von dmc Mehr Erfolg mit Suchmaschinenoptimierung durch dmc Suchmaschinenoptimierung bei dmc Die Suchmaschinenoptimierung hat das Ziel bessere Positionen in den unbezahlten Suchergebnissen

Mehr

Visual Business Analytics Visueller Zugang zu Big Data

Visual Business Analytics Visueller Zugang zu Big Data Visual Business Analytics Visueller Zugang zu Big Data Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax:

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

Inhaltsverzeichnis: Definitionen Informationssysteme als Kommunikationssystem Problemlösende Perspektiven Allgemeine System Annäherung Fazit

Inhaltsverzeichnis: Definitionen Informationssysteme als Kommunikationssystem Problemlösende Perspektiven Allgemeine System Annäherung Fazit Informationssysteme Inhaltsverzeichnis: Definitionen Informationssysteme als Kommunikationssystem Problemlösende Perspektiven Allgemeine System Annäherung Fazit Definitionen: Informationen Informationssysteme

Mehr

Customer Relationship Management

Customer Relationship Management Customer Relationship Management Titel des Lernmoduls: Customer Relationship Management Themengebiet: New Economy Gliederungspunkt im Curriculum: 2.2.1.3.7 Zum Inhalt: Diese Modul befaßt sich mit der Vorgehensweise

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Spezialisierung Business Intelligence

Spezialisierung Business Intelligence Spezialisierung Business Intelligence Peter Becker Fachbereich Informatik Hochschule Bonn-Rhein-Sieg peter.becker@h-brs.de 10. Juni 2015 Was ist Business Intelligence? Allgemein umfasst der Begriff Business

Mehr

Data Mining (ehem. Entscheidungsunterstützungssysteme)

Data Mining (ehem. Entscheidungsunterstützungssysteme) Data Mining (ehem. Entscheidungsunterstützungssysteme) Melanie Pfoh Anja Tetzner Christian Schieder Übung WS 2014/15 AGENDA TEIL 1 Aufgabe 1 (Wiederholung OPAL / Vorlesungsinhalte) ENTSCHEIDUNG UND ENTSCHEIDUNGSTHEORIE

Mehr

Phrasensammlung für wissenschaftliches Arbeiten

Phrasensammlung für wissenschaftliches Arbeiten Phrasensammlung für wissenschaftliches Arbeiten Einleitung In diesem Aufsatz/dieser Abhandlung/dieser Arbeit werde ich... untersuchen/ermitteln/bewerten/analysieren... Um diese Frage zu beantworten, beginnen

Mehr

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining

Einladung zu den IBM SPSS Data und Text Mining Tagen. Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Einladung zu den IBM SPSS Data und Text Mining Tagen Auch in Ihrer Nähe! Gewinnen Sie entscheidungsrelevantes Wissen mit Data und Text Mining Lassen Sie Daten und Texte für sich arbeiten mit Smarter Analytics

Mehr

Indextest bietet klare und schnelle Antworten auf immer wiederkehrende Fragen

Indextest bietet klare und schnelle Antworten auf immer wiederkehrende Fragen 06. August 2013 ForschungsWerk mit Innovation auf dem Markt: Indextest bietet klare und schnelle Antworten auf immer wiederkehrende Fragen NÜRNBERG - ForschungsWerk hat mit Indextest ein Tool entwickelt,

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

6 Vorverarbeitung. Kapitel 6 Vorverarbeitung. Einführung der Vorverarbeitung. Einführung in die Vorverarbeitung

6 Vorverarbeitung. Kapitel 6 Vorverarbeitung. Einführung der Vorverarbeitung. Einführung in die Vorverarbeitung 6 Vorverarbeitung 6.1 Einführung in die Vorverarbeitung Zweck der Vorverarbeitung Kapitel 6 Vorverarbeitung Transformiere die Daten so, dass sie optimal vom Miner verarbeitet werden können. Problem: -

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Automatische Gesprächsauswertung im Callcenter

Automatische Gesprächsauswertung im Callcenter Einleitung Forschungsbeitrag Automatische Gesprächsauswertung im Callcenter Projekt CoachOST Dipl.-Wirtsch.-Inf. Mathias Walther Prof. Dr. Taïeb Mellouli Lehrstuhl für Wirtschaftsinformatik und Operations

Mehr

Advanced Analytics. Michael Ridder. Copyright 2000-2014 TIBCO Software Inc.

Advanced Analytics. Michael Ridder. Copyright 2000-2014 TIBCO Software Inc. Advanced Analytics Michael Ridder Was ist Advanced Analytics? 2 Was heißt Advanced Analytics? Advanced Analytics ist die autonome oder halbautonome Prüfung von Daten oder Inhalten mit ausgefeilten Techniken

Mehr

MS SQL Server 2012 (4)

MS SQL Server 2012 (4) MS SQL Server 2012 (4) Data Mining, Analyse und multivariate Verfahren Marco Skulschus Jan Tittel Marcus Wiederstein Webseite zum Buch: http://vvwvv.comelio-medien.com/buch-kataiog/ms sql_server/ms sql

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Expertise für Ihre Datenanalyse Beratung und Schulungen von StatSoft

Expertise für Ihre Datenanalyse Beratung und Schulungen von StatSoft Expertise für Ihre Datenanalyse Beratung und Schulungen von StatSoft Inhalt Inhalt Consulting / Workshops 2 Programmierung / Automatisierung 3 Validierung 3 Schulungen Softwareunabhängige Methodenschulungen

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

ConWeaver Make Your Data Work

ConWeaver Make Your Data Work ConWeaver Make Your Data Work 2012 ConWeaver Know-how im Bereich Wissensvernetzung seit 1993 2007 Ausgründung aus der Fraunhofer-Gesellschaft (Mit-)Gewinner des Software-Clusters 2010 und des Innovationspreis-IT

Mehr

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter Korrekte Entscheidungen für Qualität und Produktivität effizient finden und treffen Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

1 Einleitung. 1.1 Motivation

1 Einleitung. 1.1 Motivation 1 Einleitung 1.1 Motivation Eine zunehmende Globalisierung in Verbindung mit der Verbreitung des elektronischen Handels, stets kürzer werdende Produktlebenszyklen und eine hohe Variantenvielfalt konstituieren

Mehr

Create the most powerful customer relations for your business

Create the most powerful customer relations for your business Create the most powerful customer relations for your business Customer Relationship Management Customer Die Ziele von CRM sind rentable und langfristige Kundenbeziehungen. Visionen, Strategien und Ziele

Mehr

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Visual Business Intelligence Eine Forschungsperspektive

Visual Business Intelligence Eine Forschungsperspektive Visual Business Intelligence Eine Forschungsperspektive Dr. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung IGD Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155 646 Fax.: +49

Mehr

VisualCockpit. agile business analytics

VisualCockpit. agile business analytics VisualCockpit agile business analytics Agile Business Analytics mit VisualCockpit Für Unternehmen wird es immer wichtiger die gesamte Wertschöpfungskette aus Daten, sowohl für das operative Geschäft als

Mehr

MEHRWERK. Einheitliche Kundenkommunikation

MEHRWERK. Einheitliche Kundenkommunikation MEHRWERK Einheitliche Kundenkommunikation Alle Prozesse und Daten aus bestehenden Systemen werden im richtigen Kontext für relevante Geschäftsdokumente eingesetzt. Flexible Geschäftsprozesse Änderungszyklen

Mehr

Marktforschung. Prof. Dr. Fritz Unger. Oktober 2015

Marktforschung. Prof. Dr. Fritz Unger. Oktober 2015 Prof. Dr. Fritz Unger Marktforschung Oktober 2015 MASTER OF BUSINESS ADMINISTRATION IM FERNSTUDIENGANG BETRIEBSWIRTSCHAFTSLEHRE Modul 1 Marketing 1.1 Marketing als marktorientierte Unternehmensführung

Mehr

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendungssysteme (BIAS) Lösung Aufgabe 1 Übung WS 2012/13 Business Intelligence Erläutern Sie den Begriff Business Intelligence. Gehen Sie bei der Definition von Business Intelligence

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Folien zum Textbuch. Kapitel 6: Managementunterstützungssysteme. Teil 2: Textbuch-Seiten 794-825

Folien zum Textbuch. Kapitel 6: Managementunterstützungssysteme. Teil 2: Textbuch-Seiten 794-825 Folien zum Textbuch Kapitel 6: Managementunterstützungssysteme Teil 2: Managementunterstützung auf strategischer Ebene Datenverwaltung und -auswertung Textbuch-Seiten 794-825 WI 1 MUS MUS auf strategischer

Mehr

Macht Knowledge- Management Unternehmen effizienter?

Macht Knowledge- Management Unternehmen effizienter? Macht Knowledge- Management Unternehmen effizienter? Karl-Heinz Plünnecke Geschäftsführer H.U.T GmbH 1 Software Performance Entwicklung Performance Was dann? ecommerce ERP SCM CRM Zeit 2 1 Noch Potential?

Mehr

Oracle Scorecard & Strategy Management

Oracle Scorecard & Strategy Management Oracle Scorecard & Strategy Management Björn Ständer ORACLE Deutschland B.V. & Co. KG München Schlüsselworte: Oracle Scorecard & Strategy Management; OSSM; Scorecard; Business Intelligence; BI; Performance

Mehr

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement CMC-KOMPASS: CRM Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement 1 CROSSMEDIACONSULTING 18.05.2010 Unser Verständnis von CRM: Customer Relationship Management ist weit mehr als ein IT-Projekt

Mehr

Digitale Analyse: Erfolgsmessung in digitalen Medien

Digitale Analyse: Erfolgsmessung in digitalen Medien Internet für Existenzgründer: Digitale Analyse: Erfolgsmessung in digitalen Medien IHK Bonn/Rhein-Sieg, 8. September 2015 Internet für Existenzgründer Digitale Analyse: Erfolgsmessung in digitalen Medien

Mehr

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Pentaho ermöglicht Analyse der von den über 120 Millionen registrierten Spielern generierten Datenflut

Mehr

Oracle BI EE mit großen Datenmengen

Oracle BI EE mit großen Datenmengen Oracle BI EE mit großen Datenmengen Christian Casek Riverland Solutions GmbH München Schlüsselworte: Oracle BI EE, Oracle BI Applications, Informatica, RPD, große Datenmengen, Performance, Performanceoptimierung,

Mehr

proalpha Geschäftssoftware für den Mittelstand

proalpha Geschäftssoftware für den Mittelstand Whitepaper proalpha Geschäftssoftware für den Mittelstand Januar 2013 proalpha Integrierte Geschäftssoftware für den Mittelstand 2 Herausgegeben von proalpha Software AG Auf dem Immel 8 67685 Weilerbach

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

Self Service BI der Anwender im Fokus

Self Service BI der Anwender im Fokus Self Service BI der Anwender im Fokus Frankfurt, 25.03.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC 1 Kernanforderung Agilität = Geschwindigkeit sich anpassen zu können Quelle: Statistisches

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen

Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen Steve Schneider Logistik- und Fabriksysteme Fraunhofer Institut für Fabrikbetrieb und -automatisierung

Mehr

Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services

Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services (Engl. Originaltitel: Building Business Intelligence with Office XP and SQL 2000 Analysis Services) In diesem Artikel wird

Mehr

Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen. Wir bringen Qualität. Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen

Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen. Wir bringen Qualität. Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen Outsourcing? Insourcing? Agenda Welche Szenarien funktionieren am besten in der Technischen Dokumentation? Warum ich darüber sprechen kann Der Schlüsselfaktor der Redaktionsleitfaden Dr. Cornelia Hofmann

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

riskkv Scorenalyse riskkv Scoring Seite 1 von 9

riskkv Scorenalyse riskkv Scoring Seite 1 von 9 riskkv Scorenalyse riskkv Scoring Seite 1 von 9 Das Modul dient der flexiblen Erstellung, Auswertung und Verwendung von Scores. Durch vordefinierte Templates können in einer Einklicklösung bspw. versichertenbezogene

Mehr

Dominik Pretzsch TU Chemnitz 2011

Dominik Pretzsch TU Chemnitz 2011 Dominik Pretzsch TU Chemnitz 2011 Wir leben im Informationszeitalter und merken es daran, dass wir uns vor Information nicht mehr retten können. Nicht der überwältigende Nutzen der Information, sondern

Mehr

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Einordnung der Begriffe Business Intelligence Strategic Association Management Controlling and Data Warehousing Data Mining, Knowledge

Mehr

GKV: Managementherausforderungen in Zeiten des Wandels

GKV: Managementherausforderungen in Zeiten des Wandels GKV: Managementherausforderungen in Zeiten des Wandels Struktur der CareHelix-Aufsatzreihe in der WzS (Veröffentlichung ab 07/03) Michael Schaaf www.carehelix.de Seite 1 Struktur der Aufsatzreihe für die

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

Anwendung der Predictive Analytics

Anwendung der Predictive Analytics TDWI Konferenz mit BARC@TDWI Track 2014 München, 23. 25. Juni 2014 Anwendung der Predictive Analytics Prof. Dr. Carsten Felden Dipl. Wirt. Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

CA Clarity PPM. Übersicht. Nutzen. agility made possible

CA Clarity PPM. Übersicht. Nutzen. agility made possible PRODUKTBLATT CA Clarity PPM agility made possible CA Clarity Project & Portfolio Management (CA Clarity PPM) unterstützt Sie dabei, Innovationen flexibel zu realisieren, Ihr gesamtes Portfolio bedenkenlos

Mehr

ADVANCED ANALYTICS. Auswirkungen auf das Controlling und Unternehmenssteuerung

ADVANCED ANALYTICS. Auswirkungen auf das Controlling und Unternehmenssteuerung ADVANCED ANALYTICS Auswirkungen auf das Controlling und Unternehmenssteuerung Unternehmen im Zeitalter der Digitalisierung Was bedeutet Digitalisierung der Welt? Digitale Fußabdrücke in allen Branchen

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28.

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28. PPC und Data Mining Seminar aus Informatik LV-911.039 Michael Brugger Fachbereich der Angewandten Informatik Universität Salzburg 28. Mai 2010 M. Brugger () PPC und Data Mining 28. Mai 2010 1 / 14 Inhalt

Mehr

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert Maika Büschenfeldt Datenbanken: Skript 1 1. Was ist eine relationale Datenbank? In Datenbanken können umfangreiche Datenbestände strukturiert abgelegt werden. Das Konzept relationaler Datenbanken soll

Mehr

Publikationskonzept Prävalenzmessung Sturz & Dekubitus

Publikationskonzept Prävalenzmessung Sturz & Dekubitus Publikationskonzept Prävalenzmessung Sturz & Dekubitus Anhang 1 September 2013, Version 2.0 Das vorliegende Publikationskonzept der Prävalenzmessung Sturz & Dekubitus V.2.0 ist Bestandteil des Grundlagendokumentes

Mehr

Praktisches Beispiel 02.03.2008

Praktisches Beispiel 02.03.2008 Agenda CRM-Philosophie Warum CRM? Chancen und Nutzen einer CRM Lösung Das CRMCoach 4 Phasen Modell CRM Teilbereiche und Architektur Einführung einer CRM Lösung CRM-Lösungen und der Markt Zusammenfassung

Mehr

THE POWER OF PEOPLE SAP-Forum für Personalmanagement HR Renewal Im Praxistest - Webbasierte Stammdatenverwaltung auf dem Prüfstand

THE POWER OF PEOPLE SAP-Forum für Personalmanagement HR Renewal Im Praxistest - Webbasierte Stammdatenverwaltung auf dem Prüfstand THE POWER OF PEOPLE SAP-Forum für Personalmanagement HR Renewal Im Praxistest - Webbasierte Stammdatenverwaltung auf dem Prüfstand Einleitung: SAP ERP Einführung bei Knoll Einführung der SAP ERP Landschaft

Mehr

30. Juni 2006 - Technische Universität Kaiserslautern. Paul R. Schilling

30. Juni 2006 - Technische Universität Kaiserslautern. Paul R. Schilling 30. Juni 2006 - Technische Universität Kaiserslautern Paul R. Schilling ! " #$% & '( ( ) *+, - '. / 0 1 2("$ DATEN SIND ALLGEGENWÄRTIG Bill Inmon, father of data warehousing Unternehmen In einer vollkommenen

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen

Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen NOW YOU KNOW [ SERIES] Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 002 Ontologie und deren Bedeutung für die Unternehmen von heute Der Begriff der Ontologie

Mehr

Treffsichere Absatzprognosen durch Predictive Analytics

Treffsichere Absatzprognosen durch Predictive Analytics Treffsichere Absatzprognosen durch Predictive Analytics Prof. Dr. Michael Feindt, Karlsruhe Institute of Technology KIT Chief Scientific Advisor, Phi-T GmbH und Blue Yonder GmbH & Co KG 3. Europäischer

Mehr

Inhalt. http://d-nb.info/1019141522

Inhalt. http://d-nb.info/1019141522 Inhalt 1 Zum Controlling der digitalen Wertschöpfungskette 1 1.1 Digitale Wertschöpfungskette 2 1.2 Austauschoptionen im ebusiness 5 1.3 Definitionspyramide der webbezogenen BI 7 1.4 Kapitelübersicht 10

Mehr

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung !DI Industrial Data Intelligence Datenbasierte Produktionsoptimierung Industrial Data Intelligence Sammeln Analysieren Mit dem Industrial Data Intelligence-Angebot ermöglicht Softing Industrial die datenbasierte

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr