Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation

Größe: px
Ab Seite anzeigen:

Download "Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation"

Transkript

1 Erweiterung des Data Mining Softwarepakets WEKA um induktive unscharfe Klassifikation Masterarbeit Professor Dr. Andreas Meier Information System Research Group Universität Fribourg Assistent Michael Kaufmann Information System Research Group Universität Fribourg Cédric Graf Rue de la Carrière Fribourg 02/09/2010

2 Inhaltsverzeichnis 1 Einführung Situation Entscheidungsunterstützungssysteme Business Intelligence Architektur der Business Intelligence Data Mining Gründe für den Einzug des Data Mining in die Business Analyse Definition des Data Mining Dichotome und unscharfe Klassifikation Heterogenität der Data Mining Methode Anwendungsbereiche von Mustererkennungsmethoden Wirtschaftliche Anwendungsbereiche Kundenbeziehungsmanagement (CRM Customer Relationship Management) Elektronischer Handel (e Commerce) Versorgungskettenmanagement (Chain Management) Ziel der Masterarbeit Wissenschaftliche Fragen zum Data Mining Ansatz Benutzen von WEKA für die Datenbeschaffung (Pre processing) Implementierung eines IFC Filters zur induktiven Fuzzy fizierung Auswertung von Datensätzen Aussicht auf die Arbeit Theoretischer Teil Klassifikation Definition der Klassifikation Definition der dichotomen Klassifikation Definition der unscharfen Klassifikation Maschinelles Lernen Künstliche Intelligenz Beschreibung des maschinellen Lernens Lernmethoden Unbewachtes Lernen (unsupervised learning) Bewachtes Lernen (supervised learning)

3 2.2.4 Der Prozess des maschinellen Lernens Problemstellung Wahl der Zieldaten Datenaufbereitung, Datenbereinigung und Datenreduktion (Preprocessing) Data Mining Selektion der inhaltlichen Data Mining Aufgaben Selektion des konkret anzuwendenden Algorithmus Durchführen des Data Mining Evaluation Konsolidieren der gewonnenen Informationen, Visualisierung und Dokumentation Unscharfe Mengen und unscharfe Logik Unscharfe Mengen Die Bedeutung der Zugehörigkeitsfunktionen Messen von Zugehörigkeitsgrade Unscharfe Mengenoperatoren Charakteristiken von unscharfen Mengen Herleiten von unscharfen Mengen Unscharfe Restriktionen Zugehörigkeitsfunktionen generieren Linguistische Variable Unscharfe Logik und approximative Beweisführung Unscharfe Logik Approximative Beweisführung Regelbasiertes unscharfes Denksystem Defuzzyfizierung Induktion Probabilistische induktive Logik Einsatzgebiet der induktiven Logik Generelles Gesetz der Likelihood Vergleich von Klassifikationsmethoden Trainieren und Testen von Daten Prognosefehler Mittlere quadratische Abweichung Korrelationskoeffizient

4 2.6 Induktive unscharfe Klassifikation oder Inductive Fuzzy Classification IFC Vorverarbeitung Datenpräparation Merkmalsauswahl Induktion der Zugehörigkeitsfunktion Induktion der kategorischen Zugehörigkeitsfunktion Induktion der numerischen Zugehörigkeitsfunktion Schritt 1: Eingabe Schritt 2: Berechnung der Quantile Schritt 3: Berechnen der NLR Schritt 4: Berechnen der Durchschnittswerte der Quantile Schritt 5: Approximation Zugehörigkeitsgrade Schritt 6: Berechnen des Korrelationskoeffizienten Univariate unscharfe Klassifikation Multivariate unscharfe Klassifikation Evaluation Lineare Regression Modellbäume Softwarearchitektur Was ist WEKA? Explorer Knowledge Flow Experimenter Datenformate von WEKA Eingabeformate von WEKA Interne Datenformate von WEKA Wichtigste Module von WEKA WEKA GUI WEKA Core WEKA Classifier WEKA Filter Softwareimplementierung Benutzte Hardware und Software Entwurfsmuster Fabrikmethode Strategiemuster

5 3.4.3 Implementierung des IFC Filters Schnittstelle zu WEKA Ziel der Schnittstelle Funktionsweise der Schnittstelle Klassenbeschreibung der Schnittstelle Implementierung des kategorischen Algorithmus Ziel des kategorischen Algorithmus Funktionsweise des kategorischen Algorithmus Klassenbeschreibung des kategorischen Algorithmus Implementierung des numerischen Algorithmus Ziel des numerischen Algorithmus Funktionsweise des numerischen Algorithmus Klassenbeschreibung des numerischen Algorithmus Grafische Schnittstelle Ziel der grafischen Schnittstelle Funktionsweise der grafischen Schnittstelle Implementierung der grafischen Schnittstelle Bedienungsanleitung Bedienungsanleitung für den Knowledge Flow Knowledge Flow mit IFC Filter Konfigurieren des RemovePercentage Filters Konfigurieren des IFC_Filters Resultatsausgabe im Knowledge Flow Bedienungsanleitung für den Explorer Preprocess Panel des Explorers Grafische Resultatenausgabe Grafische Ausgabe der numerischen Variablen Die grafische Darstellung der kategorischen Variablen Schlussfolgerung Vergleich von Data Mining Methoden mit und ohne Wahrscheinlichkeitsverhältnis Inductive Fuzzy Classification versus linearer Regression Inductive Fuzzy Classification versus Modellbäume Verbesserungs und Erweiterungsvorschläge Welche Lehren kann man aus der Arbeit ziehen? Wissenschaftliche Fragen

6 4.3.2 Diskussion Bibliographie Anhang

7 1 Einführung Diese Masterarbeit richtet sich an alle Leser, welche ein Interesse am Data Mining haben. Insbesondere soll sie mit Hilfe des von (Kaufmann & Meier, An Inductive Fuzzy Classification Approach applied to Individual Marketing, June 2009) entwickelten IFC (Inductiv Fuzzy Classification) Algorithmus einen Einblick in die unscharfe Klassifikation geben. Doch bevor auf den Algorithmus eingegangen werden kann, soll in dieser Einführung das Data Mining innerhalb der Wirtschaftswissenschaft situiert werden, um schliesslich die Ziele und Vorgehensweise dieser Arbeit zu präsentieren. 1.1 Situation Das heutige Wirtschaftsumfeld hat laut (Turban, Aronson, Liang, & Sharda, 2007, S. 3 6) an Komplexität und Dynamik zugenommen. Dies führt zu einer Zunahme des Konkurrenzdrucks. Als Folge müssen sich Firmen den Marktbedingungen möglichst schnell stellen. Dies bedingt wiederum, dass Firmen ihre Strukturen schnell und innovativ anpassen. Managemententscheide bilden Grundlagen, auf welche sich die strategische und operationelle Struktur einer Firma stützt. Somit sind diese Entscheide für die effiziente und dynamische Marktanpassung der Firma grundlegend. Um strukturierte und effiziente Managemententscheide treffen zu können, werden Entscheidungsmodelle benutzt. Laut (Turban, Aronson, Liang, & Sharda, 2007, S. 9 11) bestehen diese Modelle aus folgenden Phasen: Definiere das Problem. Konstruiere ein Model, welches die Wirklichkeit beschreibt. Erkenne mögliche Lösungen. Vergleiche, bewerte oder wähle eine dieser Lösungen. Um diesen Prozess zu befolgen, muss man sicherstellen, dass möglichst viele Lösungsalternativen beachtet werden. Doch erschwert diese methodische Vorgehensweise die Auswertung des Entscheidungsprozesses folgenderweise: Durch Informationssysteme, Suchmaschinen und Globalisierung steigt die Anzahl Wahlmöglichkeiten im Entscheidungsprozess exponentiell. Rechtsnormen, politische und monetäre Instabilität, Wettbewerb und Verhaltensänderungen der Kunden erschweren Zukunftsprognosen. Das Wirtschaftsumfeld wird durch die Globalisierung, das Internet und den e Commerce immer komplexer. Aufgrund dieses komplexen Wirtschaftsumfelds wurden, wie wir es im nächsten Abschnitt sehen werden, Entscheidungsunterstützungssysteme entwickelt. 1.2 Entscheidungsunterstützungssysteme Als erstes stellt sich die Frage, was ein Entscheidungsunterstützungssystem oder DSS (Decision Support System) ist. Da es keine einheitliche Definition für DSS gibt, schlägt (Turban, Aronson, Liang, & Sharda, 2007, S. 21) eine übergreifende Definition vor: Ein Entscheidungsunterstützungssystem oder DSS ist jedes computergestützte System, welches die Entscheidungsfindung in Organisationen unterstützt, wobei 7

8 unter Organisationen einzelne Abteilungen einer Firma sein können. So kann die Marketing, Finanz oder Buchhaltungsabteilung einer Firma ein eigenes DSS besitzen. Eine Liste der Charakteristiken der Computersysteme aus (Turban, Aronson, Liang, & Sharda, 2007, S. 12) soll zeigen, welchen Vorteil man aus den DSS ziehen kann: Schnelle Rechenzeit der Computer ermöglicht dem Entscheidungstreffer, Rechenaufgaben günstig und schnell zu lösen. Dies ermöglicht eine schnelle Reaktion auf den Wandel von Umweltsituationen. Computer ermöglichen die Verbesserung der Kommunikation und Zusammenarbeit zwischen Gruppen. So gibt es eine ganze Reihe von webbasierenden Werkzeugen, welche den Informationsaustausch ermöglichen. Im Bereich der Versorgungsketten kann dies einen ausschlaggebenden Wettbewerbsvorteil verschaffen. Produktivitätssteigerung kann durch den Einsatz von webbasierenden Kommunikationsmitteln erreicht werden. Gruppenmitglieder können mit ihrer Hilfe an getrennten Orten gemeinsame Entscheide treffen, was zur Einsparung von Transportkosten und Zeit führt. Computer ermöglichen eine verbesserte Datenverwaltung. Oft beinhalten Entscheide komplexe Daten, welche aus verschiedenen Datenbanken stammen können. So bildet die schnelle und verschlüsselte Übertragung von verschiedenen Datenformaten einen Vorteil. Computer haben die Fähigkeit, grosse Datenbestände zu verwalten. Dabei ermöglichen Daten Warehouse Systeme die Verwaltung von Lagerbestände und digitaler Informationen. Computer erhöhen die Qualität der getroffenen Entscheide. Mit ihrer Hilfe kann auf grösseren Datenmengen zugegriffen werden, was die Anzahl Lösungsalternativen für Entscheide erhöht. Ihre künstliche Intelligenz ermöglicht die Erstellung von Reports, welche Prognosen beinhalten. Diese Prognosen verbessern die Risikoanalysen, und können schnell von Experten begutachtet werden. Konkurrenzvorteile werden heutzutage aus der Fähigkeit gewonnen, schnell für den Kunden zugeschnittene Qualitätsprodukte anzubieten. Daraus folgt, dass Organisationen fähig sein müssen, ihren Operationsmodus kundenorientiert anzupassen, um sich von der Konkurrenz abzugrenzen. Entscheidungsunterstützungssysteme ermöglichen die Entscheidungsfindung auch mit unvollständigen Informationen, so dass beispielsweise im Bereich des Supply Chain Management die Produktion effizient dem Kundenwunsch angepasst werden kann. Da der Mensch nur limitierte Fähigkeiten hat, Informationen zu speichern und zu verarbeiten, helfen Entscheidungsunterstützungssysteme diese Grenzen zu überwinden. Computer haben die Fähigkeit schnell und sicher riesige Datenmengen zu verarbeiten, um sie in verständlicher Form dem Entscheidungstreffer zur Verfügung zu stellen, was den Menschen hilft, ihre Limitierung zu überwinden. Durch die Einführung des Internets hat die Informationsflut zugenommen. Es können nun weltweit in kürzester Zeit auf Informationen und Datenquellen zugegriffen werden. Die Einführung von Computer gesteuerten intelligenten Suchfunktionen ermöglicht eine effiziente Informationssuche. 8

9 Aus den obengenannten Eigenschaften kann man kaum den Nutzen von DSS abstreiten. Da jedes computergestützte System ein DSS ist, welches Informationen zur Entscheidungsfindung beiträgt, gewährleistet dies die Datenübertragungskompatibilität zwischen den Systemen nicht. Dieser Nachteil wurde durch die BI oder Business Intelligence überwunden. 1.3 Business Intelligence Wie im letzten Abschnitt angedeutet, ist die BI oder Business Intelligence eine Vereinigung von verschiedenen Softwarearchitekturen, Werkzeugen, Datenbanken, analytischen Werkzeugen, Applikationen und Methoden. BI ermöglicht den Managern den interaktiven Zugriff auf Daten. Er kann mit ihrer Hilfe Datenmanipulationen durchführen, um gewünschte Analysen zu bewerkstelligen. Durch die BI unterstützte Datenanalyse kann die Entscheidungsfindung konsequent untermauert werden, so dass sie methodisch durchgeführt werden kann. Die Architektur der BI wird, wie im nächsten Unterabschnitt beschrieben, in mehreren Komponenten unterteilt Architektur der Business Intelligence Data Warehouse Business Analyse Data Mining Business Performance Management Datenquellensysteme Benutzerschnittstelle Abbildung 1: Architektur der Business Intelligence Systeme Die Architektur der BI ist das Bindeglied, welches die verschiedenen DSS in einem System vereint. So besteht sie, laut (Turban, Aronson, Liang, & Sharda, 2007, S ), aus vier Komponenten: Das Data Warehouse bildet die Basis des BI Systems. Es ermöglicht den Zugriff auf historische und aktuelle Daten. Als Konsequenz seiner Aufgabe führt das Data Warehouse eine Standardisierung, Integration, Historisierung und Organisation der Daten aus. Die Business Analyse stellt eine Vielzahl von Werkzeugen und Techniken zur Verfügung, welche die Auswertung der Daten ermöglicht. Diese können in drei Kategorien unterteilt werden: 9

10 o Berichte und Abfragen ermöglichen dem Businessanalyst, in Daten Erkenntnisse zu entdecken. o Fortgeschrittene Analysen beinhalten statistische, finanzielle, mathematische und andere Modelle, welche benutzt werden können, um Daten und Informationen zu analysieren. o Data Mining, Text Mining und andere anspruchsvolle mathematische und statistische Werkzeuge bilden die dritte Kategorie. Das Business Performance Management reicht über das Monitoring zum Messen und Vergleichen von Abätzen. So bilden Gewinne, Kosten, Rentabilität und andere Indikatoren Grundlagen für die Erstellung der Prognosen und Planung der Firmenstrategie. Das Hauptanliegen des Business Performance Managements ist die Stärkung der firmenweiten Strategie. Die Benutzerschnittstelle bietet einen verständlichen und intuitiven Zugriff auf Daten und Darstellung der Daten. So kann ein Benutzerinterface Informationen aus verschiedenen Geschäftszweigen integrieren und sie visuell in Form von verschiedenen Graphen darstellen, so dass ihre Zusammenhänge ersichtlich werden. Da wir nun das Data Mining innerhalb der Business Analyse situieren konnten, werden wir nun näher auf den Kern dieser Arbeit eingehen, nämlich das Data Mining. 1.4 Data Mining Data Mining wird nun in die Business Analyse eingeordnet. Es bleibt noch zu zeigen, was Data Mining eigentlich ist, und welchen Nutzen es der Datenanalyse bringt. So wird im nächsten Unterkapitel gezeigt, was der Grund zur Einführung des Data Mining ist Gründe für den Einzug des Data Mining in die Business Analyse Wie schon in der Einführung beschrieben, haben Komplexität und Dynamik des Wirtschaftsumfelds zugenommen. Dieser Tatbestand und die Tatsache, dass Informationstechnologien einen festen Platz in Firmen eingenommen haben, erschweren die Arbeit des Datenanalysten erheblich. Auch haben sich Daten als Folge der Einbindung in Organisationsstrukturen verändert und erschweren seine Arbeit folgendermassen: Die Grösse der Datenbestände hat exponentiell zugenommen. Datenbestände können auf verschiedene Datenträger gelagert sein und in Verbindung zueinander stehen. Daten sind oft heterogen. So können sie aus verschiedenen Organisationen stammen und in verschiedenen Formaten sowie mit verschiedenen Standards gespeichert sein. Nicht mit neuem Applikationsstandard kompatible Daten stehen oft brach und sind Geld und Ressourcen aufreibend. Durch die Komplexität der Datenbestände und die Grenzen des menschlichen Geistes, ist es einem Datenanalyst kaum möglich, das volle Potenzial der Datenbestände auszuschöpfen. Da aber der aus diesen Daten gewonnene Nutzen, laut (Apte, Lui, Pednault, & Smyth, 2002) und (Kohavi, Rothleder, & Simoudis, Emerging trends in Buisness Analytics, August 2002), erhebliche Marktvorteile mit sich bringt, ist die Nutzung von Business Analyse Methoden für 10

11 Firmen unverzichtbar. In dieser Hinsicht spielt neben klassischen statistischen Methoden das Data Mining eine zentrale Rolle Definition des Data Mining Grundsätzlich ist das Data Mining die Verwendung von verschiedenen mathematischen und statistischen Methoden, welche Informationen aus extrem grossen Datenbeständen automatisch oder semiautomatisch aufarbeitet. Diese Datenbestände werden dann nach Mustern durchsucht, so dass zukünftiges Verhalten prognostiziert werden kann. Prognosen spielen im Data Mining eine zentrale Rolle, doch stellt sich die Frage, was prognostiziert werden soll. Durch das Verwenden von Merkmalsausprägungen oder Attribute der Datenbestände können diese in Klassen unterteilt werden. Die Klassenzugehörigkeit der Datenelemente kann demzufolge prognostiziert werden. So kann man z.b. die Zuordnung von Kunden zu ihren Kundensegmenten mit Hilfe von Klassifikationsmethoden prognostizieren. Da die Komplexität und Grösse der Datenbestände mit der zunehmenden Integration der Informationstechnologien in der Gesellschaft und Wissenschaft zugenommen hat, mussten automatische Verfahren entwickelt werden, welche Klassifikation automatisch vornehmen können. Diese Verfahren werden neben Data Mining generell unter dem Begriff maschinelles Lernen zusammengefasst Dichotome und unscharfe Klassifikation Es existiert eine Vielzahl von Klassifikationsverfahren. Baysian Netze, knn Verfahren (k Nearest Neighbour), logistische Regression und Clustering sind Beispiele für Methoden, die ihren Einzug als Klassifikationsmethoden gefunden haben. Obwohl sich diese Methoden aufgrund ihrer Funktionsweise kategorisieren lassen, gibt es eine tiefergreifende Unterscheidung der Klassifikationsmethoden. Diese Unterscheidung greift auf den Kern der Klassifikation, nämlich der Art und Weise, wie Elemente einer Klasse zugeordnet werden. So kann man in dieser Hinsicht zwei Kategorien von Klassenzuordnungsmethoden unterscheiden: Bei der dichotomen Klassifikation werden genau definierte Grenzwerte Klassen unterteilt. Wenn man die Klassifikation auf ein Merkmal reduzieren würde, könnte man z.b. sagen, dass alle Personen, die jünger als 20 Jahren sind, jung sind, während alle anderen, die diese Bedingung nicht erfüllen, alt sein müssen. Man sieht hier, dass ein klarer Grenzwert gezogen wird, um Klassen zu trennen. Bei der unscharfen Klassifikation gibt es keinen scharfen Grenzwert. Die Grenzen der Klassifikation sind in dieser Hinsicht graduell. Eine Person würde nicht entweder zur Klasse der jungen Personen oder zur Klasse der alten Personen gehören. Man würde sagen, dass eine Person zu 0,2 Prozent zur Klasse der jungen Personen gehört. So haben Werte im Intervall zwischen 0 und 1 einen informativen oder gewichteten Charakter auf das Attribut jung. Der Unterschied zwischen diesen zwei Klassifikationsmethoden ist besonders einprägsam, wenn man beachtet, dass wenn man ein besonderes Interesse an junge Personen hat, man bei der dichotomen Klassifikationsmethode alle Elemente über den Grenzwert ignoriert, 11

12 während bei der unscharfen Klassifikation alle Elemente beachtet werden, sie aber graduell durch einen Wert zwischen 0 und 1 wertet Heterogenität der Data Mining Methode Wir haben gesehen, dass das Data Mining einen erheblichen Vorteil der Business Analyse bringt. Doch die Anzahl verschiedenartiger Methoden, die in den Disziplinen des Data Mining und im maschinellen Lernen verwendet werden, deutet darauf hin, dass sich keine allgemein einsetzbare Methode fürs Data Mining herauskristallisiert hat. Es scheint so, dass einerseits die Daten und andererseits die Aufgaben, welche die Methoden übernehmen müssen, die Wahl der Methode beeinflusst. Eine Liste der in den Datenbeständen existierenden Merkmale gibt eine Idee, wie divers die verschiedenen Methoden sein können: Die Datenmenge spielt in der Wahl der Data Mining Methode eine Rolle. Je grösser ein Datensatz ist, desto effizienter muss die Methode sein. So können Algorithmen exponentieller Ordnung dazu führen, dass Datenmengen nicht in angemessener Zeit bearbeitet werden können. Die Datenmerkmale spielen in der Wahl der Methoden eine wichtige Rolle. Besitzt ein Datensatz Trainingsdatensätze mit Klassenzuordnungen, so werden Data Mining Methoden wie logistische Regressionen und Baysian Netze verwendet. Besitzen die Datensätze keine Klassenzuordnungen, so stehen Clusteringverfahren im Vordergrund. Unstrukturierte Daten wie z.b. Bilder, Texte, Videos usw., werden nicht in Relationen gespeichert, sondern bilden einen einheitlichen Datenklumpen. Um diesen aufzubrechen und zu analysieren, muss je nach Kontext eine unterschiedliche Data Mining Methode verwendet werden. Aus diesen Gründen kann sich das Data Mining nicht mit einer einzigen Methode zufriedenstellen, sondern beinhaltet eine Vielzahl von Methoden Anwendungsbereiche von Mustererkennungsmethoden Bisher wurde vor allem von den Vorteilen des Data Mining in der Business Analyse gesprochen. Da sich das Data Mining auf die Mustererkennung stützt, kann man eine Liste der Anwendungsbereiche der Mustererkennungsmethoden ziehen, welche sich auf (Fawley, Piatetsky Shapiro, & Matheus, 1992) bezieht: In der Bilderkennung wird sie benutzt, um Bilder zu kategorisieren. In der Schrifterkennung werden Mustererkennungsmethoden verwendet, um Handschriften (OCR Optical Character Recognition) zu erkennen und zu digitalisieren oder um Schrifttypen zu unterscheiden. Im Bereich Gestenerkennung, welche als Ziel das Erkennen von Gesten hat (z.b. das Erkennen von Zeichensprachen), werden Mustererkennungsmethoden verwendet. In der Spracherkennung werden Mustererkennungsmethoden verwendet. In Websuchmaschinen werden im Bereich des Text Mining Mustererkennungsmethoden benutzt. 12

13 In der Medizin wird die Mustererkennung eingesetzt, um Nebenwirkungen von Medikamenten zu testen, Gensequenzierungen durchzuführen und um Kostenkontrolle zu bewältigen. Die Finanzwelt nutzt Mustererkennung, um Kreditzusagen zu unterstützen, Finanzmarktprognosen zu generieren, Verletzungen der Marktaufsichtsvorlagen zu entdecken und um Fundportfolios zu gestalten. In der Agrarwirtschaft werden Klassifikationen von Krankheiten von Sojabohnen und Tomaten mit Hilfe der Mustererkennung bewältigt. Im Marketing werden Verhaltensmuster der Kunden gesucht, um geeignete Zielgruppen zu gewinnen. Im Versicherungswesen dient die Mustererkennung dem Aufdecken von Versicherungsbetrug. In den Ingenieurswissenschaften wird die Mustererkennung in automatischen Diagnosesystemen, in Computer Aided Design und in Simulationen eingesetzt. In der Physik und Chemie wird die Mustererkennung im Bereich der Elektrochemie und Supraleitfähigkeit eingesetzt. In der Strafverfolgung wird Mustererkennung im Bereich der Steuerhinterziehung, Fingerabdruckerkennung und Bergung gestohlener Personenwagen benutzt. In der Astronomie wird Mustererkennung für das Suchen nach intelligentem Leben und das Bewältigen der Datenmengen, welche aus den Teleskopen stammen, benutzt. Im Verlagswesen wird die Mustererkennung für die massgeschneiderte Publikation von Zeitschriften benutzt. Diese Liste ist kaum vollständig, doch sollte sie einen Einblick in den weitreichenden Einsatz der Mustererkennung geben. Dies wiederum festigt die Anerkennung, die die Mustererkennung und somit auch das Data Mining in der Business Analyse geniesst Wirtschaftliche Anwendungsbereiche Um die zuvor genannte Liste zu vervollständigen, werden wir in den folgenden Unterkapiteln die oben genannte Auflistung durch ausgewählte Gebiete der Wirtschaft näher erläutern. Dies soll die Standfestigkeit des Data Mining untermauern. Hierfür wird auf das Kundenbeziehungsmanagement (CRM Customer Relationship Management), das Versorgungskettenmanagement und das e Commerce eingegangen Kundenbeziehungsmanagement (CRM Customer Relationship Management) Das Kundenbeziehungsmanagement (CRM Customer Relationship Management) kann man dem Marketing zuordnen. Das Ziel des Kundenbeziehungsmanagement ist es, Kunden an Firmen zu binden und neue Kunden zu akquirieren. Hierfür steht die Beziehung der Kunden zum Dienstleistungsanbieter im Kern der Marketinganalyse. Da die Informationsmenge durch moderne Informationssysteme zugenommen hat, schlägt (Meier, Werro, Albrecht, & Miltiadis, 2005) die Segmentierung der Kunden mit Hilfe eines fcql Toolkit vor, welches die Formulierung von unscharfen Abfragen auf Datenbanken ermöglicht. In seiner Segmentierung werden Kunden in unscharfe Klassen eingeordnet. So kann man den Kunden folgende Merkmale zuordnen: Umsatz, Zahlungsverhalten und Loyalität. Diese Merkmale erlauben die Segmentierung der Kunden und reduziert gleichzeitig die die Kunden 13

14 bezeichnende Anzahl Variablen. Dieser multivariate Ansatz ermöglicht der Marketingstrategie, die Kunden zu analysieren und kundenorientierte Kampagnen zu initiieren. Auch können Kunden mit hoher Wertschöpfung für ein Unternehmen mit Hilfe dieser Segmentierung erkannt werden, so dass man ihnen Rabatte gewähren kann. Um diesen Sachverhalt zu untermauern, werden im Folgenden drei den erwähnten Sachverhalt stützende Arbeiten vorgestellt: (Chan, Au, & Choi, 2002) erklärt, dass durch die Deregulierung des Flugbetriebs in China der Druck auf die einzelnen Fluggesellschafen zugenommen hat. Seine Arbeit stützt sich auf die Tatsache, dass 20% der Kunden 80% des Umsatzes eines Unternehmens ausmachen. Dies und die Tatsache, dass die Kundenakquisition höhere Kosten verursacht als loyale Kunden zu binden, führt zu gezielten Kampagnen, welche die Kundenbeziehungen mit hoher Wertschöpfung festigen soll. Der Kundensegmentierung muss somit eine besondere Aufmerksamkeit geschenkt werden. Um die Segmentierung durchzuführen, stehen den Fluggesellschaften Daten aus Meilenkarten der Kunden zur Verfügung. Diese Karten beinhalten aber keine demographischen Informationen und besitzen somit einen geringen Wert für traditionelle Kundensegmentierung. Aus diesem Grund schlagen (Chan, Au, & Choi, 2002) Data Mining Methoden vor, um Erkenntnisse aus Daten mit geringen Charakteristiken zu ziehen, was die Kundensegmentierung ermöglicht. (Zhang & Chen, 2009) wendet Assoziationsanalysen, ein Bereich des Data Mining, an, um Spender einer karitativen Institution zu regelmässigen Geldspenden zu bewegen. Dieses Ziel wird über direktes Marketing bzw. durch Werbepost erreicht. Beim Einsatz ihrer Kundenadressen erhalten sie im Normalfall 11.7% Antworten. Da aber die Kosten solcher Kampagnen hoch und die Mittel dieser Institution beschränkt sind, sollen die Versandkosten gedrosselt werden, ohne den Geldfluss aus den Kampanien signifikant zu reduzieren. Anhand der Assoziationsanalyse konnte dies erreicht werden. So wurden 63.57% der Kunden dem richtigen Kundensegment zugeordnet, was die Kampagnenkosten reduzierte und somit den Gewinn aus den Kampagnen erhöhen konnte. (Setnes, Kaymakt H. R., & van Nauta, 1998) stellt eine Methode der Kundensegmentierung durch unscharfen Cluster vor. Der Algorithmus wurde für den Einsatz in der Firma Postbank, welche der Gruppe Dutch ING angehört, entwickelt. Da die Postbank durch direktes Marketing ihren Kunden Funds, Sparkontos und Hypotheken anbietet, spielen, wie im letzten Abschnitt, die Versandkosten eine wichtige Rolle, doch viel wichtiger ist, dass Kunden, welche falsch umworben werden, die bisherig genossenen Dienstleistungen künden können. So wurde ihr Algorithmus erfolgreich über eine Kundensammlung von Kunden eingesetzt, wobei 77 Kundenmerkmale zur Anwendung kamen Elektronischer Handel (e Commerce) Der Elektronische Handel ist ein virtueller Einkaufsvorgang mittels Datenübertragung, wobei das Internet die Geschäftsbeziehung zwischen Kunden und Dienstleistungsanbieter sichert. (Kohavi, Application of Data Mining to Electronic Commerce, 2001) weist darauf hin, dass der Einsatz von Data Mining Methoden in traditionellen Geschäftsbeziehungen mit Hürden verbunden ist. Eine dieser Hürden ist das Vorhandensein von Daten mit geeigneten Attributen, die das Data Mining ermöglichen. Data Mining Attribute verlangen eine kritische 14

15 Datenmenge, um repräsentativ zu sein. Oft ist die Sammlung dieser Daten eine Herausforderung für Organisationen. So soll das Sammeln der Daten wenn möglich automatisch erfolgen. Dies führt zu verlässlichen Daten und zu Kostenersparnisse. Die Auswertung der Data Mining Methoden stellt ebenfalls ein nicht zu unterschätzendes Hindernis für Organisationen. So können Umsatzsteigerungen unumgängliche Argumente für den Einsatz von Data Mining Methoden sein. Obwohl Data Mining Methoden eine sichere Wertsteigerung darstellen, muss ihre Integration in Geschäftsprozessen oft mit sozialen und politischen Oppositionen kämpfen. Der elektronische Handel wird oft in Web Shop Form abgewickelt. Dabei besteht ein Web Shop aus einem Frontstore, bei welchen die Kunden ihre Einkäufe tätigen können, und einem Backstore, welcher die Abwicklung und Validierung der Geschäfte ermöglicht. Da persönliche Daten der Kunden für die Geschäftsabwicklung nötig sind, kann man die Datenerfassung im Backstore vornehmen. Gleichzeitig ist die Erfassung von Mausklicks und das Verfolgen der Navigation der Kunden eine herausragende Datenquelle, um Erkenntnisse über das Kaufverhalten der Kunden zu erlangen. Dies führt zur Selbstverständlichkeit der automatischen Datenerfassung im elektronischen Handel. Diese Datenerfassung resultiert in einem exponentiellen Wachstum der Datenmengen, welche einzig mit Hilfe von Data Mining Methoden analysiert werden können. Somit sind die zuvor aufgezählten Hürden für das Data Mining im elektronischen Handel geringer als in anderen Geschäftszweigen. E Commerce und Kundenbeziehungsmanagement verfolgen ähnliche Ziele. So ist ihr Hauptanliegen die Individualisierung des Produktangebots und der Preispolitik, um die Umsätze und Gewinne zu steigern. Wir werden nun zwei diesen Sachverhalt stützende Arbeiten kurz beschreiben. (Meier & Werro, A Fuzzy Classification Model for Online Customers, 2007) entwickelte ein fcql Toolkit, welches im Web Shop esarine eingesetzt wurde. Dieses Toolkit ermöglicht die unscharfe Klassifikation der Kunden und somit ihre Segmentierung gemäss ihrer Wertschöpfung. Das fcql Toolkit ermöglicht das Formulieren von unscharfen Queries, welche die Kunden anhand eines Kontextmodels auf der zugrundeliegenden relationalen Datenbank unscharf klassifiziert, ohne die Datenbank zu modifizieren. Anhand der Merkmale Umsatz, Gewinnmarge, Produktbewertungen, Forumseinträge und die Besuchsfrequenz messende Clickstream der Kunden, erfolgt eine Aggregation, die die unscharfen Merkmale Loyalität und Umsatz den Kunden zuordnende. Diese Zuordnung wird dann für die Kundensegmentierung verwendet. Diese Aggregation reduziert die Marketinganalyse auf zwei Merkmale. Im Fall von esarine konnte dieses Vorgehen auf Online Marketingkampangien erfolgreich eingesetzt werden. (Chen, Jianghong, He, Maoi, & La, 2005) analysiert in seiner Arbeit die Navigation von Kunden im Internet. Das Ziel ist es, die Lieblingsinternetseiten der Kunden zu finden, um das Design von Webseiten zu verbessern. Durch die Analyse des Navigationsverhaltens der Kunden können Rückschlüsse auf Internetseitenpräsentationen geschlossen werden. Dies kann zu möglichen Verbesserungen der Internetseitenpräsentationen führen. So sollten kaum besuchte Seiten und hohe Marge abwerfende Produkte so dargestellt werden, dass sie möglichst oft besucht werden, was zu einer höheren Verkaufsrate führen kann. Um Lieblingsseiten zu finden, benutzt er Assoziationsregeln auf maximale Vorwärtsreferenz. Diese Referenz besteht aus Mustern im Navigationsverhalten. So besteht eines dieser Muster aus dem Navigieren von einer Seite zur nächsten und 15

16 wieder zurück zur ersten Seite. Daraus wird gefolgert, das die Seite auf die zurückgegriffen wird, vom Kunden bevorzugt wird. Man stellt hier fest, dass das Data Mining nicht nur auf das Kaufverhalten wirken kann, sondern auf die Gestaltung von Web Seiten und somit des Werbeträgers Versorgungskettenmanagement (Chain Management) Lieferkettenmanagement oder Supply Chain Management kümmert sich um die Planung auf Managementebene der Beschaffung und Umwandlung von Güter und Dienstleistung. So gehören Lieferantenwahl, und Logistikaufgaben zu seinen Aufgabenbereich. Das Lean Management spielt im Lieferkettenmanagement eine zentrale Rolle, um die eine vernetzte Lieferungskette bildende Koordinierung und Zusammenarbeit der Partner der Logistikkette zu optimieren. In dieser Hinsicht werden Arbeiten kurz vorgestellt, die das Data Mining im Lieferkettenmanagement integrieren: (He & Song, 2009 ) benutzte Datenbanken welche Information über Lagerbestände, Lieferungszeiten, Fluktuationen der Marktpreise usw. beinhalten, um die Risikofaktoren der Lieferketten zu ermitteln. Sein Ziel war es, Risikofaktoren, welche eine Reaktion auf die Änderungen der Marktverhältnisse einer Lieferungskette ermöglicht, zu isolieren. In seinem Ansatz benutzte er Assoziationsanalysen. Mit ihrer Hilfe konnten Regeln für die Isolierung der Hauptrisiken entdeckt werden. So stellte er fest, dass die Transportweglänge und die Vertrauenswürdigkeit der Zulieferer ein wichtiger Risikofaktor ist. Auch spielen Zwischenhändler mit verzögerten Zahlungsvereinbarungen eine wichtige Rolle in der Lieferungskette. So können Data Mining Methoden für die Risikoanalyse in der Lieferungskette dem Management die nötigen Entscheidungsgrundlagen für Managemententscheide geben. (Xu, Lin, & Xu, 2009) stellt fest, dass die Wahl der Zulieferer eine wichtige Rolle im Lieferkettenmanagement spielt, da sie direkt mit den generierten Kosten zu verbinden ist. Er meint dass im Normalfall Optimierungsanalysen für die Ermittlung von Zulieferer benutzt werden, doch werden durch diese Vorgehensweise wichtige Zusammenhänge zwischen Merkmalen der Zulieferer ignoriert. Deshalb schlägt er einen multivariaten Einsatz der Assoziationsanalysen vor, welche die Zulieferer in eine Ranglisten mit den Kriterien Produktqualität, Vertrauenswürdigkeit, Lieferungszeiten, Grösse des Zulieferungsnetzwerks, Ruf des Zulieferer, Kosten und Kundenbetreuung einordnen kann. Diese Arbeit zeigt, dass das Data Mining in der Wahl der Zulieferer für das Lieferkettenmanagement ein wichtiges Instrument darstellen kann. Da durch geeignete Wahl der Zulieferer Produktionsengpässe verhindert und Kosten gesenkt werden können. 1.5 Ziel der Masterarbeit Wie die Einleitung es vermuten lässt, befasst sich diese Arbeit mit dem Einsatz von Data Mining Methoden in der Business Analyse. Insbesondere ist das Ziel der Arbeit, den Einsatz von unscharfen Algorithmen im Data Mining zu erläutern. So soll diese Arbeit durch die Implementierung eines unscharfen Algorithmus den Einsatz von unscharfen Algorithmen im Data Mining untermauert werden. 16

17 1.6 Wissenschaftliche Fragen zum Data Mining Wissenschaftliche Fragen lassen sich aus dem Ziel der Arbeit ableiten und können wie folgt aufgelistet werden: Ist die induktive unscharfe Klassifikation eine geeignete Methode für das Data Mining und wenn ja, weshalb? Wann ist induktive unscharfe Klassifikation einer dichotomen Methode vorzuziehen? Wie beweist man, dass eine Klassifikationsmethode im Data Mining besser geeignet ist als eine andere? Mit welchen Merkmalen und mit welcher Dimension sollte man Data Mining anwenden? Diese Fragen werden im Verlauf dieser Arbeit erläutert und wenn möglich beantwortet oder Ansätze für ihre Beantwortung gegeben. 1.7 Ansatz Dieser Unterabschnitt beschreibt die Strategie, mit welcher die wissenschaftlichen Fragen und Ziele dieser Arbeit erfüllt werden sollen Benutzen von WEKA für die Datenbeschaffung (Preprocessing) Durch das Benutzen von WEKA, eine Open Source Data Mining Workbench, soll die Datenbeschaffung erleichtert werden, da diese Schnittstellen in WEKA schon integriert sind. WEKA soll somit durch einen IFC Filter erweitert werden. Mit diesem Filter wird das Implementierungsziel der Arbeit erfüllt. Das Testen des Algorithmus übernimmt WEKA mit ihrem Methodenbündel Implementierung eines IFC Filters zur induktiven Fuzzyfizierung Beim in WEKA implementierten Filter, handelt es sich um einen IFC (Inductive Fuzzy Clasification)Filter, der von (Kaufmann & Meier, An Inductive Fuzzy Classification Approach applied to Individual Marketing, June 2009) entwickelt wurde. Der Filter wird die von WEKA vorverarbeiteten Daten entgegen nehmen und in unscharfen Werten, im Intervall zwischen 0 und 1, umwandeln. Innerhalb des Filters ist eine grafische Schnittstelle implementiert, so dass eine benutzerfreundliche Visualisierung der Zugehörigkeitsfunktionen (Membership Funcions) stattfinden kann Auswertung von Datensätzen Um Datensätze auszuwerten, wird ein Supervised Algorithmus Filter in WEKA implementiert, welches den IFC Algorithmus enthält. Der Filter generiert eine Prognose, in dem er Quelldaten von WEKA empfängt und aus ihnen eine Zugehörigkeitsfunktion induziert. Danach ordnet die Zugehörigkeitsfunktion jedem Element des Datensatzes einen unscharfen Wert zu. Diese Werte können dann mit der in WEKA implementierten linearen 17

18 Regression, und Modellbäume aggregiert werden, um eine multivariante Analyse durchzuführen. Der Korrelationskoeffizienten kann dann zur Evaluation des Algorithmus verwendet werden. 1.8 Aussicht auf die Arbeit Da wir nun das Ziel und den Ansatz der Arbeit definiert haben, werden wir als erstes mit einem theoretischen Teil weiterschreiten, in welchem die Grundlagen für den IFC Algorithmus beschrieben werden. In einem zweiten Schritt werden wir die Implementierung des Algorithmus präsentieren und schliesslich folgt die Auswertung des Algorithmus mit einem Schlusswort. 18

19 2 Theoretischer Teil Der theoretische Teil soll die nötigen Grundlagen bilden, um den IFC Algorithmus zu beschreiben. Als Einführung werden wir die Definition der Klassifikation einführen, um danach auf den maschinellen Lernprozess einzugehen, welcher für ein effizientes Data Mining notwendig ist. Darauf folgt ein Abschnitt über die Induktion und einer über das Messen von Prognosefehler. Schliesslich sollen Kenntnisse der unscharfen Mengen und Logik den Weg zur Beschreibung des IFC Algorithmus ebnen. 2.1 Klassifikation Data Mining hat zum Ziel, aus Datenquellen implizit vorhandene Muster, Erkenntnisse und Zusammenhänge zu extrahieren. Bei der Klassifikation wird ein Modell gebildet, welches Elemente einer Klasse zuordnet. Dieses Modell kann induktiv auf Elemente mit unbekannter Klassenzugehörigkeit angewendet werden, so dass Prognosen entstehen. In den folgenden Unterabschnitten wird die Klassifikation definiert, um dann auf zwei Hauptkategorien der Klassifikationsmethoden, der unscharfen und den dichotomen Klassifizierungsmethoden, einzugehen Definition der Klassifikation Um die Klassifikation beschreiben zu können, ist es von Vorteil sie formell zu definieren. Gestützt auf die Definition von (Werro, Meier, & Pasquier, 2008) kann die Klassifikation wie folgt definiert werden: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen. Die Klassifikation gruppiert Elemente mit gewissen Eigenschaften zu einer Menge: C i ={x O P(x O )}, somit ist C i die Menge aller x O, welche die Eigenschaft P erfüllen. Die Klassen werden somit durch Einschränkungen oder Bedingungen auf die Merkmalsausprägungen der Objekte definiert Definition der dichotomen Klassifikation Die dichotome Klassifikation definiert scharfe Zugehörigkeitsbedingungen für Klassen. Wenn man die Definition von (Werro, Meier, & Pasquier, 2008) mit der von (Schindler, 1998) verbindet, erhält man folgende Definition für die dichotome Klassifikation: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen, wobei die Klassenbezeichnung a priori gegeben ist oder zu entdecken ist. Eine scharfe Klassifikation berechnet ein Zugehörigkeitsvektor M={m 1, m 2,, m n } für die Objekte O. Das Vektorelement m i {0, 1} berechnet die Zugehörigkeit eines Objekts O zur Menge C i. Das Objekt O wird somit durch m i der Menge C i zugeordnet. Wenn m i =1 gehört das Objekt O zur Klasse C i. Wenn m i =0 gehört es nicht der Klasse C i. 19

20 Man kann hier beispielsweise die Klasse der rentablen Kunden betrachten. Mit der scharfen Klassifikation wird diese Klasse wie folgt formuliert: rentable Kunden={Kunde Umsatz(Kunde)>50 Mio CHF und Kosten (Kunde)<=0.2 Mio CHF} Die Grenzwerte 50 Mio und 0.2 Mio trennen die Kunden eindeutig. Ein Kunde dessen Umsatzt >50 Mio CHF und dessen Aufwand für eine Firma <= 0.2 Mio CHF beträgt, wird eindeutig der Menge der rentablen Kunden zugeordnet, während die Kunden die diese Einschränkungen oder Bedingungen nicht erfüllen, nicht der Menge der rentablen Kunden angehören. Die eindeutige Klassenzuordnung ist charakteristisch für die scharfe Klassifikation Definition der unscharfen Klassifikation Bei der unscharfen Klassifikation werden Objekte graduell jeder definierten Klasse zugeordnet. Hier bildet der Grad der Zuordnung eines Objekts zu einer Klasse die Beziehung des Objekts zur Klasse. Formell kann man die Definition von (Werro, Meier, & Pasquier, 2008) übernehmen: Ein Objekt O ist durch ein t dimensionaler Merkmalsvektor x O des Diskursuniversums U definiert. Oft ist U in R t definiert. C 1, C 2,, C n bezeichnen die Klassen, wobei die Klassenbezeichnung a priori gegeben ist oder zu entdecken ist. Eine unscharfe Klassifikation berechnet ein Zugehörigkeitsvektor M={m 1, m 2,, m n } für die Objekte O. Das Vektorelement m i [0, 1] berechnet den Zugehörigkeitsgrad des Objekts O zur Menge C i. Wenn man das Beispiel aus dem letzten Abschnitt übernimmt, kann man die rentablen Kunden mit der unscharfen Klassifikation wie folgt beschreiben: rentable Kunden ={Kunde Umsatz(Kunde)=hoch und Kosten (Kunde)=tief} Tief und hoch finden ihren Ursprung im natürlichen Sprachgebrauch und bilden kein quantifizierbarer Ausdruck. Doch werden sie durch die Zuordnung von Werten zwischen 0 und 1 graduell den rentablen Kunden zugeordnet, so dass sie messbar werden. Im Gegensatz zur dichotomen Klassifikation wird bei der unscharfen Klassifikation jeder Kunde der Menge der rentablen Kunden zu einem gewissen Grad zugeordnet. Dies verhindert eine klare oder scharfe Zuordnung der Kunden zur Menge der rentablen Kunden. 2.2 Maschinelles Lernen Laut (Turban, Aronson, Liang, & Sharda, 2007, S ) gehört das maschinelle Lernen zum Teilgebiet der künstlichen Intelligenz. Aus diesem Grund werden wir kurz auf die künstliche Intelligenz eingehen, um danach das maschinelle Lernen zu beschreiben, was schliesslich zum Prozess des maschinellen Lernens führen wird. 20

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

9 Resümee. Resümee 216

9 Resümee. Resümee 216 Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Dominik Pretzsch TU Chemnitz 2011

Dominik Pretzsch TU Chemnitz 2011 Dominik Pretzsch TU Chemnitz 2011 Wir leben im Informationszeitalter und merken es daran, dass wir uns vor Information nicht mehr retten können. Nicht der überwältigende Nutzen der Information, sondern

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Einordnung der Begriffe Business Intelligence Strategic Association Management Controlling and Data Warehousing Data Mining, Knowledge

Mehr

Data Mining (ehem. Entscheidungsunterstützungssysteme)

Data Mining (ehem. Entscheidungsunterstützungssysteme) Data Mining (ehem. Entscheidungsunterstützungssysteme) Melanie Pfoh Anja Tetzner Christian Schieder Übung WS 2014/15 AGENDA TEIL 1 Aufgabe 1 (Wiederholung OPAL / Vorlesungsinhalte) ENTSCHEIDUNG UND ENTSCHEIDUNGSTHEORIE

Mehr

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi Motivation Themenblock: Data Preprocessing We are drowning in information, but starving for knowledge! (John Naisbett) Was genau ist Datenanalyse? Praktikum: Data Warehousing und Data Mining Was ist Data

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Visual Business Intelligence Eine Forschungsperspektive

Visual Business Intelligence Eine Forschungsperspektive Visual Business Intelligence Eine Forschungsperspektive Dr. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung IGD Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155 646 Fax.: +49

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Business Intelligence. Business Intelligence Seminar, WS 2007/08

Business Intelligence. Business Intelligence Seminar, WS 2007/08 Business Intelligence Seminar, WS 2007/08 Prof. Dr. Knut Hinkelmann Fachhochschule Nordwestschweiz knut.hinkelmann@fhnw.ch Business Intelligence Entscheidungsorientierte Sammlung, Aufbereitung und Darstellung

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

Data-Mining: Ausgewählte Verfahren und Werkzeuge

Data-Mining: Ausgewählte Verfahren und Werkzeuge Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendung 1 MInf1 HAW Hamburg Betreuender Professor: Prof. Dr. Zukunft by Jason Hung Vuong [12] Gliederung 1. Hamburg Energie Kooperation 2. Motivation 3. Business Intelligence 4.

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

Einführung in die Statistik mir R

Einführung in die Statistik mir R Einführung in die Statistik mir R ww w. syn t egris.de Überblick GESCHÄFTSFÜHRUNG Andreas Baumgart, Business Processes and Service Gunar Hofmann, IT Solutions Sven-Uwe Weller, Design und Development Jens

Mehr

Maschinelles Lernen und Data Mining: Methoden und Anwendungen

Maschinelles Lernen und Data Mining: Methoden und Anwendungen Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden

Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden Dr. Thomas Bernard 6. Karlsruher Automations-Treff (KAT) Leit- und Automatisierungstechnik der Zukunft Karlsruhe,

Mehr

Informationsflut bewältigen - Textmining in der Praxis

Informationsflut bewältigen - Textmining in der Praxis Informationsflut bewältigen - Textmining in der Praxis Christiane Theusinger Business Unit Data Mining & CRM Solutions SAS Deutschland Ulrich Reincke Manager Business Data Mining Solutions SAS Deutschland

Mehr

Spezialisierung Business Intelligence

Spezialisierung Business Intelligence Spezialisierung Business Intelligence Peter Becker Fachbereich Informatik Hochschule Bonn-Rhein-Sieg peter.becker@h-brs.de 10. Juni 2015 Was ist Business Intelligence? Allgemein umfasst der Begriff Business

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

TNS EX A MINE BehaviourForecast Predictive Analytics for CRM. TNS Infratest Applied Marketing Science

TNS EX A MINE BehaviourForecast Predictive Analytics for CRM. TNS Infratest Applied Marketing Science TNS EX A MINE BehaviourForecast Predictive Analytics for CRM 1 TNS BehaviourForecast Warum BehaviourForecast für Sie interessant ist Das Konzept des Analytischen Customer Relationship Managements (acrm)

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Die intelligente Sicht auf Ihre Kundendaten

Die intelligente Sicht auf Ihre Kundendaten Die intelligente Sicht auf Ihre Kundendaten Business Case Ein tiefgehendes Verständnis der Kunden, ihrer Bedürfnisse und Kaufgewohnheiten ist im heutigen wirtschaftlichen Umfeld - das durch intensive Anbieter-Konkurrenz,

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendungssysteme (BIAS) Lösung Aufgabe 1 Übung WS 2012/13 Business Intelligence Erläutern Sie den Begriff Business Intelligence. Gehen Sie bei der Definition von Business Intelligence

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT

ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT April 2013 ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT von Maren Weiß & Prof. Dr. Michael Durst Welche Rolle spielen Trends in den Frühen Phasen im Innovationsmanagement? Wie setzen Unternehmen Trends

Mehr

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10.

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10. Titel1 Business Analytics als Werkzeug zur Titel2 Unternehmenssteuerung Business Excellence Day 2015 Michael Shabanzadeh, 10. Juni 2015 World Communication GmbH 2015 Seite 1 Definition Business Analytics

Mehr

MS SQL Server 2012 (4)

MS SQL Server 2012 (4) MS SQL Server 2012 (4) Data Mining, Analyse und multivariate Verfahren Marco Skulschus Jan Tittel Marcus Wiederstein Webseite zum Buch: http://vvwvv.comelio-medien.com/buch-kataiog/ms sql_server/ms sql

Mehr

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Text Mining und CRM Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Was ist Textmining Unstrukturierte Daten (Text) anreichern mit Strukturinformation: Metadaten hinzufügen Struktur (Segmentinformation)

Mehr

CRM Customer Relationship Management Resul Taner Saim Sert s0502924 s0502583 14.11.2003 Rechnernetzmanagement und Bürokommunikation I : CRM - [Taner Sert] 1/33 Inhalt 1. Einleitung 2. Begriffserklärung

Mehr

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement Jump Helpdesk Softwarelösungen für professionelles Servicemanagement Jump Network GmbH 2004-2006 Jump Helpdesk Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen.

Mehr

Einführung in Business Intelligence

Einführung in Business Intelligence Einführung in Business Intelligence Grundlagen und Anwendungsmöglichkeiten Prof. Dr. Wolfram Höpken wolfram.hoepken@eloum.net eloum @ Hochschule Ravensburg-Weingarten Informationsveranstaltung ebusiness-lotse

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Anwendung der Predictive Analytics

Anwendung der Predictive Analytics TDWI Konferenz mit BARC@TDWI Track 2014 München, 23. 25. Juni 2014 Anwendung der Predictive Analytics Prof. Dr. Carsten Felden Dipl. Wirt. Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg

Mehr

Towards Automated Analysis of Business Processes for Financial Audits

Towards Automated Analysis of Business Processes for Financial Audits Towards Automated Analysis of Business Processes for Financial Audits Michael Werner Universität Hamburg michael.werner@wiso.uni hamburg.de Max Brauer Allee 60 22765 Hamburg StB Prof. Dr. Nick Gehrke Nordakademie

Mehr

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation?

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation? 1. Konferenz der A Benutzer KFE in Forschung und Entwicklung Data Mining - Marketing-chlagwort oder ernstzunehmende Innovation? Hans-Peter Höschel,, Heidelberg 1. Konferenz der A Benutzer KFE in Forschung

Mehr

Entscheidungsunterstützungssysteme

Entscheidungsunterstützungssysteme Vorlesung WS 2013/2014 Christian Schieder Professur Wirtschaftsinformatik II cschie@tu-chemnitz.eu Literatur zur Vorlesung Gluchowski, P.; Gabriel, R.; Dittmar, C.: Management Support Systeme und Business

Mehr

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS BIG DATA & PREDICTIVE ANALYTICS BIG DATA & PREDICTIVE ANALYTICS Turn communication into usable data. In einer zunehmend vernetzten, digitalen Service-Ökonomie müssen Sie die Wünsche Ihrer Kunden laufend

Mehr

Analytisches CRM und Data Mining

Analytisches CRM und Data Mining Analytisches CRM und Data Mining Magische Zahlen für das Marketing Computerwoche Initiative CRM 2009 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Mitglied im CRM Expertenrat

Mehr

Automatische Gesprächsauswertung im Callcenter

Automatische Gesprächsauswertung im Callcenter Einleitung Forschungsbeitrag Automatische Gesprächsauswertung im Callcenter Projekt CoachOST Dipl.-Wirtsch.-Inf. Mathias Walther Prof. Dr. Taïeb Mellouli Lehrstuhl für Wirtschaftsinformatik und Operations

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation

SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation Alexander Schroeter, Head of Outbound PM MEE, CRM & Commerce, SAP AG Regensdorf, November 19, 2013 SAP Customer Engagement

Mehr

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih Data Mining mit Rapidminer im Direktmarketing ein erster Versuch Hasan Tercan und Hans-Peter Weih Motivation und Ziele des Projekts Anwendung von Data Mining im Versicherungssektor Unternehmen: Standard

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Portrait Uplift. Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden

Portrait Uplift. Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden Portrait Uplift Prognostizieren Sie die Änderungen im Verhalten Ihrer Kunden Nun können Sie vorhersagen, welche Kunden Sie mit ihren Angeboten überzeugen werden noch bevor sie angesprochen werden. Zusammenfassung

Mehr

Datenbanken-Themen im OS "Data Mining" SS 2010

Datenbanken-Themen im OS Data Mining SS 2010 Prof. Dr.-Ing. Thomas Kudraß HTWK Leipzig, FIMN Datenbanken-Themen im OS "Data Mining" SS 2010 Die Vorträge sollten eine Dauer von 60 Minuten (Einzelvortrag) bzw. 45 Minuten (Doppelvortrag) haben. Nachfolgend

Mehr

AdWords Professional Kurs. by netpulse AG

AdWords Professional Kurs. by netpulse AG AdWords Professional Kurs by netpulse AG Inhaltsverzeichnis Einleitung... 3 Kursaufbau... 3 Google zertifizierter AdWords-Spezialist... 3 Modul 1 Wie AdWords wirklich funktioniert... 4 Modul 2 Die bessere

Mehr

Visual Business Analytics Visueller Zugang zu Big Data

Visual Business Analytics Visueller Zugang zu Big Data Visual Business Analytics Visueller Zugang zu Big Data Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax:

Mehr

Data/Information Quality Management

Data/Information Quality Management Data/Information Quality Management Seminar WI/Informationsmanagement im Sommersemester 2002 Markus Berberov, Roman Eder, Peter Gerstbach 11.6.2002 Inhalt! Daten und Datenqualität! Einführung und Definition!

Mehr

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Exploration und Klassifikation von BigData

Exploration und Klassifikation von BigData Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Summary... 4. Keywords... 4. Granularität der Daten... 5. Mit Vorverdichtung hochaggregierte Daten bereithalten... 6

Summary... 4. Keywords... 4. Granularität der Daten... 5. Mit Vorverdichtung hochaggregierte Daten bereithalten... 6 Inhaltsverzeichnis Summary... 4 Keywords... 4 Granularität der Daten... 5 Mit Vorverdichtung hochaggregierte Daten bereithalten... 6 Partitionierung der Datenbestände... 7 Vergrößerter Aktionsradius von

Mehr

Einführung in die Wissensverarbeitung und Data Mining

Einführung in die Wissensverarbeitung und Data Mining Einführung in die Wissensverarbeitung und Data Mining Peter Becker FH Bonn-Rhein-Sieg Fachbereich Angewandte Informatik!" $# Vorlesung Wintersemester 2001/02 1. Einführung Vorbemerkungen 1 Einführung Vorbemerkungen

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Andreas Seufert Organisation: Institut für Business Intelligence

Mehr

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge Self Service BI - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge 04. Juli 2013 Cubeware GmbH zu Gast im Hause der Raber+Märcker GmbH Referent: Uwe van Laak Presales Consultant

Mehr

Effizient und erfolgreich verkaufen. Evaluation. Heinz Krienbühl. Business Unit Manager. 26. März 2010

Effizient und erfolgreich verkaufen. Evaluation. Heinz Krienbühl. Business Unit Manager. 26. März 2010 Effizient und erfolgreich verkaufen. Evaluation. PIM. Shop-Software. Software Tools. Übersicht. Namics. Heinz Krienbühl. Business Unit Manager. 26. März 2010 3/25/2010 2 E-Commerce. Vision und Realität.

Mehr

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Pentaho ermöglicht Analyse der von den über 120 Millionen registrierten Spielern generierten Datenflut

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1.

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik

Mehr

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele

Mehr

Treffsichere Absatzprognosen durch Predictive Analytics

Treffsichere Absatzprognosen durch Predictive Analytics Treffsichere Absatzprognosen durch Predictive Analytics Prof. Dr. Michael Feindt, Karlsruhe Institute of Technology KIT Chief Scientific Advisor, Phi-T GmbH und Blue Yonder GmbH & Co KG 3. Europäischer

Mehr

Künstliche Intelligenz Dirk Krechel SS 2009

Künstliche Intelligenz Dirk Krechel SS 2009 Künstliche Intelligenz Dirk Krechel SS 2009 Überblick über das Modul 1. Einführung 2. Symbolische Verfahren Logik Aussagenlogik Prädikatenlogik Horn Logik Prolog 3. Suchen und Bewerten Problemlösen durch

Mehr

Online CRM: Fuzzy Customer Segmentation

Online CRM: Fuzzy Customer Segmentation Online CRM: Fuzzy Customer Segmentation Adrian Glauser Inhalt : 1. Einführung..... 3 2. Unscharfe Logik. 3 3. Klassische Kundensegmentierung. 5 4. Unscharfe Kundensegmentierung.. 6 5. Anwendungsbeispiel....

Mehr

Fachgruppe Statistik, Risikoanalyse & Computing. STAT672 Data Mining. Sommersemester 2007. Prof. Dr. R. D. Reiß

Fachgruppe Statistik, Risikoanalyse & Computing. STAT672 Data Mining. Sommersemester 2007. Prof. Dr. R. D. Reiß Fachgruppe Statistik, Risikoanalyse & Computing STAT672 Data Mining Sommersemester 2007 Prof. Dr. R. D. Reiß Überblick Data Mining Begrifflichkeit Unter Data Mining versteht man die Computergestützte Suche

Mehr

ConWeaver Make Your Data Work

ConWeaver Make Your Data Work ConWeaver Make Your Data Work 2012 ConWeaver Know-how im Bereich Wissensvernetzung seit 1993 2007 Ausgründung aus der Fraunhofer-Gesellschaft (Mit-)Gewinner des Software-Clusters 2010 und des Innovationspreis-IT

Mehr

FH-Mannheim. Studiengang Informatik SS2005 KDM. Prof. Dr. A.Schmücker-Schend. Data Mining Anwendungen. Übungsblatt 2 Aufgabe 3

FH-Mannheim. Studiengang Informatik SS2005 KDM. Prof. Dr. A.Schmücker-Schend. Data Mining Anwendungen. Übungsblatt 2 Aufgabe 3 FH-Mannheim Studiengang Informatik SS2005 KDM Prof. Dr. A.Schmücker-Schend Data Mining Anwendungen Übungsblatt 2 Aufgabe 3 Abgabe bis zum 12. Mai 2005 Gruppe 13 NAME MATRIKELNUMMER UNTERSCHRIFT Uli Ruffler

Mehr

Automatisierte Wissensnetze im Entwicklungsprozess. Dr. Thomas Kamps Darmstadt 2012

Automatisierte Wissensnetze im Entwicklungsprozess. Dr. Thomas Kamps Darmstadt 2012 Automatisierte Wissensnetze im Entwicklungsprozess Dr. Thomas Kamps Darmstadt 2012 Überblick Präsentation 1. ConWeaver: Unternehmensprofil, Mission, Zielgruppe 2. Entscheidungskriterien für automatisierte

Mehr

SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN

SOZIALES BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN CHRISTIAN KÖNIG BUSINESS EXPERT COMPETENCE CENTER CUSTOMER INTELLIGENCE Copyr i g ht 2012, SAS Ins titut e Inc. All rights res

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Trends in Business Intelligence

Trends in Business Intelligence Trends in Business Intelligence Dr. Carsten Bange Business Intelligence (BI) beschreibt die Erfassung, Sammlung und Darstellung von Information zur Planung, Steuerung und Kontrolle der Unternehmensleistung.

Mehr

Lehrplan Physik. Bildungsziele

Lehrplan Physik. Bildungsziele Lehrplan Physik Bildungsziele Physik erforscht mit experimentellen und theoretischen Methoden die messend erfassbaren und mathematisch beschreibbaren Erscheinungen und Vorgänge in der Natur. Der gymnasiale

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

Customer Relationship Management

Customer Relationship Management Customer Relationship Management Titel des Lernmoduls: Customer Relationship Management Themengebiet: New Economy Gliederungspunkt im Curriculum: 2.2.1.3.7 Zum Inhalt: Diese Modul befaßt sich mit der Vorgehensweise

Mehr

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28.

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28. PPC und Data Mining Seminar aus Informatik LV-911.039 Michael Brugger Fachbereich der Angewandten Informatik Universität Salzburg 28. Mai 2010 M. Brugger () PPC und Data Mining 28. Mai 2010 1 / 14 Inhalt

Mehr

Web Analytics & Web Controlling

Web Analytics & Web Controlling Edition TDWI Web Analytics & Web Controlling Webbasierte Business Intelligence zur Erfolgssicherung von Andreas Meier, Darius Zumstein 1. Auflage Web Analytics & Web Controlling Meier / Zumstein schnell

Mehr

Unlimited Controlling

Unlimited Controlling smcolap Unlimited Controlling Heute müssen beliebige Bereiche eines Unternehmens schnell und effizient analysiert werden. Dabei darf es keine Rolle spielen, wo die Daten liegen und in welcher Relation

Mehr