SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG. Prof. Dr. Werner Mellis. Hauptseminar Wirtschaftsinformatik im Sommersemester 2013

Größe: px
Ab Seite anzeigen:

Download "SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG. Prof. Dr. Werner Mellis. Hauptseminar Wirtschaftsinformatik im Sommersemester 2013"

Transkript

1 SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG Prof. Dr. Werner Mellis Hauptseminar Wirtschaftsinformatik im Sommersemester 2013 Thema-Nr. 32 Big Data und Herausforderungen für die Datenqualität vorgelegt von: Greulich, Malte

2 II Inhaltsverzeichnis Abkürzungsverzeichnis... III Abbildungsverzeichnis... IV Tabellenverzeichnis...V 1. Einleitung Problemstellung und Zielsetzung Aufbau der Arbeit Grundlagen der Big-Data-Analyse und der Datenqualität Analyse von Big Data Konzept der Datenqualität Herausforderungen für die Datenqualität bei Big Data Ursachen von Datenqualitätsproblemen Identifizierung von relevanten Datenqualitätsdimensionen Konzeption der Untersuchung Ergebnisse der Untersuchung Diskussion identifizierter Datenqualitätsdimensionen Fazit und Ausblick Literaturverzeichnis Anhang: Auswertung der Literaturrecherche... 24

3 III Abkürzungsverzeichnis BI DQ OLAP RDBMS RSS XML Business Intelligence Datenqualität Online Analytical Processing Relational Database Management System Really Simple Syndication Extensible Markup Language

4 IV Abbildungsverzeichnis Abb. 2-1: Prozess der Big-Data-Analyse... 4

5 V Tabellenverzeichnis Tab. 2-1: Dimensionen der Datenqualität... 7 Tab. 3-1: Ursachen von Datenqualitätsproblemen bei Big Data... 8 Tab. 3-2: Klassifikation von Typen von Daten... 9 Tab. 3-3: Identifizierte Datenqualitätsdimensionen in der Big-Data-Literatur... 12

6 1 1. Einleitung 1.1 Problemstellung und Zielsetzung Für die Ableitung von Erkenntnissen aus den Geschäftsdaten von Organisationen und dem Einsatz dieser Daten bei der Entscheidungsfindung, ist es erforderlich, dass die Daten in hoher Datenqualität vorliegen. 1 Die Gewährleistung einer angemessenen Datenqualität stellt zunehmend einen wettbewerbsrelevanten Faktor dar. 2 Die Entwicklungen in der Informationstechnologie (IT) und des Internets haben es Organisationen ermöglicht, enorme Mengen an Big Data aus deren Geschäftsumfeld zu sammeln und zu speichern, als dies noch in vergangenen Jahrzehnten der Fall war. 3 Im Hinblick auf die Speicherung, Verarbeitung und Analyse dieser Daten ergeben sich neue Herausforderungen für die Datenqualität. 4 Die Analyse von Ursachen für Datenqualitätsprobleme ermöglicht es, Datenqualität besser zu bewerten und die Folgen schlechter Datenqualität eingrenzen zu können. Die Untersuchung von Herausforderungen und insbesondere die Analyse der Bedeutung von Datenqualitätsdimensionen bei Big Data sind in der wissenschaftlichen Diskussion nach Kenntnis des Autors bisher nicht erfolgt. Das Ziel dieser Arbeit ist es daher, einen Überblick über die Herausforderungen der Datenqualität im Kontext von Big Data zu geben und die Bedeutung der Datenqualitätsdimensionen zu diskutieren. Für diesen Schritt ist es notwendig, Datenqualitätsdimensionen zu definieren, um ein einheitliches Verständnis für den Kontext der Arbeit zu schaffen. Auf dieser Basis sollen anschließend Datenqualitätsdimensionen in der Literatur zu Big Data identifizieren und diskutiert werden. Eine abschließende Bewertung der Ergebnisse ermöglicht es, Ansatzpunkte für weitere Untersuchungen in Bezug auf die Besonderheiten der Datenqualität bei Big Data aufgezeigt. Die Identifizierung und Diskussion relevanter Datenqualitätsdimensionen bei Big Data kann damit einen Beitrag dazu leisten, die Herausforderungen für Datenqualität bei Big Data besser zu verstehen. Des Weiteren können die Ergebnisse als Ansatz dienen, um zu überprüfen, ob aktuelle Datenqualitätsmodelle und -frameworks bei Big Data noch anwendbar sind oder ob neue Ansätze und Konzepte entwickelt werden müssen. 1 Vgl. Wang, Strong (1996), S. 6, Storey, Dewan, Freimer (2012), S. 434 sowie Orr (1998), S Vgl. Zhu u. a. (2012), S Vgl. Haug u. a. (2013), S Vgl. Haug u. a. (2013), S. 234 sowie Storey, Dewan, Freimer (2012), S. 434.

7 2 1.2 Aufbau der Arbeit Die vorliegende Arbeit gliedert sich in vier Teile. Nachdem in diesem Kapitel zunächst die Problemstellung und Zielsetzung der Arbeit dargestellt wurden, beinhaltet Kapitel 2 zu Beginn die Darstellung grundlegender Eigenschaften von Big-Data-Analysen. Anschließend wird näher auf das Thema Datenqualität eingegangen, was die Definition von Datenqualitätsdimensionen beinhaltet. Kapitel 3 beschäftigt sich mit dem Thema der Herausforderungen für die Datenqualität bei Big Data. Zunächst werden Datenqualitätsprobleme bei Big Data beschrieben. Anschließend werden relevante Datenqualitätsdimensionen in der Big-Data-Literatur identifiziert und nachfolgend deren Besonderheiten diskutiert. Kapitel 4 befasst sich kritisch mit den Ergebnissen der Arbeit und gibt einen Ausblick auf zukünftige Untersuchungsschwerpunkte.

8 3 2. Grundlagen der Big-Data-Analyse und der Datenqualität 2.1 Analyse von Big Data Der Begriff Big Data wird häufig nur sehr vage abgegrenzt im Kontext der weltweit ansteigenden Datenmenge verwendet. 5 Der Umfang dieser Daten bezieht sich auf ein Volumen im Bereich von Terabytes bis Exabytes (= 1 Mio. Terabyte). 6 Das Ziel von Big-Data-Analysen ist es, unbekannte Muster in diesen Daten zu erkennen und nutzenbringende Informationen abzuleiten, die Organisationen helfen, ihr Kerngeschäft zu unterstützen und die Entscheidungsfindung zu verbessern. 7 Diese Informationsgewinnung wäre nur eingeschränkt bei geringerer Datenmenge möglich. 8 Das hohe Datenvolumen (volume) ist nicht die einzige charakteristische Eigenschaft von Big Data. Eine weitere Eigenschaft bezieht sich Big Data auf die Menge an meist unstrukturierten Daten, die aus einer Vielzahl von Anwendungsszenarien generiert werden. 9 Hierzu zählen beispielsweise Clickstream-Daten von Internetseiten 10, Inhalte sozialer Netzwerke, Video-und Audiodaten sowie Echtzeitinformationen von Sensoren und mobilen Endgeräten. 11 Big-Data-Analysen müssen daher mit einer starken Vielfalt an Daten umgehen (variety). Viele dieser Quellen, wie etwa Facebook und Twitter, sind aufgrund ihrer jungen Unternehmensgeschichte noch relativ neu. 12 Sie können fehlerhafte Daten enthalten, eine hohe Heterogenität aufweisen und in dem Kontext ihrer Verwendung unterschiedliche Ziele verfolgen. 13 Das gesamte Datenvolumen ist hierbei so groß, dass eine effiziente Analyse mit Hilfe traditioneller Technologien wie RDBMS (relationales Datenbankmanagementsystem) oder OLAP (Online Analytical Processing) nicht mehr möglich ist. 14 Sie sind entweder in ihrer Funktionsweise zu beschränkt, um die für die Organisation interessanten Zusammenhänge aufzudecken oder die 5 Vgl. Boyd, Crawford (2012), S. 663 sowie Pospiech, Felden (2012), S Vgl. Kaisler u. a. (2013), S. sowie Varde u. a. (2012), S Vgl. Mahrt, Scharkow (2013), S. 22, Huai u. a. (2011), S. 1 sowie Shang u. a. (2013), S Vgl. Mahrt, Scharkow (2013), S Vgl. Cuzzocrea u. a. (2011), S Vgl. hierzu z.b. Chatterjee, Hoffman, Novak (2003), S Vgl. Davenport, Barth, Bean (2012), S. 44 sowie McAfee, Brynjolfsson (2012), S Vgl. McAfee, Brynjolfsson (2012), S Vgl. Agrawal u. a. (2012), S. 2 sowie Boyd, Crawford (2012), S Vgl. Jacobs (2009), S. 39, Mahrt, Scharkow (2013), S. 22 sowie Pospiech, Felden (2012), S. 6.

9 4 Verarbeitung des Datenvolumens ist nicht mehr mit angemessenem Aufwand möglich. 15 Dieses Verständnis ist eng an die derzeitigen technischen und methodischen Möglichkeiten und Grenzen gebunden. Big Data soll in dieser Arbeit daher als Datenmenge aufgefasst werden, die sich mit bewährten Technologien und Konzepten nicht mehr angemessen handhaben lässt und die neue Entwicklungen von Technologien und Konzepte benötigt. 16 Eine weitere Eigenschaft von Big Data ist die Geschwindigkeit (velocity) der Datengenerierung und verarbeitung. 17 Für viele zeitkritische Anwendungen ist die Geschwindigkeit der Datenverarbeitung und die benötige Zeit bis zum Vorliegen von Analyseergebnissen von hoher Bedeutung. Echtzeitinformationen ermöglichen es Organisation wesentlich flexibler auf Veränderungen im Geschäftsumfeld zu reagieren und Entscheidungen auf fundierten Analyseergebnissen zu treffen. 18 Ein Beispiel ist die Echtzeitanalyse von Verkaufsdaten zur Optimierung von Lagerbeständen. 19 Big-Data-Analysen lassen sich zusammenfassend als Prozess beschreiben, der in Abbildung 2-1 dargestellt wird. Datenerfassung und -beschaffung Datenextraktion und -bereinigung Datenintegration Datenanalyse Dateninterpretation und -nutzung Abb. 2-1: Prozess der Big-Data-Analyse 20 Der Prozess beginnt mit der Datenerfassung bzw. beschaffung aus einer Vielfalt verschiedener Quellsysteme. Nach der Extraktion und Bereinigung (data cleansing) erfolgt die Integration der Daten. Die anschließenden Analysen greifen auf Verfahren aus 15 Vgl. Fisher u. a. (2012), S. 53, Ahuja, Moore (2013), S., Pospiech, Felden (2012), S Vgl. Jacobs (2009), S. 44 sowie Davenport, Barth, Bean (2012), S Vgl. Gartner (2011) sowie Kaisler u. a. (2013), S Vgl. McAfee, Brynjolfsson (2012), S. 63 sowie Russom (2011), S Vgl. Tankard (2012), S In Anlehnung an Agrawal u. a. (2012), S. 3, Panahy, Payam, Hassany, Shariat u. a. (2013), S sowie Ahuja, Moore (2013), S. 63.

10 5 Business Intelligence (BI), Data Mining und statistischen Analysen zurückgreifen. 21 Als letzter Schritt steht die Interpretation und Nutzung der Analyseergebnisse. Eine Übersicht über aktuelle Technologien und Frameworks (z.b. Hadoop, MapReduce) für die Speicherung und Verarbeitung von Big Data findet sich bei Ahuja, Moore (2013) und wird im Rahmen dieser Ausarbeitung nicht detaillierter thematisiert. 2.2 Konzept der Datenqualität In der Literatur existieren verschiedene Sichtweisen über die Definition von Datenqualität. 22 Eine allgemein anerkannte Definition von Datenqualität ist fitness for use Das Konzept definiert Datenqualität aus Sicht des Nutzers, der entscheidet, ob die Daten für den intendierten Zweck geeignet sind. 25 Anders formuliert, beschreibt Datenqualität das Ausmaß, in dem die Anforderungen an die Datennutzung erfüllt werden. 26 Damit ist die Datenqualität nicht nur abhängig von der subjektiven Auffassung des Nutzers, sondern auch vom Kontext der Verwendung. 27 Die Datenqualität kann daher nicht unabhängig von den Personen bestimmt werden, welche die Daten verwenden. 28 Datenqualität ist ein multidimensionales Konzept. Dies bedeutet, dass sich die Datenqualität aus Nutzersicht mittels verschiedener Datenqualitätsdimensionen beschreiben lässt. 29 Strong und Lee (1997) kategorisieren 16 Datenqualitätsdimensionen nach intrinsischer (z.b. Fehlerfreiheit, Objektivität), kontextualer (z.b. Relevanz, Aktualität), repräsentationeller Datenqualität (z.b. Verständlichkeit, Konsistenz) und Zugriffsqualität (z.b. Verfügbarkeit, Zugriffssicherheit). 30 Zu denen für den Nutzer am wichtigsten und in der Literatur am häufigsten zitierten zählen Fehlerfreiheit (accuracy), Vollständigkeit 21 Vgl. Hsinchun Chen, Chiang, Storey (2012), S Vgl. Haug, Arlbjørn (2011), S Vgl. Wang, Strong (1996), S Vgl. Knight (2011), S. 206 sowie Haug u. a. (2013), S Vgl. Wang, Strong (1996), S Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. Parssian (2006), S Vgl. Knight (2011), S Vgl. Knight (2011), S. 206, Wang, Strong (1996), S. 6 sowie Ballou, Pazer (1985), S Vgl. Strong, Lee, Wang (1997), S. 104.

11 6 (completeness), Konsistenz (consistency) und Aktualität (timeliness). 31 Knight (2011) analysierte Frameworks zur Datenqualität und abstrahierte 16 gängige Qualitätsdimensionen, von denen sich neben den oben genannten Dimensionen besonders häufig Zuverlässigkeit (reliabilty), Relevanz (relevancy) und Datenumfang/-tiefe (scope/depth) in den analysierten Modellen Verwendung wiederfinden. 32 Tabelle 2-1 enthält eine Übersicht mit Definition dieser 16 Datenqualitätsdimensionen. Die Bedeutung und Abgrenzung der einzelnen Qualitätsdimensionen ist in der Literatur nicht eindeutig. 33 Gleichzeitig ergibt sich aufgrund der Komplexität von Informationssystemen und der Informationsgewinnung eine große Herausforderung, die Datenqualität zu bewerten. 34 Die Forschung auf diesem Gebiet hat verschiedene Techniken entwickelt, um Datenqualität bewertbar zu machen. Im Kontext von Big Data ist die Bewertbarkeit ebenfalls relevant, da die betrachteten Daten aus einer Vielzahl heterogener Quellen stammen. Die Begriffe Datenqualität und Informationsqualität werden in der Literatur häufig synonym verwendet, wobei Datenqualität eine mehr technische Sicht beschreibt und Informationsqualität eine eher nicht technische Sicht. 35 In dieser Arbeit wird der Begriff Datenqualität verwendet, da sich dieser mehr auf die technischen Probleme bezüglich der Datenqualität bezieht und weniger auf die Nutzung der Daten innerhalb einer Organisation. 31 Vgl. Parssian (2006), S zitiert nach Blake, Mangiameli (2011), S. 8:2 sowie Batini u. a. (2009), S. 6 zitiert nach Scannapieco, Catarci (2002), S Vgl. Knight (2011), S Vgl. Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Zhu u. a. (2012), S Vgl. Zhu u. a. (2012), S. 1 sowie Watts, Shankaranarayanan, Even (2009), S. 202.

12 7 DQ-Dimension Zuverlässigkeit (reliability) Fehlerfreiheit (accuracy) Aktualität (timeliness) Relevanz (relevancy) Verfügbarkeit (accessibility/availability) Nutzbarkeit (usability) Konsistenz (consistency) Vollständigkeit (completeness) Datenumfang/-tiefe (scope/depth) Objektivität (objectivity) Verständlichkeit (understandability) Sicherheit (security) Mehrwert (value-ddded) Prägnanz (conciseness) Glaubwürdigkeit (believability) Effizienz (efficiency) Definition Grad, zu der eine Information es Wert ist, als Grundlage verwendet zu werden. Grad, zu dem eine Information korrekt oder frei von Fehlern ist. Grad, zu der eine Information aktuell ist, relativ zur betrachteten Aufgabe. Grad, zu dem eine Information verwendbar und hilfreich für die die betrachtete Aufgabe ist. Grad, zu der eine Information leicht durch den Konsumenten abgefragt werden kann; bezieht sich sowohl auf den physikalischen Zugriff (über ein Netzwerk oder Internet) als auch auf kognitiven Zugriff (z.b. einfach zu lesen). Grad, zu dem eine Information einfach zu finden und zu nutzen ist. Grad, zu dem eine Information in einem systematischen, logischen Format dargestellt ist, die kompatibel mit anderen Informationen desselben Ursprungs ist. Grad, zu dem alle nötigen Elemente der benötigten Informationen vorhanden sind. Grad, zu dem die Menge an Informationen aus einer Quelle ausreichend ist. Grad, zu dem eine Information frei von Tendenzen ist oder sich dieser bewusst ist. Grad, zu dem eine Information fähig ist, verstanden und interpretiert zu werden. Grad, zu dem eine Information als sicher betrachtet wird, da der Zugriff durch geeignete Maßnahmen beschränkt ist. Grad, zu dem eine Information einen Mehrwert liefert, da sie besonderes oder einzigartiges Material enthält. Grad, zu dem eine Information in einer kompakten, leicht verständlichen Weise ausgedrückt ist. Grad, zu der eine Information als wahr und glaubwürdig angesehen wird. Grad, zu dem eine Information fähig ist, schnell den Informationsbedürfnissen des Nutzers zu entsprechen. Tab. 2-1: Dimensionen der Datenqualität In Anlehnung an Knight (2011), S. 216.

13 8 3. Herausforderungen für die Datenqualität bei Big Data 3.1 Ursachen von Datenqualitätsproblemen Organisationen müssen mit einer schnell wachsenden Datenmenge umgehen. Gleichzeitig wird es schwieriger, verwertbare Informationen aus dieser Flut an Daten zu extrahieren. Probleme der Datenqualität können häufig Ursache dieser Problematik sein. 37 Für Organisationen ergeben sich neue Herausforderungen bei dem Umgang mit Big Data, um eine hohe Datenqualität sicherzustellen. Eine hohe Datenqualität ermöglicht es den Nutzer innerhalb einer Organisation, die Daten gemäß seiner Analyseziele zu verwenden (fit-for-use). Die Betrachtung von Herausforderungen für die Datenqualität bezieht sich in dieser Ausarbeitung auf die Ursachen von Datenqualitätsproblemen bei Big Data. Hierbei kann zwischen technischen und nicht technischen Ursachen unterschieden werden. 38 Die technischen Ursachen beziehen sich auf die mangelnde Integration und Verarbeitung der Daten, während die nicht technischen Ursachen beispielsweise das Fehlen einer organisationseinheitenübergreifenden Strategie zur bedarfsgerechten Verbreitung der Daten beinhalten. Tabelle 3-1 enthält eine Übersicht über grundlegende, technische Ursachen von Datenqualitätsproblemen bei Big Data, auf die im Folgenden näher eingegangen wird. Ursachen von Datenqualitätsproblemen bei Big Data Datenvolumen Datenheterogenität/ -diversität der Datenquellen Komplexität der Speicherung und Verarbeitung Anspruch an die Datennutzung Tab. 3-1: Ursachen von Datenqualitätsproblemen bei Big Data Erschwert werden die Identifizierung von Datenqualitätsproblemen sowie die Bewertung der Datenqualität durch das große Datenvolumen, das eine effiziente Analyse mit Hilfe traditioneller Technologien 39 nahezu unmöglich macht. 40 Bei diesen Technologien liegen Daten in strukturierter Form vor, die es ermöglicht, die Daten in einem 37 Vgl. Zhu u. a. (2012), S Vgl. zu diesem und dem folgenden Satz Zhu u. a. (2012), S Vgl. hierzu auch Abschnitt Vgl. Jacobs (2009), S. 39, Mahrt, Scharkow (2013), S. 22 sowie Pospiech, Felden (2012), S. 6.

14 9 relationalen Schema zu speichern. 41 Da im Kontext von Big Data eine hohe Datenheterogenität bzw. diversität zugrunde liegt, müssen neben strukturierten Daten, die beispielsweise aus relationalen Datenbanktabellen stammen, zunehmend semi-strukturierte und unstrukturierte Daten berücksichtigt werden. 42 Tabelle 3-2 enthält eine Übersicht über die Klassifikation unterschiedlicher Typen von Daten. Zu den unstrukturierten Daten zählen etwa Präsentationen und s sowie Kommentare und Sprache. Semistrukturierte Daten (z.b. XML) besitzen eine flexible Struktur, die auch als schemalos oder selbstbeschreibend bezeichnet wird. 43 Klassifikation von Typen von Daten strukturiert semi-strukturiert Unstrukturiert z.b. relationale Tabellen, statistische Daten XML, RSS Feeds PowerPoint Präsentationen, s, Textdokumente, Sprache, Kommentare, Sensordaten Tab. 3-2: Klassifikation von Typen von Daten 44 Aufgrund der unterschiedlichen Typen von Daten ergeben sich Probleme hinsichtlich der Gestaltung von Analysen, die mit abnehmender Struktur der Daten ansteigen. 45 Um Big-Data-Analysen durchführen zu können, müssen die Quelldaten in einem Transformationsprozess in ein strukturiertes Format überführt werden. Datenqualitätsprobleme können in unterschiedlichen Phasen von Big-Data-Analysen auftreten. Einerseits kann bereits die Qualität der Ursprungsdaten variieren. Andererseits können Ursachen für Datenqualitätsprobleme auch durch die Integration und Verarbeitung der Daten entstehen. Ein Grund ist, dass komplexe Operationen notwendig sind, um Daten, die aus unterschiedlichen Quellen stammen und die für verschiedene Zwecke erstellt wurden, zu integrieren. 46 Jede Datenquelle besitzt inhärente Anforderungen an die Datenqualität, 41 Vgl. Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Cuzzocrea u. a. (2011), S. 101 sowie Sadiq, Yeganeh, Indulska (2011), S Vgl. Batini u. a. (2009), S Vgl. zu den Beispielen Batini u. a. (2009), S. 9 10, Sadiq, Yeganeh, Indulska (2011), S. 1 sowie Chaudhuri, Dayal, Narasayya (2011), S Vgl. zu diesem und dem folgenden Satz Cuzzocrea u. a. (2011), S. 102 sowie Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Yeoh, Wang, Verbitskiy (2012), S. 2.

15 10 die sich aus dem Kontext ihrer Verwendung ergeben. 47 Beispielsweise kann die Korrektheit und Zuverlässigkeit von selbstverwalteten Profildaten in sozialen Netzwerken stark variieren. 48 Die Überprüfung solcher fehlerhaften Angaben ist eine komplexe Aufgabe. Eine Ursache für Datenqualitätsprobleme liegt daher in der übergreifenden Validierung der Quelldaten. Ferner erfolgt die Datengenerierung oft nicht unter dem Gesichtspunkt einer späteren Datenanalyse, bei der die Datenqualität jedoch eine entscheidende Rolle einnimmt. 49 Probleme können daher bereits in unterschiedlicher Ausprägung bei den Datenquellen vorliegen und sich maßgeblich auf die Qualität der Analyseergebnisse auswirken, falls keine geeignete Maßnahmen zur Identifizierung und Behebung von Datenqualitätsproblemen getroffen werden. Eine weitere Ursache für Probleme bezüglich der Datenqualität ist die erforderliche Verfügbarkeit der Quelldaten in Echtzeit für die Analyse und die sofortige Verfügbarkeit der Analyseergebnisse. Dies kann je nach Anwendungsfall entscheidend für die Analyseziele sein. 50 Das Entdecken eines Kreditkartenbetrugs ist ein Beispiel für die kritische Bedeutung einer schnellen Verfügbarkeit der Analyseergebnisse. Insgesamt stellt die Komplexität der Speicherung und Verarbeitung bei Big Data eine wesentliche Ursache für Datenqualitätsprobleme dar. Die Datenqualität kann nicht nur aufgrund der Heterogenität der Daten variieren, sondern ebenfalls durch die Verarbeitung beeinträchtigt werden. Bei Datenqualitätsproblemen bei Big Data spielt zunehmend die Erwartung der Nutzer an die Qualität der Daten eine Rolle. Das Phänomen Big Data ist häufig mit dem Anspruch verbunden, dass eine gestiegene Datenmenge auch qualitativ hochwertigere und tiefergehende Ergebnisse liefert. 51 Aufgrund der oben beschriebenen Ursachen für Datenqualitätsprobleme ist dies nicht zwingend gewährleistet. 47 Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. zu diesem und dem folgenden Satz Sung-Hyuk Park u. a. (2012), S Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. Gartner (2011) sowie Hsinchun Chen, Chiang, Storey (2012), S Vgl. Kaisler u. a. (2013), S. 998.

16 Identifizierung von relevanten Datenqualitätsdimensionen Konzeption der Untersuchung Datenqualität ist ein multidimensionales Konzept, dass sich anhand verschiedener Datenqualitätsdimensionen beschreiben lässt. Im Abschnitt 2.2 wurden hierzu 16 Datenqualitätsdimensionen definiert, die sich nach Knight (2011) als gängigste Dimensionen in Modellen zur Datenqualität wiederfinden. Auf dieser Grundlage sollen im Folgenden die in der Big-Data-Literatur implizit und explizit genannten Dimensionen identifiziert werden. Dadurch ist es möglich, die Ergebnisse als Ausgangspunkt für die Analyse der Anwendbarkeit von bestehenden Datenqualitätsmodellen bei Big Data zu nutzen. Die Betrachtung von Ursachen für Datenqualitätsprobleme im vorherigen Abschnitt hat gezeigt, dass insbesondere unstrukturierte Daten ein entscheidendes Problem für die Datenqualität bei Big Data darstellen. Aus diesem Grund liegt ein Schwerpunkt dieser Analyse auf dem Einfluss von unstrukturierten Daten auf die Datenqualitätsdimensionen und damit auf die wahrgenommene Datenqualität durch den Nutzer. Zur Ermittlung von Literatur zum Thema Datenqualität bei Big Data wurden die Datenbanken EBSCOhost, ScienceDirect und ProQuest durchsucht. Dabei wurden die Stichworte big data in Kombination mit data quality oder information quality oder data analytics bei der Suche verwendet. Da die Suche lediglich eine geringe Trefferanzahl ergab 52, wurde die Suche erweitert, indem Referenzen und Querverweise hinzugezogen wurden Ergebnisse der Untersuchung Insgesamt wurden 15 relevante Quellen identifiziert, die Datenqualität bei Big Data implizit und explizit thematisieren. Die Ergebnisse zeigen, dass sich bisher nicht systematisch mit Datenqualitätsproblemen bei Big Data in der wissenschaftlichen Diskussion beschäftigt wird. 53 Vielmehr werden Themen der Datenqualität häufig im Kontext von Business Intelligence diskutiert. Darüber hinaus war eine differenzierte Betrachtung der Datenqualitätsdimensionen bei Big Data war häufig nicht gegeben. Datenqualitätsdimensionen ließen sich meist nur aus dem Kontext erschließen. Da es im Rahmen dieser Ausarbeitung nicht möglich ist, die Gesamtheit der 16 Dimensionen mit einzubeziehen, 52 Vgl. den Anhang zur Auswertung der Literaturrecherche. 53 Vgl. hierzu auch Agrawal u. a. (2012), S. 2.

17 Relevanz Zuverlässigkeit Konsistenz Fehlerfreiheit Datenumfang/-tiefe Verfügbarkeit Effizienz Mehrwert Aktualität Verständlichkeit 12 wurde die Anzahl der expliziten oder impliziten Nennungen der Dimensionen als Auswahlkriterium verwendet, wobei jene mit weniger als drei Nennungen aus der Betrachtung ausgeschlossen wurden. Die Ergebnisse der Identifizierung von Datenqualitätsdimensionen in der Big-Data-Literatur sind in Tabelle 3-3 dargestellt. Literatur Ahuja, Moore (2013), S Ahuja, Moore (2013), S Al-Debei (2011), S Anstiss (2012), S Anstiss (2012), S Batini u. a. (2009), S. 2 + Boyd, Crawford (2012), S. 668, Chaudhuri, Dayal, Narasayya (2011), S Cuzzocrea u. a. (2011), S Greenberg (2012), S Işık, Jones, Sidorova (2013), S Kaisler u. a. (2013), S Kaisler u. a. (2013), S Mahrt, Scharkow (2013), S. 26, Storey, Dewan, Freimer (2012), S Strong, Lee, Wang (1997), S Wigan, Clarke (2013), S Zhu u. a. (2012), S. 1,6, # Anzahl: Tab. 3-3: Identifizierte Datenqualitätsdimensionen in der Big-Data-Literatur

18 Diskussion identifizierter Datenqualitätsdimensionen Im Folgenden wird die Bedeutung der identifizierten Datenqualitätsdimensionen diskutiert. Ziel ist es, die Besonderheiten der Datenqualitätsdimensionen bei Big Data zu konkretisieren. Aufgrund des Umfanges dieser Arbeit wurde sich bei der nachfolgenden Diskussion auf die laut den Ergebnissen der Untersuchung wichtigsten Dimensionen beschränkt. Die Dimensionen Relevanz, Zuverlässigkeit, Konsistenz, Fehlerfreiheit und Datenumfang/-tiefe mit den jeweiligen Besonderheiten bei Big Data werden nun näher beschrieben. Die Dimension Fehlerfreiheit (accuracy) beschreibt den Grad, zu dem die Information korrekt oder frei von Fehlern ist. 54 Bei Big-Data-Analysen wird die Gesamtheit der verfügbaren Datenmenge an strukturierten als auch unstrukturierten Daten mit dem Ziel analysiert, verwertbare Informationen zu extrahieren. Fehler in den Ursprungsdaten können die Qualität des Analyseergebnisses beeinflussen. Diese Fehler können von falsch geschriebenen Wörtern, über Abkürzungen bis hin zu branchenspezifischer Terminologie reichen. 55 Die Überprüfung von Fehlern in unstrukturierten Daten ist komplex. Da bei Big Data ein enormes Volumen an unstrukturierten Daten berücksichtigt werden müssen, ergibt sich das Problem, dass die abgeleiteten Informationen bzw. Resultate der Big-Data-Analysen auf fehlerbehafteten Daten beruhen können. Dies hat zur Folge, dass einerseits die Fehlerfreiheit des Ergebnisses negativ beeinflusst wird. Andererseits hat die Dimension Fehlerfreiheit Einfluss auf die Zuverlässigkeit der Ergebnisse. Hieraus ergibt sich die Notwendigkeit, die Fehlerfreiheit der Quelldaten zu bewerten, sodass bei einer integrierten Betrachtung durch Big-Data-Analysen das Ausmaß und die Bedeutung der Fehler berücksichtigt werden können. Die Frage ist demnach, wie entschieden werden kann, ob Daten korrekt und folglich frei von Fehlern sind. 56 In der Literatur werden Metadaten-Ansätze zur Lösung von Datenqualitätsproblemen bei BI diskutiert. 57 Metadaten sind abstrakte Informationen über Daten, die über den Inhalt der Daten hinausgehen. Sie liefern den Nutzern der Daten zusätzliche 54 Vgl. zu den Definition der Datenqualitätsdimensionen Tabelle Vgl. Greenberg (2012), S Vgl. Ahuja, Moore (2013), S. 66 zitiert nach Kaisler u. a. (2013), S Vgl. z.b. Yeoh, Wang, Verbitskiy (2012), S. 1.

19 14 Kontextinformationen. 58 Ein Ansatz zur besseren Bewertbarkeit der Datenqualität ist es daher, Metadaten bei der Analyse zu berücksichtigen, um Resultate besser bewerten zu können. Die Datenqualitätsdimension Relevanz beschreibt den Grad, zu dem eine Information verwendbar und hilfreich für die betrachtete Aufgabe ist. Das Ziel von Big-Data- Analysen ist es, unbekannte Muster und Korrelationen aufzudecken. 59 Da dieses Ziel sehr vage formuliert ist, lässt sich die Einschätzung des Nutzers bei Big Data, ob extrahierte Informationen verwendbar oder hilfreich sind, nur schwer beurteilen. Die Literaturrecherche hat ergeben, dass diese Datenqualitätsdimension häufig mit dem Ziel verknüpft ist, tiefergehende Einblicke und Zusammenhänge in den analysierten Daten zu erhalten 60, um die Entscheidungsfindung zu unterstützen und zu vereinfachen. 61 Die Tatsache, dass unstrukturierte Daten ein hohes Potential besitzen 62, steigert die Erwartung des Nutzers an die Relevanz der extrahierten Informationen. 63 Gleichzeitig werden relevante Zusammenhänge erst ersichtlich, wenn Daten unterschiedlicher Kontexte integriert betrachtet werden. 64 Daher ergibt sich die Notwendigkeit, Daten unterschiedlichen Typs miteinander zu integrieren. Die subjektive Einschätzung eines Nutzers über die Relevanz einzelner Datenquellen kann von der Relevanz der Analyseergebnisse bei einer integrierten Betrachtung abweichen. Wenn beispielsweise die Profilinformationen eines Benutzers in einem sozialen Netzwerk nicht mit den Datensätzen von Transaktionen eines Online-Bezahlsystems verknüpft werden können, ist die Relevanz des Ergebnisses gering, auch wenn die Datenquellen als solche für den Nutzer relevant sein können. Anhand dieses Beispiels wird deutlich, dass die Beurteilung der Relevanz einer Information einerseits von den Erwartungen des Nutzers an das Analyseergebnis und andererseits von der technischen Integration von Datenquellen abhängt Vgl. Watts, Shankaranarayanan, Even (2009), S Vgl. z.b. Shang u. a. (2013), S Vgl. Anstiss (2012), S. 4, Ahuja, Moore (2013), S. 62 sowie Zhu u. a. (2012), S Vgl. Storey, Dewan, Freimer (2012), S. 434 sowie Kaisler u. a. (2013), S Vgl. Anstiss (2012), S. 1 sowie Boyd, Crawford (2012), S Vgl. Kaisler u. a. (2013), S Vgl. Batini u. a. (2009), S. 5 sowie Agrawal u. a. (2012), S Vgl. Zhu u. a. (2012), S. 1.

20 15 In diesem Zusammenhang sind die konsistente Repräsentation und logische Aufbereitung der Daten wichtige Aspekte. Dies wird mit der Datenqualitätsdimension Konsistenz (consistency) beschrieben. Ein häufiges Problem unstrukturierter Daten ist, dass regelmäßig unterschiedliche Darstellungen derselben Information vorkommen. 66 Dies umfasst unter anderem Probleme mit Datumsformaten, Abkürzungen oder beispielsweise Wertemengen für die Darstellung des Geschlechts einer Person. 67 Da bei Big Data unstrukturierte Daten zunehmend relevant gewinnen, ist eine steigende Bedeutung dieser Datenqualitätsdimension nachvollziehbar. Der Umfang von Big Data erschweren zunehmend die Überprüfbarkeit und Sicherung einer konsistenten Repräsentation der Analyseergebnisse. Gemessen an der Anzahl des Vorkommens ist die Zuverlässigkeit (reliability) der Informationen eine der wichtigsten Datenqualitätsdimensionen. Sie beschreibt den Grad, zu dem eine Information verlässlich ist. Diese Dimension ist ebenfalls in der Darstellung von Knight (2011) die bedeutendste Dimension. Bei Big Data und insbesondere bei Quellen mit unstrukturierten Daten, ergibt sich die Problematik, dass sie abstrahiert von dem Kontext ihrer Verwendung, an Bedeutung verlieren. 68 Die Zuverlässigkeit von Information, die sich aus Big-Data-Analysen ergeben, hängt folglich davon ab, wie gut der jeweilige Kontext der ursprünglichen Daten bei der Analyse berücksichtigt wurde. Dies hat direkte Auswirkungen auf die Eigenschaft, als Basis für die Entscheidungsunterstützung in Organisationen genutzt zu werden. Die Gewährleistung eines angemessenen Qualitätsniveaus der Daten, ist eine bedeutende, jedoch schwierige Aufgabe für Organisationen. 69 Entscheidend ist, den Kontext der Daten bei Big-Data-Analysen explizit zu berücksichtigen, damit der Verlust an Informationsgehalt möglichst gering ausfällt. Die Bedeutung von Metadaten ist dabei ein kritischer Aspekt. 70 Neben der Zuverlässigkeit der Daten ist die angemessene Datenmenge (volume/depth) aus einer spezifischen Quelle eine wichtige Dimension der Datenqualität bei Big Data. Hierbei stellt sich die Frage, wie viel Daten aus einer Quelle ausreichend sind, um 66 Vgl. Greenberg (2012), S Vgl. Rohweder u. a. (2011), S Vgl. Boyd, Crawford (2012), S Vgl. Storey, Dewan, Freimer (2012), S Vgl. Yeoh, Wang, Verbitskiy (2012), S. 1 sowie Watts, Shankaranarayanan, Even (2009), S. 204.

DGIQ Projekt IQ-Definition

DGIQ Projekt IQ-Definition DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012

Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012 Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012 Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung Julius-Maximilians-Universität Würzburg 07.02.2012 Erwerb von Kompetenzen

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009 Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der

Mehr

Social Media als Bestandteil der Customer Journey

Social Media als Bestandteil der Customer Journey Social Media als Bestandteil der Customer Journey Gregor Wolf Geschäftsführer Experian Marketing Services Frankfurt, 19.6.2015 Experian and the marks used herein are service marks or registered trademarks

Mehr

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften

Mehr

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor auf Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Institut für angewandte Informationstechnologie (InIT)

Institut für angewandte Informationstechnologie (InIT) School of Engineering Institut für angewandte Informationstechnologie (InIT) We ride the information wave Zürcher Fachhochschule www.init.zhaw.ch Forschung & Entwicklung Institut für angewandte Informationstechnologie

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

connect.it Campus Literaturverwaltung mit Mendeley

connect.it Campus Literaturverwaltung mit Mendeley connect.it Campus Literaturverwaltung mit Mendeley Philipp Küller, 22.09.2015 Wann benötigen Sie Literatur? u Proseminar à Literaturanalyse u Seminar à Literaturanalyse u Projektstudie à Recherche, Berichtsband

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 b Wien 08. Juni 2015 Stefanie Lindstaedt, b Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center

Mehr

Social Media Datennutzung im Customer Relationship Management

Social Media Datennutzung im Customer Relationship Management Social Media Datennutzung im Customer Relationship Management Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B. Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems markus.helfert@unisg.ch Slide 2 Überblick Data-Warehouse-Systeme und Datenqualität Datenqualitätsmanagement Datenqualität

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Social Media trifft Business

Social Media trifft Business Social Media trifft Business Intelligence Social Media Analysis als Teil der Unternehmenssteuerung Tiemo Winterkamp, VP Global Marketing Agenda Social Media trifft Business Intelligence Business Intelligence

Mehr

SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN

SOZIALES BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN CHRISTIAN KÖNIG BUSINESS EXPERT COMPETENCE CENTER CUSTOMER INTELLIGENCE Copyr i g ht 2012, SAS Ins titut e Inc. All rights res

Mehr

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten: Eine praxisnahe Analyse

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Jakob Jünger, M.A. Till Keyling, M.A. Facepager. Ein Programm zur automatisierten Datenerhebung im Netz

Jakob Jünger, M.A. Till Keyling, M.A. Facepager. Ein Programm zur automatisierten Datenerhebung im Netz Jakob Jünger, M.A. Till Keyling, M.A. Ein Programm zur automatisierten Datenerhebung im Netz Agenda 1. Grundlagen der automatisierten Datenerhebung 2. Überblick über den 3. Fallstricke automatisierter

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

Herausforderungen des Continuous Auditing im Big Data Umfeld

Herausforderungen des Continuous Auditing im Big Data Umfeld Herausforderungen des Continuous Auditing im Big Data Umfeld Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

ASQT 2015. 13. Anwenderkonferenz für Softwarequalität, Test und Innovation

ASQT 2015. 13. Anwenderkonferenz für Softwarequalität, Test und Innovation ASQT 2015 13. Anwenderkonferenz für Softwarequalität, Test und Innovation Kongress Graz 16. u. 17. April 2015 www.asqt.org Motivation In den letzten 50 Jahren haben zwei Wellen der Informationstechnologie

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin HP Autonomy Information Governance Strategie: Die Kontrolle über die Informationsflut Petra Berneaud - Account Manager Autonomy Status in vielen

Mehr

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der

Mehr

Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com. shafaei@kntu.ac.ir BPOKM. 1 Business Process Oriented Knowledge Management

Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com. shafaei@kntu.ac.ir BPOKM. 1 Business Process Oriented Knowledge Management Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com shafaei@kntu.ac.ir -. - 1 Business Process Oriented Knowledge Management 1 -..» «.. 80 2 5 EPC PC C EPC PC C C PC EPC 3 6 ; ; ; ; ; ; 7 6 8 4 Data... 9 10 5 -

Mehr

Big & Smart Data. bernard.bekavac@htwchur.ch

Big & Smart Data. bernard.bekavac@htwchur.ch Big & Smart Data Prof. Dr. Bernard Bekavac Schweizerisches Institut für Informationswissenschaft SII Studienleiter Bachelor of Science in Information Science bernard.bekavac@htwchur.ch Quiz An welchem

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH

BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH QUALITÄT ZÄHLT DIE KUNDENWAHRNEHMUNG ENTSCHEIDET 91% 91% of unhappy customers unzufriedener

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 392

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 392 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 392 Social Business Intelligence: Entwicklung, Architekturen und Perspektiven

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit Universität Passau Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Masterarbeit "Identifikation von Erfolgsfaktoren für eine Facebook- Recruiting-Strategie"

Mehr

Agenda ITIL v3 Framework

Agenda ITIL v3 Framework Agenda ITIL v3 Framework Overview & Allgemeines ITIL Service Lifecycle Service Strategies Service Design Service Transition Service Operation Continual Service Improvement ITIL V3 Continual Service Improvement

Mehr

Big Data - Fluch oder Segen?

Big Data - Fluch oder Segen? mitp Professional Big Data - Fluch oder Segen? Unternehmen im Spiegel gesellschaftlichen Wandels von Ronald Bachmann, Guido Kemper, Thomas Gerzer 1. Auflage Big Data - Fluch oder Segen? Bachmann / Kemper

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Wo sind meine Daten? Ein Gesundheitscheck Ihrer Datenhaltung. KRM/Wildhaber Consulting, Zürich 2014

Wo sind meine Daten? Ein Gesundheitscheck Ihrer Datenhaltung. KRM/Wildhaber Consulting, Zürich 2014 Wo sind meine Daten? Ein Gesundheitscheck Ihrer Datenhaltung 1 KRM/Wildhaber Consulting, Zürich 2014 Kreditkartendaten gestohlen u Die Geheimdienste zapfen systematisch Rechner an u Cloud Lösungen sind

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Wie schreibt man eine Literaturübersicht?

Wie schreibt man eine Literaturübersicht? Wie schreibt man eine Literaturübersicht? Hinweis: Eine Literaturübersicht kann sowohl ein eigenständiger Text oder Teil einer wissenschaftlichen Arbeit sein. Im zweiten Fall findet sich in der Arbeit

Mehr

Big Data aus Sicht eines globalen Unternehmens

Big Data aus Sicht eines globalen Unternehmens Big Data aus Sicht eines globalen Unternehmens Impulsbeitrag FES/ver.di Expertengespräch Prof. Dr. Gerhard Satzger, Director IBM Business Performance Services Berlin, 25.6.2014 IBM ein traditionsreiches,

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad Datenqualität mit dem DataFlux dfpower Studio 8.1 Tobias Jansen Zaferna-Hütte, 4. Januar 2009 Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter Nasa Marssonde Mars Climate Orbiter

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Big Data bei unstrukturierten Daten. AW1 Vortrag Sebastian Krome

Big Data bei unstrukturierten Daten. AW1 Vortrag Sebastian Krome Big Data bei unstrukturierten Daten AW1 Vortrag Sebastian Krome Agenda Wiederholung Aspekte von Big Data Datenverarbeitungsprozess TextMining Aktuelle Paper Identification of Live News Events Using Twitter

Mehr

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte

Mehr

Large Scale Data Management

Large Scale Data Management Large Scale Data Management Beirat für Informationsgesellschaft / GOING LOCAL Wien, 21. November 2011 Prof. Dr. Wolrad Rommel FTW Forschungszentrum Telekommunikation Wien rommel@ftw.at Gartner's 2011 Hype

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Andrei Buhrymenka Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Für Unternehmen mit Business Intelligence Diplomica Verlag Andrei Buhrymenka Erfolgreiche Unternehmensführung

Mehr

Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung

Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung Thomas Artur Roner Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung Diplom.de Inhaltsverzeichnis Abkürzungsverzeichnis Abbildungsverzeichnis I II 1. Einleitung 1 2. Begriffsklärungen

Mehr

TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010

TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010 TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010 Reinhard Bernsteiner MCiT Management, Communication & IT MCI MANAGEMENT CENTER INNSBRUCK Universitätsstraße 15 www.mci.edu

Mehr

Social Software im Change Management. Bachelorarbeit

Social Software im Change Management. Bachelorarbeit Social Software im Change Management Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen Fakultät der

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Big Data in Marketing und IT

Big Data in Marketing und IT Big Data in Marketing und IT Chancen erkennen, Strategien entwickeln und Projekte erfolgreich umsetzen T-Systems Hacker Day 30. September 2015 Prof. Dr. Alexander Rossmann Reutlingen University Big Data

Mehr

LOG AND SECURITY INTELLIGENCE PLATFORM

LOG AND SECURITY INTELLIGENCE PLATFORM TIBCO LOGLOGIC LOG AND SECURITY INTELLIGENCE PLATFORM Security Information Management Logmanagement Data-Analytics Matthias Maier Solution Architect Central Europe, Eastern Europe, BeNeLux MMaier@Tibco.com

Mehr

REAL-TIME DATA WAREHOUSING

REAL-TIME DATA WAREHOUSING REAL-TIME DATA WAREHOUSING Lisa Wenige Seminarvortrag Data Warehousing und Analytische Datenbanken Friedrich-Schiller-Universität Jena - 19.01.12 Lisa Wenige 19.01.2012 2 Agenda 1. Motivation 2. Begriffsbestimmung

Mehr

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST? BERNADETTE FABITS WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS HINEIN GEHÖRT DATA SCIENTIST, STATISTIKER, DATA MINER, ANALYST,. Gibt es noch mehr von denen. die arbeiten mit Big Data

Mehr

Neue Strategien und Innovationen im Umfeld von Kundenprozessen

Neue Strategien und Innovationen im Umfeld von Kundenprozessen Neue Strategien und Innovationen im Umfeld von Kundenprozessen BPM Forum 2011 Daniel Liebhart, Dozent für Informatik an der Hochschule für Technik Zürich, Solution Manager, Trivadis AG Agenda Einleitung:

Mehr

Social Monitoring. HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014

Social Monitoring. HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014 HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014 Abdul-Wahed Haiderzadah abdul-wahed.haiderzadah@haw-hamburg.de Betreuer:

Mehr

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Unternehmen Beratung Strategie

Mehr

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen Big Data Modewort oder echter Mehrwert freenet Group Dr. Florian Johannsen freenet Group 2 Titel der Präsentation 07.07.2015 Mobilfunkgeschäft der freenet Group Austausch von Daten und Informationen Im

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 378 Umsetzung ausgewählter Supply-Chain-Operations-Reference-Metriken durch das

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Top 10 der Business Intelligence-Trends für 2014

Top 10 der Business Intelligence-Trends für 2014 Top 10 der Business Intelligence-Trends für 2014 Das Ende der Datenexperten. Datenwissenschaft kann künftig nicht nur von Experten, sondern von jedermann betrieben werden. Jeder normale Geschäftsanwender

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Automatisierte Dossier- Erstellung mittels Text-Mining

Automatisierte Dossier- Erstellung mittels Text-Mining Automatisierte Dossier- Erstellung mittels Text-Mining Paul Assendorp Grundseminar 11.12.2014 Paul Assendorp Automatisierte Dossier-Erstellung 1 Gliederung Motivation Textmining Tools Aktueller Stand Ausblick

Mehr

Mehr Wissen über Kunden und Leistungen Daten und Prozesse verbinden CeBIT, Hannover, 10.03.2014. Martin Böhn, Head of CRM, Senior Analyst

Mehr Wissen über Kunden und Leistungen Daten und Prozesse verbinden CeBIT, Hannover, 10.03.2014. Martin Böhn, Head of CRM, Senior Analyst Mehr Wissen über Kunden und Leistungen Daten und Prozesse verbinden CeBIT, Hannover, 10.03.2014 Martin Böhn, Head of CRM, Senior Analyst CRM in der heutigen Praxis: Kampf Vor-Ort- Termine Prospekte, Beispiele

Mehr

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Facetten von Designforschung Einblicke in den Stand der Dinge

Facetten von Designforschung Einblicke in den Stand der Dinge Hans Kaspar Hugentobler Designforschung: Vielfalt, Relevanz, Ideologie Facetten von Designforschung Einblicke in den Stand der Dinge Hans Kaspar Hugentobler Master of Design Diplom-Kommunikationswirt Bremen

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Business Analytics in der Big Data-Welt

Business Analytics in der Big Data-Welt Business Analytics in der Big Data-Welt Frankfurt, Juni 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data-Analytik "The way I look at big data analytics is it's not a technology,

Mehr

Projekt-/Praxisseminare Sommersemester 2014

Projekt-/Praxisseminare Sommersemester 2014 Lehrstuhl Dr. Max Mustermann Wirtschaftsinformatik I - Informationssysteme Referat Kommunika/on & Marke/ng FAKULTÄT Verwaltung FÜR WIRTSCHAFTSWISSENSCHAFTEN Projekt-/Praxisseminare Sommersemester 2014

Mehr

Requirements-Engineering Requirements-Engineering

Requirements-Engineering Requirements-Engineering -Engineering Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1 Was ist ein Requirement? IEEE-Standard (IEEE-726 83) A condition or capability needed by a user to solve a problem or achieve an objective.

Mehr

Towards Automated Analysis of Business Processes for Financial Audits

Towards Automated Analysis of Business Processes for Financial Audits Towards Automated Analysis of Business Processes for Financial Audits Michael Werner Universität Hamburg michael.werner@wiso.uni hamburg.de Max Brauer Allee 60 22765 Hamburg StB Prof. Dr. Nick Gehrke Nordakademie

Mehr