SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG. Prof. Dr. Werner Mellis. Hauptseminar Wirtschaftsinformatik im Sommersemester 2013

Größe: px
Ab Seite anzeigen:

Download "SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG. Prof. Dr. Werner Mellis. Hauptseminar Wirtschaftsinformatik im Sommersemester 2013"

Transkript

1 SEMINAR FÜR WIRTSCHAFTSINFORMATIK UND SYSTEMENTWICKLUNG Prof. Dr. Werner Mellis Hauptseminar Wirtschaftsinformatik im Sommersemester 2013 Thema-Nr. 32 Big Data und Herausforderungen für die Datenqualität vorgelegt von: Greulich, Malte

2 II Inhaltsverzeichnis Abkürzungsverzeichnis... III Abbildungsverzeichnis... IV Tabellenverzeichnis...V 1. Einleitung Problemstellung und Zielsetzung Aufbau der Arbeit Grundlagen der Big-Data-Analyse und der Datenqualität Analyse von Big Data Konzept der Datenqualität Herausforderungen für die Datenqualität bei Big Data Ursachen von Datenqualitätsproblemen Identifizierung von relevanten Datenqualitätsdimensionen Konzeption der Untersuchung Ergebnisse der Untersuchung Diskussion identifizierter Datenqualitätsdimensionen Fazit und Ausblick Literaturverzeichnis Anhang: Auswertung der Literaturrecherche... 24

3 III Abkürzungsverzeichnis BI DQ OLAP RDBMS RSS XML Business Intelligence Datenqualität Online Analytical Processing Relational Database Management System Really Simple Syndication Extensible Markup Language

4 IV Abbildungsverzeichnis Abb. 2-1: Prozess der Big-Data-Analyse... 4

5 V Tabellenverzeichnis Tab. 2-1: Dimensionen der Datenqualität... 7 Tab. 3-1: Ursachen von Datenqualitätsproblemen bei Big Data... 8 Tab. 3-2: Klassifikation von Typen von Daten... 9 Tab. 3-3: Identifizierte Datenqualitätsdimensionen in der Big-Data-Literatur... 12

6 1 1. Einleitung 1.1 Problemstellung und Zielsetzung Für die Ableitung von Erkenntnissen aus den Geschäftsdaten von Organisationen und dem Einsatz dieser Daten bei der Entscheidungsfindung, ist es erforderlich, dass die Daten in hoher Datenqualität vorliegen. 1 Die Gewährleistung einer angemessenen Datenqualität stellt zunehmend einen wettbewerbsrelevanten Faktor dar. 2 Die Entwicklungen in der Informationstechnologie (IT) und des Internets haben es Organisationen ermöglicht, enorme Mengen an Big Data aus deren Geschäftsumfeld zu sammeln und zu speichern, als dies noch in vergangenen Jahrzehnten der Fall war. 3 Im Hinblick auf die Speicherung, Verarbeitung und Analyse dieser Daten ergeben sich neue Herausforderungen für die Datenqualität. 4 Die Analyse von Ursachen für Datenqualitätsprobleme ermöglicht es, Datenqualität besser zu bewerten und die Folgen schlechter Datenqualität eingrenzen zu können. Die Untersuchung von Herausforderungen und insbesondere die Analyse der Bedeutung von Datenqualitätsdimensionen bei Big Data sind in der wissenschaftlichen Diskussion nach Kenntnis des Autors bisher nicht erfolgt. Das Ziel dieser Arbeit ist es daher, einen Überblick über die Herausforderungen der Datenqualität im Kontext von Big Data zu geben und die Bedeutung der Datenqualitätsdimensionen zu diskutieren. Für diesen Schritt ist es notwendig, Datenqualitätsdimensionen zu definieren, um ein einheitliches Verständnis für den Kontext der Arbeit zu schaffen. Auf dieser Basis sollen anschließend Datenqualitätsdimensionen in der Literatur zu Big Data identifizieren und diskutiert werden. Eine abschließende Bewertung der Ergebnisse ermöglicht es, Ansatzpunkte für weitere Untersuchungen in Bezug auf die Besonderheiten der Datenqualität bei Big Data aufgezeigt. Die Identifizierung und Diskussion relevanter Datenqualitätsdimensionen bei Big Data kann damit einen Beitrag dazu leisten, die Herausforderungen für Datenqualität bei Big Data besser zu verstehen. Des Weiteren können die Ergebnisse als Ansatz dienen, um zu überprüfen, ob aktuelle Datenqualitätsmodelle und -frameworks bei Big Data noch anwendbar sind oder ob neue Ansätze und Konzepte entwickelt werden müssen. 1 Vgl. Wang, Strong (1996), S. 6, Storey, Dewan, Freimer (2012), S. 434 sowie Orr (1998), S Vgl. Zhu u. a. (2012), S Vgl. Haug u. a. (2013), S Vgl. Haug u. a. (2013), S. 234 sowie Storey, Dewan, Freimer (2012), S. 434.

7 2 1.2 Aufbau der Arbeit Die vorliegende Arbeit gliedert sich in vier Teile. Nachdem in diesem Kapitel zunächst die Problemstellung und Zielsetzung der Arbeit dargestellt wurden, beinhaltet Kapitel 2 zu Beginn die Darstellung grundlegender Eigenschaften von Big-Data-Analysen. Anschließend wird näher auf das Thema Datenqualität eingegangen, was die Definition von Datenqualitätsdimensionen beinhaltet. Kapitel 3 beschäftigt sich mit dem Thema der Herausforderungen für die Datenqualität bei Big Data. Zunächst werden Datenqualitätsprobleme bei Big Data beschrieben. Anschließend werden relevante Datenqualitätsdimensionen in der Big-Data-Literatur identifiziert und nachfolgend deren Besonderheiten diskutiert. Kapitel 4 befasst sich kritisch mit den Ergebnissen der Arbeit und gibt einen Ausblick auf zukünftige Untersuchungsschwerpunkte.

8 3 2. Grundlagen der Big-Data-Analyse und der Datenqualität 2.1 Analyse von Big Data Der Begriff Big Data wird häufig nur sehr vage abgegrenzt im Kontext der weltweit ansteigenden Datenmenge verwendet. 5 Der Umfang dieser Daten bezieht sich auf ein Volumen im Bereich von Terabytes bis Exabytes (= 1 Mio. Terabyte). 6 Das Ziel von Big-Data-Analysen ist es, unbekannte Muster in diesen Daten zu erkennen und nutzenbringende Informationen abzuleiten, die Organisationen helfen, ihr Kerngeschäft zu unterstützen und die Entscheidungsfindung zu verbessern. 7 Diese Informationsgewinnung wäre nur eingeschränkt bei geringerer Datenmenge möglich. 8 Das hohe Datenvolumen (volume) ist nicht die einzige charakteristische Eigenschaft von Big Data. Eine weitere Eigenschaft bezieht sich Big Data auf die Menge an meist unstrukturierten Daten, die aus einer Vielzahl von Anwendungsszenarien generiert werden. 9 Hierzu zählen beispielsweise Clickstream-Daten von Internetseiten 10, Inhalte sozialer Netzwerke, Video-und Audiodaten sowie Echtzeitinformationen von Sensoren und mobilen Endgeräten. 11 Big-Data-Analysen müssen daher mit einer starken Vielfalt an Daten umgehen (variety). Viele dieser Quellen, wie etwa Facebook und Twitter, sind aufgrund ihrer jungen Unternehmensgeschichte noch relativ neu. 12 Sie können fehlerhafte Daten enthalten, eine hohe Heterogenität aufweisen und in dem Kontext ihrer Verwendung unterschiedliche Ziele verfolgen. 13 Das gesamte Datenvolumen ist hierbei so groß, dass eine effiziente Analyse mit Hilfe traditioneller Technologien wie RDBMS (relationales Datenbankmanagementsystem) oder OLAP (Online Analytical Processing) nicht mehr möglich ist. 14 Sie sind entweder in ihrer Funktionsweise zu beschränkt, um die für die Organisation interessanten Zusammenhänge aufzudecken oder die 5 Vgl. Boyd, Crawford (2012), S. 663 sowie Pospiech, Felden (2012), S Vgl. Kaisler u. a. (2013), S. sowie Varde u. a. (2012), S Vgl. Mahrt, Scharkow (2013), S. 22, Huai u. a. (2011), S. 1 sowie Shang u. a. (2013), S Vgl. Mahrt, Scharkow (2013), S Vgl. Cuzzocrea u. a. (2011), S Vgl. hierzu z.b. Chatterjee, Hoffman, Novak (2003), S Vgl. Davenport, Barth, Bean (2012), S. 44 sowie McAfee, Brynjolfsson (2012), S Vgl. McAfee, Brynjolfsson (2012), S Vgl. Agrawal u. a. (2012), S. 2 sowie Boyd, Crawford (2012), S Vgl. Jacobs (2009), S. 39, Mahrt, Scharkow (2013), S. 22 sowie Pospiech, Felden (2012), S. 6.

9 4 Verarbeitung des Datenvolumens ist nicht mehr mit angemessenem Aufwand möglich. 15 Dieses Verständnis ist eng an die derzeitigen technischen und methodischen Möglichkeiten und Grenzen gebunden. Big Data soll in dieser Arbeit daher als Datenmenge aufgefasst werden, die sich mit bewährten Technologien und Konzepten nicht mehr angemessen handhaben lässt und die neue Entwicklungen von Technologien und Konzepte benötigt. 16 Eine weitere Eigenschaft von Big Data ist die Geschwindigkeit (velocity) der Datengenerierung und verarbeitung. 17 Für viele zeitkritische Anwendungen ist die Geschwindigkeit der Datenverarbeitung und die benötige Zeit bis zum Vorliegen von Analyseergebnissen von hoher Bedeutung. Echtzeitinformationen ermöglichen es Organisation wesentlich flexibler auf Veränderungen im Geschäftsumfeld zu reagieren und Entscheidungen auf fundierten Analyseergebnissen zu treffen. 18 Ein Beispiel ist die Echtzeitanalyse von Verkaufsdaten zur Optimierung von Lagerbeständen. 19 Big-Data-Analysen lassen sich zusammenfassend als Prozess beschreiben, der in Abbildung 2-1 dargestellt wird. Datenerfassung und -beschaffung Datenextraktion und -bereinigung Datenintegration Datenanalyse Dateninterpretation und -nutzung Abb. 2-1: Prozess der Big-Data-Analyse 20 Der Prozess beginnt mit der Datenerfassung bzw. beschaffung aus einer Vielfalt verschiedener Quellsysteme. Nach der Extraktion und Bereinigung (data cleansing) erfolgt die Integration der Daten. Die anschließenden Analysen greifen auf Verfahren aus 15 Vgl. Fisher u. a. (2012), S. 53, Ahuja, Moore (2013), S., Pospiech, Felden (2012), S Vgl. Jacobs (2009), S. 44 sowie Davenport, Barth, Bean (2012), S Vgl. Gartner (2011) sowie Kaisler u. a. (2013), S Vgl. McAfee, Brynjolfsson (2012), S. 63 sowie Russom (2011), S Vgl. Tankard (2012), S In Anlehnung an Agrawal u. a. (2012), S. 3, Panahy, Payam, Hassany, Shariat u. a. (2013), S sowie Ahuja, Moore (2013), S. 63.

10 5 Business Intelligence (BI), Data Mining und statistischen Analysen zurückgreifen. 21 Als letzter Schritt steht die Interpretation und Nutzung der Analyseergebnisse. Eine Übersicht über aktuelle Technologien und Frameworks (z.b. Hadoop, MapReduce) für die Speicherung und Verarbeitung von Big Data findet sich bei Ahuja, Moore (2013) und wird im Rahmen dieser Ausarbeitung nicht detaillierter thematisiert. 2.2 Konzept der Datenqualität In der Literatur existieren verschiedene Sichtweisen über die Definition von Datenqualität. 22 Eine allgemein anerkannte Definition von Datenqualität ist fitness for use Das Konzept definiert Datenqualität aus Sicht des Nutzers, der entscheidet, ob die Daten für den intendierten Zweck geeignet sind. 25 Anders formuliert, beschreibt Datenqualität das Ausmaß, in dem die Anforderungen an die Datennutzung erfüllt werden. 26 Damit ist die Datenqualität nicht nur abhängig von der subjektiven Auffassung des Nutzers, sondern auch vom Kontext der Verwendung. 27 Die Datenqualität kann daher nicht unabhängig von den Personen bestimmt werden, welche die Daten verwenden. 28 Datenqualität ist ein multidimensionales Konzept. Dies bedeutet, dass sich die Datenqualität aus Nutzersicht mittels verschiedener Datenqualitätsdimensionen beschreiben lässt. 29 Strong und Lee (1997) kategorisieren 16 Datenqualitätsdimensionen nach intrinsischer (z.b. Fehlerfreiheit, Objektivität), kontextualer (z.b. Relevanz, Aktualität), repräsentationeller Datenqualität (z.b. Verständlichkeit, Konsistenz) und Zugriffsqualität (z.b. Verfügbarkeit, Zugriffssicherheit). 30 Zu denen für den Nutzer am wichtigsten und in der Literatur am häufigsten zitierten zählen Fehlerfreiheit (accuracy), Vollständigkeit 21 Vgl. Hsinchun Chen, Chiang, Storey (2012), S Vgl. Haug, Arlbjørn (2011), S Vgl. Wang, Strong (1996), S Vgl. Knight (2011), S. 206 sowie Haug u. a. (2013), S Vgl. Wang, Strong (1996), S Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. Parssian (2006), S Vgl. Knight (2011), S Vgl. Knight (2011), S. 206, Wang, Strong (1996), S. 6 sowie Ballou, Pazer (1985), S Vgl. Strong, Lee, Wang (1997), S. 104.

11 6 (completeness), Konsistenz (consistency) und Aktualität (timeliness). 31 Knight (2011) analysierte Frameworks zur Datenqualität und abstrahierte 16 gängige Qualitätsdimensionen, von denen sich neben den oben genannten Dimensionen besonders häufig Zuverlässigkeit (reliabilty), Relevanz (relevancy) und Datenumfang/-tiefe (scope/depth) in den analysierten Modellen Verwendung wiederfinden. 32 Tabelle 2-1 enthält eine Übersicht mit Definition dieser 16 Datenqualitätsdimensionen. Die Bedeutung und Abgrenzung der einzelnen Qualitätsdimensionen ist in der Literatur nicht eindeutig. 33 Gleichzeitig ergibt sich aufgrund der Komplexität von Informationssystemen und der Informationsgewinnung eine große Herausforderung, die Datenqualität zu bewerten. 34 Die Forschung auf diesem Gebiet hat verschiedene Techniken entwickelt, um Datenqualität bewertbar zu machen. Im Kontext von Big Data ist die Bewertbarkeit ebenfalls relevant, da die betrachteten Daten aus einer Vielzahl heterogener Quellen stammen. Die Begriffe Datenqualität und Informationsqualität werden in der Literatur häufig synonym verwendet, wobei Datenqualität eine mehr technische Sicht beschreibt und Informationsqualität eine eher nicht technische Sicht. 35 In dieser Arbeit wird der Begriff Datenqualität verwendet, da sich dieser mehr auf die technischen Probleme bezüglich der Datenqualität bezieht und weniger auf die Nutzung der Daten innerhalb einer Organisation. 31 Vgl. Parssian (2006), S zitiert nach Blake, Mangiameli (2011), S. 8:2 sowie Batini u. a. (2009), S. 6 zitiert nach Scannapieco, Catarci (2002), S Vgl. Knight (2011), S Vgl. Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Zhu u. a. (2012), S Vgl. Zhu u. a. (2012), S. 1 sowie Watts, Shankaranarayanan, Even (2009), S. 202.

12 7 DQ-Dimension Zuverlässigkeit (reliability) Fehlerfreiheit (accuracy) Aktualität (timeliness) Relevanz (relevancy) Verfügbarkeit (accessibility/availability) Nutzbarkeit (usability) Konsistenz (consistency) Vollständigkeit (completeness) Datenumfang/-tiefe (scope/depth) Objektivität (objectivity) Verständlichkeit (understandability) Sicherheit (security) Mehrwert (value-ddded) Prägnanz (conciseness) Glaubwürdigkeit (believability) Effizienz (efficiency) Definition Grad, zu der eine Information es Wert ist, als Grundlage verwendet zu werden. Grad, zu dem eine Information korrekt oder frei von Fehlern ist. Grad, zu der eine Information aktuell ist, relativ zur betrachteten Aufgabe. Grad, zu dem eine Information verwendbar und hilfreich für die die betrachtete Aufgabe ist. Grad, zu der eine Information leicht durch den Konsumenten abgefragt werden kann; bezieht sich sowohl auf den physikalischen Zugriff (über ein Netzwerk oder Internet) als auch auf kognitiven Zugriff (z.b. einfach zu lesen). Grad, zu dem eine Information einfach zu finden und zu nutzen ist. Grad, zu dem eine Information in einem systematischen, logischen Format dargestellt ist, die kompatibel mit anderen Informationen desselben Ursprungs ist. Grad, zu dem alle nötigen Elemente der benötigten Informationen vorhanden sind. Grad, zu dem die Menge an Informationen aus einer Quelle ausreichend ist. Grad, zu dem eine Information frei von Tendenzen ist oder sich dieser bewusst ist. Grad, zu dem eine Information fähig ist, verstanden und interpretiert zu werden. Grad, zu dem eine Information als sicher betrachtet wird, da der Zugriff durch geeignete Maßnahmen beschränkt ist. Grad, zu dem eine Information einen Mehrwert liefert, da sie besonderes oder einzigartiges Material enthält. Grad, zu dem eine Information in einer kompakten, leicht verständlichen Weise ausgedrückt ist. Grad, zu der eine Information als wahr und glaubwürdig angesehen wird. Grad, zu dem eine Information fähig ist, schnell den Informationsbedürfnissen des Nutzers zu entsprechen. Tab. 2-1: Dimensionen der Datenqualität In Anlehnung an Knight (2011), S. 216.

13 8 3. Herausforderungen für die Datenqualität bei Big Data 3.1 Ursachen von Datenqualitätsproblemen Organisationen müssen mit einer schnell wachsenden Datenmenge umgehen. Gleichzeitig wird es schwieriger, verwertbare Informationen aus dieser Flut an Daten zu extrahieren. Probleme der Datenqualität können häufig Ursache dieser Problematik sein. 37 Für Organisationen ergeben sich neue Herausforderungen bei dem Umgang mit Big Data, um eine hohe Datenqualität sicherzustellen. Eine hohe Datenqualität ermöglicht es den Nutzer innerhalb einer Organisation, die Daten gemäß seiner Analyseziele zu verwenden (fit-for-use). Die Betrachtung von Herausforderungen für die Datenqualität bezieht sich in dieser Ausarbeitung auf die Ursachen von Datenqualitätsproblemen bei Big Data. Hierbei kann zwischen technischen und nicht technischen Ursachen unterschieden werden. 38 Die technischen Ursachen beziehen sich auf die mangelnde Integration und Verarbeitung der Daten, während die nicht technischen Ursachen beispielsweise das Fehlen einer organisationseinheitenübergreifenden Strategie zur bedarfsgerechten Verbreitung der Daten beinhalten. Tabelle 3-1 enthält eine Übersicht über grundlegende, technische Ursachen von Datenqualitätsproblemen bei Big Data, auf die im Folgenden näher eingegangen wird. Ursachen von Datenqualitätsproblemen bei Big Data Datenvolumen Datenheterogenität/ -diversität der Datenquellen Komplexität der Speicherung und Verarbeitung Anspruch an die Datennutzung Tab. 3-1: Ursachen von Datenqualitätsproblemen bei Big Data Erschwert werden die Identifizierung von Datenqualitätsproblemen sowie die Bewertung der Datenqualität durch das große Datenvolumen, das eine effiziente Analyse mit Hilfe traditioneller Technologien 39 nahezu unmöglich macht. 40 Bei diesen Technologien liegen Daten in strukturierter Form vor, die es ermöglicht, die Daten in einem 37 Vgl. Zhu u. a. (2012), S Vgl. zu diesem und dem folgenden Satz Zhu u. a. (2012), S Vgl. hierzu auch Abschnitt Vgl. Jacobs (2009), S. 39, Mahrt, Scharkow (2013), S. 22 sowie Pospiech, Felden (2012), S. 6.

14 9 relationalen Schema zu speichern. 41 Da im Kontext von Big Data eine hohe Datenheterogenität bzw. diversität zugrunde liegt, müssen neben strukturierten Daten, die beispielsweise aus relationalen Datenbanktabellen stammen, zunehmend semi-strukturierte und unstrukturierte Daten berücksichtigt werden. 42 Tabelle 3-2 enthält eine Übersicht über die Klassifikation unterschiedlicher Typen von Daten. Zu den unstrukturierten Daten zählen etwa Präsentationen und s sowie Kommentare und Sprache. Semistrukturierte Daten (z.b. XML) besitzen eine flexible Struktur, die auch als schemalos oder selbstbeschreibend bezeichnet wird. 43 Klassifikation von Typen von Daten strukturiert semi-strukturiert Unstrukturiert z.b. relationale Tabellen, statistische Daten XML, RSS Feeds PowerPoint Präsentationen, s, Textdokumente, Sprache, Kommentare, Sensordaten Tab. 3-2: Klassifikation von Typen von Daten 44 Aufgrund der unterschiedlichen Typen von Daten ergeben sich Probleme hinsichtlich der Gestaltung von Analysen, die mit abnehmender Struktur der Daten ansteigen. 45 Um Big-Data-Analysen durchführen zu können, müssen die Quelldaten in einem Transformationsprozess in ein strukturiertes Format überführt werden. Datenqualitätsprobleme können in unterschiedlichen Phasen von Big-Data-Analysen auftreten. Einerseits kann bereits die Qualität der Ursprungsdaten variieren. Andererseits können Ursachen für Datenqualitätsprobleme auch durch die Integration und Verarbeitung der Daten entstehen. Ein Grund ist, dass komplexe Operationen notwendig sind, um Daten, die aus unterschiedlichen Quellen stammen und die für verschiedene Zwecke erstellt wurden, zu integrieren. 46 Jede Datenquelle besitzt inhärente Anforderungen an die Datenqualität, 41 Vgl. Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Cuzzocrea u. a. (2011), S. 101 sowie Sadiq, Yeganeh, Indulska (2011), S Vgl. Batini u. a. (2009), S Vgl. zu den Beispielen Batini u. a. (2009), S. 9 10, Sadiq, Yeganeh, Indulska (2011), S. 1 sowie Chaudhuri, Dayal, Narasayya (2011), S Vgl. zu diesem und dem folgenden Satz Cuzzocrea u. a. (2011), S. 102 sowie Batini u. a. (2009), S Vgl. zu diesem und dem folgenden Satz Yeoh, Wang, Verbitskiy (2012), S. 2.

15 10 die sich aus dem Kontext ihrer Verwendung ergeben. 47 Beispielsweise kann die Korrektheit und Zuverlässigkeit von selbstverwalteten Profildaten in sozialen Netzwerken stark variieren. 48 Die Überprüfung solcher fehlerhaften Angaben ist eine komplexe Aufgabe. Eine Ursache für Datenqualitätsprobleme liegt daher in der übergreifenden Validierung der Quelldaten. Ferner erfolgt die Datengenerierung oft nicht unter dem Gesichtspunkt einer späteren Datenanalyse, bei der die Datenqualität jedoch eine entscheidende Rolle einnimmt. 49 Probleme können daher bereits in unterschiedlicher Ausprägung bei den Datenquellen vorliegen und sich maßgeblich auf die Qualität der Analyseergebnisse auswirken, falls keine geeignete Maßnahmen zur Identifizierung und Behebung von Datenqualitätsproblemen getroffen werden. Eine weitere Ursache für Probleme bezüglich der Datenqualität ist die erforderliche Verfügbarkeit der Quelldaten in Echtzeit für die Analyse und die sofortige Verfügbarkeit der Analyseergebnisse. Dies kann je nach Anwendungsfall entscheidend für die Analyseziele sein. 50 Das Entdecken eines Kreditkartenbetrugs ist ein Beispiel für die kritische Bedeutung einer schnellen Verfügbarkeit der Analyseergebnisse. Insgesamt stellt die Komplexität der Speicherung und Verarbeitung bei Big Data eine wesentliche Ursache für Datenqualitätsprobleme dar. Die Datenqualität kann nicht nur aufgrund der Heterogenität der Daten variieren, sondern ebenfalls durch die Verarbeitung beeinträchtigt werden. Bei Datenqualitätsproblemen bei Big Data spielt zunehmend die Erwartung der Nutzer an die Qualität der Daten eine Rolle. Das Phänomen Big Data ist häufig mit dem Anspruch verbunden, dass eine gestiegene Datenmenge auch qualitativ hochwertigere und tiefergehende Ergebnisse liefert. 51 Aufgrund der oben beschriebenen Ursachen für Datenqualitätsprobleme ist dies nicht zwingend gewährleistet. 47 Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. zu diesem und dem folgenden Satz Sung-Hyuk Park u. a. (2012), S Vgl. Yeoh, Wang, Verbitskiy (2012), S Vgl. Gartner (2011) sowie Hsinchun Chen, Chiang, Storey (2012), S Vgl. Kaisler u. a. (2013), S. 998.

16 Identifizierung von relevanten Datenqualitätsdimensionen Konzeption der Untersuchung Datenqualität ist ein multidimensionales Konzept, dass sich anhand verschiedener Datenqualitätsdimensionen beschreiben lässt. Im Abschnitt 2.2 wurden hierzu 16 Datenqualitätsdimensionen definiert, die sich nach Knight (2011) als gängigste Dimensionen in Modellen zur Datenqualität wiederfinden. Auf dieser Grundlage sollen im Folgenden die in der Big-Data-Literatur implizit und explizit genannten Dimensionen identifiziert werden. Dadurch ist es möglich, die Ergebnisse als Ausgangspunkt für die Analyse der Anwendbarkeit von bestehenden Datenqualitätsmodellen bei Big Data zu nutzen. Die Betrachtung von Ursachen für Datenqualitätsprobleme im vorherigen Abschnitt hat gezeigt, dass insbesondere unstrukturierte Daten ein entscheidendes Problem für die Datenqualität bei Big Data darstellen. Aus diesem Grund liegt ein Schwerpunkt dieser Analyse auf dem Einfluss von unstrukturierten Daten auf die Datenqualitätsdimensionen und damit auf die wahrgenommene Datenqualität durch den Nutzer. Zur Ermittlung von Literatur zum Thema Datenqualität bei Big Data wurden die Datenbanken EBSCOhost, ScienceDirect und ProQuest durchsucht. Dabei wurden die Stichworte big data in Kombination mit data quality oder information quality oder data analytics bei der Suche verwendet. Da die Suche lediglich eine geringe Trefferanzahl ergab 52, wurde die Suche erweitert, indem Referenzen und Querverweise hinzugezogen wurden Ergebnisse der Untersuchung Insgesamt wurden 15 relevante Quellen identifiziert, die Datenqualität bei Big Data implizit und explizit thematisieren. Die Ergebnisse zeigen, dass sich bisher nicht systematisch mit Datenqualitätsproblemen bei Big Data in der wissenschaftlichen Diskussion beschäftigt wird. 53 Vielmehr werden Themen der Datenqualität häufig im Kontext von Business Intelligence diskutiert. Darüber hinaus war eine differenzierte Betrachtung der Datenqualitätsdimensionen bei Big Data war häufig nicht gegeben. Datenqualitätsdimensionen ließen sich meist nur aus dem Kontext erschließen. Da es im Rahmen dieser Ausarbeitung nicht möglich ist, die Gesamtheit der 16 Dimensionen mit einzubeziehen, 52 Vgl. den Anhang zur Auswertung der Literaturrecherche. 53 Vgl. hierzu auch Agrawal u. a. (2012), S. 2.

17 Relevanz Zuverlässigkeit Konsistenz Fehlerfreiheit Datenumfang/-tiefe Verfügbarkeit Effizienz Mehrwert Aktualität Verständlichkeit 12 wurde die Anzahl der expliziten oder impliziten Nennungen der Dimensionen als Auswahlkriterium verwendet, wobei jene mit weniger als drei Nennungen aus der Betrachtung ausgeschlossen wurden. Die Ergebnisse der Identifizierung von Datenqualitätsdimensionen in der Big-Data-Literatur sind in Tabelle 3-3 dargestellt. Literatur Ahuja, Moore (2013), S Ahuja, Moore (2013), S Al-Debei (2011), S Anstiss (2012), S Anstiss (2012), S Batini u. a. (2009), S. 2 + Boyd, Crawford (2012), S. 668, Chaudhuri, Dayal, Narasayya (2011), S Cuzzocrea u. a. (2011), S Greenberg (2012), S Işık, Jones, Sidorova (2013), S Kaisler u. a. (2013), S Kaisler u. a. (2013), S Mahrt, Scharkow (2013), S. 26, Storey, Dewan, Freimer (2012), S Strong, Lee, Wang (1997), S Wigan, Clarke (2013), S Zhu u. a. (2012), S. 1,6, # Anzahl: Tab. 3-3: Identifizierte Datenqualitätsdimensionen in der Big-Data-Literatur

18 Diskussion identifizierter Datenqualitätsdimensionen Im Folgenden wird die Bedeutung der identifizierten Datenqualitätsdimensionen diskutiert. Ziel ist es, die Besonderheiten der Datenqualitätsdimensionen bei Big Data zu konkretisieren. Aufgrund des Umfanges dieser Arbeit wurde sich bei der nachfolgenden Diskussion auf die laut den Ergebnissen der Untersuchung wichtigsten Dimensionen beschränkt. Die Dimensionen Relevanz, Zuverlässigkeit, Konsistenz, Fehlerfreiheit und Datenumfang/-tiefe mit den jeweiligen Besonderheiten bei Big Data werden nun näher beschrieben. Die Dimension Fehlerfreiheit (accuracy) beschreibt den Grad, zu dem die Information korrekt oder frei von Fehlern ist. 54 Bei Big-Data-Analysen wird die Gesamtheit der verfügbaren Datenmenge an strukturierten als auch unstrukturierten Daten mit dem Ziel analysiert, verwertbare Informationen zu extrahieren. Fehler in den Ursprungsdaten können die Qualität des Analyseergebnisses beeinflussen. Diese Fehler können von falsch geschriebenen Wörtern, über Abkürzungen bis hin zu branchenspezifischer Terminologie reichen. 55 Die Überprüfung von Fehlern in unstrukturierten Daten ist komplex. Da bei Big Data ein enormes Volumen an unstrukturierten Daten berücksichtigt werden müssen, ergibt sich das Problem, dass die abgeleiteten Informationen bzw. Resultate der Big-Data-Analysen auf fehlerbehafteten Daten beruhen können. Dies hat zur Folge, dass einerseits die Fehlerfreiheit des Ergebnisses negativ beeinflusst wird. Andererseits hat die Dimension Fehlerfreiheit Einfluss auf die Zuverlässigkeit der Ergebnisse. Hieraus ergibt sich die Notwendigkeit, die Fehlerfreiheit der Quelldaten zu bewerten, sodass bei einer integrierten Betrachtung durch Big-Data-Analysen das Ausmaß und die Bedeutung der Fehler berücksichtigt werden können. Die Frage ist demnach, wie entschieden werden kann, ob Daten korrekt und folglich frei von Fehlern sind. 56 In der Literatur werden Metadaten-Ansätze zur Lösung von Datenqualitätsproblemen bei BI diskutiert. 57 Metadaten sind abstrakte Informationen über Daten, die über den Inhalt der Daten hinausgehen. Sie liefern den Nutzern der Daten zusätzliche 54 Vgl. zu den Definition der Datenqualitätsdimensionen Tabelle Vgl. Greenberg (2012), S Vgl. Ahuja, Moore (2013), S. 66 zitiert nach Kaisler u. a. (2013), S Vgl. z.b. Yeoh, Wang, Verbitskiy (2012), S. 1.

19 14 Kontextinformationen. 58 Ein Ansatz zur besseren Bewertbarkeit der Datenqualität ist es daher, Metadaten bei der Analyse zu berücksichtigen, um Resultate besser bewerten zu können. Die Datenqualitätsdimension Relevanz beschreibt den Grad, zu dem eine Information verwendbar und hilfreich für die betrachtete Aufgabe ist. Das Ziel von Big-Data- Analysen ist es, unbekannte Muster und Korrelationen aufzudecken. 59 Da dieses Ziel sehr vage formuliert ist, lässt sich die Einschätzung des Nutzers bei Big Data, ob extrahierte Informationen verwendbar oder hilfreich sind, nur schwer beurteilen. Die Literaturrecherche hat ergeben, dass diese Datenqualitätsdimension häufig mit dem Ziel verknüpft ist, tiefergehende Einblicke und Zusammenhänge in den analysierten Daten zu erhalten 60, um die Entscheidungsfindung zu unterstützen und zu vereinfachen. 61 Die Tatsache, dass unstrukturierte Daten ein hohes Potential besitzen 62, steigert die Erwartung des Nutzers an die Relevanz der extrahierten Informationen. 63 Gleichzeitig werden relevante Zusammenhänge erst ersichtlich, wenn Daten unterschiedlicher Kontexte integriert betrachtet werden. 64 Daher ergibt sich die Notwendigkeit, Daten unterschiedlichen Typs miteinander zu integrieren. Die subjektive Einschätzung eines Nutzers über die Relevanz einzelner Datenquellen kann von der Relevanz der Analyseergebnisse bei einer integrierten Betrachtung abweichen. Wenn beispielsweise die Profilinformationen eines Benutzers in einem sozialen Netzwerk nicht mit den Datensätzen von Transaktionen eines Online-Bezahlsystems verknüpft werden können, ist die Relevanz des Ergebnisses gering, auch wenn die Datenquellen als solche für den Nutzer relevant sein können. Anhand dieses Beispiels wird deutlich, dass die Beurteilung der Relevanz einer Information einerseits von den Erwartungen des Nutzers an das Analyseergebnis und andererseits von der technischen Integration von Datenquellen abhängt Vgl. Watts, Shankaranarayanan, Even (2009), S Vgl. z.b. Shang u. a. (2013), S Vgl. Anstiss (2012), S. 4, Ahuja, Moore (2013), S. 62 sowie Zhu u. a. (2012), S Vgl. Storey, Dewan, Freimer (2012), S. 434 sowie Kaisler u. a. (2013), S Vgl. Anstiss (2012), S. 1 sowie Boyd, Crawford (2012), S Vgl. Kaisler u. a. (2013), S Vgl. Batini u. a. (2009), S. 5 sowie Agrawal u. a. (2012), S Vgl. Zhu u. a. (2012), S. 1.

20 15 In diesem Zusammenhang sind die konsistente Repräsentation und logische Aufbereitung der Daten wichtige Aspekte. Dies wird mit der Datenqualitätsdimension Konsistenz (consistency) beschrieben. Ein häufiges Problem unstrukturierter Daten ist, dass regelmäßig unterschiedliche Darstellungen derselben Information vorkommen. 66 Dies umfasst unter anderem Probleme mit Datumsformaten, Abkürzungen oder beispielsweise Wertemengen für die Darstellung des Geschlechts einer Person. 67 Da bei Big Data unstrukturierte Daten zunehmend relevant gewinnen, ist eine steigende Bedeutung dieser Datenqualitätsdimension nachvollziehbar. Der Umfang von Big Data erschweren zunehmend die Überprüfbarkeit und Sicherung einer konsistenten Repräsentation der Analyseergebnisse. Gemessen an der Anzahl des Vorkommens ist die Zuverlässigkeit (reliability) der Informationen eine der wichtigsten Datenqualitätsdimensionen. Sie beschreibt den Grad, zu dem eine Information verlässlich ist. Diese Dimension ist ebenfalls in der Darstellung von Knight (2011) die bedeutendste Dimension. Bei Big Data und insbesondere bei Quellen mit unstrukturierten Daten, ergibt sich die Problematik, dass sie abstrahiert von dem Kontext ihrer Verwendung, an Bedeutung verlieren. 68 Die Zuverlässigkeit von Information, die sich aus Big-Data-Analysen ergeben, hängt folglich davon ab, wie gut der jeweilige Kontext der ursprünglichen Daten bei der Analyse berücksichtigt wurde. Dies hat direkte Auswirkungen auf die Eigenschaft, als Basis für die Entscheidungsunterstützung in Organisationen genutzt zu werden. Die Gewährleistung eines angemessenen Qualitätsniveaus der Daten, ist eine bedeutende, jedoch schwierige Aufgabe für Organisationen. 69 Entscheidend ist, den Kontext der Daten bei Big-Data-Analysen explizit zu berücksichtigen, damit der Verlust an Informationsgehalt möglichst gering ausfällt. Die Bedeutung von Metadaten ist dabei ein kritischer Aspekt. 70 Neben der Zuverlässigkeit der Daten ist die angemessene Datenmenge (volume/depth) aus einer spezifischen Quelle eine wichtige Dimension der Datenqualität bei Big Data. Hierbei stellt sich die Frage, wie viel Daten aus einer Quelle ausreichend sind, um 66 Vgl. Greenberg (2012), S Vgl. Rohweder u. a. (2011), S Vgl. Boyd, Crawford (2012), S Vgl. Storey, Dewan, Freimer (2012), S Vgl. Yeoh, Wang, Verbitskiy (2012), S. 1 sowie Watts, Shankaranarayanan, Even (2009), S. 204.

DGIQ Projekt IQ-Definition

DGIQ Projekt IQ-Definition DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Positionspapier Big Data

Positionspapier Big Data TeleTrusT-interner Workshop Berlin, 05.06.2014 Positionspapier Big Data Oliver Dehning, antispameurope GmbH Leiter der AG Cloud Security Definition Big Data Big Data bezeichnet große Datenmengen (Volume)

Mehr

Zeitgemäße Verfahren für ganzheitliche Auswertungen

Zeitgemäße Verfahren für ganzheitliche Auswertungen Intelligente Vernetzung von Unternehmensbereichen Zeitgemäße Verfahren für ganzheitliche Auswertungen Sächsische Industrie- und Technologiemesse Chemnitz, 27. Juni 2012, Markus Blum 2012 TIQ Solutions

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012

Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012 Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012 Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung Julius-Maximilians-Universität Würzburg 07.02.2012 Erwerb von Kompetenzen

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009 Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 350

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 350 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 350 Ein konzeptioneller Business-Intelligence-Ansatz zur Gestaltung von Geschäftsprozessen

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 378 Umsetzung ausgewählter Supply-Chain-Operations-Reference-Metriken durch das

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST? BERNADETTE FABITS WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS HINEIN GEHÖRT DATA SCIENTIST, STATISTIKER, DATA MINER, ANALYST,. Gibt es noch mehr von denen. die arbeiten mit Big Data

Mehr

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015

Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 Big-Data and Data-driven Business KMUs und Big Data Imagine bits of tomorrow 2015 b Wien 08. Juni 2015 Stefanie Lindstaedt, b Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center

Mehr

Wie schreibt man eine Literaturübersicht?

Wie schreibt man eine Literaturübersicht? Wie schreibt man eine Literaturübersicht? Hinweis: Eine Literaturübersicht kann sowohl ein eigenständiger Text oder Teil einer wissenschaftlichen Arbeit sein. Im zweiten Fall findet sich in der Arbeit

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Data Mining als Arbeitsprozess

Data Mining als Arbeitsprozess Data Mining als Arbeitsprozess Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 31. Dezember 2015 In Unternehmen werden umfangreichere Aktivitäten oder Projekte im Bereich des Data Mining

Mehr

Social Media als Bestandteil der Customer Journey

Social Media als Bestandteil der Customer Journey Social Media als Bestandteil der Customer Journey Gregor Wolf Geschäftsführer Experian Marketing Services Frankfurt, 19.6.2015 Experian and the marks used herein are service marks or registered trademarks

Mehr

connect.it Campus Literaturverwaltung mit Mendeley

connect.it Campus Literaturverwaltung mit Mendeley connect.it Campus Literaturverwaltung mit Mendeley Philipp Küller, 22.09.2015 Wann benötigen Sie Literatur? u Proseminar à Literaturanalyse u Seminar à Literaturanalyse u Projektstudie à Recherche, Berichtsband

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit

IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen. Bachelorarbeit IT-Sicherheit mobiler Applikationen zur Unterstützung von Geschäftsprozessen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der

Mehr

Datenbanktechnologie für Data-Warehouse-Systeme

Datenbanktechnologie für Data-Warehouse-Systeme Wolfgang Lehner Datenbanktechnologie für Data-Warehouse-Systeme Konzepte und Methoden dpunkt.verlag 1 1.1 1.2 1.3 1.4 1. 5 2 2.1 2.2 2.3 Einleitung 1 Betriebswirtschaftlicher Ursprung des Data Warehousing...

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

Social Media trifft Business

Social Media trifft Business Social Media trifft Business Intelligence Social Media Analysis als Teil der Unternehmenssteuerung Tiemo Winterkamp, VP Global Marketing Agenda Social Media trifft Business Intelligence Business Intelligence

Mehr

Big Data aus Sicht eines globalen Unternehmens

Big Data aus Sicht eines globalen Unternehmens Big Data aus Sicht eines globalen Unternehmens Impulsbeitrag FES/ver.di Expertengespräch Prof. Dr. Gerhard Satzger, Director IBM Business Performance Services Berlin, 25.6.2014 IBM ein traditionsreiches,

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Bachelor Thesis an der Fachhochschule Kiel, Fachbereich Wirtschaft. Sommersemester 2011. : Prof. Dr. Doris Weßels

Bachelor Thesis an der Fachhochschule Kiel, Fachbereich Wirtschaft. Sommersemester 2011. : Prof. Dr. Doris Weßels Handlungsempfehlungen zur Nutzung von Social Media zur Gestaltung von Wissensmarktplätzen am Beispiel des europäischen Förderprojektes Win-Vin: Wissen nutzen im Norden Bachelor Thesis an der Fachhochschule

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010

TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010 TalkIT: Internet Communities Tiroler Zukunftsstiftung Donnerstag, 22. 4. 2010 Reinhard Bernsteiner MCiT Management, Communication & IT MCI MANAGEMENT CENTER INNSBRUCK Universitätsstraße 15 www.mci.edu

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung

Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung Thomas Artur Roner Kundenzufriedenheit Beschwerdemanagement als Instrument zur Kundenbindung Diplom.de Inhaltsverzeichnis Abkürzungsverzeichnis Abbildungsverzeichnis I II 1. Einleitung 1 2. Begriffsklärungen

Mehr

Big Data Eine Einführung ins Thema

Big Data Eine Einführung ins Thema Joachim Hennebach Marketing Manager IBM Analytics 11. Februar 2016 Big Data Eine Einführung ins Thema Nur kurz: Was ist Big Data? (Die 5 Vs.) Volumen Vielfalt Geschwindigkeit Datenwachstum Von Terabytes

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor auf Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Big Data - Fluch oder Segen?

Big Data - Fluch oder Segen? mitp Professional Big Data - Fluch oder Segen? Unternehmen im Spiegel gesellschaftlichen Wandels von Ronald Bachmann, Guido Kemper, Thomas Gerzer 1. Auflage Big Data - Fluch oder Segen? Bachmann / Kemper

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 348

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 348 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 348 Konzeption eines Projektvorgehensmodells für die Business-Intelligence-Strategieberatung

Mehr

Oracle BI EE mit großen Datenmengen

Oracle BI EE mit großen Datenmengen Oracle BI EE mit großen Datenmengen Christian Casek Riverland Solutions GmbH München Schlüsselworte: Oracle BI EE, Oracle BI Applications, Informatica, RPD, große Datenmengen, Performance, Performanceoptimierung,

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 392

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 392 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 392 Social Business Intelligence: Entwicklung, Architekturen und Perspektiven

Mehr

Business Intelligence. Bereit für bessere Entscheidungen

Business Intelligence. Bereit für bessere Entscheidungen Business Intelligence Bereit für bessere Entscheidungen Business Intelligence Besserer Einblick in Geschäftsabläufe Business Intelligence ist die Integration von Strategien, Prozessen und Technologien,

Mehr

10. Vorlesung: Datenorganisation SS 2007

10. Vorlesung: Datenorganisation SS 2007 10. Vorlesung: Datenorganisation SS 2007 8 Parallele Transaktionen 9 9.1 Drei-Ebenen Ebenen-Architektur 9.2 Verteilte Datenbanken 9.3 Client-Server Server-Datenbanken 9.4 Föderierte Datenbanken 9.5 Das

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

Big & Smart Data. bernard.bekavac@htwchur.ch

Big & Smart Data. bernard.bekavac@htwchur.ch Big & Smart Data Prof. Dr. Bernard Bekavac Schweizerisches Institut für Informationswissenschaft SII Studienleiter Bachelor of Science in Information Science bernard.bekavac@htwchur.ch Quiz An welchem

Mehr

Institut für angewandte Informationstechnologie (InIT)

Institut für angewandte Informationstechnologie (InIT) School of Engineering Institut für angewandte Informationstechnologie (InIT) We ride the information wave Zürcher Fachhochschule www.init.zhaw.ch Forschung & Entwicklung Institut für angewandte Informationstechnologie

Mehr

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen Big Data Modewort oder echter Mehrwert freenet Group Dr. Florian Johannsen freenet Group 2 Titel der Präsentation 07.07.2015 Mobilfunkgeschäft der freenet Group Austausch von Daten und Informationen Im

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

Konzeption eines Enterprise 2.0 Projektmanagement - Tool mit Beteiligung diverser Stake Holder. Bachelorarbeit

Konzeption eines Enterprise 2.0 Projektmanagement - Tool mit Beteiligung diverser Stake Holder. Bachelorarbeit Konzeption eines Enterprise 2.0 Projektmanagement - Tool mit Beteiligung diverser Stake Holder Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Text Mining. Joachim Schole. Fakultät Technik und Informatik Hochschule für angewandte Wissenschaften Hamburg. Grundseminar, WS 2014

Text Mining. Joachim Schole. Fakultät Technik und Informatik Hochschule für angewandte Wissenschaften Hamburg. Grundseminar, WS 2014 Text Mining Joachim Schole Fakultät Technik und Informatik Hochschule für angewandte Wissenschaften Hamburg Grundseminar, WS 2014 Joachim Schole (HAW Hamburg) Text Mining Grundseminar, WS 2014 1 / 26 Agenda

Mehr

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung !DI Industrial Data Intelligence Datenbasierte Produktionsoptimierung Industrial Data Intelligence Sammeln Analysieren Mit dem Industrial Data Intelligence-Angebot ermöglicht Softing Industrial die datenbasierte

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Wissensmanagement im Bankvertrieb

Wissensmanagement im Bankvertrieb Anja Peters Wissensmanagement im Bankvertrieb Universitätsverlag Regensburg Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XIV XVII XVIII 1 Wissensmanagement im Bankvertrieb

Mehr

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems markus.helfert@unisg.ch Slide 2 Überblick Data-Warehouse-Systeme und Datenqualität Datenqualitätsmanagement Datenqualität

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Computer Assisted Audit Techniques and Tools in der Wirtschaftsprüfung. Bachelorarbeit

Computer Assisted Audit Techniques and Tools in der Wirtschaftsprüfung. Bachelorarbeit Computer Assisted Audit Techniques and Tools in der Wirtschaftsprüfung Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten: Eine praxisnahe Analyse

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

Usability von Bedienkonzepten auf Tablets

Usability von Bedienkonzepten auf Tablets Usability von Bedienkonzepten auf Tablets Milena Rötting Master Informatik HAW Hamburg 26. April 2012 Gliederung Einführung Verwandte Arbeiten User-defined Gestures Usability of ipad Apps and Websites

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Digitalisierung der Wirtschaft BI & Big Data Herausforderungen und Potenziale

Digitalisierung der Wirtschaft BI & Big Data Herausforderungen und Potenziale Big Data im Gesundheitswesen - 8. Symposium der Gesundheitswirtschaft Digitalisierung der Wirtschaft BI & Big Data Herausforderungen und Potenziale Steinbeis Unternehmerforum 17.06.2016, Stuttgart Prof.

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

BIG DATA Die Bewältigung riesiger Datenmengen

BIG DATA Die Bewältigung riesiger Datenmengen BIG DATA Die Bewältigung riesiger Datenmengen Peter Mandl Institut für Geographie und Regionalforschung der AAU GIS Day 2012, 13.11.2012, Klagenfurt Was sind BIG DATA? Enorm große Datenmengen, Datenflut

Mehr

Phrasensammlung für wissenschaftliches Arbeiten

Phrasensammlung für wissenschaftliches Arbeiten Phrasensammlung für wissenschaftliches Arbeiten Einleitung In diesem Aufsatz/dieser Abhandlung/dieser Arbeit werde ich... untersuchen/ermitteln/bewerten/analysieren... Um diese Frage zu beantworten, beginnen

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Rechtzeitig mit SAS ein Bild über die Qualität der Analysedaten erhalten

Rechtzeitig mit SAS ein Bild über die Qualität der Analysedaten erhalten Rechtzeitig mit SAS ein Bild über die Qualität der Analysedaten erhalten Datenqualität / Validierung Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien gerhard.svolba@sas.com Zusammenfassung

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Multidimensionale Datenbanksysteme

Multidimensionale Datenbanksysteme Multidimensionale Datenbanksysteme Modellierung und Verarbeitung Von Dr.-Ing. Wolfgang Lehner IBM Almaden Research Center, San Jose, USA Technische Universität Darrr:ctadi FACHBEREICH INFORMATIK BIBLIOTHEK

Mehr

BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH

BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH BIG DATA ANALYTICS VON DER FELDDATENANALYSE ZUM QUALITÄTSFRÜHWARNSYSTEM RAINER KENT VOGT - SAS INSTITUTE GMBH QUALITÄT ZÄHLT DIE KUNDENWAHRNEHMUNG ENTSCHEIDET 91% 91% of unhappy customers unzufriedener

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden

Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden Sperrvermerk Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden Bachelorarbeit Zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com. shafaei@kntu.ac.ir BPOKM. 1 Business Process Oriented Knowledge Management

Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com. shafaei@kntu.ac.ir BPOKM. 1 Business Process Oriented Knowledge Management Sarmadi@kntu.ac.ir P- hdoroodian@gmail.com shafaei@kntu.ac.ir -. - 1 Business Process Oriented Knowledge Management 1 -..» «.. 80 2 5 EPC PC C EPC PC C C PC EPC 3 6 ; ; ; ; ; ; 7 6 8 4 Data... 9 10 5 -

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN

SOZIALES BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN CHRISTIAN KÖNIG BUSINESS EXPERT COMPETENCE CENTER CUSTOMER INTELLIGENCE Copyr i g ht 2012, SAS Ins titut e Inc. All rights res

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Self Service BI der Anwender im Fokus

Self Service BI der Anwender im Fokus Self Service BI der Anwender im Fokus Frankfurt, 25.03.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC 1 Kernanforderung Agilität = Geschwindigkeit sich anpassen zu können Quelle: Statistisches

Mehr

Social Media Datennutzung im Customer Relationship Management

Social Media Datennutzung im Customer Relationship Management Social Media Datennutzung im Customer Relationship Management Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B. Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen

Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen Praxistag für die öffentliche Verwaltung 2012 Titel Präsentation Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen Referenten-Info Gerhard Tschantré, Leiter Controllerdienste

Mehr