Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014

Größe: px
Ab Seite anzeigen:

Download "Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014"

Transkript

1 Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS Carsten Herbe DOAG Konferenz November 2014

2 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence Themenbereiche Enterprise DWH Data Modeling & Integration & ETL Architecture: DWH & Data Marts Hadoop & Columnar DBs Data Quality & Data Masking Analytics Predictive Models, Data Mining & Statistics Social Media Analytics Customer Intelligence Scorecarding Fraud & AML Über metafinanz metafinanz gehört seit fast 25 Jahren zu den erfahrensten Software- und Beratungshäusern mit Fokus auf die Versicherungsbranche. Mit einem Jahresumsatz von 270 Mio. EUR und über 450 Mitarbeitern entwickeln wir für unsere Kunden intelligente zukunftsorientierte Lösungen für komplexe Herausforderungen Insurance Reporting Standard & Adhoc Reporting Dashboarding BI Office Integration Mobile BI & In-memory SAS Trainings for Business Analysts BI & Risk Risk Solvency II (Standard & internal Model) Regulatory Reporting Compliance Risk Management Ihr Kontakt : Carsten Herbe Head of Data Warehousing Mehr als 10 Jahre DWH-Erfahrung Oracle & OWB Expertise Certified Hadoop Developer mail carsten.herbe@metafinanz.de phone Data Mart Offload nach Hadoop Seite 2

3 Agenda 1 Motivation 6 Anbindung BI Tool 2 Exkurs Hadoop 7 Offload Prozess 3 Architektur 8 Performance-Analyse 4 Schema Design 9 Fazit 5 Hive Metadaten & SQL Engine Data Mart Offload nach Hadoop Seite 3

4 1. Motivation

5 Platzt Ihr DWH aus allen Nähten? Data Mart Offload nach Hadoop Seite 5

6 Warten Ihre BI-Nutzer ewig? Data Mart Offload nach Hadoop Seite 6

7 Obwohl Sie im DWH alles richtig gemacht haben? Data Mart Offload nach Hadoop Seite 7

8 Sie suchen dringend eine Lösung die dem Kostendruck standhält? Data Mart Offload nach Hadoop Seite 8

9 2. Exkurs Hadoop

10 Apache Hadoop ist ein Framework für die verteilte Speicherung und Verarbeitung großer Datenmengen basierend auf Konzepten von Google. Was ist Hadoop? Hadoop MapReduce Skalierbare Rechenkapazität Hadoop Distributed FileSystem (HDFS) Skalierbare Speicherkapazität Data Mart Offload nach Hadoop Seite 10

11 Das Hadoop-Ökosystem besteht aus einer Vielzahl von Tools und Frameworks und wird ständig durch neue Projekte erweitert. Cascalog Oryx Crunch ORCFiles Big Data Connectors Big SQL SequenceFiles Kafaka HttpFS FuseDFS Data Mart Offload nach Hadoop Seite 11

12 Auch wenn man strukturierte Daten in Hadoop speichern kann Hadoop ist keine relationale Datenbank. Hadoop ist keine relationale Datenbank! Hadoop Un-, teil- oder strukturierte Daten Schema on Read Write Once Read Many Geringe Datenintegrität Beliebig linear skalierbar Relationale Datenbank Nur strukturierte (relationale) Daten Schema on Write Write Read Update Many Times Hohe Datenintegrität Nicht (eingeschränkt) linear skalierbar Data Mart Offload nach Hadoop Seite 12

13 3. Architektur

14 Der Data Mart wird komplett nach Hadoop kopiert und stehen dort mit kompletter Historie dem BI Tool zur Verfügung. In der DB bleibt nur der aktuelle Zeitraum (z.b. 1-3 Jahre). DWH Architektur mit Datamart in Hadoop RDBMS OLTP OLTP Staging Core DWH Datamart Datamart Reporting Files Hadoop Data Mart Offload nach Hadoop Seite 14

15 Design, Prozesse und Anbindung an das BI Tool werden in diesem Vortrag beschrieben. Eine Beschreibung des Aufbaus einer Hadoop Infrastruktur würde den Rahmen sprengen. Was ist zu tun? Hadoop Infrastruktur Aufbau Hadoop Cluster Konfiguration SQL Engine/Security Backup Aufbau Betrieb Schema Design in HDFS Logisches Daten/Datei-Modell Partitionierung (für ETL und Abfragen) Physikalische Speicherung (File Format, Komprimierung) Offload Prozess Hinzufügen/ Replacement bestehender Daten Einbindung ETL Prozess Verfügbarkeit für das Reporting Anbindung BI Tool Bereitstellung Metadaten (Tabellen, Spalten, ) Auswahl Hadoop SQL Engine (Hive, Impala, ) Anbindung Hadoop als Datenquelle an das BI Tool Data Mart Offload nach Hadoop Seite 15

16 Einfluss können wir über die Dateiformate inkl. Kompression, die Modellierung des Schema Designs und Auswahl der SQL Engine nehmen. Schichtenmodell ETL Tool BI Tool Gesetzt SQL Engine Auswahl Hive Metadaten Gesetzt: Hive als Quasistandard File Schema Design Modellierung File Format & Kompression Auswahl HDFS Gesetzt Data Mart Offload nach Hadoop Seite 16

17 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 4. Schema Design

18 Speed Ratio Die Wahl des Codecs ist immer ein Trade-off zwischen Kompression und Geschwindigkeit. Non-Splittable Codes können mit Containern verwendet werden. Kompression File Format & Kompression Codes Algorithmus Fokus Splittable Bemerkungen BZIP2 Burrows-Wheeler Ratio J ZLIB DEFLATE Ratio N Beste Kompression, aber am langsamsten Hadoop Standard Gute Kompression, aber langsam GZIP DEFLATE Ratio N LZO Variante von LZ77 Speed mit Index Snappy LZ77 Speed N Wrapper um ZLIB Gute Kompression, aber langsam GNU GPL, daher extra zu installieren Schnell Oft verwendet LZ4 Variante von LZ77 Speed N Schnell Data Mart Offload nach Hadoop Seite 18

19 Dateiformate beinhalten teilweise selbstbeschreibende Metadaten und sind auch komprimiert splittable. Die Toolunterstützung ist aber unterschiedlich. Dateiformate File Format & Kompression Zeilenorientiert Textformat (TSV/CSV) Sequence Files AVRO Spaltenorientiert RCFile (row columnar) ORC (optimized row columnar) Parquet Data Mart Offload nach Hadoop Seite 19

20 Beim Schema Design in HDFS kann man das Star Schema übernehmen oder es in ein denormalisiertes Result Set transformieren. Schema Design: Star Schema vs Result Set File Schema Design Star Schema 1:1 Übernahme des relationalen Datenmodells aus der DB. Keine Anpassung der Zugriffsschicht im BI Tool. Viele Joins bei Abfragen. Kleine Dimensionen kleine Dateien. Result Set Transformation notwendig: Denormalisierung des Star Schemas. Anpassung der Zugriffsschicht im BI Tool. Keine Joins bei Abfragen. Höherer Speicherbedarf. Einfach umsetzbar Performance-orientiert Data Mart Offload nach Hadoop Seite 20

21 Die Partitionierung muss ein einfaches Aktualisieren ( Replacement ) neuer Daten ermöglichen und idealerweise für eine gute Abfrageperformance sorgen. Partitionierung: Laden & Abfragen File Schema Design Fakten Partitionierung nach (fachlichen) Zeitscheiben Beim Load: Aktuelle Partition löschen & neu laden (Korrekturen) Oder anhängen der neuen Daten (keine Korrekturen) Dimensionen Partitionierung nach fachlichen Kriterien (z.b. Mandant) Beim Load: i.d.r. Komplett-Load Partitions-/Datei-Größen beachten: Nicht zu klein im Vergleich zur HDFS-Blockgröße (128 MB)! Load Frequenz nach Use Case (e.g. Historische Daten) Data Mart Offload nach Hadoop Seite 21

22 Partitionierung wird durch geschachtelte Verzeichnisse abgebildet. Der Benutzer muss dafür sorgen, dass in den Verzeichnissen auch nur passende Daten sind! Partitionierung: Funktionsweise File Format & Kompression CREATE TABLE dim_kunde ( id INT, name STRING, stadt STRING,... ) PARTITION BY ( land STRING, region STRING ); /dim_kunde/land=de/region=n /dim_kunde/land=de/region=w /dim_kunde/land=de/region=o /dim_kunde/land=de/region=s /dim_kunde/land=fr/region=n... Data Mart Offload nach Hadoop Seite 22

23 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 5. Hive Metadaten & SQL Engine

24 Hive ist eine SQL Engine mit HiveQL als Abfragesprache plus einer Metadatenverwaltung für relationale Daten in HDFS. Hive Hive Metadaten = Metadaten (Tabellen) + HiveQL (SQL) Hive Metadaten = Quasistandard (Pig, Impala, ) Hive Metadaten = Schema-on-Read Konsistenz Manuell sicherzustellen Data Mart Offload nach Hadoop Seite 24

25 Metadaten können für bestehende Dateien definiert werden. INSERT und SELECT funktionieren wie gewohnt, UPDATE und DELETE gibt es nicht. Hive Beispiele CREATE TABLE dim_kunde ( id INT, name STRING, stadt STRING, alter INT,... ) PARTITION BY ( land STRING, region STRING ); INSERT INTO TABLE dim_kunde SELECT... FROM stg_kunde; SELECT region, avg(alter) FROM dim_kunde WHERE land = DE GROUP BY region ; SQL Engine Data Mart Offload nach Hadoop Seite 25

26 Hive generiert einen oder mehreren MapReduce-Jobs. Impala nutzt eigene in-memory Komponenten für die Ausführung, aber auch die Hive Metadaten. SQL Engines Hive & Impala SQL Engine Map Reduce Map Reduce... HDFS in-memory Operation in-memory Operation in-memory Operation... Impala HDFS Data Mart Offload nach Hadoop Seite 26

27 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 6. Anbindung BI Tool

28 Selbst wenn die Datenmodelle in DB und HIVE identisch sind, hat man verschiedene Connections, welche sich i.d.r. nicht vom User im Report tauschen. Anbindung BI Tool BI Tool BI Tool Datamart Connection Physical Model RDBMS Logical Model Report A Hadoop Ggfs. unterschiedlich Identisch Identisch Physical Logical Connection Model Model Report A HIVE Teilmenge an Reports Ggfs. doppelte Pflege Fokus auf Ad-hoc Analysen Historische Reports Data Mart Offload nach Hadoop Seite 28

29 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 7. Offload Prozess

30 Im Offload Prozess werden die aktuellen Partitionen gelöscht und dann die Daten geladen. Hohe Parallelität kann sehr hohe Last auf der DB erzeugen! Offload Prozess ETL Tool Nutzung bestehender Technologien Integrierte Prozesse Ggfs. Performance- Probleme (ETL Server) Ggfs. Lizenzkosten Sqoop Hadoop Komponente Keine Lizenzkosten Einfache Benutzung File Transfer ETL Tool Keine Online-Verbindung Cluster-DB notwendig Komplexer Prozess: Datei erzeugen, transferieren, laden Unterschiedliche Tools Einfachste Integration Performant und einfach umzusetzen Notlösung ETL in Hadoop mit Hive Data Mart Offload nach Hadoop Seite 30

31 Sqoop ist von der Architektur her in erster Linie ein Client-Tool zum Datenaustausch zwischen HDFS und verschiedenen Datenbanken. Sqoop Architektur ETL Tool Sqoop client Reads metadata submits job Relational Database Document Based Systems sqoop import -connect --username scott --table SCOTT.EMP --where 'rownum=1' --hive-import $ Map Job delimited text Hadoop Hive Data Mart Offload nach Hadoop Seite 31

32 8. Performance-Analyse

33 Als Teststellung haben wir ein Subset (1 Fakt, 9 Dimensionen) des TPC-DS Benchmarks verwendet. Auf dem Cluster lief CDH4 mit Hive 0.10 und Impala Teststellung Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 33

34 Alle Test-Kombinationen und weitere Fragestellungen wurden im Rahmen einer Masterarbeit detailliert untersucht. Masterarbeit Real-time SQL on Hadoop Download bald unter hadoop.metafinanz.de Data Mart Offload nach Hadoop Seite 34

35 Gesparter Speicherplatz Faktentabelle (400GB) und Ladezeit. Snappy liefert die besten Zeiten und zusammen mit Parquet auch nur leicht schlechtere Kompression als GZIP. Load-Performance Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 35

36 Punkt oberhalb der Linie bedeutet Hive mit Star Schema ist schneller, unterhalb der Linie bedeutet Hive mit Resultset ist schneller. Parquet ist minimal schnelle als Sequence Files. Hive: Resultset schneller als Star Schema Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 36

37 Punkt oberhalb der Linie bedeutet Star Schema ist schneller, unterhalb der Linie bedeutet Resultset ist schneller. Parquet ist schneller als Sequence Files. Impala: Star Schema schneller als Resultset Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 37

38 Parquet ist zwar etwas CPU intensiver als die meisten anderen Formate, verbraucht dafür aber deutlich weniger Speicher. Impala: CPU vs. Memory Trade-off Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 38

39 Geometric Mean (in seconds) Alle Komponenten entwickeln sich ständig weiter, neue Technologien (z.b. Spark SQL) kommen hinzu. Cloudera Single-User respose time/impala times faster than (Lower bars are better) Impala 1.4 Presto Spark SQL Tez x 6.5x 13.0x 2.1x 9.8x 7.0x 3.8x 6.3x 7.2x Interactive Reporting Analytics q19, q42, q52, q63, q68, q73, q98 q3, q7, q27, q43, q53, q89 q34, q46, q59, q79, ss_max Data Mart Offload nach Hadoop Seite 39

40 9. Fazit

41 Datentransfer mit Sqoop, Speicherplatzoptimierte Speicherung mit Star Schema, Parquet Files mit Snappy-Codec und Hive als SQL Engine für Batchauswertungen. Beispiel DWH Architektur mit Datamart in Hadoop RDBMS OLTP OLTP Staging Core DWH Datamart Datamart Files Data-Transfer mit Sqoop Aufbereitung mit Hive Prozesssteuerung durch ETL Tool Hadoop Star Schema Fakten partitioniert nach Zeit Parquet-Files mit Snappy-Codec Hive Metadaten Reporting SQL Engine Impala Data Mart Offload nach Hadoop Seite 41

42 Hier ist auch der Staging Bereich nach Hadoop ausgelagert. Hier können die Daten aufbereitet und geprüft werden. Man profitiert von der massiv parallelen Verarbeitung. DWH Architektur: Staging & Data Mart in Hadoop RDBMS OLTP Staging Core DWH Datamart Datamart Reporting Hadoop OLTP Files Data Mart Offload nach Hadoop Seite 42

43 metafinanz unterstützt Ihre Kunden bei Einführung von Hadoop end-to-end: Von Entscheidung und Konzeption bis hin zu Einführung und Optimierung. DECIDE PLAN BUILD OPTIMIZE metafinanz ist herstellerunabhängig, erfahren, kompetent, zuverlässig und lieferfähig metafinanz Consulting Leistungen rund um Data Warehouse und Enterprise Information Management Businessanalyse, Systemauswahl und Integrationskonzept Gesamtheitliche IT Architektur Strategie und Designkonzeption (IT Strategie) Customizing von Big Data Lösungen für Ihre besonderen Business Anforderungen (Zukunftsfähigkeit) DWH Configuration & Optimierung für mehr Leistungsfähigkeit (Effizienzpotential) Vorstudie Hadoop-Strategie DWH Cost Savings Dokumentenverarbeitung Identifikation Use Cases Tool-/Distributor-Auswahl & Architektur Projekt- und Betriebs-Setup Data Mart Offload (hist. Daten) ETL-Offload: Staging Calculation Offload Dokumentenarchivierung Volltextsuche Textanalyse Log-File-Analysen Click-Stream-Analyse Web-Anwendungen Security Analytics (Server-Logs, Firewall-Logs, ) DWH-Metadaten, wie und wozu Seite 43

44 Interesse? Austausch? Livedemo des Datenfluss-Datamart? Treffen Sie uns an unserem Stand und gewinnen ein ipad Mini!

45 Herzlichen Dank! metafinanz Informationssysteme GmbH Leopoldstr. 146 Phone: Fax: Mehr zu Data Warehousing & Hadoop Besuchen Sie uns auch auf:

Data Mart (Star Schema) Offload nach Hadoop

Data Mart (Star Schema) Offload nach Hadoop Data Mart (Star Schema) Offload nach Hadoop Carsten Herbe Metafinanz-Informationssysteme GmbH München Schlüsselworte Data Mart, Hadoop, HDFS, Hive, Impala, Parquet, Kompression, Snappy, Star Schema, Performance

Mehr

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern

Mehr

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Thomas Kreuzer ec4u expert consulting ag Karlsruhe Schlüsselworte: Kampagnenmanagement Praxisbericht Siebel Marketing Oracle BI - ec4u

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Vertriebssteuerung & Controlling Konkrete Vertriebsziele, passend zur Unternehmensstrategie

Vertriebssteuerung & Controlling Konkrete Vertriebsziele, passend zur Unternehmensstrategie Konkrete Vertriebsziele, passend zur Unternehmensstrategie Wir ermöglichen Ihnen mit dem Service Vertriebssteuerung die erfolgreiche Umsetzung Ihrer Unternehmensstrategie in operativ umsetzbare Vertriebsziele.

Mehr

ETL in den Zeiten von Big Data

ETL in den Zeiten von Big Data ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT

Mehr

Datenaustausch Hadoop & Oracle DB. DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Carsten Herbe metafinanz Informationssysteme GmbH

Datenaustausch Hadoop & Oracle DB. DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Carsten Herbe metafinanz Informationssysteme GmbH DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Carsten Herbe metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT.

Mehr

Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr.

Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Florian Johannsen AGENDA 1. Big Data Projekt der freenet Group Dr. Florian Johannsen

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München

Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Schlüsselworte Hadoop, Sqoop, Sqoop 2, Hive, Oracle Big Data Konnektoren Einleitung Neben der klassischen Data

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

OP-LOG www.op-log.de

OP-LOG www.op-log.de Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server

Mehr

2. Einrichtung der ODBC-Schnittstelle aus orgamax (für 32-bit-Anwendungen)

2. Einrichtung der ODBC-Schnittstelle aus orgamax (für 32-bit-Anwendungen) 1. Einführung: Über den ODBC-Zugriff können Sie bestimmte Daten aus Ihren orgamax-mandanten in anderen Anwendungen (beispielsweise Microsoft Excel oder Microsoft Access) einlesen. Dies bietet sich beispielsweise

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Diese Verbindung muss einmalig eingerichtet werden und wird benötigt, um den Zugriff vom privaten Rechner oder der Workstation im Home Office über

Mehr

Hadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014

Hadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014 Hadoop in a Nutshell Einführung HDFS und MapReduce Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die

Mehr

MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen

MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen Pasquale Grippo Senior Manager/Business Unit Manager BI 18/20.10.2011 Oracle Business Analytics Summits Düsseldorf/München

Mehr

desk.modul : WaWi- Export

desk.modul : WaWi- Export desk.modul : WaWi- Export Die Schnittstelle besteht aus einem Programm, welches die Daten aus der OfficeLine ausliest und in eine XML-Datei exportiert. Die Schnittstelle ist als ein eigenständiges Programm

Mehr

Mission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden

Mission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden Mission TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden Der Weg zu einem datengesteuerten Unternehmen # Datenquellen x Größe der Daten Basic BI & Analytics Aufbau eines

Mehr

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Dani Schnider Principal Consultant Business Intelligence BI Trilogie, Zürich/Basel 25./26. November 2009 Basel Baden Bern Lausanne Zürich

Mehr

Herausforderungen des Enterprise Endpoint Managements

Herausforderungen des Enterprise Endpoint Managements Herausforderungen des Enterprise Endpoint Managements PPPvorlage_sxUKMvo-05.00.potx santix AG Mies-van-der-Rohe-Straße 4 80807 München www.santix.de santix AG Herausforderungen 09.10.2013 Herausforderungen

Mehr

WEBINAR@LUNCHTIME THEMA: "SAS STORED PROCESSES - SCHNELL GEZAUBERT" HELENE SCHMITZ

WEBINAR@LUNCHTIME THEMA: SAS STORED PROCESSES - SCHNELL GEZAUBERT HELENE SCHMITZ WEBINAR@LUNCHTIME THEMA: "SAS STORED PROCESSES - SCHNELL GEZAUBERT" HELENE SCHMITZ HERZLICH WILLKOMMEN BEI WEBINAR@LUNCHTIME Moderation Anne K. Bogner-Hamleh SAS Institute GmbH Education Consultant Training

Mehr

Lokale Installation von DotNetNuke 4 ohne IIS

Lokale Installation von DotNetNuke 4 ohne IIS Lokale Installation von DotNetNuke 4 ohne IIS ITM GmbH Wankelstr. 14 70563 Stuttgart http://www.itm-consulting.de Benjamin Hermann hermann@itm-consulting.de 12.12.2006 Agenda Benötigte Komponenten Installation

Mehr

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

Anleitung zum Prüfen von WebDAV

Anleitung zum Prüfen von WebDAV Anleitung zum Prüfen von WebDAV (BDRS Version 8.010.006 oder höher) Dieses Merkblatt beschreibt, wie Sie Ihr System auf die Verwendung von WebDAV überprüfen können. 1. Was ist WebDAV? Bei der Nutzung des

Mehr

Hadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015

Hadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015 Hadoop & Spark Carsten Herbe 8. CC-Partner Fachtagung 2015 29.04.2015 Daten & Fakten 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum 25 Jahre am Markt

Mehr

YouTube: Video-Untertitel übersetzen

YouTube: Video-Untertitel übersetzen Der Easytrans24.com-Ratgeber YouTube: Video-Untertitel übersetzen Wie Sie mit Hilfe von Easytrans24.com in wenigen Schritten Untertitel für Ihre YouTube- Videos in mehrere Sprachen übersetzen lassen können.

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

So erstellen Sie wichtige Berichte mit Microsoft Technologie Tipps für PMO und IT

So erstellen Sie wichtige Berichte mit Microsoft Technologie Tipps für PMO und IT TPG Webinar-Serie 2016 zum PPM Paradise Thema 2.2 So erstellen Sie wichtige Berichte mit Microsoft Technologie Tipps für PMO und IT Mit Peter Huemayer Agenda Welche Berichte machen Sinn? Welche Daten haben

Mehr

SAS Visual Analytics Schnelle Einblicke für sichere Ausblicke

SAS Visual Analytics Schnelle Einblicke für sichere Ausblicke SAS Visual Analytics Schnelle Einblicke für sichere Ausblicke SAS Visual Analytics In einer Welt wachsender Datenmengen sind Informationen schneller verfügbar und Auswertungen auf Big Data möglich Motivation

Mehr

SEMINAR Modifikation für die Nutzung des Community Builders

SEMINAR Modifikation für die Nutzung des Community Builders 20.04.2010 SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung ecktion SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung Bevor Sie loslegen

Mehr

Anleitung über den Umgang mit Schildern

Anleitung über den Umgang mit Schildern Anleitung über den Umgang mit Schildern -Vorwort -Wo bekommt man Schilder? -Wo und wie speichert man die Schilder? -Wie füge ich die Schilder in meinen Track ein? -Welche Bauteile kann man noch für Schilder

Mehr

Einbindung einer ACT!12-16 Datenbank als Datenquelle für den Bulkmailer 2012

Einbindung einer ACT!12-16 Datenbank als Datenquelle für den Bulkmailer 2012 Einbindung einer ACT!12-16 Datenbank als Datenquelle für den Bulkmailer 2012 Eine langvermisste Funktion ist mit den neuesten Versionen von ACT! und Bulkmailer wieder verfügbar. Mit dem Erscheinen der

Mehr

Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware

Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware Datenübernahme von HKO 5.9 zur Advolux Kanzleisoftware Die Datenübernahme (DÜ) von HKO 5.9 zu Advolux Kanzleisoftware ist aufgrund der von Update zu Update veränderten Datenbank (DB)-Strukturen in HKO

Mehr

DWH-Metadaten Wie und wozu. Clemens Albrecht metafinanz Informationssysteme GmbH

DWH-Metadaten Wie und wozu. Clemens Albrecht metafinanz Informationssysteme GmbH DWH-Metadaten Wie und wozu Clemens Albrecht metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence

Mehr

Options- und Freitext-Modul Update-Anleitung

Options- und Freitext-Modul Update-Anleitung Options- und Freitext-Modul Update-Anleitung Hinweis... 2 Update für Versionen kleiner als 1.2.4 auf 1.3.x... 3 Update für Versionen ab 1.2.4 auf 1.3.x... 6 Update für Versionen ab 1.3.x auf 2.x.x... 7

Mehr

SAP Memory Tuning. Erfahrungsbericht Fritz Egger GmbH & Co OG. Datenbanken sind unsere Welt www.dbmasters.at

SAP Memory Tuning. Erfahrungsbericht Fritz Egger GmbH & Co OG. Datenbanken sind unsere Welt www.dbmasters.at SAP Memory Tuning Erfahrungsbericht Fritz Egger GmbH & Co OG Wie alles begann Wir haben bei Egger schon öfter auch im SAP Bereich Analysen und Tuning durchgeführt. Im Jan 2014 hatten wir einen Workshop

Mehr

Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit,

Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit, Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit, Wie kann ein PDF File angezeigt werden? kann mit Acrobat-Viewern angezeigt werden auf jeder Plattform!! (Unix,

Mehr

Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen

Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen Inhalt 1. Die Funambol Software... 3 2. Download und Installation... 3 3.

Mehr

Informatik 12 Datenbanken SQL-Einführung

Informatik 12 Datenbanken SQL-Einführung Informatik 12 Datenbanken SQL-Einführung Gierhardt Vorbemerkungen Bisher haben wir Datenbanken nur über einzelne Tabellen kennen gelernt. Stehen mehrere Tabellen in gewissen Beziehungen zur Beschreibung

Mehr

BitDefender Client Security Kurzanleitung

BitDefender Client Security Kurzanleitung BitDefender Client Security Kurzanleitung...1 Appendix A Kurzanleitung mit Screenshots...2 BitDefender Client Security Kurzanleitung 1. Wählen Sie entweder 32 oder 64 bit Management Server aus dem BitDefender

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

Über die Internetseite www.cadwork.de Hier werden unter Download/aktuelle Versionen die verschiedenen Module als zip-dateien bereitgestellt.

Über die Internetseite www.cadwork.de Hier werden unter Download/aktuelle Versionen die verschiedenen Module als zip-dateien bereitgestellt. Internet, Codes und Update ab Version 13 Um Ihnen einen möglichst schnellen Zugang zu den aktuellsten Programmversionen zu ermöglichen liegen Update-Dateien für Sie im Internet bereit. Es gibt drei Möglichkeiten

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen Big Data Modewort oder echter Mehrwert freenet Group Dr. Florian Johannsen freenet Group 2 Titel der Präsentation 07.07.2015 Mobilfunkgeschäft der freenet Group Austausch von Daten und Informationen Im

Mehr

IBM SPSS Data Access Pack Installationsanweisung für Windows

IBM SPSS Data Access Pack Installationsanweisung für Windows IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........

Mehr

Überblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014

Überblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014 Überblick Hadoop Einführung HDFS und MapReduce DOAG Regionaltreffen München/Südbayern Februar 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business

Mehr

mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank

mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank In den ersten beiden Abschnitten (rbanken1.pdf und rbanken2.pdf) haben wir uns mit am Ende mysql beschäftigt und kennengelernt, wie man

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

MailUtilities: Remote Deployment - Einführung

MailUtilities: Remote Deployment - Einführung MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control

Mehr

Daten am USB Stick mit TrueCrypt schützen

Daten am USB Stick mit TrueCrypt schützen Daten am USB Stick mit TrueCrypt schützen Das Programm installieren und einrichten ACHTUNG: In der nachfolgenden Anleitung wird der USB Stick immer mit USB-STICK (H:) angegeben! Diese Bezeichnung wurde

Mehr

Kommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis

Kommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis Kommunikationsübersicht Inhaltsverzeichnis Kommunikation bei Einsatz eines MasterServer... 2 Installation im... 2 Installation in der... 3 Kommunikation bei Einsatz eines MasterServer und FrontendServer...

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence

Mehr

PostgreSQL in großen Installationen

PostgreSQL in großen Installationen PostgreSQL in großen Installationen Cybertec Schönig & Schönig GmbH Hans-Jürgen Schönig Wieso PostgreSQL? - Die fortschrittlichste Open Source Database - Lizenzpolitik: wirkliche Freiheit - Stabilität,

Mehr

Reporting Services und SharePoint 2010 Teil 1

Reporting Services und SharePoint 2010 Teil 1 Reporting Services und SharePoint 2010 Teil 1 Abstract Bei der Verwendung der Reporting Services in Zusammenhang mit SharePoint 2010 stellt sich immer wieder die Frage bei der Installation: Wo und Wie?

Mehr

Internet online Update (Internet Explorer)

Internet online Update (Internet Explorer) Um Ihr Consoir Beta immer schnell und umkompliziert auf den aktuellsten Stand zu bringen, bieten wir allen Kunden ein Internet Update an. Öffnen Sie Ihren Internetexplorer und gehen auf unsere Internetseite:

Mehr

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte

Mehr

Upgrade-Leitfaden. Apparo Fast Edit. Wechsel von Version 2 auf Version 3.0.6 oder 3.0.7. Wechsel von Version 3.0.6 auf Version 3.0.

Upgrade-Leitfaden. Apparo Fast Edit. Wechsel von Version 2 auf Version 3.0.6 oder 3.0.7. Wechsel von Version 3.0.6 auf Version 3.0. Upgrade-Leitfaden Apparo Fast Edit Wechsel von Version 2 auf Version 3.0.6 oder 3.0.7 Wechsel von Version 3.0.6 auf Version 3.0.7 1 / 12 2 / 12 Inhaltsverzeichnis 1 Download der neuen Version... 5 2 Sicherung

Mehr

World4You Kundencenter

World4You Kundencenter World4You Kundencenter World4You stellt Ihnen zu jedem Paket ein Kundencenter zur Verfügung. Sie können mit diesem Tool Ihren Account online und in Echtzeit verwalten. Hier finden Sie eine Auflistung der

Mehr

EINSATZ VON MICROSOFT TERMINAL-SERVICES ODER CITRIX METAFRAME

EINSATZ VON MICROSOFT TERMINAL-SERVICES ODER CITRIX METAFRAME ALLGEMEINES Für die Mehrplatzinstallation von PLATO wird der Einsatz eines dedizierten Servers und ein funktionierendes Netzwerk mit Vollzugriff auf den PLATO-Ordner (Empfehlung: mit separatem, logischem

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Update und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten

Update und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten Update und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten Der Konfigurations-Assistent wurde entwickelt, um die unterschiedlichen ANTLOG-Anwendungen auf den verschiedensten Umgebungen automatisiert

Mehr

Installationsbeschreibung Flottenmanager 7.1

Installationsbeschreibung Flottenmanager 7.1 Installationsbeschreibung Flottenmanager 7.1 1 Dieses Dokument dokumentiert die Installation des Flottenmanagers (Server und Clientseite). Damit der Flottenmanager betrieben werden kann, müssen folgende

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

BPM im Kontext von Unternehmensarchitekturen. Konstantin Gress

BPM im Kontext von Unternehmensarchitekturen. Konstantin Gress BPM im Kontext von Unternehmensarchitekturen Konstantin Gress Agenda 1 Worum geht s BPM, EA und SOA im Überblick 2 Link zwischen EA und BPM 3 Link zwischen SOA und BPM 4 Wie spielt das zusammen? 5 Q&A

Mehr

Information-Design-Tool

Information-Design-Tool Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn

Mehr

Systemanforderungen (Mai 2014)

Systemanforderungen (Mai 2014) Systemanforderungen (Mai 2014) Inhaltsverzeichnis Einführung... 2 Einzelplatzinstallation... 2 Peer-to-Peer Installation... 3 Client/Server Installation... 4 Terminal-,Citrix-Installation... 5 Virtualisierung...

Mehr

Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH

Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel Carsten Herbe metafinanz Informationssysteme GmbH In unserer Business Line Business Intelligence & Risk gibt es fünf Bereiche: Risk,

Mehr

Datenübernahme easyjob 3.0 zu easyjob 4.0

Datenübernahme easyjob 3.0 zu easyjob 4.0 Datenübernahme easyjob 3.0 zu easyjob 4.0 Einführung...3 Systemanforderung easyjob 4.0...3 Vorgehensweise zur Umstellung zu easyjob 4.0...4 Installation easyjob 4.0 auf dem Server und Arbeitsstationen...4

Mehr

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 1 Allgemeine Beschreibung "Was war geplant, wo stehen Sie jetzt und wie könnte es noch werden?" Das sind die typischen Fragen, mit denen viele Unternehmer

Mehr

Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank

Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank Die Entscheidung Advoware über VPN direkt auf dem lokalen PC / Netzwerk mit Zugriff auf die Datenbank des zentralen Servers am anderen

Mehr

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 1. Übersicht Der MIK.etl.connector ist ein ETL-Tool - die Abkürzung steht für

Mehr

Wie man Registrationen und Styles von Style/Registration Floppy Disketten auf die TYROS-Festplatte kopieren kann.

Wie man Registrationen und Styles von Style/Registration Floppy Disketten auf die TYROS-Festplatte kopieren kann. Wie man Registrationen und Styles von Style/Registration Floppy Disketten auf die TYROS-Festplatte kopieren kann. Einleitung Es kommt vor, dass im Handel Disketten angeboten werden, die Styles und Registrationen

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

ÖKB Steiermark Schulungsunterlagen

ÖKB Steiermark Schulungsunterlagen ÖKB Steiermark Schulungsunterlagen Fotos von Online-Speicher bereitstellen Da das hinzufügen von Fotos auf unsere Homepage recht umständlich und auf 80 Fotos begrenzt ist, ist es erforderlich die Dienste

Mehr

Installation SQL- Server 2012 Single Node

Installation SQL- Server 2012 Single Node Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit

Mehr

Oracle Warehouse Builder 3i

Oracle Warehouse Builder 3i Betrifft Autoren Art der Info Oracle Warehouse Builder 3i Dani Schnider (daniel.schnider@trivadis.com) Thomas Kriemler (thomas.kriemler@trivadis.com) Technische Info Quelle Aus dem Trivadis Technologie

Mehr

2. Installation unter Windows 8.1 mit Internetexplorer 11.0

2. Installation unter Windows 8.1 mit Internetexplorer 11.0 1. Allgemeines Der Zugang zum Landesnetz stellt folgende Anforderungen an die Software: Betriebssystem: Windows 7 32- / 64-bit Windows 8.1 64-bit Windows Server 2K8 R2 Webbrowser: Microsoft Internet Explorer

Mehr

EIDAMO Webshop-Lösung - White Paper

EIDAMO Webshop-Lösung - White Paper Stand: 28.11.2006»EIDAMO Screenshots«- Bildschirmansichten des EIDAMO Managers Systemarchitektur Die aktuelle EIDAMO Version besteht aus unterschiedlichen Programmteilen (Komponenten). Grundsätzlich wird

Mehr

Titel BOAKdurch Klicken hinzufügen

Titel BOAKdurch Klicken hinzufügen Titel BOAKdurch Klicken hinzufügen Business Objects Arbeitskreis 2015 Aufbau einer BI-Strategie Referent Stefan Weber, ZIS Verkehrsbetriebe Zürich 15.09.2015 Hotel UTO KULM Thema Um was geht es! C1: Aufbau

Mehr