Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014
|
|
- Felix Elmar Sachs
- vor 8 Jahren
- Abrufe
Transkript
1 Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS Carsten Herbe DOAG Konferenz November 2014
2 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence Themenbereiche Enterprise DWH Data Modeling & Integration & ETL Architecture: DWH & Data Marts Hadoop & Columnar DBs Data Quality & Data Masking Analytics Predictive Models, Data Mining & Statistics Social Media Analytics Customer Intelligence Scorecarding Fraud & AML Über metafinanz metafinanz gehört seit fast 25 Jahren zu den erfahrensten Software- und Beratungshäusern mit Fokus auf die Versicherungsbranche. Mit einem Jahresumsatz von 270 Mio. EUR und über 450 Mitarbeitern entwickeln wir für unsere Kunden intelligente zukunftsorientierte Lösungen für komplexe Herausforderungen Insurance Reporting Standard & Adhoc Reporting Dashboarding BI Office Integration Mobile BI & In-memory SAS Trainings for Business Analysts BI & Risk Risk Solvency II (Standard & internal Model) Regulatory Reporting Compliance Risk Management Ihr Kontakt : Carsten Herbe Head of Data Warehousing Mehr als 10 Jahre DWH-Erfahrung Oracle & OWB Expertise Certified Hadoop Developer mail carsten.herbe@metafinanz.de phone Data Mart Offload nach Hadoop Seite 2
3 Agenda 1 Motivation 6 Anbindung BI Tool 2 Exkurs Hadoop 7 Offload Prozess 3 Architektur 8 Performance-Analyse 4 Schema Design 9 Fazit 5 Hive Metadaten & SQL Engine Data Mart Offload nach Hadoop Seite 3
4 1. Motivation
5 Platzt Ihr DWH aus allen Nähten? Data Mart Offload nach Hadoop Seite 5
6 Warten Ihre BI-Nutzer ewig? Data Mart Offload nach Hadoop Seite 6
7 Obwohl Sie im DWH alles richtig gemacht haben? Data Mart Offload nach Hadoop Seite 7
8 Sie suchen dringend eine Lösung die dem Kostendruck standhält? Data Mart Offload nach Hadoop Seite 8
9 2. Exkurs Hadoop
10 Apache Hadoop ist ein Framework für die verteilte Speicherung und Verarbeitung großer Datenmengen basierend auf Konzepten von Google. Was ist Hadoop? Hadoop MapReduce Skalierbare Rechenkapazität Hadoop Distributed FileSystem (HDFS) Skalierbare Speicherkapazität Data Mart Offload nach Hadoop Seite 10
11 Das Hadoop-Ökosystem besteht aus einer Vielzahl von Tools und Frameworks und wird ständig durch neue Projekte erweitert. Cascalog Oryx Crunch ORCFiles Big Data Connectors Big SQL SequenceFiles Kafaka HttpFS FuseDFS Data Mart Offload nach Hadoop Seite 11
12 Auch wenn man strukturierte Daten in Hadoop speichern kann Hadoop ist keine relationale Datenbank. Hadoop ist keine relationale Datenbank! Hadoop Un-, teil- oder strukturierte Daten Schema on Read Write Once Read Many Geringe Datenintegrität Beliebig linear skalierbar Relationale Datenbank Nur strukturierte (relationale) Daten Schema on Write Write Read Update Many Times Hohe Datenintegrität Nicht (eingeschränkt) linear skalierbar Data Mart Offload nach Hadoop Seite 12
13 3. Architektur
14 Der Data Mart wird komplett nach Hadoop kopiert und stehen dort mit kompletter Historie dem BI Tool zur Verfügung. In der DB bleibt nur der aktuelle Zeitraum (z.b. 1-3 Jahre). DWH Architektur mit Datamart in Hadoop RDBMS OLTP OLTP Staging Core DWH Datamart Datamart Reporting Files Hadoop Data Mart Offload nach Hadoop Seite 14
15 Design, Prozesse und Anbindung an das BI Tool werden in diesem Vortrag beschrieben. Eine Beschreibung des Aufbaus einer Hadoop Infrastruktur würde den Rahmen sprengen. Was ist zu tun? Hadoop Infrastruktur Aufbau Hadoop Cluster Konfiguration SQL Engine/Security Backup Aufbau Betrieb Schema Design in HDFS Logisches Daten/Datei-Modell Partitionierung (für ETL und Abfragen) Physikalische Speicherung (File Format, Komprimierung) Offload Prozess Hinzufügen/ Replacement bestehender Daten Einbindung ETL Prozess Verfügbarkeit für das Reporting Anbindung BI Tool Bereitstellung Metadaten (Tabellen, Spalten, ) Auswahl Hadoop SQL Engine (Hive, Impala, ) Anbindung Hadoop als Datenquelle an das BI Tool Data Mart Offload nach Hadoop Seite 15
16 Einfluss können wir über die Dateiformate inkl. Kompression, die Modellierung des Schema Designs und Auswahl der SQL Engine nehmen. Schichtenmodell ETL Tool BI Tool Gesetzt SQL Engine Auswahl Hive Metadaten Gesetzt: Hive als Quasistandard File Schema Design Modellierung File Format & Kompression Auswahl HDFS Gesetzt Data Mart Offload nach Hadoop Seite 16
17 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 4. Schema Design
18 Speed Ratio Die Wahl des Codecs ist immer ein Trade-off zwischen Kompression und Geschwindigkeit. Non-Splittable Codes können mit Containern verwendet werden. Kompression File Format & Kompression Codes Algorithmus Fokus Splittable Bemerkungen BZIP2 Burrows-Wheeler Ratio J ZLIB DEFLATE Ratio N Beste Kompression, aber am langsamsten Hadoop Standard Gute Kompression, aber langsam GZIP DEFLATE Ratio N LZO Variante von LZ77 Speed mit Index Snappy LZ77 Speed N Wrapper um ZLIB Gute Kompression, aber langsam GNU GPL, daher extra zu installieren Schnell Oft verwendet LZ4 Variante von LZ77 Speed N Schnell Data Mart Offload nach Hadoop Seite 18
19 Dateiformate beinhalten teilweise selbstbeschreibende Metadaten und sind auch komprimiert splittable. Die Toolunterstützung ist aber unterschiedlich. Dateiformate File Format & Kompression Zeilenorientiert Textformat (TSV/CSV) Sequence Files AVRO Spaltenorientiert RCFile (row columnar) ORC (optimized row columnar) Parquet Data Mart Offload nach Hadoop Seite 19
20 Beim Schema Design in HDFS kann man das Star Schema übernehmen oder es in ein denormalisiertes Result Set transformieren. Schema Design: Star Schema vs Result Set File Schema Design Star Schema 1:1 Übernahme des relationalen Datenmodells aus der DB. Keine Anpassung der Zugriffsschicht im BI Tool. Viele Joins bei Abfragen. Kleine Dimensionen kleine Dateien. Result Set Transformation notwendig: Denormalisierung des Star Schemas. Anpassung der Zugriffsschicht im BI Tool. Keine Joins bei Abfragen. Höherer Speicherbedarf. Einfach umsetzbar Performance-orientiert Data Mart Offload nach Hadoop Seite 20
21 Die Partitionierung muss ein einfaches Aktualisieren ( Replacement ) neuer Daten ermöglichen und idealerweise für eine gute Abfrageperformance sorgen. Partitionierung: Laden & Abfragen File Schema Design Fakten Partitionierung nach (fachlichen) Zeitscheiben Beim Load: Aktuelle Partition löschen & neu laden (Korrekturen) Oder anhängen der neuen Daten (keine Korrekturen) Dimensionen Partitionierung nach fachlichen Kriterien (z.b. Mandant) Beim Load: i.d.r. Komplett-Load Partitions-/Datei-Größen beachten: Nicht zu klein im Vergleich zur HDFS-Blockgröße (128 MB)! Load Frequenz nach Use Case (e.g. Historische Daten) Data Mart Offload nach Hadoop Seite 21
22 Partitionierung wird durch geschachtelte Verzeichnisse abgebildet. Der Benutzer muss dafür sorgen, dass in den Verzeichnissen auch nur passende Daten sind! Partitionierung: Funktionsweise File Format & Kompression CREATE TABLE dim_kunde ( id INT, name STRING, stadt STRING,... ) PARTITION BY ( land STRING, region STRING ); /dim_kunde/land=de/region=n /dim_kunde/land=de/region=w /dim_kunde/land=de/region=o /dim_kunde/land=de/region=s /dim_kunde/land=fr/region=n... Data Mart Offload nach Hadoop Seite 22
23 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 5. Hive Metadaten & SQL Engine
24 Hive ist eine SQL Engine mit HiveQL als Abfragesprache plus einer Metadatenverwaltung für relationale Daten in HDFS. Hive Hive Metadaten = Metadaten (Tabellen) + HiveQL (SQL) Hive Metadaten = Quasistandard (Pig, Impala, ) Hive Metadaten = Schema-on-Read Konsistenz Manuell sicherzustellen Data Mart Offload nach Hadoop Seite 24
25 Metadaten können für bestehende Dateien definiert werden. INSERT und SELECT funktionieren wie gewohnt, UPDATE und DELETE gibt es nicht. Hive Beispiele CREATE TABLE dim_kunde ( id INT, name STRING, stadt STRING, alter INT,... ) PARTITION BY ( land STRING, region STRING ); INSERT INTO TABLE dim_kunde SELECT... FROM stg_kunde; SELECT region, avg(alter) FROM dim_kunde WHERE land = DE GROUP BY region ; SQL Engine Data Mart Offload nach Hadoop Seite 25
26 Hive generiert einen oder mehreren MapReduce-Jobs. Impala nutzt eigene in-memory Komponenten für die Ausführung, aber auch die Hive Metadaten. SQL Engines Hive & Impala SQL Engine Map Reduce Map Reduce... HDFS in-memory Operation in-memory Operation in-memory Operation... Impala HDFS Data Mart Offload nach Hadoop Seite 26
27 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 6. Anbindung BI Tool
28 Selbst wenn die Datenmodelle in DB und HIVE identisch sind, hat man verschiedene Connections, welche sich i.d.r. nicht vom User im Report tauschen. Anbindung BI Tool BI Tool BI Tool Datamart Connection Physical Model RDBMS Logical Model Report A Hadoop Ggfs. unterschiedlich Identisch Identisch Physical Logical Connection Model Model Report A HIVE Teilmenge an Reports Ggfs. doppelte Pflege Fokus auf Ad-hoc Analysen Historische Reports Data Mart Offload nach Hadoop Seite 28
29 ETL Tool BI Tool SQL Engine Hive Metadaten File Schema Design File Format & Kompression HDFS 7. Offload Prozess
30 Im Offload Prozess werden die aktuellen Partitionen gelöscht und dann die Daten geladen. Hohe Parallelität kann sehr hohe Last auf der DB erzeugen! Offload Prozess ETL Tool Nutzung bestehender Technologien Integrierte Prozesse Ggfs. Performance- Probleme (ETL Server) Ggfs. Lizenzkosten Sqoop Hadoop Komponente Keine Lizenzkosten Einfache Benutzung File Transfer ETL Tool Keine Online-Verbindung Cluster-DB notwendig Komplexer Prozess: Datei erzeugen, transferieren, laden Unterschiedliche Tools Einfachste Integration Performant und einfach umzusetzen Notlösung ETL in Hadoop mit Hive Data Mart Offload nach Hadoop Seite 30
31 Sqoop ist von der Architektur her in erster Linie ein Client-Tool zum Datenaustausch zwischen HDFS und verschiedenen Datenbanken. Sqoop Architektur ETL Tool Sqoop client Reads metadata submits job Relational Database Document Based Systems sqoop import -connect --username scott --table SCOTT.EMP --where 'rownum=1' --hive-import $ Map Job delimited text Hadoop Hive Data Mart Offload nach Hadoop Seite 31
32 8. Performance-Analyse
33 Als Teststellung haben wir ein Subset (1 Fakt, 9 Dimensionen) des TPC-DS Benchmarks verwendet. Auf dem Cluster lief CDH4 mit Hive 0.10 und Impala Teststellung Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 33
34 Alle Test-Kombinationen und weitere Fragestellungen wurden im Rahmen einer Masterarbeit detailliert untersucht. Masterarbeit Real-time SQL on Hadoop Download bald unter hadoop.metafinanz.de Data Mart Offload nach Hadoop Seite 34
35 Gesparter Speicherplatz Faktentabelle (400GB) und Ladezeit. Snappy liefert die besten Zeiten und zusammen mit Parquet auch nur leicht schlechtere Kompression als GZIP. Load-Performance Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 35
36 Punkt oberhalb der Linie bedeutet Hive mit Star Schema ist schneller, unterhalb der Linie bedeutet Hive mit Resultset ist schneller. Parquet ist minimal schnelle als Sequence Files. Hive: Resultset schneller als Star Schema Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 36
37 Punkt oberhalb der Linie bedeutet Star Schema ist schneller, unterhalb der Linie bedeutet Resultset ist schneller. Parquet ist schneller als Sequence Files. Impala: Star Schema schneller als Resultset Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 37
38 Parquet ist zwar etwas CPU intensiver als die meisten anderen Formate, verbraucht dafür aber deutlich weniger Speicher. Impala: CPU vs. Memory Trade-off Masterarbeit An evaluation for optimal (big) data processing with Hadoop, Xiaojing Zhao, Technische Universität Dresden, September 2014 Data Mart Offload nach Hadoop Seite 38
39 Geometric Mean (in seconds) Alle Komponenten entwickeln sich ständig weiter, neue Technologien (z.b. Spark SQL) kommen hinzu. Cloudera Single-User respose time/impala times faster than (Lower bars are better) Impala 1.4 Presto Spark SQL Tez x 6.5x 13.0x 2.1x 9.8x 7.0x 3.8x 6.3x 7.2x Interactive Reporting Analytics q19, q42, q52, q63, q68, q73, q98 q3, q7, q27, q43, q53, q89 q34, q46, q59, q79, ss_max Data Mart Offload nach Hadoop Seite 39
40 9. Fazit
41 Datentransfer mit Sqoop, Speicherplatzoptimierte Speicherung mit Star Schema, Parquet Files mit Snappy-Codec und Hive als SQL Engine für Batchauswertungen. Beispiel DWH Architektur mit Datamart in Hadoop RDBMS OLTP OLTP Staging Core DWH Datamart Datamart Files Data-Transfer mit Sqoop Aufbereitung mit Hive Prozesssteuerung durch ETL Tool Hadoop Star Schema Fakten partitioniert nach Zeit Parquet-Files mit Snappy-Codec Hive Metadaten Reporting SQL Engine Impala Data Mart Offload nach Hadoop Seite 41
42 Hier ist auch der Staging Bereich nach Hadoop ausgelagert. Hier können die Daten aufbereitet und geprüft werden. Man profitiert von der massiv parallelen Verarbeitung. DWH Architektur: Staging & Data Mart in Hadoop RDBMS OLTP Staging Core DWH Datamart Datamart Reporting Hadoop OLTP Files Data Mart Offload nach Hadoop Seite 42
43 metafinanz unterstützt Ihre Kunden bei Einführung von Hadoop end-to-end: Von Entscheidung und Konzeption bis hin zu Einführung und Optimierung. DECIDE PLAN BUILD OPTIMIZE metafinanz ist herstellerunabhängig, erfahren, kompetent, zuverlässig und lieferfähig metafinanz Consulting Leistungen rund um Data Warehouse und Enterprise Information Management Businessanalyse, Systemauswahl und Integrationskonzept Gesamtheitliche IT Architektur Strategie und Designkonzeption (IT Strategie) Customizing von Big Data Lösungen für Ihre besonderen Business Anforderungen (Zukunftsfähigkeit) DWH Configuration & Optimierung für mehr Leistungsfähigkeit (Effizienzpotential) Vorstudie Hadoop-Strategie DWH Cost Savings Dokumentenverarbeitung Identifikation Use Cases Tool-/Distributor-Auswahl & Architektur Projekt- und Betriebs-Setup Data Mart Offload (hist. Daten) ETL-Offload: Staging Calculation Offload Dokumentenarchivierung Volltextsuche Textanalyse Log-File-Analysen Click-Stream-Analyse Web-Anwendungen Security Analytics (Server-Logs, Firewall-Logs, ) DWH-Metadaten, wie und wozu Seite 43
44 Interesse? Austausch? Livedemo des Datenfluss-Datamart? Treffen Sie uns an unserem Stand und gewinnen ein ipad Mini!
45 Herzlichen Dank! metafinanz Informationssysteme GmbH Leopoldstr. 146 Phone: Fax: Mehr zu Data Warehousing & Hadoop Besuchen Sie uns auch auf:
Data Mart (Star Schema) Offload nach Hadoop
Data Mart (Star Schema) Offload nach Hadoop Carsten Herbe Metafinanz-Informationssysteme GmbH München Schlüsselworte Data Mart, Hadoop, HDFS, Hive, Impala, Parquet, Kompression, Snappy, Star Schema, Performance
MehrHadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe
Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern
MehrBeratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting
Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis
MehrBig-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht
Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik
Mehr1Ralph Schock RM NEO REPORTING
1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen
MehrKampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht
Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Thomas Kreuzer ec4u expert consulting ag Karlsruhe Schlüsselworte: Kampagnenmanagement Praxisbericht Siebel Marketing Oracle BI - ec4u
MehrApache HBase. A BigTable Column Store on top of Hadoop
Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,
MehrWas ist Analyse? Hannover, CeBIT 2014 Patrick Keller
Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität
MehrAnalyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria
Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards
MehrJune 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration
June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen
MehrSurvival Guide für Ihr Business Intelligence-Projekt
Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren
MehrSQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh
SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?
MehrVertriebssteuerung & Controlling Konkrete Vertriebsziele, passend zur Unternehmensstrategie
Konkrete Vertriebsziele, passend zur Unternehmensstrategie Wir ermöglichen Ihnen mit dem Service Vertriebssteuerung die erfolgreiche Umsetzung Ihrer Unternehmensstrategie in operativ umsetzbare Vertriebsziele.
MehrETL in den Zeiten von Big Data
ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse
MehrBIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004
BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick
MehrCopyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS
HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT
MehrDatenaustausch Hadoop & Oracle DB. DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Carsten Herbe metafinanz Informationssysteme GmbH
DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Carsten Herbe metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT.
MehrBig Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr.
Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Florian Johannsen AGENDA 1. Big Data Projekt der freenet Group Dr. Florian Johannsen
MehrBig Data Informationen neu gelebt
Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen
MehrBusiness Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum
MehrBusiness Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum
MehrDatenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München
Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Schlüsselworte Hadoop, Sqoop, Sqoop 2, Hive, Oracle Big Data Konnektoren Einleitung Neben der klassischen Data
MehrBig Data Hype und Wirklichkeit Bringtmehrauchmehr?
Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or
MehrOP-LOG www.op-log.de
Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server
Mehr2. Einrichtung der ODBC-Schnittstelle aus orgamax (für 32-bit-Anwendungen)
1. Einführung: Über den ODBC-Zugriff können Sie bestimmte Daten aus Ihren orgamax-mandanten in anderen Anwendungen (beispielsweise Microsoft Excel oder Microsoft Access) einlesen. Dies bietet sich beispielsweise
MehrData. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired
make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,
MehrEinrichtung des Cisco VPN Clients (IPSEC) in Windows7
Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Diese Verbindung muss einmalig eingerichtet werden und wird benötigt, um den Zugriff vom privaten Rechner oder der Workstation im Home Office über
MehrHadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014
Hadoop in a Nutshell Einführung HDFS und MapReduce Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die
MehrMetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen
MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen Pasquale Grippo Senior Manager/Business Unit Manager BI 18/20.10.2011 Oracle Business Analytics Summits Düsseldorf/München
Mehrdesk.modul : WaWi- Export
desk.modul : WaWi- Export Die Schnittstelle besteht aus einem Programm, welches die Daten aus der OfficeLine ausliest und in eine XML-Datei exportiert. Die Schnittstelle ist als ein eigenständiges Programm
MehrMission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden
Mission TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden Der Weg zu einem datengesteuerten Unternehmen # Datenquellen x Größe der Daten Basic BI & Analytics Aufbau eines
MehrData Warehouse schnell gemacht Performanceaspekte im Oracle DWH
Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Dani Schnider Principal Consultant Business Intelligence BI Trilogie, Zürich/Basel 25./26. November 2009 Basel Baden Bern Lausanne Zürich
MehrHerausforderungen des Enterprise Endpoint Managements
Herausforderungen des Enterprise Endpoint Managements PPPvorlage_sxUKMvo-05.00.potx santix AG Mies-van-der-Rohe-Straße 4 80807 München www.santix.de santix AG Herausforderungen 09.10.2013 Herausforderungen
MehrWEBINAR@LUNCHTIME THEMA: "SAS STORED PROCESSES - SCHNELL GEZAUBERT" HELENE SCHMITZ
WEBINAR@LUNCHTIME THEMA: "SAS STORED PROCESSES - SCHNELL GEZAUBERT" HELENE SCHMITZ HERZLICH WILLKOMMEN BEI WEBINAR@LUNCHTIME Moderation Anne K. Bogner-Hamleh SAS Institute GmbH Education Consultant Training
MehrLokale Installation von DotNetNuke 4 ohne IIS
Lokale Installation von DotNetNuke 4 ohne IIS ITM GmbH Wankelstr. 14 70563 Stuttgart http://www.itm-consulting.de Benjamin Hermann hermann@itm-consulting.de 12.12.2006 Agenda Benötigte Komponenten Installation
MehrC09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl
C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl
MehrProf. Dr.-Ing. Rainer Schmidt 1
Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2
MehrAnleitung zum Prüfen von WebDAV
Anleitung zum Prüfen von WebDAV (BDRS Version 8.010.006 oder höher) Dieses Merkblatt beschreibt, wie Sie Ihr System auf die Verwendung von WebDAV überprüfen können. 1. Was ist WebDAV? Bei der Nutzung des
MehrHadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015
Hadoop & Spark Carsten Herbe 8. CC-Partner Fachtagung 2015 29.04.2015 Daten & Fakten 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum 25 Jahre am Markt
MehrYouTube: Video-Untertitel übersetzen
Der Easytrans24.com-Ratgeber YouTube: Video-Untertitel übersetzen Wie Sie mit Hilfe von Easytrans24.com in wenigen Schritten Untertitel für Ihre YouTube- Videos in mehrere Sprachen übersetzen lassen können.
MehrMöglichkeiten für bestehende Systeme
Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-
MehrAlbert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen
Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.
MehrFachbericht zum Thema: Anforderungen an ein Datenbanksystem
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank
MehrSo erstellen Sie wichtige Berichte mit Microsoft Technologie Tipps für PMO und IT
TPG Webinar-Serie 2016 zum PPM Paradise Thema 2.2 So erstellen Sie wichtige Berichte mit Microsoft Technologie Tipps für PMO und IT Mit Peter Huemayer Agenda Welche Berichte machen Sinn? Welche Daten haben
MehrSAS Visual Analytics Schnelle Einblicke für sichere Ausblicke
SAS Visual Analytics Schnelle Einblicke für sichere Ausblicke SAS Visual Analytics In einer Welt wachsender Datenmengen sind Informationen schneller verfügbar und Auswertungen auf Big Data möglich Motivation
MehrSEMINAR Modifikation für die Nutzung des Community Builders
20.04.2010 SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung ecktion SEMINAR Modifikation für die Nutzung des Community Builders Step by Step Anleitung Bevor Sie loslegen
MehrAnleitung über den Umgang mit Schildern
Anleitung über den Umgang mit Schildern -Vorwort -Wo bekommt man Schilder? -Wo und wie speichert man die Schilder? -Wie füge ich die Schilder in meinen Track ein? -Welche Bauteile kann man noch für Schilder
MehrEinbindung einer ACT!12-16 Datenbank als Datenquelle für den Bulkmailer 2012
Einbindung einer ACT!12-16 Datenbank als Datenquelle für den Bulkmailer 2012 Eine langvermisste Funktion ist mit den neuesten Versionen von ACT! und Bulkmailer wieder verfügbar. Mit dem Erscheinen der
MehrDatenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware
Datenübernahme von HKO 5.9 zur Advolux Kanzleisoftware Die Datenübernahme (DÜ) von HKO 5.9 zu Advolux Kanzleisoftware ist aufgrund der von Update zu Update veränderten Datenbank (DB)-Strukturen in HKO
MehrDWH-Metadaten Wie und wozu. Clemens Albrecht metafinanz Informationssysteme GmbH
DWH-Metadaten Wie und wozu Clemens Albrecht metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence
MehrOptions- und Freitext-Modul Update-Anleitung
Options- und Freitext-Modul Update-Anleitung Hinweis... 2 Update für Versionen kleiner als 1.2.4 auf 1.3.x... 3 Update für Versionen ab 1.2.4 auf 1.3.x... 6 Update für Versionen ab 1.3.x auf 2.x.x... 7
MehrSAP Memory Tuning. Erfahrungsbericht Fritz Egger GmbH & Co OG. Datenbanken sind unsere Welt www.dbmasters.at
SAP Memory Tuning Erfahrungsbericht Fritz Egger GmbH & Co OG Wie alles begann Wir haben bei Egger schon öfter auch im SAP Bereich Analysen und Tuning durchgeführt. Im Jan 2014 hatten wir einen Workshop
MehrWas ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit,
Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit, Wie kann ein PDF File angezeigt werden? kann mit Acrobat-Viewern angezeigt werden auf jeder Plattform!! (Unix,
MehrDaten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen
Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen Inhalt 1. Die Funambol Software... 3 2. Download und Installation... 3 3.
MehrInformatik 12 Datenbanken SQL-Einführung
Informatik 12 Datenbanken SQL-Einführung Gierhardt Vorbemerkungen Bisher haben wir Datenbanken nur über einzelne Tabellen kennen gelernt. Stehen mehrere Tabellen in gewissen Beziehungen zur Beschreibung
MehrBitDefender Client Security Kurzanleitung
BitDefender Client Security Kurzanleitung...1 Appendix A Kurzanleitung mit Screenshots...2 BitDefender Client Security Kurzanleitung 1. Wählen Sie entweder 32 oder 64 bit Management Server aus dem BitDefender
MehrHadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes
Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)
MehrÜber die Internetseite www.cadwork.de Hier werden unter Download/aktuelle Versionen die verschiedenen Module als zip-dateien bereitgestellt.
Internet, Codes und Update ab Version 13 Um Ihnen einen möglichst schnellen Zugang zu den aktuellsten Programmversionen zu ermöglichen liegen Update-Dateien für Sie im Internet bereit. Es gibt drei Möglichkeiten
MehrReview Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg
Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu
MehrBig Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen
Big Data Modewort oder echter Mehrwert freenet Group Dr. Florian Johannsen freenet Group 2 Titel der Präsentation 07.07.2015 Mobilfunkgeschäft der freenet Group Austausch von Daten und Informationen Im
MehrIBM SPSS Data Access Pack Installationsanweisung für Windows
IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........
MehrÜberblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014
Überblick Hadoop Einführung HDFS und MapReduce DOAG Regionaltreffen München/Südbayern Februar 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business
Mehrmysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank
mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank In den ersten beiden Abschnitten (rbanken1.pdf und rbanken2.pdf) haben wir uns mit am Ende mysql beschäftigt und kennengelernt, wie man
MehrTHE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05
THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data
MehrMailUtilities: Remote Deployment - Einführung
MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control
MehrDaten am USB Stick mit TrueCrypt schützen
Daten am USB Stick mit TrueCrypt schützen Das Programm installieren und einrichten ACHTUNG: In der nachfolgenden Anleitung wird der USB Stick immer mit USB-STICK (H:) angegeben! Diese Bezeichnung wurde
MehrKommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis
Kommunikationsübersicht Inhaltsverzeichnis Kommunikation bei Einsatz eines MasterServer... 2 Installation im... 2 Installation in der... 3 Kommunikation bei Einsatz eines MasterServer und FrontendServer...
MehrInhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.
Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence
MehrPostgreSQL in großen Installationen
PostgreSQL in großen Installationen Cybertec Schönig & Schönig GmbH Hans-Jürgen Schönig Wieso PostgreSQL? - Die fortschrittlichste Open Source Database - Lizenzpolitik: wirkliche Freiheit - Stabilität,
MehrReporting Services und SharePoint 2010 Teil 1
Reporting Services und SharePoint 2010 Teil 1 Abstract Bei der Verwendung der Reporting Services in Zusammenhang mit SharePoint 2010 stellt sich immer wieder die Frage bei der Installation: Wo und Wie?
MehrInternet online Update (Internet Explorer)
Um Ihr Consoir Beta immer schnell und umkompliziert auf den aktuellsten Stand zu bringen, bieten wir allen Kunden ein Internet Update an. Öffnen Sie Ihren Internetexplorer und gehen auf unsere Internetseite:
MehrData Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik
Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte
MehrUpgrade-Leitfaden. Apparo Fast Edit. Wechsel von Version 2 auf Version 3.0.6 oder 3.0.7. Wechsel von Version 3.0.6 auf Version 3.0.
Upgrade-Leitfaden Apparo Fast Edit Wechsel von Version 2 auf Version 3.0.6 oder 3.0.7 Wechsel von Version 3.0.6 auf Version 3.0.7 1 / 12 2 / 12 Inhaltsverzeichnis 1 Download der neuen Version... 5 2 Sicherung
MehrWorld4You Kundencenter
World4You Kundencenter World4You stellt Ihnen zu jedem Paket ein Kundencenter zur Verfügung. Sie können mit diesem Tool Ihren Account online und in Echtzeit verwalten. Hier finden Sie eine Auflistung der
MehrEINSATZ VON MICROSOFT TERMINAL-SERVICES ODER CITRIX METAFRAME
ALLGEMEINES Für die Mehrplatzinstallation von PLATO wird der Einsatz eines dedizierten Servers und ein funktionierendes Netzwerk mit Vollzugriff auf den PLATO-Ordner (Empfehlung: mit separatem, logischem
Mehreevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator
eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile
MehrProfessionelle Seminare im Bereich MS-Office
Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion
MehrUpdate und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten
Update und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten Der Konfigurations-Assistent wurde entwickelt, um die unterschiedlichen ANTLOG-Anwendungen auf den verschiedensten Umgebungen automatisiert
MehrInstallationsbeschreibung Flottenmanager 7.1
Installationsbeschreibung Flottenmanager 7.1 1 Dieses Dokument dokumentiert die Installation des Flottenmanagers (Server und Clientseite). Damit der Flottenmanager betrieben werden kann, müssen folgende
MehrPerformance by Design Wie werden performante ETL-Prozesse erstellt?
Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,
MehrPerformanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)
Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team
MehrBPM im Kontext von Unternehmensarchitekturen. Konstantin Gress
BPM im Kontext von Unternehmensarchitekturen Konstantin Gress Agenda 1 Worum geht s BPM, EA und SOA im Überblick 2 Link zwischen EA und BPM 3 Link zwischen SOA und BPM 4 Wie spielt das zusammen? 5 Q&A
MehrInformation-Design-Tool
Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn
MehrSystemanforderungen (Mai 2014)
Systemanforderungen (Mai 2014) Inhaltsverzeichnis Einführung... 2 Einzelplatzinstallation... 2 Peer-to-Peer Installation... 3 Client/Server Installation... 4 Terminal-,Citrix-Installation... 5 Virtualisierung...
MehrHadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH
Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel Carsten Herbe metafinanz Informationssysteme GmbH In unserer Business Line Business Intelligence & Risk gibt es fünf Bereiche: Risk,
MehrDatenübernahme easyjob 3.0 zu easyjob 4.0
Datenübernahme easyjob 3.0 zu easyjob 4.0 Einführung...3 Systemanforderung easyjob 4.0...3 Vorgehensweise zur Umstellung zu easyjob 4.0...4 Installation easyjob 4.0 auf dem Server und Arbeitsstationen...4
Mehrpro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9
Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 1 Allgemeine Beschreibung "Was war geplant, wo stehen Sie jetzt und wie könnte es noch werden?" Das sind die typischen Fragen, mit denen viele Unternehmer
MehrAdvoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank
Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank Die Entscheidung Advoware über VPN direkt auf dem lokalen PC / Netzwerk mit Zugriff auf die Datenbank des zentralen Servers am anderen
MehrDiese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.
Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,
MehrInhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.
Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 1. Übersicht Der MIK.etl.connector ist ein ETL-Tool - die Abkürzung steht für
MehrWie man Registrationen und Styles von Style/Registration Floppy Disketten auf die TYROS-Festplatte kopieren kann.
Wie man Registrationen und Styles von Style/Registration Floppy Disketten auf die TYROS-Festplatte kopieren kann. Einleitung Es kommt vor, dass im Handel Disketten angeboten werden, die Styles und Registrationen
MehrSuche schlecht beschriftete Bilder mit Eigenen Abfragen
Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere
MehrÖKB Steiermark Schulungsunterlagen
ÖKB Steiermark Schulungsunterlagen Fotos von Online-Speicher bereitstellen Da das hinzufügen von Fotos auf unsere Homepage recht umständlich und auf 80 Fotos begrenzt ist, ist es erforderlich die Dienste
MehrInstallation SQL- Server 2012 Single Node
Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit
MehrOracle Warehouse Builder 3i
Betrifft Autoren Art der Info Oracle Warehouse Builder 3i Dani Schnider (daniel.schnider@trivadis.com) Thomas Kriemler (thomas.kriemler@trivadis.com) Technische Info Quelle Aus dem Trivadis Technologie
Mehr2. Installation unter Windows 8.1 mit Internetexplorer 11.0
1. Allgemeines Der Zugang zum Landesnetz stellt folgende Anforderungen an die Software: Betriebssystem: Windows 7 32- / 64-bit Windows 8.1 64-bit Windows Server 2K8 R2 Webbrowser: Microsoft Internet Explorer
MehrEIDAMO Webshop-Lösung - White Paper
Stand: 28.11.2006»EIDAMO Screenshots«- Bildschirmansichten des EIDAMO Managers Systemarchitektur Die aktuelle EIDAMO Version besteht aus unterschiedlichen Programmteilen (Komponenten). Grundsätzlich wird
MehrTitel BOAKdurch Klicken hinzufügen
Titel BOAKdurch Klicken hinzufügen Business Objects Arbeitskreis 2015 Aufbau einer BI-Strategie Referent Stefan Weber, ZIS Verkehrsbetriebe Zürich 15.09.2015 Hotel UTO KULM Thema Um was geht es! C1: Aufbau
Mehr