Datenaustausch Hadoop & Oracle DB. DOAG Konferenz 2013 Nürnberg, November 2013 Carsten Herbe metafinanz Informationssysteme GmbH
|
|
- Stefan Winter
- vor 8 Jahren
- Abrufe
Transkript
1 DOAG Konferenz 2013 Nürnberg, November 2013 Carsten Herbe metafinanz Informationssysteme GmbH
2 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence Themenbereiche Über metafinanz Enterprise DWH Data Modeling & Integration & ETL Architecture: DWH & Data Marts Hadoop & Columnar DBs Data Quality & Data Masking Insurance Reporting Standard & Adhoc Reporting Dashboarding BI Office Integration Mobile BI & InMemory SAS Trainings for Business Analysts BI & Risk Customer Intelligence Customer based Analytics & Processes Churn Prediction and Management Insurance Analytics Segmentation and Clustering Predictive Models, Data Mining & Statistics Scorecarding Social Media Analytics Fraud & AML Risk Solvency II (Standard & internal Model) Regulatory Reporting Compliance Risk Management metafinanz gehört seit 23 Jahren zu den erfahrensten Software- und Beratungshäusern mit Fokus auf die Versicherungsbranche. Mit einem Jahresumsatz von 250 Mio. EUR und über Mitarbeitern entwickeln wir für unsere Kunden intelligente zukunftsorientierte Lösungen für komplexe Herausforderungen Carsten Herbe Ihr Ansprechpartner Head of Data Warehousing Mehr als 8 Jahre DWH-Erfahrung Oracle OWB Expertise Certified Hadoop Developer mail carsten.herbe@metafinanz.de phone Seite 2
3 Inhalt 1 Einführung 2 Exkurs Hive 3 Sqoop 4 Sqoop 2 5 Oracle SQL Connector for HDFS 6 Oracle Loader for Hadoop 7 Fazit Seite 3
4 1 Einführung
5 Hadoop besteht aus dem verteilten Filesystem HFDS und dem Java Framework MapReduce zur einfachen Programmierung von parallelen Jobs zur Datenverarbeitung. Was ist Hadoop? = HDFS + MapReduce = Seite 5
6 Die Apache Software hat sich mittlerweile als Quasi-Standard zur Speicherung und Verarbeitung von Big Data etabliert. Warum Hadoop? Open Source - Kommerzielle Distributionen erhältlich (Cloudera, Hortonworks, ). Verwaltung riesiger Datenmengen von strukturierten und unstrukturierten Daten Linear skarlierbarer Cluster (Speicher & Performance) von Standard-Servern Der Code wird zu den Daten auf die entsprechenden Knoten verteilt WORM (write once read many) Ein großes Ökosystem an Tools rund um Hadoop ensteht (Graphen, SQL, ) Seite 6
7 Landing area Oracle DB als Data Warehouse und Hadoop als Big Data Store sind nicht isoliert zu sehen sondern ergänzen sich. Aus der Verknüpfung beider Welten entstehen Mehrwerte. Beispiel Big Data Architektur OLTP DWH OLAP Datamart APPs Reporting Applications Hadoop Analytics Documents, APPs files, Unstructured data Machine generated data Enhanced area DB area Data mining In memory BI In memory BI Analytics Data mining
8 Um Daten zwischen Hadoop und Oracle auszutauschen bieten sich sqoop (Open Source) und die Oracle Konnektoren (kommerziell) an. Hadoop & RDBMS (Oracle) Seite 8
9 2 Exkurs Hive
10 Mit HiveQL (einem SQL Dialekt) werden die Queries geschrieben. Die Daten selbst liegen in HDFS, die Metadaten in einer relationalen Datenbank. Hive = Metadaten (Tabellen) + HiveQL (SQL) Strukturierte Daten in HDFS sollen in Hive gespeichert werden, damit Metadaten vorhanden sind. Seite 10
11 Die Daten selbst liegen in HDFS, die Metadaten in einer relationalen Datenbank. Der Driver übersetzt HiveQL in MapReduce Jobs. Hive Architektur Client Server Hadoop HiveQL (SQL) HiveServer Job Tracker Relationale DB: metastore /... /user/hive/warehouse Seite 11
12 Bei Managed Tables werden Daten und Metadaten von Hive verwaltet, bei externen Tabellen nur die Metadaten. Managed & External Tables CREATE TABLE my_tab( stations_id STRING, stations_hoehe STRING, geograph_breite FLOAT, geograph_laenge FLOAT, von FLOAT, bis FLOAT, stationsname STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\;' STORED AS TEXTFILE; CREATE EXTERNAL TABLE my_ext( stations_id STRING, stations_hoehe STRING, geograph_breite FLOAT, geograph_laenge FLOAT, von FLOAT, bis FLOAT, stationsname STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\;' LOCATION '/data/my_location'; Seite 12
13 Hive ist keine relationale Datenbank. Es gelten die gleichen Einschränkungen wie für das direkte Arbeiten mit Hadoop und HDFS. INSERT und SELECT werden in Teilen unterstützt. HiveQL: SQL Funktionalität INSERT UPDATE DELETE MERGE SELECT INSERT INTO TABLE targettable SELECT... FROM sourcetable; SELECT stations_id, sum(sonnenscheindauer), min(mess_datum), max(mess_datum) FROM weather_data WHERE year(mess_datum) = 2007 GROUP BY stations_id HAVING sum(sonnenscheindauer) > 100 ; Seite 13
14 Auch wenn man strukturierte Daten in Hadoop speichern kann Hadoop ist keine relationale Datenbank. Hadoop ist keine Datenbank Hadoop Verarbeitung un- oder teilstrukturierter Daten Batchverarbeitung Ad-Hoc-Analyse gesamter Daten im Batch-Modus Write Once Read Many Geringe Datenintegrität Linear erweiterbar Dynamische Datenstruktur Oracle Verarbeitung strukturierter Daten Batch- und interaktive Verarbeitung Selektierung oder Aktualisierung bestimmter Datenmengen Write Read Update Many Times Hohe Datenintegrität Nicht linear erweiterbar Statische Datenstruktur Seite 14
15 3 Sqoop
16 Sqoop ist von der Architektur her in erster Linie ein Client-Tool. Der Metastore (Jobs) kann allerdings auch geteilt werden, JDBC Treiber und DB-Verbindungsdetails liegen lokal. Sqoop Architektur Sqoop client 1 JDBC driver connections reads metadata Relational Database Document Based Systems metastore jobs submits job Hadoop Sqoop client 2 Map Job JDBC driver connections delimited text metastore jobs Sqoop Server metastore jobs Hive Seite 16
17 Die JDBC Treiber sind nicht Teil von Sqoop und müssen extra installiert werden. Sqoop Connectors OraOOP Connector Beste Performance Entwickelt von Quest Software und Cloudera Muss separat installiert werden Built-in Oracle Connector Zweitbeste Wahl falls OraOOP nicht passt Teil von Sqoop Generic JDBC Connector Letzter Ausweg Teil von Sqoop Seite 17
18 Sqoop bietet zahlreiche Optionen auf der Kommandozeile. Syntax $ sqoop [help] tool [options] Tools import import-all-tables list-tables export Options --connect --username --password --verbose -P -conf <Configfile> Hadoop und Datenbanken Seite 18
19 Die Imports erfolgen als Map-Only Jobs, pro Mapper (Anzahl ist konfigurierbar) gibt es eine Verbindung zur Datenbank. Import nach HDFS (2) Submit Map-Only Job Sqoop Import (1) Gather Metadata Sqoop Job Map HDFS Storage Map Table Map Map Hadoop Cluster Seite 19
20 Einfache Beispiele für die Verwendung von Sqoop mit einer Oracle Datenbank. Beispiele: Import aus Oracle nach HDFS $ sqoop import --connect jdbc:oracle:thin:@//dbserver:1521/orcl --username scott --table SCOTT.EMP --where 'rownum=1' --hive-import Hadoop und Datenbanken Seite 20
21 Der Export aus HDFS erfolgt als Map-Only Jobs, pro Mapper (Anzahl ist konfigurierbar) gibt es eine Verbindung zur Datenbank. Export aus HDFS (2) Submit Map-Only Job Sqoop Export (1) Gather Metadata Sqoop Job Map HDFS Storage Map TABLE Map Map Hadoop Cluster Seite 21
22 Einfache Beispiele für die Verwendung von Sqoop mit einer Oracle Datenbank. Beispiele: Export von HDFS nach Oracle Insert aller Datensätze $ sqoop export --connect jdbc:oracle:thin:@//dbserver:1521/orcl --table SCOTT.EMP --export-dir /hdfs/transfer --username scott --fields-terminated-by '\t' --lines-terminated-by '\n' Insert neuer Sätze und Update vorhandener Sätze $ sqoop export --connect jdbc:oracle:thin:@//localhost:1521/orcl --table SCOTT.EMP_SQOOP --username scott -P --export-dir /user/mfhadoop/scott.emp --update-mode allowinsert --update-key EMPNO --fields-terminated-by '\t' --lines-terminated-by '\n' Hadoop und Datenbanken Seite 22
23 4 Sqoop 2
24 Sqoop2 hat eine Client-Server-Architektur. JDBC-Treiber werden auf dem Server installiert. DB-Connections können zentral definiert und geteilt werden. Sqoop2 Architektur Sqoop client 1 Operator CLI / WebUI Sqoop Server JDBC driver Relational Database Document Based Systems Sqoop client 2 Operator CLI / WebUI Metadata Repository connectors connections jobs Map Job Hadoop Sqoop client 3 delimited text Adminstrator CLI / WebUI Hive Seite 24
25 Bei Sqoop2 muss als erstes der Sqoop2 Server angegeben werden. Sqoop2: Server Start des Sqoop2 Clients $./bin/sqoop.sh client Setzen Sqoop2 Server > set server --host myhost --port webapp sqoop Seite 25
26 Standardmäßig ist der generische JDBC Connector verfügbar. Sqoop 2: Connectors > show connector --all 1 connector(s) to show: Connector with id 1: Name: generic-jdbc-connector Class: org.apache.sqoop.connector.jdbc.genericjdbcconnector Supported job types: [EXPORT, IMPORT]... Seite 26
27 Connections lassen sich nun für einen bestehenden Connector inklusive Passwort anlegen und später bei der Anlange von Jobs verwenden. Sqoop 2: Connection > create connection --cid 1 Creating connection for connector with id 1 Please fill following values to create new connection object Name: MyConnection Configuration configuration JDBC Driver Class: oracle.jdbc.oracledriver JDBC Connection String: jdbc:oracle:thin:@//dbserver:1521/orcl Username: scott Password: ***** Seite 27
28 Connection lassen sich nun einmal inklusive Passwort anlegen und später bei der Anlange von Jobs verwenden. Sqoop 2: Job > create job --xid 1 --type import Creating job for connection with id 1 Please fill following values to create new job object Name: MyJob Database configuration Table name: SCOTT.EMP_SQOOP Table SQL statement: Table column names: Partition column name: Boundary query: Output configuration Storage type: 0 : HDFS Choose: 0 Output directory: /user/mfhadoop/sqoop2 New job was successfully created with validation status FINE and persistent id 1 Seite 28
29 Nun kann der Job gestartet werden ohne das User/Passwort spezifiziert werden muss. Laufende Jobs lassen sich überwachen und stoppen. Sqoop 2: Start, Status & Stop > submission start --jid 1 Submission details Job id: 1 Status: BOOTING Creation date: > submission status --jid 1... > submission stop --jid 1... Seite 29
30 5 Oracle SQL Connector for HDFS
31 Oracle bietet eine Reihe von Konnektoren zur Integration der Oracle Datenbank mit Apache Hadoop. Oracle Big Data Konnektoren Oracle SQL Connector for HDFS Oracle Loader for Hadoop Abfrage von Daten aus dem HDFS erfolgt mit Hilfe einer Externen Tabelle direkt in der Oracle Datenbank. Join mit Oracle Tabellen möglich Ehemals: Oracle Direct Connector for HDFS Tool zum Laden von Daten aus dem HDFS in eine Oracle Datenbank. Unterstützt Datapump Format => Performantes Laden Oracle R Connector for Hadoop Oracle Data Integrator Application Adapter for Hadoop Package im statistischen Open-Source R Framework. Mapper und Reducer Funktionen können in R erstellt und ausgeführt werden. Hadoop Integration in dem ODI Nutzt Hadoop Loader Generiert optimierten HiveQL Code, der dann als MapReduce Job umgesetzt wird Erfordert ODI Lizenz Seite 31
32 Über External Tables greift man mit dem SQL Connector auf Daten in HDFS zu. Der Connector muss nur auf dem DB Server installiert sein, sowie ggfs. auf einem Hive Node. Oracle SQL Connector for HDFS (OSCH) Oracle Hadoop HDFS API External Table Preprocessor HDFS_STREAM delimited text SQL location files datapump Table SQL Connector for HDFS Hive Connector Seite 32
33 Per Kommandozeilentool wird die External Table erzeugt. Die Parameter lassen sich auch in eine Konfigurationsdatei (XML) auslagen. External Table erzeugen Die Anzahl der Location Files bestimmt den Grad der Parallelität, mit dem auf hadoop jar OSCH_HOME/jlib/orahdfs.jar \ HDFS zugegriffen wird oracle.hadoop.exttab.externaltable \ -D oracle.hadoop.exttab.tablename=sales_dt_xtab \ -D oracle.hadoop.exttab.locationfilecount=4 \ -D oracle.hadoop.exttab.sourcetype=text \ -D oracle.hadoop.exttab.datapaths= "hdfs:///user/scott/olh_sales/*.dat" \ -D oracle.hadoop.exttab.columncount=10 \ -D oracle.hadoop.exttab.defaultdirectory=sales_dt_dir \ -D oracle.hadoop.connection.url= Notwendig für sourcetype=text jdbc:oracle:thin:@//myhost:1521/myservicename \ -D oracle.hadoop.connection.user=scott \ -createtable sourcetype: text, datapump oder hive Alternativ: exttab.columnnames=a,b, Seite 33
34 Die External Table wird direkt in der DB angelegt. osch_bin_path ist ein DB-Directory, das auf das Installationsverzeichnis des Connectors zeigt. Erzeugte External Table CREATE TABLE hdfsuser.weather_hdfs_ext_tab ( stations_id VARCHAR2(4000 BYTE), mess_datum VARCHAR2(4000 BYTE) ) ORGANIZATION EXTERNAL ( TYPE ORACLE_LOADER DEFAULT DIRECTORY weather_ext_dir ACCESS PARAMETERS ( RECORDS DELIMITED BY 0X'0A'... PREPROCESSOR osch_bin_path:hdfs_stream FIELDS... ) LOCATION ('osch-...-1',..., 'osch-...-4') ) Seite 34
35 Die per Kommandozeilentool erzeugten Location Files zeigen auf die Dateien im HDFS. Beispiel eines Location Files <?xml version="1.0"...?> <locationfile> <header>...</header> <uri_list> <uri_list_item compressioncodec="" size="49090"> hdfs://localhost:8020/user/mfhadoop/produkt_klima_... </uri_list_item> </uri_list> </locationfile> Seite 35
36 Die External Table lässt sich dann wie gewohnt mit SQL abfragen. Pro Location wird dann ein Prozess gestartet, der über HDFS API die Daten liest (kein MapReduce). Abfrage der HDFS-Daten ALTER SESSION ENABLE PARALLEL QUERY; SELECT COUNT(*) FROM weather_hdfs_ext_tab WHERE TRIM(stations_id) = '164' ; Seite 36
37 6 Oracle Loader for Hadoop
38 In MapReduce werden die Daten ins Oracle Format konvertiert und sortiert. Dies reduziert die Last auf dem Datenbankserver im Vergleich zu dem External Table Ansatz. Oracle Loader for Hadoop (OLH) Hadoop Oracle delimited text custom format AVRO Hive Oracle Loader for Hadoop submits MAP REDUCE Offline Load Online Load JDBC OCI direct path Table datapump Seite 38
39 Der Loader wird mittels einer XML Datei konfiguriert. Die Zieltabelle muss in der Datenbank schon existieren. Loader for Hadoop Configuration File <?xml version="1.0"?> <configuration> <property><name>mapreduce.inputformat.class</name> <value>oracle.hadoop.loader.lib.input.delimitedtextinputformat</value></property> <property><name>mapred.input.dir</name> <value>/user/mfhadoop/produkt_klima_tageswerte_ txt</value></property> <property><name>oracle.hadoop.loader.input.fieldnames</name> <value>f0,f1,f2,f3,f4,f5,f6</value></property> <property><name>mapreduce.outputformat.class</name> <value>oracle.hadoop.loader.lib.output.jdbcoutputformat</value></property> <property><name>oracle.hadoop.loader.targettable</name> <value>hdfsuser.klima_tageswerte</value></property> <property><name>mapred.output.dir</name> <value>/user/oracle/loader_output</value></property> <property><name>oracle.hadoop.loader.connection.url</name> <property><name>oracle.hadoop.loader.connection.password</name> <value>mfhadoop</value></property> <property><name>oracle.hadoop.loader.connection.user</name> <value>hdfsuser</value></property> </configuration> Seite 39
40 Informationen zur Zieltabelle können im Offline Mode nicht aus der Datenbank abgefragt werden. Daher müssen diese Metadaten aus dem Oracle System exportiert werden. Offline Database Mode: Export Metadaten export CLASSPATH="$CLASSPATH:/home/oracle/connectors/oraloader h1/jlib/* java oracle.hadoop.loader.metadata.oraloadermetadata -user HDFSUSER -connection_url -table KLIMA_TAGESWERTE -output tab_metadata.xml; <Titel der Präsentation> Seite 40
41 Der Loader lässt sich dann per Kommandozeile starten. Die Daten werden dann abhängig von der Konfiguration direkt in die DB oder in ein Data Pump File in HDFS geschrieben. Ausführen des Loader for Hadoop > export OLH_HOME="/home/oracle/connectors/oraloader h1" > Export HADOOP_CLASSPATH=\ "$HADOOP_CLASSPATH:/home/oracle/connectors/oraloader h1/jlib/*" > hadoop jar $OLH_HOME/jlib/oraloader.jar \ oracle.hadoop.loader.oraloader \ -conf loader_config.xml Offline Mode Gleicher Aufruf wie im Online Mode, jedoch mit speziellen Parameter: oracle.hadoop.loader.tablemetadatafile=tab_metadata.xml mapreduce.outputformat.class=oracle.hadoop.loader.lib.ou tput.datapumpoutputformat Dies ist die soeben erzeugte Metadaten-Datei und das DataPump Format. Seite 41
42 5 Fazit
43 Austausch von strukturierten Daten zwischen HDFS und Oracle ist relativ einfach möglich. Fazit Sqoop Einzige Möglichkeiten Daten von Oracle nach HDFS zu laden Performance sollte ausgereizt werden Sqoop 2 sollte verwendet werden Oracle Big Data Connectors Bieten nur Datentransfer von HDFS nach Oracle Einsatz wenn Performance von Sqoop nicht ausreicht Sehr DB-Resourcen-schonend bei Offline Loads Komfortabler Zugriff mit External Tables (SQL Conn.) Alternativen ETL-Tools bieten teilweise Hadoop-Connectors ODI, Informatica, SAS DI, Talend, Pentaho, Seite 43
44 Wir bieten offene Trainings an sowie maßgeschneiderte Trainings für individuelle Kunden. metafinanz training Einführung Big Data mit Hadoop (1 Tag) Auch am DOAG Schulungstag! Big Data mit Hadoop (5 Tage intensiv Training) Einführung Oracle in-memory Datenbank TimesTen Data Warehousing & Dimensionale Modellierung Klassiker Oracle Warehousebuilder 11.2 New Features OWB Skripting mit OMB*Plus Oracle SQL Tuning Einführung in Oracle: Architektur, SQL und PL/SQL Mehr Information unter / All trainings are also available in English on request. Seite 44
45 Interesse? Fragen? Austausch? Treffen Sie uns an unserem Stand und gewinnen Sie eine Hadoop-Schulung!
46 Vielen Dank für Ihre Aufmerksamkeit! metafinanz Informationssysteme GmbH Leopoldstraße 146 D München Phone: Fax: DWH & Hadoop Expertise Besuchen Sie uns auch auf:
Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München
Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Schlüsselworte Hadoop, Sqoop, Sqoop 2, Hive, Oracle Big Data Konnektoren Einleitung Neben der klassischen Data
MehrHadoop & SQL Wie Hadoop um SQL erweitert werden kann. Oracle/metafinanz Roadshow 11./18. Februar
Hadoop & SQL Wie Hadoop um SQL erweitert werden kann Oracle/metafinanz Roadshow 11./18. Februar Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services
MehrHadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH
Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel Carsten Herbe metafinanz Informationssysteme GmbH In unserer Business Line Business Intelligence & Risk gibt es fünf Bereiche: Risk,
Mehreinfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer
einfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer info@ordix.de www.ordix.de Agenda Hadoop Hive OLH: Oracle Loader for
MehrHadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe
Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern
MehrHadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014
Hadoop in a Nutshell Einführung HDFS und MapReduce Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die
MehrÜberblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014
Überblick Hadoop Einführung HDFS und MapReduce DOAG Regionaltreffen München/Südbayern Februar 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business
Mehrdesk.modul : WaWi- Export
desk.modul : WaWi- Export Die Schnittstelle besteht aus einem Programm, welches die Daten aus der OfficeLine ausliest und in eine XML-Datei exportiert. Die Schnittstelle ist als ein eigenständiges Programm
MehrJava Application 1 Java Application 2. JDBC DriverManager. JDBC-ODBC Br idge. ODBC Driver Manager. Dr iver C. Dr iver D.
1 Copyright 1996-1997 by Axel T. Schreiner. All Rights Reserved. 7 Datenbankzugriff Prinzip Dieser Abschnitt beschäftigt sich mit dem Paket java.sql, das eine SQL-Schnittstelle für Java verkapselt. Java-Programme
MehrAnalyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria
Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards
MehrApache HBase. A BigTable Column Store on top of Hadoop
Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,
MehrPostgreSQL in großen Installationen
PostgreSQL in großen Installationen Cybertec Schönig & Schönig GmbH Hans-Jürgen Schönig Wieso PostgreSQL? - Die fortschrittlichste Open Source Database - Lizenzpolitik: wirkliche Freiheit - Stabilität,
MehrVerbinden von IBM Informix mit Openoffice mittels JDBC
Verbinden von IBM Informix mit Openoffice mittels JDBC Voraussetzungen Installierte und laufende IBM Informixdatenbank. Getestet wurde mit IDS 9.40 und 10.00. Sollte aber auch mit älteren Versionen funktionieren.
MehrNoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse
NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse Carsten Czarski Oracle Deutschland B.V. & Co KG Big Data Betrachten von Daten die bislang nicht betrachtet wurden
MehrOP-LOG www.op-log.de
Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server
MehrBeratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting
Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis
MehrHadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes
Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)
MehrGraphen in Apex von Thomas Hernando. www.syntegris.de
Graphen in Apex von Thomas Hernando www.syntegris.de Einleitung FIRMENINFOS Gründung im Jahre 2000 mit Sitz in Neu-Isenburg bei Frankfurt am Main Mehr als 30 Berater Oracle Gold Partner Schwerpunkte liegen
MehrSQL für Trolle. mag.e. Dienstag, 10.2.2009. Qt-Seminar
Qt-Seminar Dienstag, 10.2.2009 SQL ist......die Abkürzung für Structured Query Language (früher sequel für Structured English Query Language )...ein ISO und ANSI Standard (aktuell SQL:2008)...eine Befehls-
MehrWas ist Analyse? Hannover, CeBIT 2014 Patrick Keller
Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität
MehrZeitlich abhängig von OWB?
Zeitlich abhängig von OWB? 24. April 2007 Beat Flühmann Trivadis AG > IT Lösungsanbieter» Application Development, Application Performance Management, Business Communication, Business Intelligence, Managed
MehrBIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004
BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick
MehrDaten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen
Daten-Synchronisation zwischen dem ZDV-Webmailer und Outlook (2002-2007) Zentrum für Datenverarbeitung der Universität Tübingen Inhalt 1. Die Funambol Software... 3 2. Download und Installation... 3 3.
MehrLehrveranstaltung Grundlagen von Datenbanken
Verbindungsanleitung mit der Datenbank Um sich mit der Datenbank für die Übung zu verbinden, gibt es mehrere Möglichkeiten. Zum einen ist die Datenbank aus dem Netz des Informatikums direkt erreichbar.
MehrInstallation der SAS Foundation Software auf Windows
Installation der SAS Foundation Software auf Windows Der installierende Benutzer unter Windows muss Mitglied der lokalen Gruppe Administratoren / Administrators sein und damit das Recht besitzen, Software
MehrICS-Addin. Benutzerhandbuch. Version: 1.0
ICS-Addin Benutzerhandbuch Version: 1.0 SecureGUARD GmbH, 2011 Inhalt: 1. Was ist ICS?... 3 2. ICS-Addin im Dashboard... 3 3. ICS einrichten... 4 4. ICS deaktivieren... 5 5. Adapter-Details am Server speichern...
MehrOracle Warehouse Builder 3i
Betrifft Autoren Art der Info Oracle Warehouse Builder 3i Dani Schnider (daniel.schnider@trivadis.com) Thomas Kriemler (thomas.kriemler@trivadis.com) Technische Info Quelle Aus dem Trivadis Technologie
MehrMySQL Installation. AnPr
Name Klasse Datum 1 Allgemeiner Aufbau Relationale Datenbank Management Systeme (RDBMS) werden im Regelfall als Service installiert. Der Zugriff kann über mehrere Kanäle durchgeführt werden, wobei im Regelfall
MehrHVS32 Datenbank Archivierungs Dienst
HVS32 Datenbank Archivierungs Dienst Features: HVS32 - vollautomatisierte, zeitgesteuerte Datenbank Archivierung Der HVS32- Datenbank Archivierungs Dienst bietet die Möglichkeit zu bestimmen, wann und
MehrSynchronisations- Assistent
TimePunch Synchronisations- Assistent Benutzerhandbuch Gerhard Stephan Softwareentwicklung -und Vertrieb 25.08.2011 Dokumenten Information: Dokumenten-Name Benutzerhandbuch, Synchronisations-Assistent
MehrEinrichtung des Cisco VPN Clients (IPSEC) in Windows7
Einrichtung des Cisco VPN Clients (IPSEC) in Windows7 Diese Verbindung muss einmalig eingerichtet werden und wird benötigt, um den Zugriff vom privaten Rechner oder der Workstation im Home Office über
MehrSAP NetWeaver Gateway. Connectivity@SNAP 2013
SAP NetWeaver Gateway Connectivity@SNAP 2013 Neue Wege im Unternehmen Neue Geräte und Usererfahrungen Technische Innovationen in Unternehmen Wachsende Gemeinschaft an Entwicklern Ausdehnung der Geschäftsdaten
MehrRessourcenmanagement in Forschung und Entwicklung Grünenthal integriert SAS in sein Berechtigungs- und Mandantenkonzept 7.
Ressourcenmanagement in Forschung und Entwicklung Grünenthal integriert SAS in sein Berechtigungs- und Mandantenkonzept 7. Nov 2012 Seite 1 Unternehmensprofil IT-Spezialist für Business Intelligence und
MehrJava Database Connectivity (JDBC) 14.07.2009 Walther Rathenau Gewerbeschule 1
Java Database Connectivity (JDBC) 14.07.2009 Walther Rathenau Gewerbeschule 1 Was ist JDBC? Hauptsächlich eine Sammlung von Java Klassen und Schnittstellen für eine einfache Verbindung von Java Programmen
MehrData Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014
Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS Carsten Herbe DOAG Konferenz November 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und
MehrBetriebshandbuch. MyInTouch Import Tool
Betriebshandbuch MyInTouch Import Tool Version 2.0.5, 17.08.2004 2 MyInTouch Installationshandbuch Inhaltsverzeichnis Inhaltsverzeichnis... 2 Bevor Sie beginnen... 3 Einleitung...3 Benötigte Daten...3
MehrORM & OLAP. Object-oriented Enterprise Application Programming Model for In-Memory Databases. Sebastian Oergel
ORM & OLAP Object-oriented Enterprise Application Programming Model for In-Memory Databases Sebastian Oergel Probleme 2 Datenbanken sind elementar für Business-Anwendungen Gängiges Datenbankparadigma:
MehrDynamisches SQL. Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München
Kapitel 4 Dynamisches SQL Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München 2008 Thomas Bernecker, Tobias Emrich unter Verwendung der Folien des Datenbankpraktikums aus dem Wintersemester
Mehr3. Stored Procedures und PL/SQL
3. Stored Procedures und PL/SQL Wenn eine Anwendung auf einer Client-Maschine läuft, wird normalerweise jede SQL-Anweisung einzeln vom Client an den Server gesandt, und jedes Ergebnistupel wird einzeln
MehrSafexpert Oracle Datenbank Konnektor. Stand: 02.01.2012. IBF-Automatisierungs-und Sicherheitstechnik GmbH A-6682 Vils Bahnhofstraße 8
Safexpert Oracle Datenbank Konnektor Stand: 02.01.2012 IBF-Automatisierungs-und Sicherheitstechnik GmbH A-6682 Vils Bahnhofstraße 8 Tel.: +43 (0) 5677 5353 0 E-Mail: office@ibf.at 1 Kurzüberblick über
MehrDatenbanken SQL Einführung Datenbank in MySQL einrichten mit PhpMyAdmin
Datenbanken SQL Einführung Datenbank in MySQL einrichten mit PhpMyAdmin PhpMyAdmin = grafsches Tool zur Verwaltung von MySQL-Datenbanken Datenbanken erzeugen und löschen Tabellen und Spalten einfügen,
MehrInformatik 12 Datenbanken SQL-Einführung
Informatik 12 Datenbanken SQL-Einführung Gierhardt Vorbemerkungen Bisher haben wir Datenbanken nur über einzelne Tabellen kennen gelernt. Stehen mehrere Tabellen in gewissen Beziehungen zur Beschreibung
MehrTechNote. Produkt: TWINFAX 7.0 (ab CD_24), TWINFAX 6.0 Modul: SMTP, T611, R3 Kurzbeschreibung: Briefpapier- und Mailbodyunterstützung
Produkt: TWINFAX 7.0 (ab CD_24), TWINFAX 6.0 Modul: SMTP, T611, R3 Kurzbeschreibung: Briefpapier- und Mailbodyunterstützung Diese Anleitung hilft Ihnen, das nachfolgend geschilderte Problem zu beheben.
MehrSQL (Structured Query Language) Schemata Datentypen
2 SQL Sprachelemente Grundlegende Sprachelemente von SQL. 2.1 Übersicht Themen des Kapitels SQL Sprachelemente Themen des Kapitels SQL (Structured Query Language) Schemata Datentypen Im Kapitel SQL Sprachelemente
MehrDatabase Exchange Manager. Infinqa IT Solutions GmbH, Berlin Stralauer Allee 2 10245 Berlin Tel.:+49(0) 30 2900 8639 Fax.:+49(0) 30 2900 8695
Database Exchange Manager Replication Service- schematische Darstellung Replication Service- allgemeines Replikation von Daten von bzw. in ein SAP-System und einer relationalen DMS-Datenbank Kombination
MehrThomas Wagner 2009 (im Rahmen der TA) Installation von MySQL 5.0 und Tomcat 5.5
Thomas Wagner 2009 (im Rahmen der TA) Installation von MySQL 5.0 und Tomcat 5.5 Im Folgenden wird die Installation von MySQL 5.0 und Tomcat 5.0 beschrieben. Bei MySQL Server 5.0 handelt es sich um ein
MehrIV. Datenbankmanagement
Wirtschaftsinformatik 2 (PWIN) IV. Datenbankmanagement Kapitel 2: Datenmanipulationssprache SQL Wirtschaftsinformatik 2 (PWIN) SS 2009, Professur für Mobile Business & Multilateral Security 1 Agenda 1.
MehrHandbuch. timecard Connector 1.0.0. Version: 1.0.0. REINER SCT Kartengeräte GmbH & Co. KG Goethestr. 14 78120 Furtwangen
Handbuch timecard Connector 1.0.0 Version: 1.0.0 REINER SCT Kartengeräte GmbH & Co. KG Goethestr. 14 78120 Furtwangen Furtwangen, den 18.11.2011 Inhaltsverzeichnis Seite 1 Einführung... 3 2 Systemvoraussetzungen...
MehrPerformance Tuning mit @enterprise
@enterprise Kunden-Forum 2005 Performance Tuning mit @enterprise Herbert Groiss Groiss Informatics GmbH, 2005 Inhalt Datenbank RMI JAVA API HTTP Konfiguration Analyse Groiss Informatics GmbH, 2005 2 Datenbank
MehrLokale Installation von DotNetNuke 4 ohne IIS
Lokale Installation von DotNetNuke 4 ohne IIS ITM GmbH Wankelstr. 14 70563 Stuttgart http://www.itm-consulting.de Benjamin Hermann hermann@itm-consulting.de 12.12.2006 Agenda Benötigte Komponenten Installation
MehrJune 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration
June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen
MehrKurzanleitung zu XML2DB
Kurzanleitung zu XML2DB Inhaltsverzeichnis 1. Einleitung...3 2. Entwicklungsumgebung...3 3. Betriebsanleitung...3 3.1 Einrichten der Java Umgebung...3 3.2 Allgemeines zu java und javac...4 3.2.1 Allgemeines
MehrEXASOL Anwendertreffen 2012
EXASOL Anwendertreffen 2012 EXAPowerlytics Feature-Architektur EXAPowerlytics In-Database Analytics Map / Reduce Algorithmen Skalare Fkt. Aggregats Fkt. Analytische Fkt. Hadoop Anbindung R LUA Python 2
MehrMySQL Queries on "Nmap Results"
MySQL Queries on "Nmap Results" SQL Abfragen auf Nmap Ergebnisse Ivan Bütler 31. August 2009 Wer den Portscanner "NMAP" häufig benutzt weiss, dass die Auswertung von grossen Scans mit vielen C- oder sogar
MehrKurzanleitung zur Erweiterung der htdig
Kurzanleitung zur Erweiterung der htdig Inhaltsverzeichnis 1. Einleitung...3 2. Kompilieren des Projektes...3 3. Erweiterung der htdig...4 3.1 Erweiterung der Konfigurationsdatei htdig.conf...4 3.2 XML-Export...4
MehrDATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER
DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.
MehrWerkzeuge für Datenbank Handwerker: IBM Data Studio und IBM Optim QWT
Werkzeuge für Datenbank Handwerker: IBM Data Studio und IBM Optim QWT Neue Technologien effizient nutzen Ehningen, 3. Juli 2014 Rodney Krick rk@aformatik.de aformatik Training & Consulting GmbH & Co. KG
MehrDB2 Kurzeinführung (Windows)
DB2 Kurzeinführung (Windows) Michaelsen c 25. Mai 2010 1 1 Komponenten von DB2 DB2 bietet zahlreiche graphische Oberflächen für die Verwaltung der verschiedenen Komponenten und Anwendungen. Die wichtigsten
MehrHadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015
Hadoop & Spark Carsten Herbe 8. CC-Partner Fachtagung 2015 29.04.2015 Daten & Fakten 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum 25 Jahre am Markt
MehrÜbung: Verwendung von Java-Threads
Übung: Verwendung von Java-Threads Ziel der Übung: Diese Übung dient dazu, den Umgang mit Threads in der Programmiersprache Java kennenzulernen. Ein einfaches Java-Programm, das Threads nutzt, soll zum
MehrDatensicherung. Mögliche Vorgehensweisen:
Datensicherung Car&GO! Daten können schnell und mit hoher Sicherheit mit dem mitgelieferten Programm Backup.exe gesichert werden. Das Programm ist in jedem Verzeichnis enthalten aus dem das Cargo-Hauptprogramm
Mehr1 Registrieren Sie sich als Benutzer auf dem Televes. 2 Sobald ein Konto erstellt ist, können Sie auf das Portal
UCDC (2168) Die Software ermöglicht eine Fern- oder lokale Wartung von einer TOX Kopfstelle, mit einem Controller CDC-IP/HE oder CDC-IP/GSM Passend zu T0X und TO5 Kopfstellen (UNI2000). Einstellung, Wartung,
MehrMSSQL Server Fragen GridVis
MSSQL Server Fragen GridVis 1.0 Server allgemein Frage 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens benötigt
MehrBusiness Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum
MehrDas Beste aus zwei Welten
: Das Beste aus zwei Welten Das Beste aus zwei Welten Aufruf von R Funktionen mit PROC IML KSFE 2012 08.03.2012 ist IT Dienstleister für Business Intelligence und Datenanalyse gibt es seit über 20 Jahren
MehrInnovator 11 excellence. Import eines DB-Schemas mit Direktzugriff auf ein RDBMS via JDBC. HowTo. Udo Ende. www.mid.de
Innovator 11 excellence Import eines DB-Schemas mit Direktzugriff auf ein RDBMS via JDBC Udo Ende HowTo www.mid.de Zweck Aus einer Datenbank soll ein DB-Schema in ein Modell von Innovator Data excellence
MehrKommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis
Kommunikationsübersicht Inhaltsverzeichnis Kommunikation bei Einsatz eines MasterServer... 2 Installation im... 2 Installation in der... 3 Kommunikation bei Einsatz eines MasterServer und FrontendServer...
Mehrvinsight BIG DATA Solution
vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,
MehrArchitekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131
Architekturen Von der DB basierten zur Multi-Tier Anwendung DB/CRM (C) J.M.Joller 2002 131 Lernziele Sie kennen Design und Architektur Patterns, welche beim Datenbankzugriff in verteilten Systemen verwendet
MehrMailUtilities: Remote Deployment - Einführung
MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control
MehrFragen zur GridVis MSSQL-Server
Fragen zur GridVis MSSQL-Server Frage Anmerkung 1.0 Server allgemein 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens
MehrSQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh
SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?
MehrProzessarchitektur einer Oracle-Instanz
6. Juni 2008 Inhaltsverzeichnis Oracle Instanz 1 Oracle Instanz 2 3 Redo Log Buffer Shared Pool Java Pool & Large Pool Oracle Instanz Eine Oracle-Instanz ist Hauptbestandteil des Oracle Datenbank Management
MehrDOKUMENTATION ky2help V 3.6 Servertests
DOKUMENTATION ky2help V 3.6 Servertests Version: 1.1 Autor: Colin Frick Letzte Änderung: 01.02.2012 Status: Final Fürst-Franz-Josef-Strasse 5 9490 Vaduz Fürstentum Liechtenstein Fon +423 / 238 22 22 Fax
MehrBig Data Hype und Wirklichkeit Bringtmehrauchmehr?
Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or
MehrBig Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer
Big in Azure Ein Beispiel mit HD Insight Ralf Stemmer Agenda owas ist Big? Was ist HD Insight? owelche Probleme kann man damit lösen? odemo Was ist Big? Was ist HD Insight? Datenexplosion - Rasanter Zuwachs
MehrHMS. Statistiken mit SAS ins Internet. HMS Analytical Software GmbH - Johannes Lang
HMS Statistiken mit SAS ins Internet HMS Analytical Software GmbH - Johannes Lang Schweizer Tage der öffentlichen Statistik, Davos 08.09. 10.09.2008 1 Agenda Vorstellung Inhaltliche Einleitung Statische
MehrPowermanager Server- Client- Installation
Client A Server Client B Die Server- Client- Funktion ermöglicht es ein zentrales Powermanager Projekt von verschiedenen Client Rechnern aus zu bedienen. 1.0 Benötigte Voraussetzungen 1.1 Sowohl am Server
MehrMySQL 101 Wie man einen MySQL-Server am besten absichert
MySQL 101 Wie man einen MySQL-Server am besten absichert Simon Bailey simon.bailey@uibk.ac.at Version 1.1 23. Februar 2003 Change History 21. Jänner 2003: Version 1.0 23. Februar 2002: Version 1.1 Diverse
MehrRegionaltreffen Rhein Main 26. März 2007
Regionaltreffen Rhein Main 26. März 2007 SWE Jens Fudickar / OraTool pro Softwareentwicklung Jens Fudickar ist ein kleines Softwarehaus, dessen Hauptprodukt das OraTool ist. Darüber hinaus sind wir in
MehrLabTech RMM. Integration von Teamviewer. Vertraulich nur für den internen Gebrauch
Integration von Teamviewer Vertraulich nur für den internen Gebrauch Inhaltsverzeichnis Integration von Teamviewer in LabTech RMM 3 Schritt 1: Speicherung von Teamviewer-ID und -Kennwort 3 Schritt 2: Starten
MehrOptions- und Freitext-Modul Update-Anleitung
Options- und Freitext-Modul Update-Anleitung Hinweis... 2 Update für Versionen kleiner als 1.2.4 auf 1.3.x... 3 Update für Versionen ab 1.2.4 auf 1.3.x... 6 Update für Versionen ab 1.3.x auf 2.x.x... 7
MehrAK Medientechnologien 09 App Store Submission. Josef Kolbitsch josef.kolbitsch@tugraz.at http://businesssolutions.tugraz.at/
AK Medientechnologien 09 App Store Submission Josef Kolbitsch josef.kolbitsch@tugraz.at http://businesssolutions.tugraz.at/ Übersicht Allgemeines Provisioning Profiles Application Binary vorbereiten App
MehrBusiness Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum
Mehrdesk.modul : ABX-Lokalisierung
desk.modul : ABX-Lokalisierung Lokalisiert die app.box und OfficeLine Datenbank auf einen lokalen SQL Server zum mobilen Einsatz Die Projekt- und Kommissionsverwaltung ist bereits bei zahlreichen unserer
MehrDie bisher bereits bekannten Aggregatsfunktionen MIN, MAX, SUM, AVG, COUNT, VARIANCE und STDDEV wurden um FIRST und LAST erweitert.
Betrifft Autor FIRST, LAST Markus Jägle (markus.jaegle@trivadis.com) Art der Info Technische Background Info (April 2002) Quelle Aus dem NF9i-Kurs, NF9i-Techno-Circle der Trivadis und Oracle9i Data Warehousing
Mehr4D Server v12 64-bit Version BETA VERSION
4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und
MehrBig Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr.
Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Florian Johannsen AGENDA 1. Big Data Projekt der freenet Group Dr. Florian Johannsen
Mehrmysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank
mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank In den ersten beiden Abschnitten (rbanken1.pdf und rbanken2.pdf) haben wir uns mit am Ende mysql beschäftigt und kennengelernt, wie man
MehrHadoop Projekte Besonderheiten & Vorgehensweise. Oracle/metafinanz Roadshow Februar 2014
Hadoop Projekte Besonderheiten & Vorgehensweise Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die
MehrTechnische Beschreibung: EPOD Server
EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für
MehrBitDefender Client Security Kurzanleitung
BitDefender Client Security Kurzanleitung...1 Appendix A Kurzanleitung mit Screenshots...2 BitDefender Client Security Kurzanleitung 1. Wählen Sie entweder 32 oder 64 bit Management Server aus dem BitDefender
MehrOracle GridControl Tuning Pack. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best.de
Oracle GridControl Tuning Pack best Open Systems Day April 2010 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de Agenda GridControl Overview Tuning Pack 4/26/10 Seite 2 Overview Grid Control
Mehrseit Java 1.1 Bestandteil der API: packages java.sql, javax.sql
JDBC inoffizielle Abkürzung für: Java Database Connectivity seit Java 1.1 Bestandteil der API: packages java.sql, javax.sql ist eine Menge von Klassen und Methoden, um aus Java-Programmen relationale Datenbanken
MehrKonfiguration von Fabasoft Mindbreeze Enterprise für IBM Lotus
Konfiguration von Fabasoft Mindbreeze Enterprise für IBM Lotus Installation und Konfiguration Version 2013 Spring Release Status: 09. März 2013 Copyright Mindbreeze Software GmbH, A-4020 Linz, 2013. Alle
MehrProgrammieren für mobile Endgeräte SS 2013/2014. Dozenten: Patrick Förster, Michael Hasseler
Programmieren für mobile Endgeräte SS 2013/2014 Programmieren für mobile Endgeräte 2 Informationen aus der Datenbank lesen Klasse SQLiteDatabase enthält die Methode query(..) 1. Parameter: Tabellenname
Mehr2 Konfiguration von SharePoint
2 Konfiguration von SharePoint Server 2010 Umgebungen Prüfungsanforderungen von Microsoft: Configuring a SharePoint Environment o Configure SharePoint farms configuring inter-server communications server
MehrPostgreSQL unter Debian Linux
Einführung für PostgreSQL 7.4 unter Debian Linux (Stand 30.04.2008) von Moczon T. und Schönfeld A. Inhalt 1. Installation... 2 2. Anmelden als Benutzer postgres... 2 2.1 Anlegen eines neuen Benutzers...
Mehr