Spark das neue MapReduce?

Größe: px
Ab Seite anzeigen:

Download "Spark das neue MapReduce?"

Transkript

1 Spark das neue MapReduce? Oracle Data Warehouse Konferenz 2015 Carsten Herbe

2 Business Intelligence Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT Themenbereiche Über metafinanz Enterprise DWH Data modeling and integration and ETL Architecture: DWH and data marts Hadoop and Columnar DBs Data quality and data masking Analytics Predictive models, data mining and statistics Social media analytics Customer intelligence Scorecarding Fraud and AML metafinanz steht für branchenübergreifendes, ganzheitliches Business & IT Consulting. Gemeinsam mit unseren Kunden gestalten wir ihren Weg in eine digitale Welt. Wir transformieren Geschäftsprozesse und übersetzen strategische Ziele in effektive IT-Lösungen. Unsere Kunden schätzen uns seit 25 Jahren als flexiblen und lösungsorientierten Partner. Als unabhängiges Unternehmen der Allianz Group sind wir in komplexen Abläufen und Veränderungs-prozessen in Großkonzernen zu Hause. BI & Risk Ihr Kontakt : Carsten Herbe Insurance reporting Standard and adhoc Reporting Dashboarding BI office integration Mobile BI and in-memory SAS trainings for business analysts Risk Solvency II (Standard & internal model) Regulatory reporting Compliance Risk management Head of Data Warehousing Mehr als 10 Jahre DWH-Erfahrung Oracle & OWB Expertise Certified Hadoop Developer Mail: carsten.herbe@metafinanz.de Phone:

3 Inhalt 01 Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 3

4 Inhalt 01 Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 4

5 Grenzen von Hadoop und MapReduce Was ist Hadoop? Hadoop MapReduce Skalierbare Rechenkapazität Hadoop Distributed FileSystem (HDFS) Skalierbare Speicherkapazität

6 Grenzen von Hadoop und MapReduce MapReduce Mapper- und Reducer-Klasse. Driver-Klasse fehlt public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new protected void map(longwritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.tostring(); StringTokenizer tokenizer = new StringTokenizer(line, " \t\n\r\f,.:;?![]')("); while (tokenizer.hasmoretokens()) { word.set(tokenizer.nexttoken()); context.write(word, one); }}} public class WordCountReducer extends Reducer<Text, IntWritable, Text, protected void reduce(text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); }} 6

7 Grenzen von Hadoop und MapReduce Scalding: Scala API auf Cascading Sink Source Pipes Monitoring mit Driven (Web-Oberfäche) MATRIX API für Machine Learning Unterstützung für Spark ist geplant TextLine( args("input") ).flatmap('line -> 'word) { line : String => line.split("""\s+""") }.groupby('word) { _.size }.write( Tsv( args("output") ) ) 7

8 Grenzen von Hadoop und MapReduce Viele Tools generieren MapReduce Jobs-Ketten oder oder oder oder... Map Reduce Map Reduce... 8

9 Grenzen von Hadoop und MapReduce Tools wie Impala und Spark reduzieren I/O Impala oder oder... Operation Operation Operation... 9

10 Inhalt 01 Die Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 10

11 Überblick Spark Spark Geschichte 2009 Matei Zaharia startet Spark in UC Berkeley AMPLab 2010 Spark wird Open Source unter BSD Lizenz 2013 Projekt wurde der Apache Software Foundation gespendet; Lizenz nun Apache Spark wird Apache Top-Level Project Weltrekord im Large Scale Sorting von Databricks-Team 11

12 Überblick Spark Spark = Architektur Spark SQL Spark streaming MLib GraphX Spark core Cluster Manager Standalone scheduler YARN 12

13 Überblick Spark Resilient distributed dataset (RDD) RDD Partition 1 Record Block 1 Record HDFS File Partition 2 Record Block 2 record 13

14 Überblick Spark Spark Komponenten Client Spark driver Spark Context Worker Node Spark executor Task Task Cluster Manager (Standalone, YARN, Mesos)... Worker Node Spark executor Task Task 14

15 Überblick Spark Transformations & Actions Transformation RDD RDD... RDD Load Action: Lazy computation File Context Spark driver File Spark driver 15

16 Überblick Spark Direct Acyclic Graph (DAG) RDD File File RDD RDD RDD RDD File File RDD RDD RDD File Disk RAM 16

17 Überblick Spark Spark Wordcount Beispiel in Scala val filerdd = spark.textfile("hdfs://...") val resultrdd = filerdd.flatmap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _) resultrdd.saveastextfile("hdfs://...") 17

18 Inhalt 01 Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 18

19 Programmierung mit Spark Spark Shell (REPL*): Scala und Python kein Java *read evaluate print loop bash$ pyspark Welcome to / / / / \ \/ _ \/ _ `/ / '_/ / /. /\_,_/_/ /_/\_\ bash$ spark-shell version /_/ Welcome to Using Python version / SparkContext / / / available as sc. >>> _\ \/ _ \/ _ `/ / '_/ / /. /\_,_/_/ /_/\_\ version /_/ Using Scala version Spark context available as sc. scala> 19

20 Programmierung mit Spark RDD erstellen scala> val employeefile = sc.textfile("data/employees.txt") employeefile: org.apache.spark.rdd.rdd[string] = data/employees.txt MappedRDD[1] at textfile at <console>:12 scala> employeefile.first() res0: String = Alice:Java,Hadoop,Pig,Hive,MapReduce,Spark scala> employeefile.count() res1: Long = 5 >>> employeefile = sc.textfile("data/employees.txt") >>> employeefile.first() u'alice:java,hadoop,pig,hive,mapreduce,spark' >>> employeefile.count() 5 20

21 Programmierung mit Spark RDD Transformations map(func) filter(func) flatmap(func) mappartitions(func) mappartitionswithindex(func) sample(withreplacement, fraction, seed) union(otherdataset) intersection(otherdataset) distinct([numtasks]) cogroup(otherdataset, [numtasks]) cartesian(otherdataset) pipe(command, [envvars]) coalesce(numpartitions) repartition(numpartitions) repartitionandsortwithinpartitions(partitioner) 21

22 Programmierung mit Spark Transformation map() scala> val numberpairs = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31))) numberpairs: org.apache.spark.rdd.rdd[(int, Int)] = ParallelCollectionRDD[0] at parallelize at <console>:12 scala> numberpairs.map( func ) 22

23 Programmierung mit Spark Funktionen als Argumente scala> val numberpairs = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31))) numberpairs: org.apache.spark.rdd.rdd[(int, Int)] = ParallelCollectionRDD[0] at parallelize at <console>:12 scala> object MyLib { } def myfunc(x: (Int, Int)): (Int) = { } x._1 + x._2 defined module MyLib scala> numberpairs.map(mylib.myfunc).collect res0: Array[Int] = Array(11, 12, 22, 33, 34) 23

24 Programmierung mit Spark Anonyme Funktionen als Argumente scala> val numberpairs = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31))) numbers: org.apache.spark.rdd.rdd[(int, Int)] = ParallelCollectionRDD[0] at parallelize at <console>:12 scala> numberpairs.map(x => (x._1 + x._2)).collect res1: Array[Int] = Array(11, 12, 22, 33, 34) 24

25 Programmierung mit Spark RDD Transformations: Filter scala> val numberpairs = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31))) scala> numberpairs.filter(x => (x._2 >= 20 )).collect res5: Array[(Int, Int)] = Array((2,20), (3,30), (3,31)) 25

26 Programmierung mit Spark RDD Actions reduce(func) collect() count() first() take(n) takesample(withreplacement, num, [seed]) takeordered(n, [ordering]) saveastextfile(path) saveassequencefile(path) saveasobjectfile(path) foreach(func) 1) Nur Java und Scala 26

27 Programmierung mit Spark RDD Actions: Beispiele scala> val numberpairs = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31))) scala> numberpairs.count res0: Long = 5 scala> numberpairs.take(2) res1: Array[(Int, Int)] = Array((1,10), (1,11)) scala> numberpairs.reduce((x: (Int, Int), y: (Int, Int)) => (x._1 + y._1, x._2 + y._2)) res2: (Int, Int) = (10,102) 27

28 Programmierung mit Spark Pair RDD: Key & Value RDD aus Tuples Pair RDD Schlüssel: erstes Attribute Manche Load-Routinen erzeugen direkt PairRDDs (z.b. für Sequence Files) Bieten mehr Funktionalität (Transformations & Actions val pairrdd = linerdd.map(x => (x.split(" ")(0), x)) 28

29 Programmierung mit Spark Pair RDD Transformations & Actions join(rdd) rightouterjoin(rdd) leftouterjoin(rdd) cogroup(rdd) combinebykey(createcombiner, mergevalue, mergecombiners,partitioner) groupbykey() reducebykey(func) mapvalues(func) flatmapvalues(func) keys() values() sortbykey() countbykey() collectasmap() lookup(key) 29

30 Programmierung mit Spark Pair RDD Transformations: Beispiele scala> val numberpairs = sc.parallelize(array((1,10), (1,11), (2,20), (3,30), (3,31))) scala> numberpairs.groupbykey.collect res16: Array[(Int, Iterable[Int])] = Array( (1,CompactBuffer(10, 11)), (3,CompactBuffer(30, 31)), (2,CompactBuffer(20))) scala> numberpairs.reducebykey( (x, y) => (x + y) ) Array[(Int, Int)] = Array((1,21), (3,61), (2,20)) 30

31 Programmierung mit Spark Pair RDD Transformations: Joins scala> val numberpairs = sc.parallelize(array((1,10), (1,11), (2,20), (3,30), (3,31))) scala> val numbernames = sc.parallelize(array((1,"eins"), (2,"zwei"), (3,"drei"))) scala> numberpairs.join(numbernames) res2: Array[(Int, (Int, String))] = Array( (1,(10,eins)), (1,(11,eins)), (3,(30,drei)), (3,(31,drei)), (2,(20,zwei)) ) 31

32 Inhalt 01 Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 32

33 Spark SQL Schema RDD scala> val sqlcontext = new org.apache.spark.sql.sqlcontext(sc) scala> import sqlcontext.createschemardd scala> val myrdd = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31)) scala> myrdd.printschema root -- _1: integer (nullable = false) -- _2: integer (nullable = false) scala> myrdd.registertemptable("t") scala> sqlcontext.sql("select _1, SUM(_2) FROM t GROUP BY _1").collect res6: Array[org.apache.spark.sql.Row] = Array([1,21], [2,20], [3,61]) 33

34 Spark SQL Schema Definition durch Reflection (1/2) scala> val sqlcontext = new org.apache.spark.sql.sqlcontext(sc) scala> import sqlcontext.createschemardd scala> case class Numbers(a: Int, b: Int) scala> val myrdd = sc.parallelize( Array((1,10), (1,11), (2,20), (3,30), (3,31)) ).map(x => NumberPair(x._1, x._2)) scala> myrdd.collect res0: Array[Numbers] = Array(Numbers(1,10), Numbers(1,11), Numbers(2,20), Numbers(3,30), Numbers(3,31)) scala> myrdd.printschema root -- a: integer (nullable = false) -- b: integer (nullable = false) 34

35 Spark SQL Schema Definition durch Reflection (2/2) scala> myrdd.registertemptable("t") scala> sqlcontext.sql("select a, SUM(b) FROM t GROUP BY a").collect res1: Array[org.apache.spark.sql.Row] = Array([1,21], [2,20], [3,61]) 35

36 Spark SQL Manuelle Schema Definition (1/2) scala> val sqlcontext = new org.apache.spark.sql.sqlcontext(sc) scala> import sqlcontext.createschemardd scala> import org.apache.spark.sql.structtype scala> import org.apache.spark.sql.structfield scala> import org.apache.spark.sql.integertype scala> val myrdd = sc.parallelize(array((1,10), (1,11), (2,20), (3,30),(3,31))) scala> val schema = StructType( Array( StructField("x", IntegerType, true), StructField("y", IntegerType, true))) scala> val xyrdd= sqlcontext.applyschema(myrdd, schema) scala> xyrdd.printschema root -- x: integer (nullable = true) -- y: integer (nullable = true) 36

37 Spark SQL Manuelle Schema Definition (2/2) scala> xyrdd.registertemptable("t") scala> sqlcontext.sql("select x, SUM(y) FROM t GROUP BY x").collect res1: Array[org.apache.spark.sql.Row] = Array([1,21], [2,20], [3,61]) 37

38 Spark SQL Spark & Parquet Speichern eines SchemaRDD als Parquet Files scala> val sqlcontext = new org.apache.spark.sql.sqlcontext(sc) scala> import sqlcontext.createschemardd scala> val myrdd = sc.parallelize(array((1,10), (1,11), (2,20), (3,30),(3,31))) np: org.apache.spark.rdd.rdd[(int, Int)] = ParallelCollectionRDD[0] at parallelize at <console>:12 scala> myrdd.saveasparquetfile("/home/cloudera/data/numbers") 38

39 Spark SQL Spark & Parquet Lesen aus Parquet Files scala> val sqlcontext = new org.apache.spark.sql.sqlcontext(sc) scala> val parquetfile = sqlcontext.parquetfile("/home/cloudera/data/numbers") scala> parquetfile.collect res0: Array[org.apache.spark.sql.Row] = Array([1,10], [1,11], [2,20], [3,30], [3,31]) 39

40 Inhalt 01 Grenzen von Hadoop und MapReduce 02 Überblick Spark 03 Programmierung mit Spark 04 Spark SQL 05 Fazit 40

41 Fazit Spark Ökosystem : im Wachstum Hive on Spark Pig on Spark: Spork Spark Scalding Mahout on Spark H 2 O: Sparkling water Oryx: (nutzt Spark MLib) 41

42 Fazit Ist Spark das neue MapReduce? Funktionalität Vollwertige Programmiersprache (Scala/Java/Python) Arbeit mit RDDs analog zu lokalen Collections (Partitionierung beachten!) Noch nicht ganz die Stabilität von MapReduce Tools Spark Aufsätze wie SparkSQL teilweise noch sehr jung Wachsendes Ökosystem Fazit Viel Momentum in der Entwicklung Weiteres Wachstum des Ökosystem ist zu erwarten Aktuell Alternative zu MapReduce aber kein Ersatz! 42

43 metafinanz unterstützt Ihre Kunden bei Einführung von Hadoop end-to-end DECIDE PLAN BUILD OPTIMIZE Business Analyse, Systemauswahl und Integrationskonzept Gesamtheitliche IT Architektur Strategie und Designkonzeption (IT Strategie) Customizing von Big Data Lösungen für Ihre besonderen Business Anforderungen (Zukunftsfähigkeit) Configuration & Optimierung für mehr Leistungsfähigkeit (Effizienzpotential) Vorstudie Hadoop-Strategie DWH Cost Savings Dokumentenverarbeitung Log-File-Analysen Identifikation Use Cases Tool-/Distributor-Auswahl and Architektur Projekt- und Betriebs-Setup Data Mart Offload (hist. Daten) ETL-Offload: Staging Calculation Offload Dokumentenarchivierung Volltextsuche Textanalyse Click-Stream-Analyse Web-Anwendungen Security Analytics (Server-Logs, Firewall-Logs, ) 43

44 Fragen? Jetzt, am Stand oder später? Carsten Herbe Downloads Mail: Phone: dwh.metafinanz.de 44

45 Danke! metafinanz Informationssysteme GmbH Leopoldstraße 146 D München Phone: Fax: DWH & Handoop Expertise

Spark das neue MapReduce?

Spark das neue MapReduce? Spark das neue MapReduce? Oracle Data Warehouse Konferenz 2015 Carsten Herbe Business Intelligence Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT Themenbereiche

Mehr

Hadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015

Hadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015 Hadoop & Spark Carsten Herbe 8. CC-Partner Fachtagung 2015 29.04.2015 Daten & Fakten 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum 25 Jahre am Markt

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

Hadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014

Hadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014 Hadoop in a Nutshell Einführung HDFS und MapReduce Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die

Mehr

Überblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014

Überblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014 Überblick Hadoop Einführung HDFS und MapReduce DOAG Regionaltreffen München/Südbayern Februar 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business

Mehr

Hadoop in a Nutshell HDFS, MapReduce & Ecosystem. Oracle DWH Konferenz 2014 Carsten Herbe

Hadoop in a Nutshell HDFS, MapReduce & Ecosystem. Oracle DWH Konferenz 2014 Carsten Herbe Hadoop in a Nutshell HDFS, MapReduce & Ecosystem Oracle DWH Konferenz 2014 Carsten Herbe Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence

Mehr

Map Reduce. Programmiermodell. Prof. Dr. Ingo Claÿen. Motivation. Modell. Verarbeitungsablauf. Algorithmen-Entwurf. Map-Reduce in Java

Map Reduce. Programmiermodell. Prof. Dr. Ingo Claÿen. Motivation. Modell. Verarbeitungsablauf. Algorithmen-Entwurf. Map-Reduce in Java Map Reduce Programmiermodell Prof. Dr. Ingo Claÿen Hochschule für Technik und Wirtschaft Berlin Motivation Modell Verarbeitungsablauf Algorithmen-Entwurf Map-Reduce in Java Motivation Was ist Map-Reduce

Mehr

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis

Mehr

Hadoop. Simon Prewo. Simon Prewo

Hadoop. Simon Prewo. Simon Prewo Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert

Mehr

DduP - Towards a Deduplication Framework utilising Apache Spark

DduP - Towards a Deduplication Framework utilising Apache Spark - Towards a Deduplication Framework utilising Apache Spark utilising Apache Spark Universität Hamburg, Fachbereich Informatik Gliederung 1 Duplikaterkennung 2 Apache Spark 3 - Interactive Big Data Deduplication

Mehr

Einführung in die Hadoop-Welt HDFS, MapReduce & Ökosystem. Big Data für Oracle Entwickler September 2014 Carsten Herbe

Einführung in die Hadoop-Welt HDFS, MapReduce & Ökosystem. Big Data für Oracle Entwickler September 2014 Carsten Herbe HDFS, MapReduce & Ökosystem Big Data für Oracle Entwickler September 2014 Carsten Herbe Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence

Mehr

Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014

Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS. Carsten Herbe DOAG Konferenz November 2014 Data Mart Offload nach Hadoop Star Schema in HDFS anstatt RDBMS Carsten Herbe DOAG Konferenz November 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und

Mehr

Einführung in Hadoop & MapReduce. Dr. Kathrin Spreyer Big Data Engineer

Einführung in Hadoop & MapReduce. Dr. Kathrin Spreyer Big Data Engineer Einführung in Hadoop & MapReduce Dr. Kathrin Spreyer Big Data Engineer München, 19.06.2013 Agenda Einleitung 1. HDFS 2. MapReduce 3. APIs 4. Hive & Pig 5. Mahout Tools aus Hadoop-Ökosystem 6. HBase 2 Worum

Mehr

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen

Mehr

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe

Hadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern

Mehr

PL/SQL vs. Spark Umsteigertipps für's DWH

PL/SQL vs. Spark Umsteigertipps für's DWH PL/SQL vs. Spark Umsteigertipps für's DWH Christopher Thomsen Hamburg Jens Bleiholder Berlin Schlüsselworte Big Data, Spark, PL/SQL, SQL, ETL, Hadoop, DWH Einleitung Mit Hadoop 2.0 öffnete sich die Big

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr.

Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Big Data im Call Center: Kundenbindung verbessern, Antwortzeiten verkürzen, Kosten reduzieren! 25.02.2016 Sascha Bäcker Dr. Florian Johannsen AGENDA 1. Big Data Projekt der freenet Group Dr. Florian Johannsen

Mehr

SAS Education. Grow with us. Anmeldung bei SAS Education. Kurstermine Juli Dezember 2015 für Deutschland, Österreich und die Schweiz

SAS Education. Grow with us. Anmeldung bei SAS Education. Kurstermine Juli Dezember 2015 für Deutschland, Österreich und die Schweiz 2015 SAS Education Kurstermine Juli Dezember 2015 für Deutschland, Österreich und die Schweiz Anmeldung bei SAS Education Deutschland www.sas.de/education Tel. +49 6221 415-300 education@ger.sas.com Fax

Mehr

Big Data: Apache Hadoop Grundlagen

Big Data: Apache Hadoop Grundlagen Seminarunterlage Version: 1.07 Version 1.07 vom 5. September 2018 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Spark, Impala und Hadoop in der Kreditrisikoberechnung

Spark, Impala und Hadoop in der Kreditrisikoberechnung Spark, Impala und Hadoop in der Kreditrisikoberechnung Big Data In-Memory-Technologien für mittelgroße Datenmengen TDWI München, 22. Juni 2015 Joschka Kupilas, Data Scientist, Adastra GmbH 2 Inhalt Vorwort

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS HERZLICH WILLKOMMEN ZUR VERANSTALTUNG VISUAL ANALYTICS AGENDA VISUAL ANALYTICS 9:00 09:30 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

metafinanz Business & IT Consulting Hadoop in a Nutshell

metafinanz Business & IT Consulting Hadoop in a Nutshell metafinanz Business & IT Consulting Hadoop in a Nutshell 15.03.2016 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum Daten & Fakten 25 Jahre am Markt

Mehr

Hadoop Projekte Besonderheiten & Vorgehensweise. Oracle/metafinanz Roadshow Februar 2014

Hadoop Projekte Besonderheiten & Vorgehensweise. Oracle/metafinanz Roadshow Februar 2014 Hadoop Projekte Besonderheiten & Vorgehensweise Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die

Mehr

ETL in den Zeiten von Big Data

ETL in den Zeiten von Big Data ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Schneller als Hadoop?

Schneller als Hadoop? Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG

Mehr

Big Data Technologien

Big Data Technologien Big Data Technologien - Ein Überblick - Prof. Dr. Jens Albrecht jens.albrecht@th-nuernberg.de Big Data Landscape 2016 Prof. Dr. Jens Albrecht Big Data 3 Systemarchitektur im Wandel Gestern und heute Strukturierte

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence

Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Business Driven Intelligence Mit Excel Know-how webbasierte BI- Applikationen erstellen #MobileBI Jochen Heßler, 16.03.2015 2002 Gegründet in Freiburg, Deutschland 2002 Heute Büros in Freiburg, Frankfurt, Düsseldorf, Paris, Boston

Mehr

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics DATA WAREHOUSE Oracle BI&W Referenz Architektur Big Data und High Performance Analytics Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Kundenmanagement im Multi-Channel-Zeitalter

Kundenmanagement im Multi-Channel-Zeitalter Kundenmanagement im Multi-Channel-Zeitalter Wie gut kennen Sie Ihre Kunden? München, 24. März 2015 Muna Hassaballah Senior Consultant Muna.Hassaballah@SHS-VIVEON.com 30.03.2015 Kurzvorstellung Senior Consultant

Mehr

Die wichtigsten Hadoop-Komponenten für Big Data mit SAS

Die wichtigsten Hadoop-Komponenten für Big Data mit SAS Webinar@Lunchtime Die wichtigsten Hadoop-Komponenten für Big Data mit SAS Herzlich Willkommen bei Webinar@Lunchtime Moderation Anne K. Bogner-Hamleh SAS Institute GmbH Education Consultant Xing-Profil:

Mehr

DER CONFIGURATION MANAGEMENT PROZESS

DER CONFIGURATION MANAGEMENT PROZESS Mit matrix ist IT einfach! DER CONFIGURATION MANAGEMENT PROZESS als Voraussetzung für aktuelle Daten in der CMDB Christian Stilz, Project Manager PROJEKTERGEBNISSE CMDB? PROJEKTERGEBNISSE CMDB? Daten unvollständig

Mehr

on Azure mit HDInsight & Script Ac2ons

on Azure mit HDInsight & Script Ac2ons Willkommen beim #GAB 2015! on Azure mit HDInsight & Script Ac2ons Lokale Sponsoren: HansPeter Grahsl Netconomy Entwickler & Berater FH CAMPUS 02 Twi9er: @hpgrahsl Überblick Inhalte Was ist HDInsight? Wozu

Mehr

Predictive Modeling Markup Language. Thomas Morandell

Predictive Modeling Markup Language. Thomas Morandell Predictive Modeling Markup Language Thomas Morandell Index Einführung PMML als Standard für den Austausch von Data Mining Ergebnissen/Prozessen Allgemeine Struktur eines PMML Dokuments Beispiel von PMML

Mehr

Java Einführung Collections

Java Einführung Collections Java Einführung Collections Inhalt dieser Einheit Behälterklassen, die in der Java API bereitgestellt werden Wiederholung Array Collections (Vector, List, Set) Map 2 Wiederholung Array a[0] a[1] a[2] a[3]...

Mehr

Herausforderungen des Enterprise Endpoint Managements

Herausforderungen des Enterprise Endpoint Managements Herausforderungen des Enterprise Endpoint Managements PPPvorlage_sxUKMvo-05.00.potx santix AG Mies-van-der-Rohe-Straße 4 80807 München www.santix.de santix AG Herausforderungen 09.10.2013 Herausforderungen

Mehr

DWH-Metadaten Wie und wozu. Clemens Albrecht metafinanz Informationssysteme GmbH

DWH-Metadaten Wie und wozu. Clemens Albrecht metafinanz Informationssysteme GmbH DWH-Metadaten Wie und wozu Clemens Albrecht metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence

Mehr

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen

Big Data Modewort oder echter Mehrwert. freenet Group Dr. Florian Johannsen Big Data Modewort oder echter Mehrwert freenet Group Dr. Florian Johannsen freenet Group 2 Titel der Präsentation 07.07.2015 Mobilfunkgeschäft der freenet Group Austausch von Daten und Informationen Im

Mehr

APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER

APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER INHALT Das Hadoop Framework Hadoop s Distributed File System (HDFS) MapReduce Apache Pig Was ist Apache Pig & Pig Latin Anwendungsumgebungen Unterschied

Mehr

MapReduce mit Hadoop 08.11.12 1

MapReduce mit Hadoop 08.11.12 1 MapReduce mit Hadoop 08.11.12 1 Lernziele / Inhalt Wiederholung MapReduce Map in Hadoop Reduce in Hadoop Datenfluss Erste Schritte Alte vs. neue API Combiner Functions mehr als Java 08.11.12 2 Wiederholung

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

Pragmatik von Programmiersprachen

Pragmatik von Programmiersprachen Pragmatik von Programmiersprachen Im Kontext der Notation von Quelltexten Mike Becker, 11. Dezember 2014 Szenario: IT Dienstleister Unternehmen: Produkte: Kunden: IT Dienstleistung Beratung und Software

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

Software Engineering Software Frameworks. am Beispiel Ruby on Rails Hendrik Volkmer WWI2010G

Software Engineering Software Frameworks. am Beispiel Ruby on Rails Hendrik Volkmer WWI2010G Software Engineering Software Frameworks am Beispiel Ruby on Rails Hendrik Volkmer WWI2010G Vorstellung Plan für heute Donnerstag Freitag Montag Softwareframeworks Wiederholung Wiederholung Webframeworks

Mehr

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Konrad Linner, solvistas GmbH Nürnberg, 20.November 2012 Inhaltsverzeichnis Vorstellung solvistas

Mehr

Jump Start - Intensivtraining für Product Lifecycle Management (Frankfurt, München, Stuttgart)

Jump Start - Intensivtraining für Product Lifecycle Management (Frankfurt, München, Stuttgart) Jump Start - Intensivtraining für Product Lifecycle Management (Frankfurt, München, Stuttgart) Mit unserem zweimonatigen, praxisorientierten Intensivtraining Jump Start, mit anschließendem Zertifikat,

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Business Intelligence Center of Excellence

Business Intelligence Center of Excellence Center of Excellence Eine Businessinitiative von Systematika und Kybeidos Werner Bundschuh Was ist das? In der Praxis versteht man in den meisten Fällen unter die Automatisierung des Berichtswesens (Reporting).

Mehr

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS

WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST? BERNADETTE FABITS WEBINAR@LUNCHTIME THEMA: WAS MACHT EIGENTLICH EIN DATA SCIENTIST?" BERNADETTE FABITS HINEIN GEHÖRT DATA SCIENTIST, STATISTIKER, DATA MINER, ANALYST,. Gibt es noch mehr von denen. die arbeiten mit Big Data

Mehr

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP

Copyr i g ht 2014, SAS Ins titut e Inc. All rights res er ve d. HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP HERZLICH WILLKOMMEN ZUR VERANSTALTUNG HADOOP AGENDA HADOOP 9:00 09:15 Das datengetriebene Unternehmen: Big Data Analytics mit SAS die digitale Transformation: Handlungsfelder für IT und Fachbereiche Big

Mehr

Business Intelligence. Bereit für bessere Entscheidungen

Business Intelligence. Bereit für bessere Entscheidungen Business Intelligence Bereit für bessere Entscheidungen Business Intelligence Besserer Einblick in Geschäftsabläufe Business Intelligence ist die Integration von Strategien, Prozessen und Technologien,

Mehr

IDV Assessment- und Migration Factory für Banken und Versicherungen

IDV Assessment- und Migration Factory für Banken und Versicherungen IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein

Mehr

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Oracle DWH-Konferenz 21. März 2012 Dr. Carsten Bange Gründer & Geschäftsführer BARC Big Data bietet Methoden und Technologien

Mehr

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de Configuration Management mit Verbosy 17.04.2013 OSDC 2013 Eric Lippmann Kurzvorstellung NETWAYS Expertise OPEN SOURCE SYSTEMS MANAGEMENT OPEN SOURCE DATA CENTER Monitoring & Reporting Configuration Management

Mehr

Hadoop. High Performance Batches in der Cloud. Hadoop. Folie 1 25. Januar 2011

Hadoop. High Performance Batches in der Cloud. Hadoop. Folie 1 25. Januar 2011 High Performance Batches in der Cloud Folie 1 Alles geht in die Cloud Image: Chris Sharp / FreeDigitalPhotos.net Cloud und Batches passen zusammen Batches Cloud Pay-per-Use Nur zeitweise genutzt Hohe Rechenkapazitäten

Mehr

IT-Beratung: Vom Geschäftsprozess zur IT-Lösung

IT-Beratung: Vom Geschäftsprozess zur IT-Lösung Ralf Heib Senior Vice-President Geschäftsleitung DACH IT-Beratung: Vom Geschäftsprozess zur IT-Lösung www.ids-scheer.com Wofür steht IDS Scheer? Wir machen unsere Kunden in ihrem Geschäft erfolgreicher.

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Inhouse-Seminar: Informationsbewirtschaftung im Data Warehouse mit dem ETL-Tool PowerCenter -4 Tage

Inhouse-Seminar: Informationsbewirtschaftung im Data Warehouse mit dem ETL-Tool PowerCenter -4 Tage Inhouse-Seminar: Informationsbewirtschaftung im Data Warehouse mit dem ETL-Tool PowerCenter -4 Tage Ein Inhouse-Seminar der DWH academy Informationsbewirtschaftung im Data Warehouse mit dem ETL-Tool PowerCenter

Mehr

OERA OpenEdge Reference Architecture. Mike Fechner PUG Infotag 19. Mai 05 Frankfurt

OERA OpenEdge Reference Architecture. Mike Fechner PUG Infotag 19. Mai 05 Frankfurt OERA OpenEdge Reference Architecture Mike Fechner PUG Infotag 19. Mai 05 Frankfurt Überblick OERA Separated presentation and integration layers Common business logic with advanced models Data access abstracted

Mehr

Intergraph Geospatial 2014 Download, Installation und Lizenzierung

Intergraph Geospatial 2014 Download, Installation und Lizenzierung Intergraph Geospatial 2014 Download, Installation und Lizenzierung Allgemeines... 1 Download der Software... 1 Installation... 5 Lizensierung... 6 Allgemeines Um die Version 2014 der Intergraph Geospatial

Mehr

Struts 2 Das Imperium schlägt zurück?

Struts 2 Das Imperium schlägt zurück? Struts 2 Das Imperium schlägt zurück? Orientation in Objects GmbH Weinheimer Str. 68 68309 Mannheim Tobias Kieninger www.oio.de info@oio.de Java, XML und Open Source seit 1998 ) Software

Mehr

IT Support für den Arbeitsplatz 2.0

IT Support für den Arbeitsplatz 2.0 Burghausen Hamburg Hannover München Salzburg (A) COC AG Partner für Informationstechnologie IT Support für den Arbeitsplatz 2.0 Neue Services für Information Worker Marktler Straße 50 84489 Burghausen

Mehr

Open Source als de-facto Standard bei Swisscom Cloud Services

Open Source als de-facto Standard bei Swisscom Cloud Services Open Source als de-facto Standard bei Swisscom Cloud Services Dr. Marcus Brunner Head of Standardization Strategy and Innovation Swisscom marcus.brunner@swisscom.com Viele Clouds, viele Trends, viele Technologien

Mehr

BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY

BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY 08.03.2017 REWE Systems GmbH Jonas Freiknecht inovex GmbH Bernhard Schäfer AGENDA 1 / Vorstellung REWE Systems GmbH und inovex

Mehr

Hadoop & IT-Strategie Ein Spagat zwischen Innovation und Kosten Geht das überhaupt? DOAG 2014

Hadoop & IT-Strategie Ein Spagat zwischen Innovation und Kosten Geht das überhaupt? DOAG 2014 Hadoop & IT-Strategie Ein Spagat zwischen Innovation und Kosten Geht das überhaupt? DOAG 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

CAIRO if knowledge matters

CAIRO if knowledge matters CAIRO if knowledge matters Monitoring mit Microsoft Operations Manager 2007 Ein Überblick Johann Marin, Inhalt if knowledge matters Warum Monitoring? Was soll überwacht werden? SCOM Key Features Das SCOM

Mehr

M b o i b l i e l e S a S l a e l s e s f or o S A S P P E R E P P m i m t i S b y a b s a e s e U nw n ir i ed e d P l P a l t a for o m

M b o i b l i e l e S a S l a e l s e s f or o S A S P P E R E P P m i m t i S b y a b s a e s e U nw n ir i ed e d P l P a l t a for o m Mobile Sales for SAP ERP mit Sybase Unwired Platform Jordi Candel Agenda msc mobile Sybase Unwired Platform Mobile Sales for SAP ERP Referenz Simba Dickie Group Fragen und Antworten Über msc mobile Montreal

Mehr

Java Einführung Abstrakte Klassen und Interfaces

Java Einführung Abstrakte Klassen und Interfaces Java Einführung Abstrakte Klassen und Interfaces Interface Interface bieten in Java ist die Möglichkeit, einheitliche Schnittstelle für Klassen zu definieren, die später oder/und durch andere Programmierer

Mehr

CORBA. Systemprogrammierung WS 2006-2007

CORBA. Systemprogrammierung WS 2006-2007 CORBA Systemprogrammierung WS 2006-2007 Teilnehmer: Bahareh Akherattalab Babak Akherattalab Inhaltsverzeichnis: Verteilte Systeme Vergleich zwischen lokale und verteilte Systeme Verteilte Anwendungen CORBA

Mehr

DATALOG Software AG. Unternehmenspräsentation

DATALOG Software AG. Unternehmenspräsentation DATALOG Software AG Unternehmenspräsentation DATALOG - Facts DATALOG Software AG ist seit über 35 Jahren eine feste Größe im Markt für Software-Lizenzierung, Business-Consulting sowie modernen IT-Lösungen

Mehr

Self Service BI der Anwender im Fokus

Self Service BI der Anwender im Fokus Self Service BI der Anwender im Fokus Frankfurt, 25.03.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC 1 Kernanforderung Agilität = Geschwindigkeit sich anpassen zu können Quelle: Statistisches

Mehr

Innere Klassen in Java

Innere Klassen in Java Innere Klassen in Java SS 2012 Prof. Dr. Margarita Esponda Innere Klassen Klassen- oder Interfacedefinitionen können zur besseren Strukturierung von Programmen verschachtelt werden Eine "Inner Class" wird

Mehr

Grundlagen der Programmierung Prof. H. Mössenböck. 14. Schrittweise Verfeinerung

Grundlagen der Programmierung Prof. H. Mössenböck. 14. Schrittweise Verfeinerung Grundlagen der Programmierung Prof. H. Mössenböck 14. Schrittweise Verfeinerung Entwurfsmethode für Algorithmen Wie kommt man von der Aufgabenstellung zum Programm? Beispiel geg.: Text aus Wörtern ges.:

Mehr

Geocom UC 2015. GEONIS: Status und Blick in die Zukunft. Christoph Spörri

Geocom UC 2015. GEONIS: Status und Blick in die Zukunft. Christoph Spörri Geocom UC 2015 GEONIS: Status und Blick in die Zukunft Christoph Spörri Agenda: - Status Produkte - Einflüsse auf die Entwicklung - GEONIS Architektur 2 http://www.videogamesblogger.com/ Entwicklungsschwerpunkte

Mehr

Objektorientierte Programmierung

Objektorientierte Programmierung Objektorientierte Programmierung 1 Geschichte Dahl, Nygaard: Simula 67 (Algol 60 + Objektorientierung) Kay et al.: Smalltalk (erste rein-objektorientierte Sprache) Object Pascal, Objective C, C++ (wiederum

Mehr

Entwicklungsumgebungen. Packer, Vagrant, Puppet. Alexander Pacnik Mannheim, 10.11.2014

Entwicklungsumgebungen. Packer, Vagrant, Puppet. Alexander Pacnik Mannheim, 10.11.2014 Entwicklungsumgebungen Packer, Vagrant, Puppet Alexander Pacnik Mannheim, 10.11.2014 inovex... über inovex und den Referenten 2 Entwicklungsumgebungen... Übersicht Einführung Packer Konfiguration Packer

Mehr

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen 11.15 11.45

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen 11.15 11.45 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper)

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper) Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10 Technische Informationen (White Paper) Inhaltsverzeichnis 1. Über dieses Dokument... 3 2. Überblick... 3 3. Upgrade Verfahren... 4

Mehr

MOBILE ON POWER MACHEN SIE IHRE ANWENDUNGEN MOBIL?!

MOBILE ON POWER MACHEN SIE IHRE ANWENDUNGEN MOBIL?! MOBILE ON POWER MACHEN SIE IHRE ANWENDUNGEN MOBIL?! Oliver Steinhauer Sascha Köhler.mobile PROFI Mobile Business Agenda MACHEN SIE IHRE ANWENDUNGEN MOBIL?! HERAUSFORDERUNG Prozesse und Anwendungen A B

Mehr

Seminar C02 - Praxisvergleich OLAP Tools

Seminar C02 - Praxisvergleich OLAP Tools C02: Praxisvergleich OLAP Tools Ein Seminar der DWH academy Seminar C02 - Praxisvergleich OLAP Tools Das Seminar "Praxisvergleich OLAP-Tools" bietet den Teilnehmern eine neutrale Einführung in die Technologien

Mehr

CENIT Beschwerdemanagement Beschwerden bearbeiten, analysieren und vermeiden. Stefan Jamin, Leiter ECM Zürich, 25.11.2014

CENIT Beschwerdemanagement Beschwerden bearbeiten, analysieren und vermeiden. Stefan Jamin, Leiter ECM Zürich, 25.11.2014 CENIT Beschwerdemanagement Beschwerden bearbeiten, analysieren und vermeiden Stefan Jamin, Leiter ECM Zürich, 25.11.2014 Beschwerden allgemein Beschwerden können in vielen verschiedenen Bereichen auftreten

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

EHCache und Terracotta. Jochen Wiedmann, Software AG

EHCache und Terracotta. Jochen Wiedmann, Software AG EH und Terracotta Jochen Wiedmann, Software AG Autor Perl-Contributor DBD::mySQL 2, DBI::Proxy, DBI::Shell, DBD::CSV, Net::Daemon, RPC::Pl(Client Server) (Autor) DBI (Developer) ASF-Member (Apache Software

Mehr

Überblick. Einführung Graphentheorie

Überblick. Einführung Graphentheorie Überblick Einführung Graphentheorie Graph-Algorithmen mit Map Kurzeinführung Graphentheorie Algorithmus zum Finden von Cliquen Graphen bestehen aus Knoten (englisch: Node, Vertex, Mehrzahl Vertices) Kanten

Mehr

Mission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden

Mission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden Mission TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden Der Weg zu einem datengesteuerten Unternehmen # Datenquellen x Größe der Daten Basic BI & Analytics Aufbau eines

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Agile Analytics Neue Anforderungen an die Systemarchitektur

Agile Analytics Neue Anforderungen an die Systemarchitektur www.immobilienscout24.de Agile Analytics Neue Anforderungen an die Systemarchitektur Kassel 20.03.2013 Thorsten Becker & Bianca Stolz ImmobilienScout24 Teil einer starken Gruppe Scout24 ist der führende

Mehr

Open Source. Hendrik Ebbers 2015

Open Source. Hendrik Ebbers 2015 Open Source Hendrik Ebbers 2015 Open Source About me Hendrik Ebbers Lead of JUG Dortmund Java Architect @ Canoo Engineering AG JavaOne Rockstar, Java Expert Group Member Speaker, blogger & author Engineering

Mehr

Die Integration von Requirements Management, Software Configuration Management und Change Management mit der MKS Integrity Suite 2006

Die Integration von Requirements Management, Software Configuration Management und Change Management mit der MKS Integrity Suite 2006 Die Integration von Requirements Management, Software Configuration Management und Change Management mit der MKS Integrity Suite 2006 Oliver Böhm MKS GmbH Agenda Überblick Der Entwicklungsprozess: Requirements

Mehr