Lessons learned in Big Data Projekten mit Hadoop. Dominik Benz, Inovex GmbH 2014/09/25, Java User Group Hessen
|
|
- Samuel Heiko Diefenbach
- vor 8 Jahren
- Abrufe
Transkript
1 Lessons learned in Big Data Projekten mit Hadoop Dominik Benz, Inovex GmbH 2014/09/25, Java User Group Hessen
2 Motivation Big is beautiful! Class A extends Mapper ROI, $$, Big Data is like Teenagesex: Everyone talks about it, only few reallydo it, and those who are doing it aredoing it wrong apt-get install 2
3 who is who 150 Mitarbeiter, ~12 Big Data Engineers (LoB Business Intelligence) Karlsruhe, Köln, Pforzheim, München seit 2009 Hadoop-Projekte(1&1, Prosieben/Sat1, ) 3
4 navigation Anwendungs- Szenario Setup / Deployment Rohdaten Akquise / Speicherung Analyse / Integration Verarbeitung / Workflows 4
5 Usecase Multi-Channel Analytics Anreicherung (Produktdaten, AGOF, SocialMedia, ) Aggregation Bewegungs- Daten (Clicks, Visits,Views, ) KPI 5
6 Architektur Prosieben/Sat1 Reporting Analyses DWH SQL Access Data Hub DWH Stage Ingestion Con viva User Serv. AGOF Nielsen Pro Dia Sources 6 6
7 Architektur 1&1 7
8 Projekte Mengengerüste 1&1 Prosieben/Sat1 Otto Quell-Systeme # events/ tag ~ 1 Milliarde Impressions Datenvolumen / tag (roh) ~ 1 MioUnique Users, ~5 Mio Video Views 26 Mio 1 TB 100 GB 185GB #Datanodes 24 / 8 Slots 8 / 20 Slots 20/ 24 Cores KapazitätHDFS (brutto) 500 TB 250TB 220 TB MR version MR1 MR1 YARN 8
9 Hadoop Ökosystem Applications and Analytics Batch Processing & Storage Server Systems Management Transport & Speed 9
10 navigation Multi-Channel Analytics, hybride DWHs Setup / Deployment Rohdaten Akquise / Speicherung Analyse / Integration Verarbeitung / Workflows 10
11 Hadoop welches Hadoop? Distribution verwenden! Entscheidung oft vom Kunden abhängig (Integration, Administration,..) Cloudera/ CDH: Impala, Cloudera Navigator, Hortonworks: Hive, Windows Integration, MapR: Security, Gute Erfahrungen mit CDH3 5 Start with open source! 11
12 Deployment Tools / Konfigurationen Deployment/ Konfigurations-Management CDH: Cloudera Manager Hortonworks: Ambari MapR: MapR Control System Unabhängig: Rex, Puppet Identische Konfiguration für Dev/Prod Cluster! Wenn möglich: auch für lokale VM zum Entwickeln Aktuell in Erprobung: Vagrant 12
13 Setup Lessons learned Distribution! Start with Open Source! Umgebung/Expertise beim Kunden! 13
14 navigation Multi-Channel Analytics, hybride DWHs Setup: Distribution, OSS, Kunde Rohdaten Akquise / Speicherung Analyse / Integration Verarbeitung / Workflows 14
15 Rohdaten Import ins HDFS Plain/ Hive / ETL tool LOAD DATA LOCAL INPATH nur flat files hadoop fs-copyfromlocal output steps z.b. von Pentaho(HDFS write) Flume Sources(HTTP, Netcat, Spooling Directory, ), Channels (Memory, File, JDBC, ), Sinks: (HDFS, Hbase, Thrift, ) Datenaufbereitung über Interceptors Memory Channel: Nicht ausfallsicher, File Channel: eher langsam (Durchsatz ~5 MB / sec) 15
16 Rohdaten Speicherformate Plain(CSV, ) Avro(JSON- Schema im File, content binär) Parquet (spaltenorientiert, verschiedene Kompressionen) Format Plain 481 Rcfile 428 Parquet 86 Parquet + snappy Parquet + gzip Größe MB
17 Rohdaten Schema management # tables ++, Abhängigkeiten Releases Schema Automatisiertes Schema-Deployment parametrisierte DDLs 0001-init-db.hql 0002-clicklog.hql 0003-products.hql 0004-users.hql 0005-clicklog-alter.hql Schemadeploy aktueller Zustand / changelog Hive Metastore DB apply / rollback Hive CLI / Beeline 17
18 Security Wer darf was? Standard-Kontrollmechanismen HDFS file permissions, ACLs (HDFS2) Kerberos, Grants (Hive 0.14) Distributionsabhängig / uneinheitlich CDH: Sentry/Rhino(Hive/Impala per Table) Hortonworks: Knox, Argus (Gateway) MapR: Volumes/ Namespaces DIY Security: Cluster per Mandant (automatisiertes Deployment/ Setup) (Hive) Metastore per Mandant 18
19 Rohdaten Lessons learned Dirty Data Early! Parquet! Schema management! DIY security! 19
20 navigation Multi-Channel Analytics, hybride DWHs Setup: Distribution, OSS, Kunde Rohdaten: Early, Parquet, Manage schema, DIY security Analyse / Integration Verarbeitung / Workflows 20
21 Processing Workflow management Job Steuerung / Orchestrierung Oozie Workflow: DAG aus Actions (Hive, MR, ) Coordinators: Zeit/Datengesteuerte Workflow-Trigger Bundles: Set von Coordinators ETL-Tool / cron Definition der Ablauflogik z.b. in kettle-job (Pentaho) Hive-Queries über JDBC-Schnittstelle Steuerung der ETL-Jobs über cron Kritsch dabei: Log Management (Oozie > Hive > MR), Oozie- Templating! 21
22 Development Test-driven! poll Build Artefakte deploy.sh Admin server startet jobs DEV cluster basiert auf Daten startet tests DB setup from scratch, Testdaten erzeugen 22
23 Development Test-driven! 23
24 Development Test-driven! Nahtlose Integration in Hadoop(Dev-) Umgebungen Fixturesfür Pig, Hive, Oozie, HDFS Wrapper um jeweilige Java API Lightweight (standalone server) natürlichsprachliche Test-Syntax script Hadoop upload viewlog.csv to hdfs /testdata/ hadoop job from jar viewlog.jar [...] check number of output files 3 24
25 TDD Complete Round-Trip Fachseite Selenium Scripts vergleicht (Zwischen-/End) Ergebnisse startet Verarbeitung KPIs Firefox + Selenium IDE Szenario (Einkauf, ) Replay scripts Xebium+ Browsermob Proxy tag requests Data Processing tagged log data 25
26 Processing Die Wahl der Waffen Transformation / Aggregation via plain MR, plain Hive Hive + UDFs ETL tools(morphlines, Pentaho, ) Spark, MR jobs Spark Hive UDFs morphlines graphical ETL Coding skills /- - Flexibility Depends on tool Keine Monokultur nötig (YARN!) 26
27 Processing Hive UDFs public class myudf extends GenericUDF { public ObjectInspector initialize (ObjectInspector[] args) { // Signatur, Argumente prüfen } public Object evaluate(deferredobject[] args){ } // zeilenweise Verabeitung der Daten 27
28 Processing Hive UDFs ctd. Neben UDFs: auch UDTFs, UDAFs statt mehrerer (komplexerer) UDAFs: Voraggregation der GROUP BY Elemente in Map/StructÜbergabe dessen an Standard UD(T)Fs SELECT parse_session(agg.session) FROM (SELECT to_map(s.timestamp, ) as session FROM logtable s GROUP BY s.session_id) agg array(s.useragent, s.status, ) 28
29 Processing Morphlines Java-zentrierte ETL Lösung von Cloudera, Teil des kite-sdk Definition von Transformationen in JSON (HOKON) Datenmodell: Record( key [value1, value2, ]) Verarbeitung in Commands : process(record) Command-Libfür Standard-Aufgaben (Parsing, Date Handling, ), leicht erweiterbar Kann (auch) direkt aus MR job aufgerufen werden 29
30 Processing Lessons learned Oozie Templates! TDD works! Hive UDF combination! Morphlines! 30
31 navigation Multi-Channel Analytics, hybride DWHs Setup: Distribution, OSS, Kunde Rohdaten: Early, Parquet, Manage schema, DIY security Analyse / Integration Verarbeitung: Oozie Templates, TDD, combine UDFs, Morphlines 31
32 Analysis Ad hoc querying SQL-on-Hadoop Hive (Stinger(.next)), Impala, Shark, Presto, Tajo, Phoenix (SQL-on-Hbase), Drill, Redshift, Verschiedene, teils widersprüchliche Benchmarks Benchmark with your own data! Execution JDBC/ODBC Complex Types SQL stabilität Hive MR/Tez Jobs + + HiveQL + Impala MPP + - HiveQL +/- Presto MPP Nur JDBC + SQL92? Drill MPP + ANSI SQL? 32
33 Analysis Ad hoc querying Cloudera 60,00 50,91 45,00 39,43 Inovex 30,00 34,31 30,96 15,00 Amplab 0,00 Hive Shark Impala Presto 33
34 Analysis Datenschutz / Anonymisierung Schützen von sensitiven Daten vs. effiziente Entwicklung (Testdaten) Auch beim Export aus dem Datahub Pseudo-Anonymisierung mit Morphlines { } { } readcsv { separator : ";" columns : [isodate,isotime,ip,username,..] } anonymize { fields : [ip,username] } 34
35 Analysis Datenschutz / Anonymisierung private static final class Anonymize extends AbstractCommand { private final List<String> fieldnames; public Anonymize( ) { this.fieldnames = getconfigs().getstringlist(config,"fields"); } protected boolean doprocess(record record) { for (String field : record.getfields().keyset()) { // perform anonymization on configured fields // of record object } // pass record to next element in chain return super.doprocess(record); } } 35
36 Analysis Integration BI tools BI tools(business Objects, Tableau, Microstrategy, ) haben meistens JDBC/ODBC-Schnittstellen Idee: darüber Reports direkt auf Hadoop-Daten erstellen Kombination Business Objects / Hive zentral: Partition Pruning(LEFT OUTER JOINS!) Setzen von Query-Optimierungsparameternvia Initial SQL (z.b. hive.auto.convert.join=true) Möglichkeiten zur Query-Syntax Beeinflussung begrenzt! 36
37 Analysis Lessons Learned Benchmark with your own data! Anonymized Test-Data! Integration: Hive Query Syntax! 37
38 Danke! Multi-Channel Analytics, hybride DWHs Setup: Distribution, OSS, Kunde Rohdaten: Early, Parquet, Manage schema, DIY security Analyse: Own Benchmark, Anonymize, Query Syntax! Verarbeitung: Oozie Templates, TDD, combine UDFs, Morphlines 38
39 BASICS 39
40 Want more? Inovex trains you! Android Developer Training (3 days, Karlsruhe/München) Certified Scrum Developer Training (5 days, Köln) Hadoop Developer Training (3 days, Karlsruhe/Köln) Liferay Portal-Developer Training (4 days, Karlsruhe) Liferay Portal-Admin Training (3 days, Karlsruhe) Pentaho Data Integration Training (4 days, München/Köln) information and registration at 40
41 HDFS Architektur name node Where do I store block 1? Done! Done! data nodes 03, 05, 08 Done! data node 01 data node 05 data node 09 client node blk 1 blk 2 blk 3 blk 4 data node 02 data node 06 data node 10 data node 03 blk 1 (03, 05, 08) data node 07 data node 11 data node 04 data node 08 data node 12 rack 1 rack 2 rack 3 41
42 Map/Reduce Prinzip auf Datanodes input map map map map shuffle reduce reduce map map reduce 42
43 Map/Reduce Java public class WebtrekkEventMapper extends Mapper<Text, Text, Text, IntWritable> { protected void map( Text key, Text value, Context context ) throws IOException, InterruptedException public class IntSumReducer { // key contains entire record String[] fields = key.tostring().split( ";" ); // extract relevant information String eventname = fields[12]; // emit output key and count context.write( new Text( eventname ) ), } Mapper } extends Reducer<Text, IntWritable, Text, IntWritable> protected void reduce( Text key, Iterable<IntWritable> values, Context context new IntWritable( 1 )); throws IOException, Reducer InterruptedException { int sum = 0; for ( IntWritable partialcount : values ) { sum += partialcount.get(); } context.write( key, new IntWritable sum ) ); 43
44 Map/Reduce Pentaho 44
Einführung in Hadoop & MapReduce. Dr. Kathrin Spreyer Big Data Engineer
Einführung in Hadoop & MapReduce Dr. Kathrin Spreyer Big Data Engineer München, 19.06.2013 Agenda Einleitung 1. HDFS 2. MapReduce 3. APIs 4. Hive & Pig 5. Mahout Tools aus Hadoop-Ökosystem 6. HBase 2 Worum
MehrSQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh
SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?
MehrHans-Peter Zorn Inovex GmbH. Wer gewinnt das SQL-Rennen auf der Hadoop-Strecke?
Hans-Peter Zorn Inovex GmbH Wer gewinnt das SQL-Rennen auf der Hadoop-Strecke? War nicht BigData das gleiche NoSQL? Data Lake = Keine Struktur? flickr/matthewthecoolguy Oder gar ein Hadump? flickr/autohistorian
MehrBeratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting
Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis
MehrBIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY
BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY 08.03.2017 REWE Systems GmbH Jonas Freiknecht inovex GmbH Bernhard Schäfer AGENDA 1 / Vorstellung REWE Systems GmbH und inovex
MehrHadoop Demo HDFS, Pig & Hive in Action. Oracle DWH Konferenz 2014 Carsten Herbe
Hadoop Demo HDFS, Pig & Hive in Action Oracle DWH Konferenz 2014 Carsten Herbe Wir wollen eine semi-strukturierte Textdatei in Hadoop verarbeiten und so aufbereiten, dass man die Daten relational speichern
MehrJune 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration
June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen
MehrDie wichtigsten Hadoop-Komponenten für Big Data mit SAS
Webinar@Lunchtime Die wichtigsten Hadoop-Komponenten für Big Data mit SAS Herzlich Willkommen bei Webinar@Lunchtime Moderation Anne K. Bogner-Hamleh SAS Institute GmbH Education Consultant Xing-Profil:
MehrHadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes
Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)
MehrBig Data in der Praxis
Jonas Freiknecht Big Data in der Praxis Lösungen mit Hadoop, HBase und Hive Daten speichern, aufbereiten, visualisieren HANSER Vorwort XI 1 Einleitung 1 2 Big-Data 7 2.1 Historische Entstehung 8 2.2 Big-Data
MehrBig-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht
Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik
MehrHadoop. Simon Prewo. Simon Prewo
Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert
MehrÜberblick Hadoop Einführung HDFS und MapReduce. DOAG Regionaltreffen München/Südbayern Februar 2014
Überblick Hadoop Einführung HDFS und MapReduce DOAG Regionaltreffen München/Südbayern Februar 2014 Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business
MehrBig Data im Retail-Sektor am Beispiel Kassenbondaten
Big Data im Retail-Sektor am Beispiel Kassenbondaten REWE Systems GmbH Jonas Freiknecht inovex GmbH Bernhard Schäfer Business Analytics Day, 08.03.2017 AGENDA 1. Vorstellung REWE Systems GmbH und inovex
MehrETL in den Zeiten von Big Data
ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse
MehrErfahrungsbericht: Umstieg von RDBMS auf Big Data-Technologien
Wir unternehmen IT. Erfahrungsbericht: Umstieg von RDBMS auf Big Data-Technologien Karlsruhe, 30.09.2015 $id thgreiner Thorsten Greiner Teamleiter Software Development ConSol* Software GmbH, Düsseldorf
MehrBig Data: Apache Hadoop Grundlagen
Seminarunterlage Version: 1.07 Version 1.07 vom 5. September 2018 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen
MehrHadoop in a Nutshell Einführung HDFS und MapReduce. Oracle/metafinanz Roadshow Februar 2014
Hadoop in a Nutshell Einführung HDFS und MapReduce Oracle/metafinanz Roadshow Februar 2014 Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services die
MehrInfrastruktur entwickeln mit Chef
Infrastruktur entwickeln mit Chef Martin Eigenbrodt gearconf 2011 Wir lösen das persönlich! Dieser Vortrag Motivation Chef Real Life Wir lösen das persönlich! Motivation Softwareentwicklung Versionskontrollsystem
MehrZeitlich abhängig von OWB?
Zeitlich abhängig von OWB? 24. April 2007 Beat Flühmann Trivadis AG > IT Lösungsanbieter» Application Development, Application Performance Management, Business Communication, Business Intelligence, Managed
MehrEin subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen
Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen vorgestellt am 29.09.2008 in der PASS Regionalgruppe Karlsruhe Michael Riedmüller inovex GmbH Project
MehrHadoop-as-a-Service (HDaaS)
Hadoop-as-a-Service (HDaaS) Flexible und skalierbare Referenzarchitektur Arnold Müller freier IT Mitarbeiter und Geschäftsführer Lena Frank Systems Engineer @ EMC Marius Lohr Systems Engineer @ EMC Fallbeispiel:
MehrEntwicklungsumgebungen. Packer, Vagrant, Puppet. Alexander Pacnik Mannheim, 10.11.2014
Entwicklungsumgebungen Packer, Vagrant, Puppet Alexander Pacnik Mannheim, 10.11.2014 inovex... über inovex und den Referenten 2 Entwicklungsumgebungen... Übersicht Einführung Packer Konfiguration Packer
MehrBIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004
BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick
MehrHadoop I/O. Datenintegrität Kompression Serialisierung Datei-basierte Datenstrukturen. 14.02.2012 Prof. Dr. Christian Herta 1/29
Hadoop I/O Datenintegrität Kompression Serialisierung Datei-basierte Datenstrukturen 14.02.2012 Prof. Dr. Christian Herta 1/29 Data I/O und Hadoop Allgemeine Techniken Data I/O Datenintegrität Kompression
MehrBig Data Informationen neu gelebt
Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen
MehrNEUES AUS DER ENTWICKLUNG. April 2015
NEUES AUS DER ENTWICKLUNG April 2015 Agenda R&D Redwood Produkt-Upgrade und -Releasestrategie Namensänderungen / -Konventionen Produkt Updates Schlusswort INTRODUCTION R&D April 2015 Unser Team 20+ Mitarbeiter
MehrHadoop & Spark. Carsten Herbe. 8. CC-Partner Fachtagung 2015
Hadoop & Spark Carsten Herbe 8. CC-Partner Fachtagung 2015 29.04.2015 Daten & Fakten 25 Jahre Erfahrung, Qualität & Serviceorientierung garantieren zufriedene Kunden & konstantes Wachstum 25 Jahre am Markt
MehrHadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen
Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und
MehrPostgreSQL in großen Installationen
PostgreSQL in großen Installationen Cybertec Schönig & Schönig GmbH Hans-Jürgen Schönig Wieso PostgreSQL? - Die fortschrittlichste Open Source Database - Lizenzpolitik: wirkliche Freiheit - Stabilität,
MehrHadoop. High Performance Batches in der Cloud. Hadoop. Folie 1 25. Januar 2011
High Performance Batches in der Cloud Folie 1 Alles geht in die Cloud Image: Chris Sharp / FreeDigitalPhotos.net Cloud und Batches passen zusammen Batches Cloud Pay-per-Use Nur zeitweise genutzt Hohe Rechenkapazitäten
MehrPROZESSCONTROLLING MIT MICROSOFT TOOLS
PROZESSCONTROLLING MIT MICROSOFT TOOLS AGENDA In eigener Sache Processcontrolling mit Office Demo Excel Maps Processcontrolling mit SQL Server Rolle von SharePoint 2013 Demo Praxisbeispiel Einkaufsprozess
MehrNoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse
NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse Carsten Czarski Oracle Deutschland B.V. & Co KG Big Data Betrachten von Daten die bislang nicht betrachtet wurden
MehrSOA im Zeitalter von Industrie 4.0
Neue Unterstützung von IT Prozessen Dominik Bial, Consultant OPITZ CONSULTING Deutschland GmbH Standort Essen München, 11.11.2014 OPITZ CONSULTING Deutschland GmbH 2014 Seite 1 1 Was ist IoT? OPITZ CONSULTING
MehrOracle GridControl Tuning Pack. best Open Systems Day April 2010. Unterföhring. Marco Kühn best Systeme GmbH marco.kuehn@best.de
Oracle GridControl Tuning Pack best Open Systems Day April 2010 Unterföhring Marco Kühn best Systeme GmbH marco.kuehn@best.de Agenda GridControl Overview Tuning Pack 4/26/10 Seite 2 Overview Grid Control
MehrBackup and Recovery. Der Abschnitt beschreibt Vorgehensweisen zur Sicherung und Wiederherstellung der Daten mit Applikationsmitteln.
by Jens Kupferschmidt 2015-03-05 Der Abschnitt beschreibt Vorgehensweisen zur Sicherung und Wiederherstellung der Daten mit Applikationsmitteln. Table of contents 1 Allgemeines... 2 2 Backup... 2 3 Recovery...
MehrDevOps bei den ID Build-Automatisierung statt Silo-Betrieb
DevOps bei den ID Build-Automatisierung statt Silo-Betrieb SWS Entwicklertreffen vom 1.10.2015 Benno Luthiger 1.10.2015 1 Ausgangslage Kundenwunsch: Stabiles System, das schnell reagiert ( Betrieb) Neue
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
MehrMap Reduce. Programmiermodell. Prof. Dr. Ingo Claÿen. Motivation. Modell. Verarbeitungsablauf. Algorithmen-Entwurf. Map-Reduce in Java
Map Reduce Programmiermodell Prof. Dr. Ingo Claÿen Hochschule für Technik und Wirtschaft Berlin Motivation Modell Verarbeitungsablauf Algorithmen-Entwurf Map-Reduce in Java Motivation Was ist Map-Reduce
MehrBuild-Pipeline mit Jenkins
JUG Augsburg 24.10.2013 Seite 1 Wer sind wir? Agiler Architekt und Entwickler Eigenes Produkt mit kompletter Pipeline / CD aktuell: Architekt / Entwickler in einem großen Entwicklungsprojekt im Automotiv
MehrOracle EngineeredSystems
Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen
MehrSODA. Die Datenbank als Document Store. Rainer Willems. Master Principal Sales Consultant Oracle Deutschland B.V. & Co. KG
SODA Die Datenbank als Document Store Rainer Willems Master Principal Sales Consultant Oracle Deutschland B.V. & Co. KG vs No Anforderungskonflikte Agile Entwicklung Häufige Schema-Änderungen Relationales
MehrEclipse Equinox als Basis für Smart Client Anwendungen. Christian Campo, compeople AG, 5.7.2007 Java Forum Stuttgart 2007
Eclipse Equinox als Basis für Smart Client Anwendungen Christian Campo, compeople AG, 5.7.2007 Java Forum Stuttgart 2007 Übersicht Definition / Architektur Smart Client Smart Client mit RCP / Equinox Gesamtfazit
MehrDie Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link
Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Konrad Linner, solvistas GmbH Nürnberg, 20.November 2012 Inhaltsverzeichnis Vorstellung solvistas
MehrMySQL Cluster und MySQL Proxy
MySQL Cluster und MySQL Proxy Alles Online Diese Slides gibt es auch unter: http://rt.fm/s4p Agenda (Don't) Panic Web- und MySQL-Server MySQL Master-Master Cluster MySQL Proxy und Cluster MySQL Master-Slave/Master
MehrWas ist Windows Azure? (Stand Juni 2012)
Was ist Windows Azure? (Stand Juni 2012) Windows Azure Microsofts Cloud Plattform zu Erstellung, Betrieb und Skalierung eigener Cloud-basierter Anwendungen Cloud Services Laufzeitumgebung, Speicher, Datenbank,
MehrHadoop in a Nutshell HDFS, MapReduce & Ecosystem. Oracle DWH Konferenz 2014 Carsten Herbe
Hadoop in a Nutshell HDFS, MapReduce & Ecosystem Oracle DWH Konferenz 2014 Carsten Herbe Wir fokussieren mit unseren Services die Herausforderungen des Marktes und verbinden Mensch und IT. Business Intelligence
MehrIn-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI
In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI Hanau, 25.02.2015 1 Titel der Präsentation, Name, Abteilung, Ort, xx. Monat 2014 Der Aufbau der Group BI Plattform
Mehr!"#$"%&'()*$+()',!-+.'/',
Soziotechnische Informationssysteme 5. Facebook, Google+ u.ä. Inhalte Historisches Relevanz Relevante Technologien Anwendungsarchitekturen 4(5,12316,7'.'0,!.80/6,9*$:'0+$.;.,&0$'0, 3, Historisches Facebook
MehrEnd-to-End Agility Sind Sie schon agil genug? Mag. Christoph Leithner c.leithner@celix.at
End-to-End Agility Sind Sie schon agil genug? Mag. Christoph Leithner c.leithner@celix.at www.celix.at September 2015 celix Solutions GmbH Spezialist für Team Collaboration und IT Prozess Management Agile
Mehr5 Schritte zur IT-Sicherheit. Johannes Nöbauer Leiter Enterprise Services
5 Schritte zur IT-Sicherheit Johannes Nöbauer Leiter Enterprise Services 5 (einfache) Schritte zur IT-Sicherheit Sicherheitsupdates für Betriebssysteme installieren Sicherheitsupdates für alle Anwendungen
MehrBig Data in a Nutshell. Dr. Olaf Flebbe of ät oflebbe.de
Big Data in a Nutshell Dr. Olaf Flebbe of ät oflebbe.de Zu mir Bigdata Projekt, benutzt Apache Bigtop Linux seit Anfang vor Minix/ATARI Linuxtag 2001? Promoviert in Computational Physics in Tü Seit Jan
MehrÜberleben im Funkloch
Überleben im Funkloch Offlinefähige Apps für Android entwickeln Christian Janz (@c_janz ) christian.janz@bridging-it.de Christian Janz Consultant im Bereich Softwareentwicklung Java/JEE bei Bridging IT
MehrStruts 2 Das Imperium schlägt zurück?
Struts 2 Das Imperium schlägt zurück? Orientation in Objects GmbH Weinheimer Str. 68 68309 Mannheim Tobias Kieninger www.oio.de info@oio.de Java, XML und Open Source seit 1998 ) Software
Mehrconsulting Ventum Consulting Hadoop im Unternehmenseinsatz, aber sicher Nürnberg, November 2015 Results, no excuses.
Ventum Consulting Hadoop im Unternehmenseinsatz, aber sicher Nürnberg, November 2015 Results, no excuses. Agenda A B C D Ventum Consulting 5 Säulen der Sicherheit Frameworks Fazit Ventum Consulting Grown
MehrS3 your Datacenter. Software Defined Object Storage. Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten
S3 your Datacenter Software Defined Object Storage Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten Unstrukturierte Daten explodieren Volume in Exabytes Sensors & Devices Social
MehrSAP NetWeaver Gateway. Connectivity@SNAP 2013
SAP NetWeaver Gateway Connectivity@SNAP 2013 Neue Wege im Unternehmen Neue Geräte und Usererfahrungen Technische Innovationen in Unternehmen Wachsende Gemeinschaft an Entwicklern Ausdehnung der Geschäftsdaten
MehrANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik
ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten
MehrFast Analytics on Fast Data
Fast Analytics on Fast Data Kudu als Storage Layer für Banking Applikationen Problem Klassischer Kreditprozess Beantragung in der Filiale Aufwendiger Prozess Nachweis durch Dokumente Manuelle Bewilligung
MehrWerkzeuge für Datenbank Handwerker: IBM Data Studio und IBM Optim QWT
Werkzeuge für Datenbank Handwerker: IBM Data Studio und IBM Optim QWT Neue Technologien effizient nutzen Ehningen, 3. Juli 2014 Rodney Krick rk@aformatik.de aformatik Training & Consulting GmbH & Co. KG
MehrMicrosoft Office SharePoint Server 2007 Überblick. Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.
Microsoft Office SharePoint Server 2007 Überblick Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.com 30. Juli 2006 Munich, Germany 2007 Microsoft Office System Investitionen
Mehrvinsight BIG DATA Solution
vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,
MehrServerprovisioning in einer dynamischen Infrastruktur Systemmanagement LinuxTag 2012
Serverprovisioning in einer dynamischen Infrastruktur Systemmanagement LinuxTag 2012 vorgestellt am 23.05.2012 Alexander Pacnik inovex GmbH Wir nutzen Technologien, um unsere Kunden glücklich zu machen.
MehrProblemstellung. Keine Chance! Ich brauche eine genaue Spezifikation und dann vielleicht in 3-4 Wochen können Sie einen erstes Beispiel haben!
Take aways Mit Power BI wird Excel zum zentralen Tool für Self- Service BI End-End Self-Service Lösungsszenarien werden erstmals möglich Der Information Worker erhält ein flexibles Toolset aus bekannten
Mehreinfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer
einfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer info@ordix.de www.ordix.de Agenda Hadoop Hive OLH: Oracle Loader for
MehrRelease Automation für Siebel
June 30 th 2015 Release Automation für Siebel Stefan Kures Agenda + Herausforderungen + Lösung mit Automic + Vorteile + Resultate 3 Property of Automic Software. All rights reserved Siebel als zentrale
MehrWEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" HANS-JOACHIM EDERT
WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" Copyr i g ht 2012, SAS Ins titut e Inc. All rights res er ve d. HANS-JOACHIM EDERT EBINAR@LUNCHTIME
MehrHadoop & SQL Wie Hadoop um SQL erweitert werden kann. Oracle/metafinanz Roadshow 11./18. Februar
Hadoop & SQL Wie Hadoop um SQL erweitert werden kann Oracle/metafinanz Roadshow 11./18. Februar Head of Data Warehousing DWH Principal Consultant DWH Senior Consultant Wir fokussieren mit unseren Services
MehrZend Server Cluster Manager
Zend Server Cluster Manager Jan Burkl Zend Technologies Wer bin ich? Jan Burkl jan.burkl@zend.com PHP Entwickler seit 2001 Projektarbeit Bei Zend seit 2006 System Engineer Zend Certified Engineer PHP 5
MehrAgile Analytics Neue Anforderungen an die Systemarchitektur
www.immobilienscout24.de Agile Analytics Neue Anforderungen an die Systemarchitektur Kassel 20.03.2013 Thorsten Becker & Bianca Stolz ImmobilienScout24 Teil einer starken Gruppe Scout24 ist der führende
MehrDateisysteme und Datenverwaltung in der Cloud
Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1
MehrBIG SQL FOR HORTONWORKS (MOGELPACKUNG ODER GENIALER SCHACHZUG?)
THOMAS KALB BIG SQL FOR HORTONWORKS (MOGELPACKUNG ODER GENIALER SCHACHZUG?) Big SQL for Hortonworks (Mogelpackung oder genialer Schachzug) Copyright 2017 ITGAIN GmbH 1 AGENDA ITGAIN Big SQL Aktionen PoC
MehrJava: Vererbung. Teil 3: super() www.informatikzentrale.de
Java: Vererbung Teil 3: super() Konstruktor und Vererbung Kindklasse ruft SELBSTSTÄNDIG und IMMER zuerst den Konstruktor der Elternklasse auf! Konstruktor und Vererbung Kindklasse ruft SELBSTSTÄNDIG und
MehrSage 200 BI Häufige Fehler & Lösungen. Version 15.10.2014
Sage 200 BI Häufige Fehler & Lösungen Version 15.10.2014 Inhaltverzeichnis Sage 200 BI Häufige Fehler & Lösungen Inhaltverzeichnis 2 1.0 Häufige Probleme & Lösungen 3 1.1 Keine Grafiken in SSRS-Auswertungen
Mehreevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator
eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile
MehrAblösung von Control-M durch JobScheduler
Ablösung von Control-M durch JobScheduler Integration des JobSchedulers in eine TWS Landschaft SOS Software GmbH Berlin, Germany Inhalt Rahmenbedingungen I & II Control-M Landschaft (früher) JobScheduler
MehrDennis Schulte / Tobias Flohre codecentric AG. Enterprise Java Batch mit Spring
Dennis Schulte / Tobias Flohre Enterprise Java Batch mit Spring Dennis Schulte Düsseldorf @denschu www.github.com/denschu blog.codecentric.de/author/dsc tel +49 (0) 1515 _ 288 2395 dennis.schulte@codecentric.de
MehrTRACK II Datenmanagement Strategien & Big Data Speicherkonzepte BI Operations Erfolgsfaktoren für einen effizienten Data Warehouse Betrieb
9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics
MehrMicrosoft Azure: Ein Überblick für Entwickler. Malte Lantin Technical Evangelist, Developer Experience & Evangelism (DX) Microsoft Deutschland GmbH
Microsoft Azure: Ein Überblick für Entwickler Malte Lantin Technical Evangelist, Developer Experience & Evangelism (DX) Microsoft Deutschland GmbH Moderne Softwareentwicklung Microsoft Azure unterstützt
MehrApache HBase. A BigTable Column Store on top of Hadoop
Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,
MehrUwe Baumann artiso Solutions ubaumann@artiso.com
Uwe Baumann artiso Solutions ubaumann@artiso.com Upgrade Strategien Data/Application Tier Anpassung von Process Templates Build Test/Lab Performance TFS Version Control Workitem Tracking Build Verwaltung
MehrPeter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr
Peter Dikant mgm technology partners GmbH Echtzeitsuche mit Hadoop und Solr ECHTZEITSUCHE MIT HADOOP UND SOLR PETER DIKANT MGM TECHNOLOGY PARTNERS GMBH WHOAMI peter.dikant@mgm-tp.com Java Entwickler seit
MehrSpark, Impala und Hadoop in der Kreditrisikoberechnung
Spark, Impala und Hadoop in der Kreditrisikoberechnung Big Data In-Memory-Technologien für mittelgroße Datenmengen TDWI München, 22. Juni 2015 Joschka Kupilas, Data Scientist, Adastra GmbH 2 Inhalt Vorwort
MehrCopyright 2014, Oracle and/or its affiliates. All rights reserved.
1 Oracle Fusion Middleware Ordnung im Ganzen Matthias Weiss Direktor Mittelstand Technologie ORACLE Deutschland B.V. & Co. KG 2 Agenda Begriffe & Ordnung Fusion Middleware Wann, was, warum Beispiel für
MehrContinuous Delivery. für Java Anwendungen. Axel Fontaine 28.10.2010. Software Development Expert
28.10.2010 Continuous Delivery für Java Anwendungen Axel Fontaine Software Development Expert twitter.com/axelfontaine blog.axelfontaine.eu business@axelfontaine.eu Ceci n est pas une build tool. Ceci
MehrGut zu wissen... Lorenz Keller Server Technologies Competence Center Nord
Gut zu wissen... Lorenz Keller Server Technologies Competence Center Nord Agenda Neue Produkte Oracle Secure Enterprise Search SQL Developer (Raptor) XML-Publisher Application Server/ JDeveloper 10.1.3
MehrMicrosoft SharePoint 2013 Vorteile und Neuheiten. Fachseminar Microsoft SharePoint 2013
Microsoft SharePoint 2013 Vorteile und Neuheiten Fachseminar Microsoft SharePoint 2013 Agenda Systemanforderungen Lizensierung / Versionen Neues zu: Installation Migration Oberfläche Modern UI (Metro)
MehrMapReduce mit Hadoop 08.11.12 1
MapReduce mit Hadoop 08.11.12 1 Lernziele / Inhalt Wiederholung MapReduce Map in Hadoop Reduce in Hadoop Datenfluss Erste Schritte Alte vs. neue API Combiner Functions mehr als Java 08.11.12 2 Wiederholung
MehrMulti-Device Applikationen aus der Swisscom Cloud. Lukas Lehmann
Multi-Device Applikationen aus der Swisscom Cloud Lukas Lehmann Agenda Welcome Swisscom Cloud -> PaaS Get ready for the Championship Use Cases Be a Champion Q&A Swiss made so beständig wie Swisscom selbst
MehrDaniel Tschan Technischer Leiter. Continuous Delivery mit OpenShift
Daniel Tschan Technischer Leiter Continuous Delivery mit OpenShift Puzzle Tech Talk, Bern, 30.10.2014 Geschichte Integration Hell und «works on my machine» 1991: Object Oriented Design: With Applications
MehrDevOps und Continuous Delivery. Von Release Automation bis zur Feedbackschleife. Matthias Zieger codecentric AG
DevOps und Continuous Delivery Von Release Automation bis zur Feedbackschleife Matthias Zieger codecentric AG Codecentric AG 2 Genutzte operative Modelle verhindern Geschwindigkeit BUSINESS DEV OPS DevOps
MehrExadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht)
Exadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team Inhalt Thematik (Einordnung
MehrMonitoringvon Workflows in einer BPEL-Engine
Monitoringvon Workflows in einer BPEL-Engine Autor: Stefan Berntheisel Datum: 23. Februar 2010 Stefan Berntheisel Hochschule RheinMain Management Verteilter Systeme und Anwendungen WS 09/10 Agenda Was
MehrDie Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com
Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen
MehrRelution Enterprise Appstore. Enable Enterprise Mobility. 2.5 Release Note
Enable Enterprise Mobility 2.5 Release Note 1 Relution Release 2.5 Das neuste Relution Release in der Version 2.5 bringt eine ganz neue Erfahrung in den Enterprise Mobility Markt. Zwei Hauptfeatures dominieren
MehrHadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH
Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel Carsten Herbe metafinanz Informationssysteme GmbH In unserer Business Line Business Intelligence & Risk gibt es fünf Bereiche: Risk,
MehrLive aus der Cloud. im Kundeneinsatz. Michael Flum Business Development Manager
Live aus der Cloud im Kundeneinsatz Michael Flum Business Development Manager IT Computing Power ist billige Massenware! 1 GB/h 1 Server/M 1 Instance/M $0,11 (1 19,99 (2 42,52 (3 (1 Preis für Europa
Mehrdesk.modul : WaWi- Export
desk.modul : WaWi- Export Die Schnittstelle besteht aus einem Programm, welches die Daten aus der OfficeLine ausliest und in eine XML-Datei exportiert. Die Schnittstelle ist als ein eigenständiges Programm
MehrWonderware 2014. InTouch 11.0 Wonderware InTouch 2014
März 2014 2014 Invensys. All Rights Reserved. The names, logos, and taglines identifying the products and services of Invensys are proprietary marks of Invensys or its subsidiaries. All third party trademarks
MehrGerrit und Jenkins ein Traumpaar für Pre-Tested Commit
und ein Traumpaar für Pre-Tested Commit Orientation in Objects GmbH Weinheimer Str. 68 68309 Mannheim Steffen Schäfer Steffen Schluff Version:.0 www.oio.de info@oio.de Gliederung Pre-tested commit und
Mehr