Cloud Data Management
|
|
- Tristan Brandt
- vor 8 Jahren
- Abrufe
Transkript
1 Cloud Data Management Kapitel 6: Large-Scale Datenanalyse Lars Kolb Sommersemester 2014 Universität Leipzig Institut für Informatik 1
2 Einführung Hadoop (und darauf aufbauende Frameworks) Einfache Parallelisierung von Berechnungen in Cluster-Umgebungen Fehlertoleranz Frei verfügbar Große Community Viele Optimierungsansätze aus Forschung ( letztes Kapitel) Design-Schwächen SPOF, begrenzte horizontale Skalierbarkeit ( Hadoop 2.x.x) Nicht optimal für alle Anwendungsfälle Echtzeit-Anwendungen Ad-hoc Aggregation großer Datenmengen ( Dremel) Iterative Anwendungen Maschinelle Lernverfahren ( Spark) 2
3 Inhaltsverzeichnis Hadoop 2.x.x HDFS Federation HDFS High Availability YARN (= MRv2= MapReduce 2.0) Google Dremel Hierarchisches, spaltenorientiertes Echtzeit-Anfragsystem zur Aggregation verteilter, geschachtelter Datensätze Apache Spark Parallele In-memory Datenanalyse in Cloud-Umgebungen 3
4 Hadoop: Versionen und Features (02/2010-bis 05/2012) 0.23 Alpha - HDFS append/sync - HDFS Symlinks - Distributed RAID FS - Kerberos - YARN (MRv2) - HDFS Federation 0.21 Alpha - HDFS append/sync, - HDFS Symlinks - Distributed RAID FS - Kein Kerberos Stable 0.22 Beta - HDFS append/sync - HDFS Symlinks - Distributed RAID FS - Kerberos (nur für HDFS nicht für MapReduce) - Veröffentlicht nach Alpha HDFS HA Beta - HDFS append/sync - Kerberos - Keine Symlinks - kein Distr. RAID FS - Ohne Verbesserungen/ Bugfixes aus Umbenannt in Quelle:
5 Hadoop: Versionen und Features (aktuell) Hadoop 1.0 reicherte um HDFS append/sync und Kerberos an Aktuell stabile Apache Hadoop Version: Hadoop 0.23 führte Features verschiedener Zweige zusammen HDFS Federation, Kerberos, HDFS append/sync, HDFS Symlinks, RAID FS, YARN Fortgeführt in alpha (aktuell: beta) HDFS High Availability (HDFS HA) Cloudera s Distribution Including Apache Hadoop (CDH) Vorkonfigurierte stabile Open Source Distribution für Produktivbetrieb Cloudera Manager, Hadoop, HBase, Hive, Pig, Impala, Mahout, Flume, Oozie, Sqoop, Regelmäßige Update- und Releasezyklen Support, Lizensierung und Consulting, Paketierung für verschiedene Plattformen Aktuell (basiert auf Hadoop 2.0.0) YARN (MRv2) oder klassische Jobtracker/Tasktracker-Implementierung (MRv1) Jobtracker High Availability für MRv1 5
6 HDFS Federation: Motivation Speicherkapazität kann durch Hinzufügen von Datanodes erweitert werden Ein Namenode verwaltet Namespace des ganzen Clusters Dateibaum+Metadaten und Block Locations aus Performanzgründen komplett im RAM Yahoo! Blockgröße: 128MB Durchschnittliche Datei 600B Heap (1 File+2-3 Blockobjekte) 100Mio Dateien 60GB Heap 1PB Daten 1GB Heap HS des Namenodes begrenzt horizontale Skalierbarkeit des Clusters Vertikale Skalierung des Namenodes Durchsatz von Lese/Schreiboperationen durch 1 Knoten bestimmt Mehr Clusterknoten Mehr Block Reports Mehr Tasktracker (agieren selber als HDFS clients) 6 Quelle: [Federation]
7 HDFS Federation: Grundidee Mehrere unabhängige Namenodes Keine Kommunikation, jeder NN verwaltet einen eigenen Namespace 1 Block Pool pro Namespace Datanodes speichern Blöcke aller Namespaces Vorteile Echte Horizontale Skalierbarkeit Performanz Höherer Clusterdurchsatz ermöglicht höheren Parallelitätsgrad (MapReduce) Multi-tenancy & Isolation Verschiedene Mandanten können sich ein Cluster teilen Verschiedene Anwendungen (z.b. Produktivanwendungen wie HBase) haben verschiedene Anforderungen eigener Namenode Block Pool Abstraktion ermöglicht Realisierung anderer verteilter Dateisysteme 7
8 HDFS Federation: Mount Tables Aufteilung des globalen Namespaces auf mehrere NNs soll für Clients weitesgehend transparent sein Kein explizites Handling verschiedener FileSystem Objekte pro Namespace Abwärtskompatibilität ViewFs Bereitstellung einer globalen Sicht Verwenden Client-seitiger Mount Tables ähnlich /etc/fstab in unixartigen OS core-site.xml fs.default.name: viewfs://mymounttable fs.viewfs.mounttable.mymounttable.link./insights: hdfs://namenode2:port/insights Es können auch andere Dateisysteme (S3, Local) gemounted werden 8 Quelle: [Federation]
9 HDFS High Availability: Motivation Namenode ist Single Point of Failure (SPOF) Hält FS Tree, Metadaten und Block Locations im Hauptspeicher Zusätzlich 2 Dateien im lokalen FS fsimage: Schnappschuss des FS beim Start des NNs (ohne Block Locations) edits log: Protokolierung aller Änderungen gegenüber fsimage (WAL) Beim Neustart des NN wird fsimage mit edits log gemerged NN wird selten neugestartet großer edits log Merge dauert lange Vor HDFS HA: Secondary Namenode ( Checkpoint Node ) Secondary NN kopiert in regelmäßigen Abständen fsimage und edit log vom NN Mergen von fsimage und edits log Zurückkopieren der aktualisierten und Ersetzen der alten fsimage Datei Im Falle eines geplanten Neustarts muss NN trotzdem auf Block Reports der einzelnen Datanodes warten mehrere Stunden für große Cluster (2000 nodes) Defekt des NNs Änderungen seit letztem Checkpoint verloren Vor HDFS HA: redundante Speicherung von fsimage und edits log (versch. Platten/NFS) 9
10 HDFS HA: Grundidee Verwenden von 2 Namenodes pro Cluster (Namespace bei Federation) Active Namenode bearbeitet Client-Anfragen Standby Namenode für schnelles Failover ( Hot Standby ) Secondary Namenode ( Checkpoint Node ) nicht mehr benötigt Datenodes senden Block Reports periodisch an beide Knoten Synchronisation von fsimage und edits log Active NN schreibt/aktualisiert edits log synchron in gemeinsam zugänglichen, hochverfügbaren Speicher 2 Varianten NFS Quorum-based Standby NN überwacht diesen Speicher kontinuierlich und wendet Änderungen auf eigenem Filesystem-Abbild im HS an Failover Nur wenige Änderungen müssen nachgefahren werden, Block Locations aktuell Manuell (Wartung): <3s, automatisch: 30-40s 10
11 HDFS HA: Fencing und Client Failover Fencing Split Brain-Szenario Beide NNs nehmen an sie sind Active NN Widersprüchliche Änderungen am FS Tree Es darf zu einem Zeitpunkt nur einen NN geben Lösung Standby NN verhindert, dass anderer NN Änderungen am gemeinsamen Speicher macht Jeder Node kann anderem den Zugriff entziehen (aber sich nicht selber wieder erlauben) sshfence: Kill des Active NN durch SSH Befehl shell: Beliebiges Shell Script (STONITH: Shoot The Other Node In The Head) Client Failover Umrouten der HDFS Clients zum Active NN Konfiguration eines Paars von Namenode-Adressen bei Clients Verwenden der Adressen in konfigurierter Reihenfolge Timeout: Retry anderer NN (vormals Standby jetzt Active) Kontaktiert Client den Standby NN Antwort-Code Retry Active NN 11
12 HDFS HA: NFS Hochwertiges NAS Auf Rechnern beider NNs ist ein bestimmtes Verzeichnis auf einem Dateiserver gemounted (Lese- und Schreibzugriff für die NN-Prozesse) Hochverfügbarkeit Mehrere Netzwerkanbindungen Redundante Stromversorgung Mehrere Platten / RAID Automatisches Failover Verwendet Apache ZooKeeper-Quorum Hochverfügbarer Koordinationsservice Verteilte Synchronisation von Konfigurationen, Mitgliedschaft, Leader Election, Jeder NN hat dauerhafte Verbindung zu ZooKeeper-Cluster Active NN Crash ZooKeeper-Session Timeout ZooKeeper informiert Standby NN, dass Failover initiiert werden muss Dazu ZooKeeper Failover Controller-Prozess (ZKFC) auf jedem NN Active NN Election, ZooKeeper Session Management, Health Monitoring 12 Quelle: [HDFSHA]
13 HDFS HA: NFS Nachteile Nachteile NAS-Variante Teure Spezialhardware Komplexe Administration (Redundante Netzwerkverbindungen, Mount-Optionen, ) NAS ist noch immer SPOF Linux NAS clients buggy Design-Ziele Quorum-based Verteilter replizierter Speicher ( HDFS) für edits log Ausfall/Nichtverfügbarkeit mehrere Knoten tollerabel solange die Mehrheit der Knoten erreichbar ist Anzahl der tollerierbaren Fehler konfigurierbar Anzahl der Speicherknoten soll ohne Performanzeinbußen erhöht werden können Durchsatz nicht vom langsamsten Knoten bestimmt Verwenden der im Hadoop-Cluster verfügbaren Ressourcen 13
14 HDFS HA: Quorum-based Jeder NN kommuniziert mit einer Gruppe von JournalNodes (JNs) Ungerade Anzahl von n JNs auf n Cluster-Knoten Änderungen am edits log werden durch Active NN synchron zur Mehrheit der JNs geloggt Standby NN überwacht JNs kontinuierlich Im Falle eines Failovers liest Standby NN alle ausstehenden Änderungen von den Journal Nodes bevor er zum Active NN wird JNs erlauben zu einem Zeitpunkt nur einem NN Schreibzugriff Jeder Quorum JournalManager hat eine eindeutige epoch number tot. Ordnung Jede Schreiboperation an JN trägt epoch number Jeder JN speichert die größte zuletzt gesehene epoch number [Quelle: HDFSHA] Schreibanfordeurngen von NNs mit kleinerer epoch number werden ignoriert Wenn Namenode zum Active NN wird generiert er mit Zustimmung der Mehrheit der JNs eine neue epoch number implizites Fencing Explizites Fencing zur Vermeidung der Beantwortung von Leseanfragen durch vorherigen Active NN 14
15 YARN (=MRv2=MapReduce 2.0): Motivation Schlechte Auslastung der Cluster-Ressourcen Statische Konfiguration der Slots für Map-/Reduce-Tasks pro Tasktracker Map-Slots können nicht für Reduce-Tasks genutzt werden (und umgekehrt) Engpass Jobtracker - Skalierbarkeit nur bis zu paralleler Tasks Ressource Management Überwachung Trasktracker (Heartbeats, Blacklisting, Cluster Capacity) Zuteilung von Slots zu Tasks Job Scheduling und Monitoring Ausführen von MapReduce Jobs Quelle: [YARN] Überwachen laufender und ausstehender Tasks (Speculative Execution, Neustart fehlgeschlagener Tasks, Aggregieren der Counter) Kein Support für andere Programmiermodelle als MapReduce 15
16 YARN: Grundidee Dezentralisierung Quelle: 16
17 YARN: Dezentralisierung Globaler Ressource Manager (RM) Applications Manager (AsM) Submission von Anwendungen Start/Monitoring/Neustart von Application masters Überwachen des Fortschritt aller Anwendungen Scheduler: Zuteilung von Ressourcen zu Anwendungen Application Master (AM) Mini-Jobtracker für eine Anwendung (z.b. 1 MapReduce Job) Leichtgewichtiger Prozess auf Slave-Node Task Scheduling und Monitoring Anforderung der benötigten Ressourcen (RAM, CPU, Bandbreite, Disk) vom RM Allokation und Monitoring aller gewährten Container auf zugewiesenen NMs Fortschrittsbericht an AsM Node Manager (NM) Slave-Prozess, Ausführung und Überwachen von abstrakten Containern Fortschrittsbericht an AM Bericht über belegte Ressourcen an RM 17
18 YARN: Application Submission Priority,Hostname,Ressources,#Containers 1, host1, 1GB, 1 1, host2, 2GB, 1 host1 host2 Quelle:[YARN] RM kann neugestartet werden ohne dass laufende Anwendungen neugestartet werden müssen RM High Availability noch in Entwicklung Abstraktion (Ressourcen, Container) erlaubt Implementierung verschiedener verteilter Frameworks auf Basis von HDFS und YARN MapReduce, Apache HAMA, Apache Giraph, Open MPI, Apache Spark 18
19 Inhaltsverzeichnis Hadoop 2.x.x HDFS Federation HDFS High Availability YARN (= MRv2= MapReduce 2.0) Google Dremel Hierarchisches, spaltenorientiertes Echtzeit-Anfragsystem zur Aggregation verteilter, geschachtelter Datensätze Apache Spark Parallele In-memory Datenanalyse in Cloud-Umgebungen 19
20 Google Dremel Skalierbares System für verteilte Ausführung von Leseanfragen auf riesigen Mengen geschachtelter Daten Effizientere Bearbeitung im Vrgl. zur Ausführung einer Menge von MapReduce Jobs Building Blocks Spaltenbasierte Speicherung geschachtelter Datensätze SQL-ähnliche Anfragesprache Multi-level Execution trees Open Source-Implementierung: Apache Drill Quellen für die folgenden Folien: [Dremel1], [Dremel2] 20
21 Google Dremel : Datenmodell Attribute können Werte sein oder ein bis mehrere Unterattribute haben Pflichtattribute sein [1,1] optional sein [0,1] wiederholt Auftreten (Reihenfolge relevant) [0,*] vs. A.B.C=c 1 A.B.C=c 2 A.B.D=d 3 A.B.D=d 4 A.B.D=d 1 A.B.D=d 2 A.E=e 1 A.E=e 2 - Bei Projektion Lesen weniger Daten A.E=e 3 - Bessere (De)Kompressionseigenschaften 21
22 Google Dremel : Spaltenbasierte Zerlegung Sequentielle Speicherung aller Werte eines Attributes Zusätzliche Information (r,d) für jeden Wert um Datensätze rekonstruieren zu können r 2 r 1 Repetition level r: At what repeated field in the field's path the value has repeated #repeated Fields im Pfadpräfix der mit Vorgänger übereinstimmt (incl. Element, das Record identifiziert) r 1.Name 1.Language 1.Code: en-us (r=0) r 1.Name 1.Language 2.Code: en (r=2) r 1.Name 2 (r=1) r 1.Name 3.Language 1.Code: en-gb (r=1) r 2.Name 1 (r=0) 22 Defenition Level d: How many fields in paths that could be undefined are actually present #optionaler und repeated fields im Pfad (ohne Element das Record identifiziert): r 1.Links.Forward 2 : 40 (d=2) Wenn d kleiner als max. mögliche Anzahl optionaler und repeated fields NULL
23 Google Dremel : Rekonstruktion Notwendig für Interoperabilität mit satzorientierten Tools (z.b. MapReduce) Gegeben: Teilmenge der benötigten Attribute Gesucht: Ausgangsdatensätze mit originaler Schachtelung und Reihenfolge (nicht benötige Attribute fallen weg) Endlicher Automat Zustand entspricht einem Field Reader für entsprechendes Attribut Bei Übergang in einen Zustand liest der Field Reader den nächsten Wert und fügt diesen zum aktuellem Datensatz hinzu Anschließend wird r des darauffolgenden Wertes gelesen Entspricht Zustandsübergang 23
24 Google Dremel : Rekonstruktion (2) Wird nur eine Teilmenge der Attribute benötigt, kann ein einfacherer Automat konstruiert/verwendet werden 24
25 Google Dremel : SQL-ähnliche Anfragesprache Optimiert für select-project-aggregate auf einer Tabelle Single scan Intra-Record und Inter-Record Aggregation 25
26 Google Dremel: Anfrageausführung Serving Tree Hierarchische Anfrageausführung Jeder Knoten schreibt Anfrage in Menge von Teilanfragen um und aggregiert die resultierenden Teilergebnisse Blattknoten kommunizieren mit Storage Layer Fehlertolleranz durch Mehrfachvergabe einer Teilanfrage 26
27 Google Dremel: Evaluierung SELECT SUM(CountWords(field)) / COUNT(*) FROM T1 T1: 85 Mrd. Datensätze / 87 TB Zugriff nur auf ein Attribut MR Overhead Starten des/der Job/s Task Scheduling Lesen vollständiger Datensätze execution time (sec) on 3000 nodes (87 TB) (0.5 TB) Tiefe der Serving Tree-Topologie Q2: SELECT country, SUM(item.amount) FROM T2 GROUP BY country Q3: SELECT domain, SUM(item.amount) FROM T2 WHERE domain CONTAINS.net GROUP BY domain T2: 24 Mrd. Datensätze/ 13TB 27 (60GB. 100s of records) (180GB, 1.1 Mio records)
28 Inhaltsverzeichnis Hadoop 2.x.x HDFS Federation HDFS High Availability YARN (= MRv2= MapReduce 2.0) Google Dremel Hierarchisches, spaltenorientiertes Echtzeit-Anfragsystem zur Aggregation verteilter, geschachtelter Datensätze Apache Spark Parallele In-memory Datenanalyse in Cloud-Umgebungen 28
29 Apache Spark: Motivation MapReduce ist ungeignet für iterative und interaktive Anwendungen Materialisierung von Map-Ergebnissen im lokalen FS Materialisierung und Replikation von Reduce-Ergebnissen im HDFS Ansatz: Caching im Hauptspeicher Eine Größenordnung schneller als Externspeicherzugriff 95% aller Anfragen an Facebooks Hive Cluster könnten komplett aus HS beantwortet werden [Spark] Quelle: [Spark2] Bisherige Ansätze (z.b. RAMCloud) erfordern Replikation und verteilte Speicherung um Fehlertoleranz gewährleisten zu können 29 Quelle: [Spark2]
30 Apache Spark: Übersicht Ursprünglich Forschungsprojekt der UC Berkely zur parallelen Analyse großer Datenmengen in Cluster-Umgebungen [Spark] Apache Incubator-Projekt: Auf Datensätze eines Datasets können verschiedene Funktionen (höherer Ordnung) angewendet werden erzeugen neues Dataset map, flatmap, filter, groupbykey, reducebykey, join, cogroup, mapvalues, partition, In-memory Caching von Datasets für effiziente Multi-pass-Operationen Iterative Algorithmen (Machine Learning, PageRank, K-means, ) Interaktive Datenanalyse (z.b. SQL) Fehlertoleranz Keine Replikation gecachter Daten sondern Neuberechnung verlorener Partitionen 30
31 Apache Spark: Resilient Distributed Datasets Verteilte Kollektion von Datensätzen Read-only Generiert durch Anwendung bestimmter Transformationen auf Basisdatenquelle (HDFS) oder Existierendem RDD Nutzer kann RDDs im Hauptspeicher der Worker-Nodes cachen Erlaubt Wiederverwendung in späteren Operationen Ausschreiben auf Sekundärspeicher bei HS-Mangel Lineage-Information RDD kennt seine Vater-RDDs sowie die Berechnungsvorschrift mit welcher es aus diesen abgeleitet wurde Verlorene Partitionen können bei Bedarf neuberechnet werden 31
32 Apache Spark: Beispiel Zeitstempel (=vierte Spalte) der Log-Einträge die mit ERROR starten und HDFS enthalten 32
33 Apache Spark: Transformationen & Aktionen Beispiele: Quelle: [Spark] 33
34 Apache Spark: K-means Clustering Analog zu Beispiel aus Kapitel 3 S.25 Lokale Ausführung 34
35 Apache Spark: K-means Clustering (2) 35
36 Apache Spark: Architektur [Spark3] Quelle: [Spark3] BlockManager Write-once Key-Value Store pro Worker Caching von RDDs Bereitstellen eines Shuffle-Services Verwalten eines StorageLevels pro Block Externspeicher, RAM Auslagern gecachter Daten auf Externspeicher bei HS-Mangel 36
37 Apache Spark: Scheduling DAGScheduler: Kind-Partition hängt von einer konst. Anzahl von Partitionen der Vater-RDDs ab Pipelining mehrerer Transformationen in 1 Task Shuffle-Operationen markieren Stage-Grenzen Parallele Ausführung der Tasks eines Stages Keine Neuberechnung von Stages, deren Ergebnis bereits im Cache vorliegt (Stage 1) TaskScheduler Berücksichtigen Datenlokalität (Cache, HDFS Blöcke) Task-Failure Neuberechnung auf anderen Knoten solange abhängige Partitionen verfügbar sind sonst: parallele RDD-Recovery 37
38 Apache Spark: RDD Recovery Lineage-Information eines RDDs Menge von Partitionen (z.b. HDFS Blöcke, Reduce-Tasks, ) Menge von Abhängigkeiten zu Vater-RDDs Funktion um eine Partition ausgehend von Vater-RDD zu berechnen Bevorzugte Knoten zur Berechnung einer Partition (HDFS block location, Knoten welcher Partition eines RDDs cacht, shuffle on each parent, ) Information über Partitionierung Fehlertoleranz für Shuffle-Transformationen Join, GroupByKey, reducebykey, Pufferung der Zwischenergebnisse im Haupt- bzw. Externspeicher der Erzeuger 38 Quelle: [Spark2]
39 Apache Spark: Evaluation [Spark] Logistic Regression (1Mrd Punkte, 100GB) K-Means (1Mrd. Punkte, 100GB, 10 Cluster) Knoten
40 Zusammenfassung Hadoop 2.x.x HDFS Federation: Echte horizontale Skalierbarkeit des Clusters HDFS HA: Namenode SPOF YARN: Generisches Management von Cluster-Ressourcen Google Dremel Spaltenorientierte Speicherung geschachtelter Daten Interaktive Analyse von read-only Daten Scan & Aggregate (auf Teilmenge der Spalten) Hierarchische Anfragebearbeitung: Multi-level aggregation tree Apache Spark Parallele, fehlertollerante Datenanalyse mit In-memory Caching von Datensätzen Ausführungsumgebung für Erweiterungen SQL - Shark ( Graphanalyse - GraphX Machine Learning - MLbase ( Analyse auf kontinuierlicher Datenströme: Spark Streaming 40
41 Quellen & Literatur [Dremel1] Melnik et. al.: Dremel: Interactive Analysis of Web-Scale Datasets. Commun. ACM 2011 [Dremel2] [Spark] Zaharia et. al.: Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In- Memory Cluster Computing. NSDI 2012 [Spark2]: [Spark3]: [HDFSHA]: [Federation]: [YARN]: [YARN2]: 41
Cloud Data Management
Cloud Data Management Kapitel 7: Large-Scale Datenanalyse Dr. Anika Groß Wintersemester 2016 Universität Leipzig Institut für Informatik http://dbs.uni-leipzig.de 1 Einführung Hadoop (und darauf aufbauende
MehrHadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen
Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und
Mehrpeer-to-peer Dateisystem Synchronisation
Ziel Realisierungen Coda Ideen Fazit Literatur peer-to-peer Dateisystem Synchronisation Studiendepartment Informatik Hochschule für Angewandte Wissenschaften Hamburg 30. November 2007 Ziel Realisierungen
MehrNeue Ansätze der Softwarequalitätssicherung
Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik
MehrEinführung in Hadoop
Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian
MehrHadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes
Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)
MehrGeneralisierung von großen Datenbeständen am Beispiel der Gebäudegeneralisierung mit CHANGE
Institut für Kartographie und Geoinformatik Leibniz Universität Hannover Generalisierung von großen Datenbeständen am Beispiel der Gebäudegeneralisierung mit CHANGE Frank Thiemann, Thomas Globig Frank.Thiemann@ikg.uni-hannover.de
MehrSchneller als Hadoop?
Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG
MehrUmbenennen eines NetWorker 7.x Servers (UNIX/ Linux)
NetWorker - Allgemein Tip #293, Seite 1/6 Umbenennen eines NetWorker 7.x Servers (UNIX/ Linux) Dies wird offiziell nicht von unterstützt!!! Sie werden also hierfür keinerlei Support erhalten. Wenn man
MehrMailUtilities: Remote Deployment - Einführung
MailUtilities: Remote Deployment - Einführung Zielsetzung Die Aufgabe von Remote Deployment adressiert zwei Szenarien: 1. Konfiguration der MailUtilities von einer Workstation aus, damit man das Control
MehrOPERATIONEN AUF EINER DATENBANK
Einführung 1 OPERATIONEN AUF EINER DATENBANK Ein Benutzer stellt eine Anfrage: Die Benutzer einer Datenbank können meist sowohl interaktiv als auch über Anwendungen Anfragen an eine Datenbank stellen:
MehrVerfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek. wojtenek@mac.com
Verfügbarkeit von Applikationen und Failover Szenarien Winfried Wojtenek wojtenek@mac.com Verfügbarkeit % Tage Stunden Minuten 99.000 3 16 36 99.500 1 20 48 99.900 0 9 46 99.990 0 0 53 99.999 0 0 5 Tabelle
MehrEinführung in Hadoop & MapReduce. Dr. Kathrin Spreyer Big Data Engineer
Einführung in Hadoop & MapReduce Dr. Kathrin Spreyer Big Data Engineer München, 19.06.2013 Agenda Einleitung 1. HDFS 2. MapReduce 3. APIs 4. Hive & Pig 5. Mahout Tools aus Hadoop-Ökosystem 6. HBase 2 Worum
MehrOracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen
DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension
MehrFragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96
Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96 Dieser Fragenkatalog wurde aufgrund das Basistextes und zum Teil aus den Prüfungsprotokollen erstellt, um sich auf mögliche
MehrMapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce
MapReduce Jan Kristof Nidzwetzki MapReduce 1 / 17 Übersicht 1 Begriffe 2 Verschiedene Arbeiten 3 Ziele 4 DEDUCE: at the intersection of MapReduce and stream processing Beispiel 5 Beyond online aggregation:
MehrMan liest sich: POP3/IMAP
Man liest sich: POP3/IMAP Gliederung 1. Einführung 1.1 Allgemeiner Nachrichtenfluss beim Versenden von E-Mails 1.2 Client und Server 1.2.1 Client 1.2.2 Server 2. POP3 2.1 Definition 2.2 Geschichte und
MehrHochverfügbare Virtualisierung mit Open Source
Hochverfügbare Virtualisierung mit Open Source Gliederung DRBD Ganeti Libvirt Virtualisierung und Hochverfügbarkeit Hochverfügbarkeit von besonderer Bedeutung Defekt an einem Server => Ausfall vieler VMs
MehrSolaris Cluster. Dipl. Inform. Torsten Kasch <tk@cebitec.uni Bielefeld.DE> 8. Januar 2008
Dipl. Inform. Torsten Kasch 8. Januar 2008 Agenda Übersicht Cluster Hardware Cluster Software Konzepte: Data Services, Resources, Quorum Solaris Cluster am CeBiTec: HA Datenbank
MehrKURZANLEITUNG CLOUD OBJECT STORAGE
KURZANLEITUNG CLOUD OBJECT STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung... Seite 03 2. Anmelden am Cloud&Heat Dashboard... Seite 04 3. Anlegen eines Containers... Seite 05
MehrProzessarchitektur einer Oracle-Instanz
6. Juni 2008 Inhaltsverzeichnis Oracle Instanz 1 Oracle Instanz 2 3 Redo Log Buffer Shared Pool Java Pool & Large Pool Oracle Instanz Eine Oracle-Instanz ist Hauptbestandteil des Oracle Datenbank Management
Mehr2 Datei- und Druckdienste
Datei- und Druckdienste 2 Datei- und Druckdienste Lernziele: Verteiltes Dateisystem (DFS) Dateiserver Ressourcen Manager (FSRM) Verschlüsseln Erweiterte Überwachung Prüfungsanforderungen von Microsoft:
MehrBeratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting
Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis
MehrClustering mit Shared Storage. Ing. Peter-Paul Witta paul.witta@cubit.at
Clustering mit Shared Storage Ing. Peter-Paul Witta paul.witta@cubit.at Clustering mehrere kleine Rechner leisten gemeinsam Grosses günstige dual intel/amd Server load sharing High Availability combined
MehrCloud Data Management
Cloud Data Management Kapitel 3: Verteilte Dateisysteme Dr. Anika Groß Wintersemester 2016 Universität Leipzig http://dbs.uni-leipzig.de/ Inhaltsverzeichnis Dateisysteme für die Cloud Notwendigkeit, Ziele
MehrAn integrated total solution for automatic job scheduling without user interaction
An integrated total solution for automatic job scheduling without user interaction Multifunktional Der Job-Scheduler ist ein multifunktionaler Taskplaner welcher die Steuerzentrale zur regelmässigen Ausführung
MehrBranching und Merging mit Visual Studio Team System
Branching und Merging mit Visual Studio Team System IN EINER IDEALEN WELT GIBT ES Ein Entwicklungsteam Ein Projekt welches deployt werden muss Eine Deadline Kunden warten bis das Projekt komplett fertig
MehrLinux Hochverfügbarkeits-Cluster
Seminarunterlage Version: 5.05 Version 5.05 vom 23. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen
MehrSession Beans & Servlet Integration. Ralf Gitzel ralf_gitzel@hotmail.de
s & Servlet Integration Ralf Gitzel ralf_gitzel@hotmail.de 1 Themenübersicht Ralf Gitzel ralf_gitzel@hotmail.de 2 Übersicht Motivation Das Interface Stateful und Stateless s Programmierung einer Stateful
MehrInstallation SQL- Server 2012 Single Node
Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit
MehrCloud Data Management Kapitel 4: MapReduce(Teil3)
Cloud Data Management Kapitel 4: MapReduce(Teil3) Dr. Eric Peukert Wintersemester 2017 Universität Leipzig, Institut für Informatik http://dbs.uni-leipzig.de Inhaltsverzeichnis MapReduce MapReduce-Umsetzung
MehrEr musste so eingerichtet werden, dass das D-Laufwerk auf das E-Laufwerk gespiegelt
Inhaltsverzeichnis Aufgabe... 1 Allgemein... 1 Active Directory... 1 Konfiguration... 2 Benutzer erstellen... 3 Eigenes Verzeichnis erstellen... 3 Benutzerkonto erstellen... 3 Profil einrichten... 5 Berechtigungen
Mehr4D Server v12 64-bit Version BETA VERSION
4D Server v12 64-bit Version BETA VERSION 4D Server v12 unterstützt jetzt das Windows 64-bit Betriebssystem. Hauptvorteil der 64-bit Technologie ist die rundum verbesserte Performance der Anwendungen und
MehrLizenzen auschecken. Was ist zu tun?
Use case Lizenzen auschecken Ihr Unternehmen hat eine Netzwerk-Commuterlizenz mit beispielsweise 4 Lizenzen. Am Freitag wollen Sie Ihren Laptop mit nach Hause nehmen, um dort am Wochenende weiter zu arbeiten.
MehrFachbericht zum Thema: Anforderungen an ein Datenbanksystem
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank
MehrÜberblick. Multi-Cloud Computing Motivation Redundant Array of Cloud Storage (RACS) Zusammenfassung. c td MWCC (WS14/15) Multi-Cloud Computing 13 1
Überblick Multi-Cloud Computing Motivation Redundant Array of Cloud Storage (RACS) Zusammenfassung c td MWCC (WS14/15) Multi-Cloud Computing 13 1 Vendor Lock-In -Problem Typische Vorgehensweise bei der
Mehr:: Anleitung Hosting Server 1cloud.ch ::
:: one source ag :: Technopark Luzern :: D4 Platz 4 :: CH-6039 Root-Längenbold LU :: :: Fon +41 41 451 01 11 :: Fax +41 41 451 01 09 :: info@one-source.ch :: www.one-source.ch :: :: Anleitung Hosting Server
MehrHinweise zum Update des KPP Auswahltools (Netzwerkinstallation) auf Version 7.2
Hinweise zum Update des KPP Auswahltools (Netzwerkinstallation) auf Version 7.2 Installationsvoraussetzungen: Die Update-Routine benötigt das DotNet-Framework 4.0 Client Profile, das normalerweise über
MehrBig Data Informationen neu gelebt
Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen
MehrLexware professional und premium setzen bis einschließlich Version 2012 den Sybase SQL-Datenbankserver
Eine Firewall für Lexware professional oder premium konfigurieren Inhaltsverzeichnis: 1. Allgemein... 1 2. Einstellungen... 1 3. Die Firewall von Windows 7 und Windows 2008 Server... 2 4. Die Firewall
MehrFolgende Voraussetzungen für die Konfiguration müssen erfüllt sein: - Ein Bootimage ab Version 7.4.4. - Optional einen DHCP Server.
1. Dynamic Host Configuration Protocol 1.1 Einleitung Im Folgenden wird die Konfiguration von DHCP beschrieben. Sie setzen den Bintec Router entweder als DHCP Server, DHCP Client oder als DHCP Relay Agent
MehrBigTable. 11.12.2012 Else
BigTable 11.12.2012 Else Einführung Distributed Storage System im Einsatz bei Google (2006) speichert strukturierte Daten petabyte-scale, > 1000 Nodes nicht relational, NoSQL setzt auf GFS auf 11.12.2012
MehrMapReduce in der Praxis
MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation
MehrApache Lucene. Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org
Apache Lucene Mach s wie Google! Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org 1 Apache Apache Software Foundation Software free of charge Apache Software
MehrClients in einer Windows Domäne für WSUS konfigurieren
Verwaltungsdirektion Abteilung Informatikdienste Clients in einer Windows Domäne für WSUS konfigurieren 08.04.2009 10:48 Informatikdienste Tel. +41 (0)31 631 38 41 Version 1.0 Gesellschaftsstrasse 6 Fax
Mehrmywms Vorlage Seite 1/5 mywms Datenhaltung von Haug Bürger
mywms Vorlage Seite 1/5 mywms Datenhaltung von Haug Bürger Grundlegendes Oracle9i PostgreSQL Prevayler Memory mywms bietet umfangreiche Konfigurationsmöglichkeiten um die Daten dauerhaft zu speichern.
MehrAbschluss Version 1.0
Beschreibung Der Abschluss wird normalerweise nur einmal jährlich durchgeführt. Dieses Tech-Note soll helfen, diesen doch seltenen aber periodisch notwendigen Vorgang problemlos durchzuführen. Abschlussvarianten
Mehrec@ros2-installer ecaros2 Installer procar informatik AG 1 Stand: FS 09/2012 Eschenweg 7 64331 Weiterstadt
ecaros2 Installer procar informatik AG 1 Stand: FS 09/2012 Inhaltsverzeichnis 1 Download des ecaros2-installer...3 2 Aufruf des ecaros2-installer...3 2.1 Konsolen-Fenster (Windows)...3 2.2 Konsolen-Fenster
MehrEntwicklungen bei der Linux Clustersoftware
Quo vadis Linux-HA? Entwicklungen bei der Linux Clustersoftware Michael Schwartzkopff misch@schwartzkopff.org (c) Michael Schwartzkopff, 2010 1 / 19 Linux Clustersoftware Linux Virtual Server Bietet Skalierbarkeit...
MehrAvira Server Security Produktupdates. Best Practice
Avira Server Security Produktupdates Best Practice Inhaltsverzeichnis 1. Was ist Avira Server Security?... 3 2. Wo kann Avira Server Security sonst gefunden werden?... 3 3. Was ist der Unterschied zwischen
MehrKommunikationsübersicht XIMA FORMCYCLE Inhaltsverzeichnis
Kommunikationsübersicht Inhaltsverzeichnis Kommunikation bei Einsatz eines MasterServer... 2 Installation im... 2 Installation in der... 3 Kommunikation bei Einsatz eines MasterServer und FrontendServer...
MehrPrüfungsnummer: 70-412. Prüfungsname: Configuring Advanced. Version: Windows Server 2012 Services. Demo. http://www.it-pruefungen.
Prüfungsnummer: 70-412 Prüfungsname: Configuring Advanced Windows Server 2012 Services Version: Demo http://www.it-pruefungen.de/ Achtung: Aktuelle englische Version zu 70-412 bei uns ist auch verfügbar!!
MehrAlbert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen
Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.
MehrAGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom 21.10.2013b
AGROPLUS Buchhaltung Daten-Server und Sicherheitskopie Version vom 21.10.2013b 3a) Der Daten-Server Modus und der Tresor Der Daten-Server ist eine Betriebsart welche dem Nutzer eine grosse Flexibilität
MehrHadoop-as-a-Service (HDaaS)
Hadoop-as-a-Service (HDaaS) Flexible und skalierbare Referenzarchitektur Arnold Müller freier IT Mitarbeiter und Geschäftsführer Lena Frank Systems Engineer @ EMC Marius Lohr Systems Engineer @ EMC Fallbeispiel:
MehrPVFS (Parallel Virtual File System)
Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur
MehrWINDOWS 8 WINDOWS SERVER 2012
WINDOWS 8 WINDOWS SERVER 2012 IT Fachforum 2012 :: 24.09.-27.09.2012 Andreas Götzfried IT Fachforum::Agenda Windows 8 Windows Server 2012 Zertifizierung WINDOWS 8 Schöne neue Welt Andreas Götzfried Windows
MehrDatensicherheit und Hochverfügbarkeit
Datensicherheit und Hochverfügbarkeit 1. Instanzfehler Aussage: Instanzfehler werden durch Crash Recovery vom DBS automatisch behandelt. Recovery Zeiten? Ausfall von Speichersubsystem, Rechner,...? Ausfall
MehrDduP - Towards a Deduplication Framework utilising Apache Spark
- Towards a Deduplication Framework utilising Apache Spark utilising Apache Spark Universität Hamburg, Fachbereich Informatik Gliederung 1 Duplikaterkennung 2 Apache Spark 3 - Interactive Big Data Deduplication
MehrOERA OpenEdge Reference Architecture. Mike Fechner PUG Infotag 19. Mai 05 Frankfurt
OERA OpenEdge Reference Architecture Mike Fechner PUG Infotag 19. Mai 05 Frankfurt Überblick OERA Separated presentation and integration layers Common business logic with advanced models Data access abstracted
MehrUpdatehinweise für die Version forma 5.5.5
Updatehinweise für die Version forma 5.5.5 Seit der Version forma 5.5.0 aus 2012 gibt es nur noch eine Office-Version und keine StandAlone-Version mehr. Wenn Sie noch mit der alten Version forma 5.0.x
MehrIn diesem Thema lernen wir die Grundlagen der Datenbanken kennen und werden diese lernen einzusetzen. Access. Die Grundlagen der Datenbanken.
In diesem Thema lernen wir die Grundlagen der Datenbanken kennen und werden diese lernen einzusetzen. Access Die Grundlagen der Datenbanken kurspc15 Inhaltsverzeichnis Access... Fehler! Textmarke nicht
MehrPowermanager Server- Client- Installation
Client A Server Client B Die Server- Client- Funktion ermöglicht es ein zentrales Powermanager Projekt von verschiedenen Client Rechnern aus zu bedienen. 1.0 Benötigte Voraussetzungen 1.1 Sowohl am Server
MehrHochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP
Hochverfügbarkeit mit Windows Server vnext Carsten Rachfahl Microsoft Hyper-V MVP Carsten Rachfahl www.hyper-v-server.de Roling Cluster Upgrade Herausforderung: Update eines Failover Clusters ohne Downtime
MehrHOWTO Update von MRG1 auf MRG2 bei gleichzeitigem Update auf Magento CE 1.4 / Magento EE 1.8
Update von MRG1 auf MRG2 bei gleichzeitigem Update auf Magento CE 1.4 / Magento EE 1.8 Schritt 1: Altes Modul-Paket vollständig deinstallieren Die neuen MRG-Module sind aus dem Scope local in den Scope
MehrBig Data in der Forschung
Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die
MehrKonfiguration von Igel ThinClients fu r den Zugriff via Netscaler Gateway auf eine Storefront/ XenDesktop 7 Umgebung
Konfiguration von Igel ThinClients fu r den Zugriff via Netscaler Gateway auf eine Storefront/ XenDesktop 7 Umgebung Inhalt 1. Einleitung:... 2 2. Igel ThinClient Linux OS und Zugriff aus dem LAN... 3
MehrFragen zur GridVis MSSQL-Server
Fragen zur GridVis MSSQL-Server Frage Anmerkung 1.0 Server allgemein 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens
MehrSysteme 1. Kapitel 6. Nebenläufigkeit und wechselseitiger Ausschluss
Systeme 1 Kapitel 6 Nebenläufigkeit und wechselseitiger Ausschluss Threads Die Adressräume verschiedener Prozesse sind getrennt und geschützt gegen den Zugriff anderer Prozesse. Threads sind leichtgewichtige
MehrGrundlagen verteilter Systeme
Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 3 12.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: a)
Mehrdsmisi Storage Lars Henningsen General Storage
dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder
MehrKonvertierung von Smap3D Norm- und Wiederholteilen für SolidWorks 2015
Konvertierung von Smap3D Norm- und Wiederholteilen für SolidWorks 2015 Dieses Dokument beschreibt wie man Smap3D Norm- und Wiederholteile für die Verwendung mit Smap3D Piping konvertiert, um sie in SolidWorks
MehrWorkshop: Eigenes Image ohne VMware-Programme erstellen
Workshop: Eigenes Image ohne VMware-Programme erstellen Normalerweise sind zum Erstellen neuer, kompatibler Images VMware-Programme wie die Workstation, der ESX-Server oder VMware ACE notwendig. Die Community
Mehre-cargo Kurzeinführung: Neue Version ab 11.02.2013
e-cargo Kurzeinführung: Neue Version ab 11.02.2013 Seite 1 Vorwort Am 11.02.2013 wurde eine neue Version von e-cargo veröffentlicht. Diese Kurzeinführung soll als Unterstützung im Umgang mit den neuen
MehrWindows Server 2012 R2 Essentials & Hyper-V
erklärt: Windows Server 2012 R2 Essentials & Hyper-V Windows Server 2012 R2 Essentials bietet gegenüber der Vorgängerversion die Möglichkeit, mit den Boardmitteln den Windows Server 2012 R2 Essentials
MehrSCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21
SCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21 - Schulungskonzept - Moodle Das E-Learning System - Die E-Learning-Plattform von raum21 - Ansprechpartner D A S S C H U L U N G S K O N Z E P T V O N R A U M
MehrFolgende Einstellungen sind notwendig, damit die Kommunikation zwischen Server und Client funktioniert:
Firewall für Lexware professional konfigurieren Inhaltsverzeichnis: 1. Allgemein... 1 2. Einstellungen... 1 3. Windows XP SP2 und Windows 2003 Server SP1 Firewall...1 4. Bitdefender 9... 5 5. Norton Personal
Mehr3 Windows als Storage-Zentrale
3 Windows als Storage-Zentrale Windows als zentrale Datenspeichereinheit punktet gegenüber anderen Lösungen vor allem bei der Integration in vorhandene Unternehmensnetze sowie bei der Administration. Dabei
MehrWindows Vista Security
Marcel Zehner Windows Vista Security ISBN-10: 3-446-41356-1 ISBN-13: 978-3-446-41356-6 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41356-6 sowie im Buchhandel
MehrPeter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr
Peter Dikant mgm technology partners GmbH Echtzeitsuche mit Hadoop und Solr ECHTZEITSUCHE MIT HADOOP UND SOLR PETER DIKANT MGM TECHNOLOGY PARTNERS GMBH WHOAMI peter.dikant@mgm-tp.com Java Entwickler seit
MehrAnwenderdokumentation AccountPlus GWUPSTAT.EXE
AccountPlus Inhaltsverzeichnis Inhaltsverzeichnis Anwenderdokumentation AccountPlus GWUPSTAT.EXE (vorläufig) ab Version 6.01 INHALTSVERZEICHNIS...1 1 ALLGEMEINES...2 2 INSTALLATION UND PROGRAMMAUFRUF...2
MehrCisco Security Monitoring, Analysis & Response System (MARS)
Cisco Security Monitoring, System Die Produkte des Herstellers Cisco Systems für Security Information Management haben heute die Produktbezeichnung MARS. Das signaturorientierte IDS wurde im Zuge der technischen
MehrANYWHERE Zugriff von externen Arbeitsplätzen
ANYWHERE Zugriff von externen Arbeitsplätzen Inhaltsverzeichnis 1 Leistungsbeschreibung... 3 2 Integration Agenda ANYWHERE... 4 3 Highlights... 5 3.1 Sofort einsatzbereit ohne Installationsaufwand... 5
MehrBenachrichtigungsmöglichkeiten in SMC 2.6
Benachrichtigungsmöglichkeiten in SMC 2.6 Support April 2011 www.avira.de Irrtümer und technische Änderungen vorbehalten Avira GmbH 2011 Benachrichtigungsmöglichkeiten in SMC 2.6 Folgende Benachrichtigungsmöglichkeiten
MehrINSTALLATIONSANLEITUNG
INSTALLATIONSANLEITUNG MASTER UPDATE 2.1.0.4 2014 Gambio GmbH. www.gambio.de Inhaltsverzeichnis 1 Changelog 3 2 Datensicherung 3 3 Installation Master Update 4 3.1 Update von Shopsystemen v2.0.7c bis v2.0.15.4
Mehr1 Einleitung. Lernziele. Symbolleiste für den Schnellzugriff anpassen. Notizenseiten drucken. eine Präsentation abwärtskompatibel speichern
1 Einleitung Lernziele Symbolleiste für den Schnellzugriff anpassen Notizenseiten drucken eine Präsentation abwärtskompatibel speichern eine Präsentation auf CD oder USB-Stick speichern Lerndauer 4 Minuten
MehrTapps mit XP-Mode unter Windows 7 64 bit (V2.0)
Tapps mit XP-Mode unter Windows 7 64 bit (V2.0) 1 Einleitung... 2 2 Download und Installation... 3 2.1 Installation von WindowsXPMode_de-de.exe... 4 2.2 Installation von Windows6.1-KB958559-x64.msu...
MehrComplex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH
Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting
MehrDateisysteme und Datenverwaltung in der Cloud
Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1
MehrVorstellung SimpliVity. Tristan P. Andres Senior IT Consultant
Vorstellung SimpliVity Tristan P. Andres Senior IT Consultant Agenda Wer ist SimpliVity Was ist SimpliVity Wie funktioniert SimpliVity Vergleiche vsan, vflash Read Cache und SimpliVity Gegründet im Jahr
MehrFrederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Erfahrungen mit Single-Namespace NFS im HPC-Umfeld Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Das Linux-Cluster am LRZ 2 Speichersysteme am Linux-Cluster Homeverzeichnisse
MehrI N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte
I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen
MehrApache HBase. A BigTable Column Store on top of Hadoop
Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,
MehrFolgende Voraussetzungen für die Konfiguration müssen erfüllt sein:
7. Intrusion Prevention System 7.1 Einleitung Sie konfigurieren das Intrusion Prevention System um das Netzwerk vor Angriffen zu schützen. Grundsätzlich soll nicht jeder TFTP Datenverkehr blockiert werden,
MehrInhalt. 1 Einleitung AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER
AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER Inhalt 1 Einleitung... 1 2 Einrichtung der Aufgabe für die automatische Sicherung... 2 2.1 Die Aufgabenplanung... 2 2.2 Der erste Testlauf... 9 3 Problembehebung...
MehrHow-to: Webserver NAT. Securepoint Security System Version 2007nx
Securepoint Security System Inhaltsverzeichnis Webserver NAT... 3 1 Konfiguration einer Webserver NAT... 4 1.1 Einrichten von Netzwerkobjekten... 4 1.2 Erstellen von Firewall-Regeln... 6 Seite 2 Webserver
Mehr3. Stud.IP-Entwickler-Workshop 2. Juni 2006 Workshop 3c: Stud.IP-Enterprise-Edition André Noack, Frank Elsner
3. Stud.IP-Entwickler-Workshop 2. Juni 2006 Workshop 3c: Stud.IP-Enterprise-Edition André Noack, Frank Elsner Gliederung Das Problem: Skalierbarkeit LAMP Tuning Mehr als ein Server Stud.IP und shared nothing
MehrDaten-Synchronisation zwischen Mozilla Thunderbird (Lightning) / Mozilla Sunbird und dem ZDV Webmailer
Daten-Synchronisation zwischen Mozilla Thunderbird (Lightning) / Mozilla Sunbird und dem ZDV Webmailer Zentrum für Datenverarbeitung der Universität Tübingen Inhaltsverzeichnis 1.Synchronisation...aber
Mehr