D5.3 Aktualisierte Ergebnisse der Evaluierung

Größe: px
Ab Seite anzeigen:

Download "D5.3 Aktualisierte Ergebnisse der Evaluierung"

Transkript

1 D5.3 Aktualisierte Ergebnisse der Evaluierung Arbeitspaket/Task: AP 5 Task 5.3 Fälligkeit: M36 Abgabetermin: Verantwortlich: NEC Versionsnummer/Status: 288 Final Autoren: Jeutter, Andreas Focht, Erich Volk, Eugen Schwitalla, Jürgen Lohrer, Marc Koudela, Daniela Belonozhka, Polina Mickler, Holger Schmidt, Matthias Schwarzkopf, Roland NEC NEC HLRS S&C S&C ZIH ZIH ZIH UMA UMA Interne Gutachter: Volk, Eugen Schwarzkopf, RolandMickler, Holger HLRS UMA ZIH Vertraulichkeitsstatus Öffentlich Projektintern Sonstiges: X Version Datum Änderungen Autor Erstellung Andreas Jeutter (NEC) 1/25

2 Erste Messungen am BWGrid Eugen Volk (HLRS) Erste Messungen am DEIMOS Holger Mickler (ZIH) Daniela Koudela (ZIH) Polina Belonozhka ('ZIH) Aktualisierte Messungen am BWGrid und DEIMOS Cluster Eugen Volk (HLRS) Holger Mickler (ZIH) Daniela Koudela (ZIH) Messungen und Evaluation am UMA Roland Schwarzkopf (UMA) Matthias Schmidt (UMA) Evaluation der Messergebnisse Alle Autoren 0.7 Review und Akutalisierung des Dokuments Holger Mickler (ZIH) Eugen Volk (HLRS) 2/25

3 Inhaltsverzeichnis 1 Einleitung Komponenten des Systems Abschließender Test des Gesamtsystems Test des TIMaCS-Frameworks Konfiguration der Testsysteme... 7 BWGrid... 7 Deimos Testszenarien Test-Szenario für den BWGrid Cluster Test-Szenario für den Deimos Cluster Durchführung der Tests Eingesetzte Testwerkzeuge zur Performancemessung Start / Stop des Testssystems Test und Evaluierung auf dem BWGrid Cluster Test und Evaluierung auf dem Deimos Cluster Test und Evaluierung der Virtualisierungslösung Konfiguration des Marburger Rechencluster (MaRC) Test-Szenario für den Marburger Rechencluster (MaRC) Testergebnisse auf dem Marburger Rechencluster (MaRC) Szenario 1: Übertragung von virtuellen Maschinen Szenario 2: Reduktion der Datenmenge von virtuellen Maschinen Szenario 3: Ausführungszeit Szenario 4: Migration von virtuellen Maschinen Zusammenfassung der Evaluation Zusammenfassung Referenzen /25

4 1 Einleitung In diesem Dokument werden die aktualisierten Ergebnisse der Evaluierung der finalen TIMaCS Softwarekomponenten dargestellt. Nachdem die Funktionalität sowie das Zusammenwirken und Integration der einzelnen Komponenten anhand des evaluierten Prototypen sichergestellt und in D5.2 [D5.2] dokumentiert wurde, soll nun in diesem Dokument die Leistungsfähigkeit mit besonderem Fokus auf Skalierbarkeit anhand der finalen Version der Software evaluiert werden. Die TIMaCS-Software wird hierzu nicht mehr auf dem zur Verfügung stehenden Entwicklungssystem (TIMaCS Cluster bestehend aus sechs Knoten) getestet sondern auf mehreren realen Cluster installiert und geprüft. Die hierzu verwendeten Systeme sind a) BWGrid [BWG] mit etwa 500 Knoten am HLRS, b) der Deimos Cluster [DMC] mit mehr als 700 Knoten des ZIH, und c) MaRC Cluster der Uni-Marburg. 4/25

5 2 Komponenten des Systems In der folgenden Abbildung 1 ist die Gesamtarchitektur des TIMaCS Systems und die Interaktion der einzelnen TIMaCS Knoten dargestellt, entsprechend der Beschreibung und Darstellung in [D1.2] und [D1.3].,,...,,, 1 1 Die logische Struktur eines TIMaCS Knotens, dargestellt in Abbildung 2, wird durch einen Monitoring- und einen Management-Block gebildet. Die Funktion und die Schnittstellen der Komponenten des TIMaCS-Frameworks (Monitoring- und Management-Block) wurden in [D1.2] und [D1.3] beschrieben. 5/25

6 ,, / 1 3 Abschließender Test des Gesamtsystems Der abschließende Performance-Test der TIMaCS-Komponenten gliedert sich in zwei Test-Typen: Test des TIMaCS-Frameworks auf dem BWGrid Cluster am HLRS auf dem Deimos Cluster am ZIH Test der Virtualisierungslösung auf dem MaRC Cluster der Uni-Marburg Dabei wurden unterschiedliche Konfigurationen getestet, die sich in der Anzahl und im Typ der Knoten, installierten Betriebssysteme, und TIMaCS-Hierarchien unterscheiden. 3.1 Test des TIMaCS-Frameworks Der Test des TIMaCS-Frameworks ist darauf ausgerichtet, die Performance der TIMaCSKomponenten zu erfassen, um eine Aussage über die Skalierbarkeit des TIMaCS-Frameworks treffen zu können. Die Tests wurden auf dem BWGrid Cluster am HLRS und auf dem Deimos Cluster am ZIH durchführt. 6/25

7 3.1.1 Konfiguration der Testsysteme Im Folgenden wird die Konfiguration der einzelnen Systeme gezeigt, auf denen die Komponenten getestet wurden. Im Allgemeinen sind die Compute-Knonten eines Clusters mit mehreren Netzwerkschnittstellen ausgestattet. Wobei es sich hier normalerweise um ein gewöhnliches Ethernet Netzwerk und ein zusätzliches High Performance Netzwerk wie z. B. InfiniBand handelt. Das letztere sollte den rechenintensiven Anwendungen vorbehalten sein, so dass TIMaCS derart konfiguriert wird, dass es das verbleibende Ethernet benutzt. BWGrid Der BWGrid Cluster am HLRS besteht aus 39 IBM Bladecenter HS21XM mit jeweils 14 Knoten, und hat insgesamt 545 Knoten [BWG]. Jeder Knoten beinhaltet 2 Intel Xeon E5440 Harpertown Prozessoren mit je 12 MB Cache, 16 GB Hauptspeicher, keinen lokalen Platten, ein InfiniBandNetzwerk für die Berechnung und GBit Ethernet als Managementnetzwerk. Des Weiteren gibt es einen Infrastrukturserver, der das Batchsystem mit Torque/Moab beinhaltet und mehrere Frontends (IBM x3650 mit der gleichen CPU/SpeicheraAusstattung) für den Zugang per SSH und Grid Middleware (Globus, GSI-SSH, Unicore). Die Knoten werden mit Scientific Linux 5 betrieben. Für den Cluster stehen zusätzlich 100 TB an Plattenkapazität zur Verfügung. Dieser Cluster wird im Rahmen von D-Grid von vielen VOs genutzt. Zur Erfassung des Zustands der Knoten des BWGrid Clusters wird Cluster Node Checker [CNM] verwendet. Hierzu werden in regelmäßigen Abständen auf jedem Knoten mehrere Test-Skripts aufgerufen, die den Zustand der Services (Job-Status, SSH-Status,..) und der Komponenten (Memory, CPU,...) ermitteln und das Ergebnis der Checks in eine zentrale Datenbank (MySQL) eintragen, die auf einem dedizierten Infrastruktur-Knoten läuft. Das TIMaCS-Framework fragt diese Datenbank in regelmäßigen Abständen ab und verarbeitet die Daten. Alle Komponenten des TIMaCS-Frameworks werden innerhalb einer VM-Instanz (KVM, mit Linux-Debian) auf einem dedizierten Knoten ausgeführt. Deimos Deimos ist ein x86-cluster, der am ZIH vorwiegend für sogenanntes Capacity-Compting verwendet wird, das heißt, viele voneinander unabhängige Jobs werden parallel ausgeführt, bspw. um Parameterstudien durchzuführen. Ende November 2011 wurde ein Teil des Clusters abgebaut, die daraus resultierenden Zahlen sind nachfolgend in Klammern aufgeführt. Alle Knoten von Deimos sind mit AMD Opteron Dual-Core Prozessoren ausgestattet. Die Konfiguration der einzelnen Knoten kann in 4 Klassen unterteilt werden: Singles, Duals, Quads und FatQuads. Diese unterscheiden sich hinsichtlich Anzahl verfügbarer CPUs und Menge des Hauptspeichers. Insgesamt stehen 724 (564) Knoten mit 2576 (2256) Prozessor-Cores für NutzerJobs zur Verfügung, wovon 384 (224) mit einem Prozessor ( Singles ), 228 mit zwei Prozessoren ( Duals ) und 112 mit vier Prozessoren ( Quads und FatQuads ) ausgestattet sind. Die 7/25

8 Heimatverzeichnisse der Nutzer sowie ein Pfad für temporäre Dateien befinden sich in globalen Dateisystemen, die mittels Lustre an die Knoten angebunden sind. Tabelle 1 enthält eine Übersicht zu den Austattungsmerkmalen der verschiedenen Knoten. Singles Duals Quads FatQuads Anzahl Cores Hauptspeicher 4 GB 8 GB 16 GB 32 GB Kommunikations netzwerk SDR InfiniBand 4x (1 GB/s) I/O-Netzwerk (Lustre) SDR InfiniBand 4x (1 GB/s) Service-Netzwerk Lokales Dateisystem /tmp (Ext3) Fast Ethernet (100 MBit/s) 80 GB 160 GB 320 GB Globales Dateisystem /home (Lustre) 68 TB Globales Dateisystem /fastfs (Lustre) 68 TB 320 GB Betriebssystem SuSE Linux Enterprise Server 10 SP4 (Kernel Lustre ) Batch-System Platform LSF Version 6.2 Tabelle 1: Ausstattung der verschiedenen Knotenklassen des Deimos Clusters Zum Test von TIMaCS wurde zuerst eine dreistufige Hierarchie erstellt (Konfiguration A), für deren Master-Knoten Single -Rechenknoten von Deimos exklusiv abgestellt wurden. Diese Hierarchie ist in Abbildung 3 dargestellt und die zugehörige Konfigurationsdatei in Tabelle 2 auszugsweise gelistet. Die TIMaCS Master-Knoten der oberen zwei Ebenen haben jeweils drei TIMaCS-Master unter sich, so dass sich auf der untersten Ebene neun TIMaCS Master-Knoten befinden. Auf jedem TIMaCS Master-Knoten laufen ein AMQP-Broker, ein htimacsd-daemon sowie die TIMaCS Rule-Engine. An den Master-Knoten der untersten Ebene werden Importer von htimacsd zum Sammeln von Ganglia-Metriken der Service- und Compute-Knoten des Clusters gestartet. Weiterhin werden Statusmeldungen von Nagios auf einem Master-Knoten der zweiten Ebene (p2s080) importiert. Die htimacsd-daemons jeder Ebene aggregieren die in dieser Ebene gesammelten Metriken und bilden Minimum-, Durchschnitts- und Maximalwerte. Diese Werte werden an die übergeordnete Ebene weitergeleitet, wo sie eine ressourcenschonende Sicht auf die darunterliegenden Systeme ermöglichen. 8/25

9 Abbildung 3: Dreistufige Hierarchie der TIMaCS Master-Knoten unter Verwendung von Rechnenknoten von Deimos Eine andere Hierarchie (Konfiguration B) mit insgesamt drei Knoten kommt für den Produktivbetrieb von TIMaCS zum Einsatz (siehe Abbildung 4). Diese besteht aus nur drei Rechnern, von denen einer als AMQP-Broker fungiert (timacs3), während die anderen beiden in einer simplen zweistufigen Hierarchie angeordnet sind. Der Wurzelknoten (timacs1) hat dabei htimacsd und die Policy-Engine laufen, während der Kindknoten (timacs2) mittels htimacsd Metriken von Ganglia, Nagios und weiteren Quellen importiert, sowie die Rule-Engine ausführt. Abbildung 4: Einfache Hierarchie mit separatem AMQP-Broker Die Hardware der drei TIMaCS-Knoten aus Konfiguration B besteht aus Komponenten wie in Tabelle 3 aufgeführt ist. Der AMQP-Server hat weniger Rechenleistung als die TIMaCS-Master, dafür aber mehr Arbeitsspeicher, um bei eventuellen Engpässe bei der Abholung von Nachrichten diese nicht langsam auf Festplatte zwischenspeichern zu müssen. Weiterhin ist die reine Verteilung der Nachrichten nicht so rechenintensiv, dass dies mittelfristig leistungsbeschränkend würde. 9/25

10 /p2s111 m:/ /l1g1/p1s100 m:/l1g1 /l1g2/p2s080 m:/l1g2 /l1g3/p2s250 m:/l1g3 /l1g1/l2g1/p1s010 m:/l1g1/l2g1 /l1g1/l2g2/p1s040 m:/l1g1/l2g2 /l1g1/l2g3/p1s080 m:/l1g1/l2g3 /l1g2/l2g4/p1s120 m:/l1g2/l2g4 /l1g2/l2g5/p2s040 m:/l1g2/l2g5 /l1g2/l2g6/p2s120 m:/l1g2/l2g6 /l1g3/l2g7/p2s160 m:/l1g3/l2g7 /l1g3/l2g8/p2s200 m:/l1g3/l2g8 /l1g3/l2g9/p2s240 m:/l1g3/l2g9 /l1g1/l2g1/p1q001 /l1g1/l2g1/p1q002 [...] /l1g1/l2g2/p1q017 /l1g1/l2g2/p1q018 [...] /l1g1/l2g3/p1s041 /l1g1/l2g3/p1s042 [...] Tabelle 2: Auszug aus der Konfigurationsdatei der dreistufigen Hierarchie timacs1, timacs2 timacs3 Prozessor 2x AMD Opteron 2220 (2,8 GHz) 1x AMD Opteron 256 (3 GHz) Anzahl Cores 4 2 Hauptspeicher 8 GB 16 GB Netzwerk Gigabit Ethernet Lokales Dateisystem 120 GB Betriebssystem SuSE Linux Enterprise Server 11 SP1 (Kernel ) 60 GB Tabelle 3: Hardware des TIMaCS Produktionssystems am ZIH Testszenarien In diesem Kapitel werden die Testszenarien beschrieben, die auf den unterschiedlichen Clustern durchgeführt wurden. 10/25

11 Test-Szenario für den BWGrid Cluster Auf jedem der 545 Knoten des BWGrid Clusters werden 24 Tests (vgl. Tabelle 4) von dem Cluster Node Checker [CNM] durchführt. Das Ergebnis der Tests wird in eine Datenbank geschrieben, unter Angabe der Knoten-ID, der Check-ID und des Datums. Zur Test-Zeit befanden sich ca Einträge in der Datenbank. Der Testablauf ist wie folgt: Der Importer der TIMaCS Monitoring-Komponente ist so konfiguriert, dass er die Daten aus der MySQL Datenbank in regelmäßigen Abständen abfragt und diese auf dem Metrik-Kanal publiziert. Dabei werden die Daten von der TIMaCS Storage-Komponente konsumiert und gespeichert. Der Filter&Event Generator analysiert empfangene Metrik-Daten und vergleicht sie mit vordefinierten Schwellwerten. Bei einer Abweichung werden Events erzeugt und anschließend auf dem Message-Bus (AMQP-Server) publiziert. Die Policy-Engine abonniert die Event-Nachrichten, die von dem Filter&Event Generator auf dem Message-Bus publiziert werden. Die empfangenen Event-Nachrichten werden nun von der Policy-Engine weiterverarbeitet. In Abhängigkeit von dem Zustand, der in der Event-Nachricht spezifiziert ist, wird eine entsprechende Aktion bzw. Befehl umgewandelt und an den betroffenen Delegate übermittelt. Der Delegate, der für das Empfangen der Kommando-Nachrichten für den Host zuständig ist, empfängt nun die entsprechende Kommando-Nachricht von der Policy-Engine und führt das Kommando aus. 11/25

12 Id Name des Checks/Tests 1./plugins/remote/check_ping 2./plugins/local/check_ramdisk.sh 3./plugins/local/check_swap.sh 4./plugins/local/check_ib.sh 5./plugins/local/check_init_procs.sh 6./plugins/local/check_mcelog.sh 7./plugins/local/check_uptime.sh 8./plugins/local/check_filesystems.sh 9./plugins/local/check_dmesg.sh 10./plugins/local/check_user_procs.sh 11./plugins/remote/check_local_plugins 12./plugins/local/.check_ramdisk.sh.swp 13./plugins/local/check_lustre.sh 14./plugins/local/.check_lustre.sh.swp 15./plugins/local/compute_node_HW_inventory.sh 16./plugins/local/check_reboot.sh 17./plugins/local/.check_reboot.sh.swp 18./plugins/remote/check_failure_led 19./plugins/local/check_node_image_version.sh 20./plugins/local/check_nobatchprocs.sh 21./plugins/local/.check_nobatchprocs.sh.swp 22./plugins/remote/.check_failure_led.swp 23./plugins/local/.check_node_image_version.sh.swp 24./plugins/local/.compute_node_HW_inventory.sh.swp Tabelle 4: Checks auf jedem Knoten des BWGrid Clusters In jedem der Schritte wird die Geschwindigkeit gemessen, mit der die Daten/Events verarbeitet und publiziert werden. 12/25

13 Test-Szenario für den Deimos Cluster Das Szenario für den Test des TIMaCS-Frameworks auf dem Deimos Cluster entspricht der Beschreibung in D5.2 [D5.2] und besteht aus den folgenden Schritten: 1. Nagios und Ganglia erfassen auf jedem Knoten den Zustand der Services und der Komponenten. Dabei werden die in Tabelle 5 aufgeführten Metriken verwendet. 2. Der Importer liest alle Monitoring-Daten aus dem Nagios-Log und GangliaXMLMetric aus und publiziert diese auf dem Metrik-Kanal. 3. Der Filter&Event Generator liest und verarbeitet die Metriken auf dem Metrik-Kanal und wandelt diese in entsprechende Event-Nachrichten um. Die Event-Nachrichten werden anschließend auf dem Message-Bus (AMQP-Server) publiziert. 4. Die Policy-Engine abonniert die Event-Nachrichten, die von dem Filter&Event Generator auf dem Message-Bus publiziert werden. Die empfangene Event-Nachrichten werden nun von der Policy-Engine weiterverarbeitet. In Abhängigkeit von dem Zustand, der in der Event-Nachricht spezifiziert ist, wird eine entsprechende Aktion bzw. Befehl umgewandelt und an den betroffenen Delegate übermittelt. 5. Der Delegate, der für das Empfangen der Kommando-Nachrichten für den Host zuständig ist, empfängt nun die entsprechende Kommando-Nachricht von der Policy-Engine und führt das Kommando aus. In jedem der Schritte wird die Geschwindigkeit gemessen, mit der die Daten/Events verarbeitet und publiziert werden. Die in Tabelle 5 aufgelisteten Metriken werden in vorgegebenen <min> Abständen erfasst. Wenn die Änderung zum letzten Wert größer ist als ein definierter Wert, werden alle Daten der Gruppe gesendet. Spätestens jedoch nach <max> werden in jedem Fall alle Daten der Gruppe gesendet. D. h. das minimale Invervall ist durch <min> bestimmt, das maximale Intervall ist entsprechend durch <max> bestimmt. Ausgehend von den beiden Intervallen lässt sich wie in Tabelle 6 berechnet, die minimale (0.25 Metriken/Sekunde und Host) und die maximale (0.9 Metriken/Sekunde und Host) Häufigkeit bzw. Geschwindigkeit ermitteln, mit der die Metriken pro Host erfasst werden. 13/25

14 Metrik-Name Abfrageintervall [min/max] heartbeat 20 s cpu_num, cpu_speed, mem_total, swap_total, boottime, machine_type, os_name, os_release 1200 s cpu_user, cpu_system, cpu_idle, cpu_nice, cpu_aidle, cpu_wio, cpu_intr, cpu_sintr, load_one, load_five, load_fifteen 20 / 90 s proc_run, proc_total 80 / 950 s mem_free, mem_shared, mem_buffers, mem_cached, swap_free, disk_free, part_max_used 40 / 180 s bytes_out, bytes_in, pkts_out, pkts_in 40 / 300 s disk_total 1800 / 3600 s Tabelle 5: Erfasste Metriken mit Abfrage-Intervall pro Metrik und Host Abfrage-Intervall [in Sekunden] Anzahl der Metriken Abfrage-Häufigkeit gesamt [pro Sekunde] min max max min ,05 0, , , ,55 0, ,025 0, ,175 0, ,1 0, , , , ,25 Tabelle 6: Berechnung der maximalen und minimalen Abfrage-Häufigkeit der Metriken pro Host 14/25

15 3.1.3 Durchführung der Tests Die Performance Tests sind darauf ausgerichtet, die Geschwindigkeit zu messen, mit der die Daten von den TIMaCS-Komponenten verarbeitet werden. Die nachfolgenden Teilkapitel beschreiben eingesetzte Testwerkzeuge und start/stop des Testsystems. Eingesetzte Testwerkzeuge zur Performancemessung Die Performance-Messung erfolgt mit Hilfe des RabbitMQ-Management-Plugins. Das Plugin erlaubt eine Messung der Geschwindigkeit (Messages per second) mit der die Nachrichten auf jedem Exchange publiziert werden. Da jede TIMaCS-Komponente einen dedizierten Exchange für das Publizieren von Nachrichten verwendet (vgl. Tabelle 7), kann mit Hilfe des RabbitMQManagement-Plugins die Geschwindigkeit gemessen werden, mit der jede TIMaCS-Komponente die Nachrichten erzeugt. Da der Verarbeitungsprozess im TIMaCS Framework deterministisch ist, erlaubt die Messung der Geschwindigkeit mit der die Nachrichten erzeugt werden einen Rückschluss auf die Verarbeitungsgeschwindigkeit der eingehenden Nachrichten in jeder Komponente. Komponente ExchangeName Data-Collector metrics von dem Data-Collector erzeugte Metriken Rule-Engine events von der Rule-Engine erzeugte Events Policy-Engine policyengine Policy-Engine commands Beschreibung von der Policy-Engine erzeugte Event und Reports von der Policy-Engine erzeugte Befehle Tabelle 7:TIMaCS-Komponenten und ihre Exchanges Start / Stop des Testssystems Das Testsystem wird durch das vorinstallierte Skript timacs gestartet und auch wieder gestoppt. bin/timacs start Dieses Kommando startet den htimacsd Daemon auf allen TIMaCS-Knoten. Zum Stoppen des Daemons wird das obige Kommando mit der Option --stop verwendet. 15/25

16 3.1.4 Test und Evaluierung auf dem BWGrid Cluster Abbildung 5 veranschaulicht die Ergebnisse der Tests auf dem BWGrid Cluster und listet die Geschwindigkeiten für jede Exchange auf, mit der die Nachrichten publizieren bzw. verarbeitet werden. Tabelle 8 veranschaulicht die maximal gemessene Werte. Das Abfrage-Intervall zur Abfrage der Datenbank wurde mit Absicht klein gehalten, um die Performance-Grenzen der TIMaCS-Komponenten zu erfassen. Die tatsächliche Häufigkeit mit der die Tests durchgeführt werden ist abhängig von der Job-Dauer, da die Tests meistens zwischen den Jobs durchgeführt werden. Im Worst-Case, unter der Annahme dass die Tests alle 5 min ausgeführt werden, ergibt sich eine Geschwindigkeit von etwa (24 Metriken / (5 * 60 s)) 0,08 Metriken pro Sekunde und Host. Unter Berücksichtigung der in Tabelle 8 aufgeführten Maximalwerte ergibt sich damit eine maximal unterstütze Kapazität (Anzahl von Knoten) wie in Tabelle 9 dargestellt. 16/25

17 Komponente ExchnageName max Speed [msg/sec] Data-Collector metrics 558 Rule-Engine events 250 Policy-Engine policyengine 100 Tabelle 8: Maximale Geschwindigkeit auf dem BWGrid Cluster Komponente max Speed Abfrage-Häufigkeit [pro Sekunde und [msg/sec] Knoten] Max Kapazität [Anzahl der Knoten] Data-Collector 558 0, Rule-Engine 250 0, Policy-Engine 100 0, Tabelle 9: Berechnung der maximalen Monitoring-Kapazität Test und Evaluierung auf dem Deimos Cluster Anhand des Deimos Clusters wurde zunächst die Funktionsfähigkeit eines hierarchischen Aufbaus der TIMaCS-Komponenten getestet. Die dazu eingerichtete Konfiguration A (vgl. Kap ) stellt eine Variante dar, die in naher Zukunft für das Monitoring wahrscheinlich noch nicht notwendig sein wird. Trotzdem konnte nach Fehlerbereinigung des Codes die Funktionsfähigkeit von TIMaCS in dieser Konstellation sichergestellt werden. Konfiguration B (vgl. Kap ) wurde dahingegen auf ihre Performanz untersucht. Im ersten Schritt wurde aufgezeichnet, mit welcher Geschwindigkeit die Monitoring-Daten vom Deimos Cluster eintreffen. In Abbildung 6 ist zu sehen, dass die Daten in Schüben am AMQP-Server eintreffen (publish) und zur gleichen Zeit auch an die Abonnenten weitergeleitet werden (deliver). Die Zahl der ausgelieferten Nachrichten ist dabei höher als die der eintreffenden, weil mehrere Clients dieselben Kanäle abonnieren und an dieser Stelle Nachrichten dupliziert werden. Das schubweise Auftreten der Nachrichten ist durch die Arbeitsweise der Daten-Importer bedingt: sowohl der Ganglia- als auch der Nagios-Importer fragen in einem bestimmten Intervall die Quellen ab und speisen die Daten ins TIMaCS-System ein. Dieses Intervall ist für die Evaluierung auf 30 Sekunden eingestellt. 17/25

18 AMQP Nachrichtenaufkommen Ganglia und Nagios Nachrichtenrate publish_rate deliver_rate Zeit (s) Abbildung 6: Datenaufkommen des Monitorings vom Deimos-Cluster Eine längere Messung am AMQP-Server (ohne Abbildung) hat gezeigt, dass in dieser Konfiguration im Mittel 100 Monitoring-Nachrichten pro Sekunde publiziert und ungefähr 125 Nachrichten pro Sekunde ausgeliefert werden. Sowohl der htimacsd-daemon auf timacs2 als auch der AMQPServer haben keinerlei Probleme, diesen Nachrichtenfluss zu verarbeiten. Im zweiten Schritt wurden mittels eines speziellen Datengenerators (BurnInImporter) Metriken auf timacs2 generiert und in das TIMaCS-Framework eingespeist. Dieser Test sollte zum Einen zeigen, welches Datenaufkommen die Hardware in dieser Konfiguration noch verarbeiten kann und zum Anderen, ob die gesamte TIMaCS-Architektur unter diesen extremen Bedingungen stabil arbeitet. 18/25

19 AMQP Nachrichtendurchsatz 10s Burst Intervall, 20 Metriken je Host, 500 Hosts 2500 Nachrichtenrate publish_rate deliver_rate Zeit (s) Abbildung 7: Stresstest der TIMaCS-Installation zum Ermimtteln der maximalen Verarbeitungsgeschwindigkeit Abbildung 7 zeigt den Nachrichtendurchsatz am AMQP-Server in der genannten Konfiguration. Bei diesem Nachrichtenaufkommen hat der AMQP-Server immernoch Reserven, die begrenzende Komponente ist die Metrikverarbeitung im htimacsd-daemon. Mit einem schnelleren Prozessor oder Parallelisierung dieses Ablaufs könnte die Verarbeitungsgeschwindigkeit erhöht werden. In der aktuellen Version und mit der beschriebenen Hardware kann TIMaCS ca. 650 Metrik-Nachrichten pro Sekunde verarbeiten. Setzt man dies ins Verhältnis zu den 100 Nachrichten pro Sekunde, die durch das Monitoring der 564 Compute-Knoten + 20 Service-Knoten mittels Ganglia und Nagios im TIMaCS-System eintreffen, so bedeutet dies, dass ein TIMaCS-Server das Monitoring von (650/ [100/584]) ca Knoten leisten kann. 3.2 Test und Evaluierung der Virtualisierungslösung Die Evaluierung der Virtualisierungslösung wurde auf dem Marburger Rechencluster (MaRC) vorgenommen Konfiguration des Marburger Rechencluster (MaRC) Die Evaluierung der Virtualisierungslösung wurde auf dem Marburger Rechencluster (MaRC) vorgenommen. Clustermerkmale Compute-Knoten mit 2x AMD Opteron 2216HE (dual-core) Prozessoren 19/25

20 8 GB Hauptspeicher 2x Gigabit Ethernet Netzwerk lokale 250 GB Festplatte pro Knoten Betriebssystem Debian GNU Linux, Kernel mit Xen Version Test-Szenario für den Marburger Rechencluster (MaRC) Auf dem Marburger Rechencluster wurden verschiedene Tests zur Leistungsfähigkeit von Virtualisierungslösungen im HPC Umfeld durchgeführt. Diese Tests decken verschiedene Phasen des Einsatzes von virtuellen Maschinen (VMs) ab. Zunächst wurden in Szenario 1 verschiedene Algorithmen zum effizienten Ausrollen von Festplatten-Images von VMs getestet. Das Ausrollen der VMs auf die Compute-Knoten ist ein zeitkritischer Prozess. Bevor die VMs nicht auf den Compute-Knoten zur Verfügung stehen, können keine Jobs berechnet werden. Somit muss die zur Vervielfältigung und zur Übertragung benötigte Zeitspanne möglichst minimal sein. Zudem belastet die Verteilung die Netzwerk-Infrastruktur, d. h. die Verteilung einer großen VM könnte beispielsweise zu Überlastsituationen im Netzwerk führen. Würde eine 5 GB große VM 100 mal sequentiell kopiert, wäre die Verbindung zwischen dem QuellRechner und dem entsprechenden Switch-Port für längere Zeit überlastet und neue Transfers würden nur langsam oder gar nicht stattfinden. Als mögliche Kandidaten wurden ein Binärbaumbasierter Algorithmus, ein Peer-to-Peer basiertes Verfahren und eine Übertragung über Multicast untersucht. Um verwertbare Mittelwerte zu erzielen, wurden die Messungen jeweils 100 mal durchgeführt und zudem wurde die Größe der VM linear erhöht. Diese Messungen sind für die Installation in Marburg relevant, da vor Ort kein ausreichend schneller, geteilter Speicher (z. B. in Form eines NFS-/iSCSI-SAN) existiert. Bei den anderen Partnern ist dies gesichert. Am HLRS in Stuttgart steht auf dem BWGrid Cluster ein schneller, gemeinsamer Speicher zur Verfügung, so dass ein Ausrollen der VMs nicht nötig ist. Zur Optimierung der Übertragung von VMs wurde ein System zum Aufbau von VMs aus mehreren Schichten entwickelt. Diese VMs werden im folgenden Layered VMs genannt. Im Unterschied zu normalen VMs, die ein monolithisches Festplatten-Image verwenden, werden bei Layered VMs mehrere kleinere Festplatten-Images (Layer) eingesetzt. Diese Layer werden mit Hilfe eines Copyon-Write (COW) Dateisystems zu einem kompletten Dateisystem zusammengesetzt. Ein Vorteil dieses Konzepts ist die Wiederverwendbarkeit der Layer, die somit auf den physikalischen Knoten vorgehalten und bei ihrer Verwendung nicht erneut übertragen werden müssen. In Szenario 2 wurden zwei verschiedene Messungen mit Layered VMs durchgeführt, um die Geschwindigkeit des Zugriffs auf virtuelle Platten in normalen VMs und Layered VMs vergleichen zu können. Die ersten Messungen wurden mit bonnie++ in einer normalen VM und in LayeredVMs mit 2 und 3 Schichten durchgeführt. Die Messungen in Layered VMs wurden zudem einmal 20/25

21 normal und einmal mit der real read-only Option von aufs durchgeführt, die aufs für einige interne Optimierungen beim Umgang mit Schichten erlauben, die sich nicht verändern können. In jeder Konfiguration wurden 3 Tests mit bonnie++ durchgeführt. Bonnie++ führt alle Messungen mit einer einzigen oder wenigen großen Dateien durch. Neben diesen Zugriffen ist aber auch die Geschwindigkeit im Umgang mit vielen kleinen Dateien von Interesse. Ein hervorragender Indikator dafür ist die Dauer einer Übersetzung des Linux Kernels, im Zuge derer tausende kleine Dateien geöffnet und mindestens ebenso viele neu angelegt und geschrieben werden. Bei der zweiten Messung von Szenario 2 wurde der Kernel in jeder der oben beschriebenen Konfigurationen je 10 mal übersetzt und ein Mittelwert der Übersetzungszeit gebildet. Durch die Nutzung von Virtualisierungstechnologien wird die Laufzeit von Anwendungen erhöht. Dies hängt unter anderem mit dem erhöhten Verwaltungsaufwand für Speicher, Geräte, usw. zusammen. Um den Mehraufwand in Zahlen auszudrücken, wurde in Szenario 3 die Ausführungszeit einer typischen HPC-Anwendung einmal nativ und einmal virtuell gemessen. In Szenario 4 wurde die Zeit, die zur Migration einer VM benötigt wird, gemessen. Während der Migration wurde in der VM der Linux-Kernel übersetzt. Um einen robusten Mittelwert zu erhalten, wurde die Messung insgesamt 50 mal wiederholt Testergebnisse auf dem Marburger Rechencluster (MaRC) Szenario 1: Übertragung von virtuellen Maschinen In der folgenden Abbildung 8 sowie in Tabelle 10 sind die Ergebnisse der Messungen dargestellt. Es wurde jeweils ein VM Image mit 1024 MB, 2048 MB und 8192 MB übertragen. Auf der xachse sind die Versuche aufgetragen, während die benötigte Zeit in Sekunden auf der y-achse aufgetragen ist. Als Referenz gilt eine sequentielle Unicast-Übertragung von einem Knoten zu allen Zielknoten. Die Grafiken spiegeln die Erwartung wider. Während die Binärbaum-basierte Übertragung schneller als die Referenz ist, kann sie mit BitTorrent sowie Multicast nicht mithalten. Multicast steht eindeutig als schnellste Methode fest. Zudem ist die Verwendung von Multicast wesentlich einfacher als die Verwendung von BitTorrent, da der administrative Aufwand (u. a. durch die Erstellung von torrent-dateien, die vom Tracker benötigt werden) geringer ist. 21/25

22 Image Größe Unicast Binärbaum BitTorrent Multicast 1024 MB 191,1 s 95,7 s 62,3 s 45,5 s 2048 MB 401,0 s 183,8 s 120,9 s 90,6 s 4096 MB 815,2 s 367,4 s 214,3 s 121,8 s 8192 MB 1634,1 s 727,6 s 465,0 s 383,5 s Tabelle 10: Ergebnisse der Messungen Abbildung 8: Ergebnisse der Übertragungsmessungen Szenario 2: Reduktion der Datenmenge von virtuellen Maschinen Die Ergebnisse der Messungen mit bonnie++ sind in Abbildung 9 dargestellt. Die Messungen mit der real read-only Option von aufs sind in der Abbildung mit (rr) gekennzeichnet. Dabei misst write den Datendurchsatz beim Schreiben, read den Durchsatz beim Lesen und rewrite den Durchsatz bei einer Kombination von Lesen, Positionieren (seek) und Schreiben. Man kann sehen, dass die Verwendung von Layered VMs keine nennenswerten Einbrüche beim Datendurchsatz zur Folge hat. Die Schwankungen in beide Richtungen bewegen sich im Bereich < 3%. Abbildung 10 zeigt die Ergebnisse der Messungen der Übersetzungszeit des Linux Kernels. Bei der Verwendung einer Layered VM mit 2 Schichten verlängert sich die Übersetzungszeit um ca. 80 Sekunden bzw. 3 %, mit 3 Schichten um ca. 100 Sekunden bzw. 3,5%. Insgesamt ist die Geschwindigkeit des Festplatten-Zugriffs in Layered VMs vergleichbar mit der in normalen VMs. Die gemessenen Verschlechterungen sind alle im niedrigen einstelligen Prozentbereich. Entgegen der Erwartung führt der real read-only Modus von aufs nicht zu spürbaren Verbesserungen gegenüber dem normalen Modus. 22/25

D6.3 Trainingsplan und Material

D6.3 Trainingsplan und Material D6.3 Trainingsplan und Material Arbeitspaket/Task: AP 6, Task 6.2 Fälligkeit: M18 Abgabetermin: 30.06.10 Verantwortlich: Versionsnummer/Status: Autoren: ZIH Koudela, Daniela (DK) Mickler, Holger (HM) Volk,

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa Berner Fachhochschule Hochschule für Technik und Informatik HTI Performance und Bandbreitenmanagement Tests Version 10.01.2005 Diplomarbeit I00 (2004) MuSeGa Mobile User Secure Gateway Experte: Andreas

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

V-locity 3. Virtuelle Optimierung wird Realität

V-locity 3. Virtuelle Optimierung wird Realität V-locity 3 Virtuelle Optimierung wird Realität Kurzfassung Die heutigen virtuellen Umgebungen erfordern einen hohen Aufwand, um ohne Overhead einen bestmöglichen Service gewährleisten zu können. Bestehender

Mehr

Systemanforderungen ab Version 5.31

Systemanforderungen ab Version 5.31 Systemanforderungen ab Version 5.31 Auszug aus BüroWARE Erste Schritte Version 5.4 Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive Das Programm kann sowohl auf 32 Bit- als auch auf 64 Bit-en

Mehr

4. Optional: zusätzliche externe Speicherung der Daten in unserem Rechenzentrum

4. Optional: zusätzliche externe Speicherung der Daten in unserem Rechenzentrum KMU Backup Ausgangslage Eine KMU taugliche Backup-Lösung sollte kostengünstig sein und so automatisiert wie möglich ablaufen. Dennoch muss es alle Anforderungen die an ein modernes Backup-System gestellt

Mehr

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16 2. Braunschweiger Linux-Tage Vortrag über RAID von Thomas King http://www.t-king.de/linux/raid1.html 2. Braunschweiger Linux-Tage Seite 1/16 Übersicht: 1. Was ist RAID? 1.1. Wo wurde RAID entwickelt? 1.2.

Mehr

D5.1 Testkonzept. Arbeitspaket/Task: Arbeitspaket 5 Task 1 Fälligkeit: Abgabetermin: 15.02.10 Verantwortlich: Autoren: Buchholz, Jochen HLRS

D5.1 Testkonzept. Arbeitspaket/Task: Arbeitspaket 5 Task 1 Fälligkeit: Abgabetermin: 15.02.10 Verantwortlich: Autoren: Buchholz, Jochen HLRS D5.1 Testkonzept Arbeitspaket/Task: Arbeitspaket 5 Task 1 Fälligkeit: M12 Abgabetermin: 15.02.10 Verantwortlich: HLRS Versionsnummer/Status: 96 Abgeschlossen Autoren: Buchholz, Jochen HLRS Interne Gutachter:

Mehr

Systemvoraussetzungen und Installation

Systemvoraussetzungen und Installation Systemvoraussetzungen und Installation Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 2 2. Einzelarbeitsplatzinstallation... 3 3. Referenz: Client/Server-Installation... 5 3.1. Variante A:

Mehr

Marketing Update. Enabler / ENABLER aqua / Maestro II

Marketing Update. Enabler / ENABLER aqua / Maestro II Marketing Update Enabler / ENABLER aqua / Maestro II Quartal 01/2012 1 Kommentar des Herausgebers Liebe Kunden und Partner, dieser Marketing Update gibt Ihnen einen kurzen Überblick über die aktuell verfügbaren

Mehr

D5.2 Ergebnisse der Evaluierung

D5.2 Ergebnisse der Evaluierung D5.2 Ergebnisse der Evaluierung Arbeitspaket/Task: AP 5 Task 5.2 Fälligkeit: M30 Abgabetermin: 30.06.11 Verantwortlich: Versionsnummer/Status: Autoren: Interne Gutachter: NEC Jeutter, Andreas (AJ) Focht,

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick

Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick Systemvoraussetzungen für ConSol*CM Version 6.10.2 Architektur Überblick ConSol*CM basiert auf einer Java EE Web-Architektur, bestehend aus den folgenden Kern-Komponenten: JEE Application Server für die

Mehr

Leistungsanalyse von Rechnersystemen

Leistungsanalyse von Rechnersystemen Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Leistungsanalyse von Rechnersystemen Auf Ein-/Ausgabe spezialisierte Benchmarks Zellescher Weg 12 Willers-Bau A109 Tel. +49 351-463 - 32424

Mehr

Systemvoraussetzungen. Hardware und Software MKS AG

Systemvoraussetzungen. Hardware und Software MKS AG Goliath.NET Systemvoraussetzungen Hardware und Software MKS AG Version: 1.4 Freigegeben von: Stefan Marschall Änderungsdatum: 20.10.2013 Datum: 29.10.2013 Goliath.NET-Systemvoraussetzungen Hardware-Software.docx

Mehr

Systemvoraussetzungen

Systemvoraussetzungen ID Information und Dokumentation im Gesundheitswesen GmbH & Co. KGaA Platz vor dem Neuen Tor 2 10115 Berlin Systemvoraussetzungen ID DIACOS ID EFIX ID QS Bögen ID DIACOS PHARMA August 2015 Inhaltsverzeichnis

Mehr

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria

init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria init.at informationstechnologie GmbH Tannhäuserplatz 2/5.OG 1150 Wien Austria Seite 2 von 10 1 Inhaltsverzeichnis 2 Warum CORVUS by init.at... 3 3 Ihre Vorteile durch CORVUS... 3 4 CORVUS Features... 4

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

Installationsanleitung. Novaline Finanzbuchhaltung Fibu.One

Installationsanleitung. Novaline Finanzbuchhaltung Fibu.One Installationsanleitung Novaline Finanzbuchhaltung Fibu.One Mai 2013 Inhaltsverzeichnis Systemvoraussetzungen...3 Installation der Programme...5 1. Überprüfen / Installieren von erforderlichen Software-Komponenten...5

Mehr

Optimierung der Code-Generierung virtualisierender Ausführungsumgebungen zur Erzielung deterministischer Ausführungszeiten

Optimierung der Code-Generierung virtualisierender Ausführungsumgebungen zur Erzielung deterministischer Ausführungszeiten Optimierung der Code-Generierung virtualisierender Ausführungsumgebungen zur Erzielung deterministischer Ausführungszeiten Martin Däumler Matthias Werner Lehrstuhl Betriebssysteme Fakultät für Informatik

Mehr

Virtualisierung. Zinching Dang. 12. August 2015

Virtualisierung. Zinching Dang. 12. August 2015 Virtualisierung Zinching Dang 12. August 2015 1 Einführung Virtualisierung: Aufteilung physikalischer Ressourcen in mehrere virtuelle Beispiel: CPUs, Festplatten, RAM, Netzwerkkarten effizientere Nutzung

Mehr

ISA Server 2004 - Best Practice Analyzer

ISA Server 2004 - Best Practice Analyzer ISA Server 2004 - Best Practice Analyzer Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Seit dem 08.12.2005 steht der Microsoft ISA Server 2004 Best Practice Analyzer

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10.2, Asura Pro 10.2,Garda 10.2...2 PlugBALANCEin 10.2, PlugCROPin 10.2, PlugFITin 10.2, PlugRECOMPOSEin 10.2, PlugSPOTin 10.2,...2 PlugTEXTin 10.2, PlugINKSAVEin 10.2,

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.6, Asura Pro 9.6, Garda 5.6...2 PlugBALANCEin 6.6, PlugCROPin 6.6, PlugFITin 6.6, PlugRECOMPOSEin 6.6, PlugSPOTin 6.6,...2 PlugTEXTin 6.6, PlugINKSAVEin 6.6, PlugWEBin

Mehr

Maximalwerte für die Konfiguration VMware Infrastructure 3

Maximalwerte für die Konfiguration VMware Infrastructure 3 VMware-Themen e für die Konfiguration VMware Infrastructure 3 Revision: 20080430 Achten Sie bei Auswahl und Konfiguration Ihrer virtuellen und physischen Geräte darauf, dass Sie die von VMware Infrastructure

Mehr

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Dieses Dokument dient zur Information über die Organisation der Projektphasen und der technischen Vorbereitung eines Refile

Mehr

PERFORMANCE TESTS AVALON ODS-SERVER 28.11.12 DR. REINHARD HALLERMAYER, BMW GROUP

PERFORMANCE TESTS AVALON ODS-SERVER 28.11.12 DR. REINHARD HALLERMAYER, BMW GROUP PERFORMANCE TESTS AVALON ODS-SERVER 28.11.12 DR. REINHARD HALLERMAYER, BMW GROUP Freude am Fahren Inhalt. Ziele Testumgebung und Testwerkzeug Tests und Testergebnisse Ausblick Beteiligte: Fa. Science +

Mehr

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung

Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Endorsed SI Anwenderbericht: Einsatz von System Platform 2012 R2 in virtualisierten Umgebungen zur Prozessvisualisierung Fritz Günther 17.03.2014 Folie 1 Agenda Was ist Virtualisierung Server- / Clientvirtualisierung

Mehr

Synchronisation des Temperatur-Loggers

Synchronisation des Temperatur-Loggers Synchronisation des Temperaturloggers Juni 10, 2010 1 / 7 Synchronisation des Temperatur-Loggers Einführung Zwei oder mehr Installationen der Temperaturlogger-Software können so zusammen geschaltet werden,

Mehr

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen?

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Umgebung Getestet wurde auf einem Linux-System mit voller invis-server Installation, auf dem eine virtuelle Maschine

Mehr

Preis- und Leistungsverzeichnis der Host Europe GmbH. Virtual Backup V 1.0. Stand: 01.01.2013

Preis- und Leistungsverzeichnis der Host Europe GmbH. Virtual Backup V 1.0. Stand: 01.01.2013 Preis- und Leistungsverzeichnis der Host Europe GmbH Virtual Backup V 1.0 Stand: 01.01.2013 INHALTSVERZEICHNIS PREIS- UND LEISTUNGSVERZEICHNIS VIRTUAL BACKUP... 3 Produktbeschreibung Virtual Backup...

Mehr

Installation SQL- Server 2012 Single Node

Installation SQL- Server 2012 Single Node Installation SQL- Server 2012 Single Node Dies ist eine Installationsanleitung für den neuen SQL Server 2012. Es beschreibt eine Single Node Installation auf einem virtuellen Windows Server 2008 R2 mit

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 9.5, Asura Pro 9.5, Garda 5.0...2 PlugBALANCEin 6.5, PlugCROPin 6.5, PlugFITin 6.5, PlugRECOMPOSEin 6.5, PlugSPOTin 6.5,...2 PlugTEXTin 6.5, PlugINKSAVEin 6.5, PlugWEBin

Mehr

Acronis TrueImage (Version 7.0) Benutzerführung. genutzte Quelle: http://www.acronis.de / Hilfedatei zum Programm Acronis TrueImage Version 7.

Acronis TrueImage (Version 7.0) Benutzerführung. genutzte Quelle: http://www.acronis.de / Hilfedatei zum Programm Acronis TrueImage Version 7. Hier finden Sie von der Firma GriCom Wilhelmshaven eine, um ein Backup Ihres Computers / Ihrer Festplatten zu erstellen und dieses Backup bei Bedarf zur Wiederherstellung zu nutzen. Diese Bedienerführung

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Technische Basis für den Betrieb von ONTRAM

Technische Basis für den Betrieb von ONTRAM Technische Basis für den Betrieb von ONTRAM hello system Technische Basis für den Betrieb von ONTRAM Bestandteile von ONTRAM ONTRAM setzt sich aus mehreren Komponenten zusammen, die ebenso auf mehrere

Mehr

Version 2.0.1 Deutsch 14.05.2014

Version 2.0.1 Deutsch 14.05.2014 Version 2.0.1 Deutsch 14.05.2014 In diesem HOWTO wird beschrieben, wie Sie die IAC-BOX in VMware ESXi ab Version 5.5 virtualisieren können. Beachten Sie unbedingt die HinweisTabelle der Mindestvoraussetzungen.

Mehr

PADS 3.0 Viewer - Konfigurationen

PADS 3.0 Viewer - Konfigurationen PADS 3.0 Viewer - Konfigurationen Net Display Systems (Deutschland) GmbH - Am Neuenhof 4-40629 Düsseldorf Telefon: +49 211 9293915 - Telefax: +49 211 9293916 www.fids.de - email: info@fids.de Übersicht

Mehr

Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk)

Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk) Systemvoraussetzungen für Autodesk Revit 2015 - Produkte (gemäß Angaben von Autodesk) Mindestanforderung: Einstiegskonfiguration Betriebssystem ¹ Windows 8.1 Enterprise, Pro oder Windows 8.1 CPU-Typ Single-

Mehr

Thema: Anforderungen an den OIP Server und das IP- Netzwerk.

Thema: Anforderungen an den OIP Server und das IP- Netzwerk. Hard- und Software Ascotel IntelliGate 150/300/2025/2045/2065 Treiber und Applikationen Autor Open Interface Plattform und OIP Applikationen Michael Egl, Ascotel System Engineer Thema: Anforderungen an

Mehr

lobodms.com lobo-dms Systemvoraussetzungen

lobodms.com lobo-dms Systemvoraussetzungen lobodms.com lobo-dms Inhaltsverzeichnis 1 Allgemeines... 3 1.1 Betriebssystem... 3 1.2 Windows Domäne... 3 1.3 Dateisystem... 3 2 Server... 3 2.1 Hardware... 4 2.2 Betriebssystem... 4 2.3 Software... 4

Mehr

Systemanforderungen (Mai 2014)

Systemanforderungen (Mai 2014) Systemanforderungen (Mai 2014) Inhaltsverzeichnis Einführung... 2 Einzelplatzinstallation... 2 Peer-to-Peer Installation... 3 Client/Server Installation... 4 Terminal-,Citrix-Installation... 5 Virtualisierung...

Mehr

Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2

Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2 Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2 Basis: HiScout 2.5 Datum: 17.06.2015 14:05 Autor(en): HiScout GmbH Version: 1.1 Status: Freigegeben Dieses Dokument beinhaltet 13 Seiten.

Mehr

Workshop: Eigenes Image ohne VMware-Programme erstellen

Workshop: Eigenes Image ohne VMware-Programme erstellen Workshop: Eigenes Image ohne VMware-Programme erstellen Normalerweise sind zum Erstellen neuer, kompatibler Images VMware-Programme wie die Workstation, der ESX-Server oder VMware ACE notwendig. Die Community

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

Systemvoraussetzungen: DOMUS NAVI für DOMUS 4000 Stand 02/15

Systemvoraussetzungen: DOMUS NAVI für DOMUS 4000 Stand 02/15 Systemvoraussetzungen: DOMUS NAVI für DOMUS 4000 Stand 02/15 Benötigen Sie Unterstützung* oder haben essentielle Fragen? Kundensupport Tel.: +49 [0] 89 66086-230 Fax: +49 [0] 89 66086-235 e-mail: domusnavi@domus-software.de

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Installationsvoraussetzungen

Installationsvoraussetzungen Installationsvoraussetzungen Betriebssysteme Der Cordaware bestinformed Infoserver kann auf folgenden Microsoft Betriebssystemen installiert werden: Windows 2000 Windows XP Windows Vista Windows 7 Windows

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Paynet Adapter Spezifikationen Voraussetzungen Datum : 21.07.08 Version : 1.0.0.2 21.07.2008 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung... 3 2 Architektur... 3 2.1 Grundsätze

Mehr

Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2 Windows Server 2012 Windows Server 2012 R2

Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2 Windows Server 2012 Windows Server 2012 R2 Systemvoraussetzungen Windows Server 2008 Windows Server 2008 R2 Windows Server 2012 Windows Server 2012 R2 Basis: HiScout 3.0 Datum: Autor(en): HiScout GmbH Version: 1.3 Status: Freigegeben Dieses Dokument

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

NTCS BMD TECHNIK SYSTEMVORAUSSETZUNGEN

NTCS BMD TECHNIK SYSTEMVORAUSSETZUNGEN BMD TECHNIK SYSTEMVORAUSSETZUNGEN 15/08/34, Steyr Wissen verbreiten, Nutzen stiften! Copying is right für firmeninterne Aus- und Weiterbildung. INHALT 1. ANFORDERUNGEN SERVER... 4 1.1. Mindestausstattung

Mehr

Linux Cluster in Theorie und Praxis

Linux Cluster in Theorie und Praxis Foliensatz Center for Information Services and High Performance Computing (ZIH) Linux Cluster in Theorie und Praxis Monitoring 30. November 2009 Verfügbarkeit der Folien Vorlesungswebseite: http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

VCM Solution Software

VCM Solution Software VCM Solution Software Die BORUFA VCM Solution ist ein umfangreiches Werkzeug für virtuelles Content Management basierend auf hochauflösenden vollsphärischen Bildern, 360 Videos und Punktwolken. In der

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen

Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli 2012 Andy

Mehr

Parallels Transporter Read Me ---------------------------------------------------------------------------------------------------------------------

Parallels Transporter Read Me --------------------------------------------------------------------------------------------------------------------- Parallels Transporter Read Me INHALTSVERZEICHNIS: 1. Über Parallels Transporter 2. Systemanforderungen 3. Parallels Transporter installieren 4. Parallels Transporter entfernen 5. Copyright-Vermerk 6. Kontakt

Mehr

NMS - Designvorschläge

NMS - Designvorschläge NMS - Designvorschläge Version 1.1 / Stand: 25.07.2011 Änderungen vorbehalten copyright: 2011 by NovaTec Kommunikationstechnik GmbH Technologiepark 9 33100 Paderborn Germany Inhaltsverzeichnis 1 Überblick...3

Mehr

Learning Suite Talent Suite Compliance Suite. Systemvoraussetzungen

Learning Suite Talent Suite Compliance Suite. Systemvoraussetzungen Learning Suite Talent Suite Compliance Suite Systemvoraussetzungen Vorwort Dieses Dokument beschreibt, welche Anforderungen an die Installationsumgebung zu stellen sind, um die Plattform unter optimalen

Mehr

Systemanforderungen Verlage & Akzidenzdruck

Systemanforderungen Verlage & Akzidenzdruck OneVision Software AG Inhalt Asura 10, Asura Pro 10, Garda 10...2 PlugBALANCEin 10, PlugCROPin 10, PlugFITin 10, PlugRECOMPOSEin10, PlugSPOTin 10,...2 PlugTEXTin 10, PlugINKSAVEin 10, PlugWEBin 10...2

Mehr

VMware vsphere 6.0 Neuigkeiten und neue Features

VMware vsphere 6.0 Neuigkeiten und neue Features VMware vsphere 6.0 Neuigkeiten und neue Features Präsentation 30. Juni 2015 1 Diese Folien sind einführendes Material für ein Seminar im Rahmen der Virtualisierung. Für ein Selbststudium sind sie nicht

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

Fragen zur GridVis MSSQL-Server

Fragen zur GridVis MSSQL-Server Fragen zur GridVis MSSQL-Server Frage Anmerkung 1.0 Server allgemein 1.1 Welche Sprache benötigt die Software bzgl. Betriebssystem/SQL Server (deutsch/englisch)? 1.2 Welche MS SQL Server-Edition wird mindestens

Mehr

Lasttestbericht BL Bankrechner

Lasttestbericht BL Bankrechner Lasttestbericht BL Bankrechner Business-Logics GmbH Inhaltsverzeichnis 1 Testumgebung 2 1.1 Hardwareversionen........................ 2 1.2 Softwareversionen........................ 3 1.3 Datenbestand..........................

Mehr

Installationsanleitung biz Version 8.0.0.0

Installationsanleitung biz Version 8.0.0.0 bizsoft Büro Software A-1040 Wien, Waaggasse 5/1/23 D-50672 Köln, Kaiser-Wilhelm-Ring 27-29 e-mail: office@bizsoft.de internet: www.bizsoft.de Installationsanleitung biz Version 8.0.0.0 Die biz Vollversion

Mehr

TERRA X5.Filialabgleich Client

TERRA X5.Filialabgleich Client TERRA X5.Filialabgleich Client Inhaltsverzeichnis TERRA X5.Filialabgleich Client...1 Installation...3 Mindestvoraussetzungen...3 Der erste Start / die Konfiguration...4 Das Hauptfenster...5 Installation

Mehr

Systemanforderungen und unterstützte Software

Systemanforderungen und unterstützte Software Systemanforderungen und unterstützte Software 1. Systemanforderungen für Server und Client Diese Anforderungen gelten für den Betrieb von Sage 200 ERP Extra Version 2013 Die Übersicht beschreibt die für

Mehr

VirtualBox und OSL Storage Cluster

VirtualBox und OSL Storage Cluster VirtualBox und OSL Storage Cluster A Cluster in a Box A Box in a Cluster Christian Schmidt Systemingenieur VirtualBox und OSL Storage Cluster VirtualBox x86 und AMD/Intel64 Virtualisierung Frei verfügbar

Mehr

Calogero Fontana Fachseminar WS09/10. calogero.b.fontana@student.hs-rm.de. Virtualisierung

Calogero Fontana Fachseminar WS09/10. calogero.b.fontana@student.hs-rm.de. Virtualisierung Calogero Fontana Fachseminar WS09/10 calogero.b.fontana@student.hs-rm.de Virtualisierung Was ist Virtualisierung? Definition Virtualisierung ist das zur Verfügung stellen von Hardware-Ressourcen für ein

Mehr

dsmisi Storage Lars Henningsen General Storage

dsmisi Storage Lars Henningsen General Storage dsmisi Storage dsmisi MAGS Lars Henningsen General Storage dsmisi Storage Netzwerk Zugang C Zugang B Zugang A Scale-Out File System dsmisi Storage Netzwerk Zugang C Zugang B Zugang A benötigt NFS oder

Mehr

Anleitung # 4 Wie mache ich ein Update der QBoxHD Deutsche Version

Anleitung # 4 Wie mache ich ein Update der QBoxHD Deutsche Version Anleitung # 4 Wie mache ich ein Update der QBoxHD Deutsche Version Stand: 25. Juni 2009 Voraussetzung Das Update ist notwendig, um Fehler und Neuentwicklungen für die QBoxHD zu implementieren. Es gibt

Mehr

QuickHMI Player. User Guide

QuickHMI Player. User Guide QuickHMI Player User Guide Inhalt Vorwort... 2 Copyright... 2 Bevor Sie starten... 2 Packungsinhalt... 2 Systemvoraussetzungen... 3 Hardware-Systemvoraussetzungen... 3 Betriebssysteme... 3 Startseite...

Mehr

Client: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt

Client: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt ISIS MED Systemanforderungen (ab Version 7.0) Client: Bildschirm: Betriebssystem: min. Intel Pentium IV oder höher bzw. vergleichbares Produkt min. 2048 MB RAM frei Webserver min 20. GB ISIS wurde entwickelt

Mehr

Befindet sich das Rechenzentrum in einem gefährdeten Gebiet (Überflutung, Erdbeben)? >> Nein

Befindet sich das Rechenzentrum in einem gefährdeten Gebiet (Überflutung, Erdbeben)? >> Nein Gültig ab dem 01.03.2015 FACTSHEET HCM CLOUD Sicherheit, technische Daten, SLA, Optionen 1. Sicherheit und Datenschutz Wo befinden sich meine Daten? Zugegeben - der Begriff Cloud kann Unbehagen auslösen;

Mehr

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse

Programmierung und Leistungsanalyse des bwgrid-clusters. Dr. Heinz Kredel und Dr. Hans-Günther Kruse Programmierung und Leistungsanalyse des bwgrid-clusters Dr. Heinz Kredel und Dr. Hans-Günther Kruse Inhalt bwgrid Cluster Programmierung Threads, OpenMP, Kommunikation, OpenMPI, Strategien Leistungsanalyse

Mehr

VMware. Rainer Sennwitz.

VMware. Rainer Sennwitz. <Rainer.Sennwitz@andariel.informatik.uni-erlangen.de> VMware Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer Sennwitz VMware Inhalt Inhalt

Mehr

Einführung in Bacula - Teil 2 und Aufbau eines Testsystems

Einführung in Bacula - Teil 2 und Aufbau eines Testsystems Einführung in Bacula - Teil 2 und Aufbau eines Testsystems vorgestellt am 10.09.2010 in Pforzheim Daniel Bäurer inovex GmbH Systems Engineer Linux Was ich mit Ihnen besprechen möchte Einführung in Bacula

Mehr

Einblick in die VMware Infrastruktur

Einblick in die VMware Infrastruktur Einblick in die VMware Infrastruktur Rainer Sennwitz Lehrstuhl für Informatik IV Friedrich-Alexander-Universität Erlangen-Nürnberg 4. Juli 2007 Rainer

Mehr

Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003

Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003 Performance-Vergleich zwischen dem Open-E NAS Enterprise Server und dem Microsoft Windows Storage Server 2003 In diesem Whitepaper werden zwei wichtige NAS Betriebssysteme gegenübergestellt und auf ihre

Mehr

Systemvoraussetzungen: DOMUS NAVI für DOMUS 1000 Stand 09/15

Systemvoraussetzungen: DOMUS NAVI für DOMUS 1000 Stand 09/15 Systemvoraussetzungen: DOMUS NAVI für DOMUS 1000 Stand 09/15 Benötigen Sie Unterstützung* oder haben essentielle Fragen? Kundenbetreuung Tel.: +49 [0] 89 66086-230 Fax: +49 [0] 89 66086-235 e-mail: domusnavi@domus-software.de

Mehr

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de

Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Virtualisierung am Beispiel des LRZ Stefan Berner berner@lrz.de Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften Agenda Einleitung Vor- und Nachteile der Virtualisierung Virtualisierungssoftware

Mehr

OpenStack bei der SAP SE

OpenStack bei der SAP SE OpenStack bei der SAP SE Integration bestehender Dienste in OpenStack dank Workflow Engine und angepasstem Webinterface 23. Juni 2015 Christian Wolter Linux Consultant B1 Systems GmbH wolter@b1-systems.de

Mehr

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten

herzlich vsankameleon Anwendungsbeispiel Titelmasterformat durch Klicken bearbeiten willkommen Titelmasterformat durch Klicken bearbeiten herzlich willkommen vsankameleon Anwendungsbeispiel Powered by DataCore & Steffen Informatik vsan? Kameleon? vsan(virtuelles Storage Area Network) Knoten Konzept Titelmasterformat Alle HDD s über alle

Mehr

Softwarelösungen. Systemvoraussetzung E+S Anwendung Forms10

Softwarelösungen. Systemvoraussetzung E+S Anwendung Forms10 Systemvoraussetzung Forms10 Stand 20. Juni 2014 Impressum E+S Unternehmensberatung für EDV GmbH Ravensberger Bleiche 2 33649 Bielefeld Telefon +49 521 94717 0 Telefax +49 521 94717 90 E-Mail info@es-software.de

Mehr

theguard! ApplicationManager (Version 2.4)

theguard! ApplicationManager (Version 2.4) theguard! ApplicationManager (Version 2.4) Stand 01/2005 Der ApplicationManager ist eine 3-schichtige Client-Server Applikation für die es System- Voraussetzungen in verschiedenen Ausprägungen gibt Das

Mehr

VMware als virtuelle Plattform

VMware als virtuelle Plattform VMware als virtuelle Plattform Andreas Heinemann aheine@gkec.informatik.tu-darmstadt.de Telekooperation Fachbereich Informatik Technische Universität Darmstadt Übersicht Einführung VMware / Produkte /

Mehr

UEBERSICHT ABACUS DIENSTE

UEBERSICHT ABACUS DIENSTE UEBERSICHT ABACUS DIENSTE Maerz 2006 / EMO v.2006 Diese Unterlagen sind urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdrucks und der Vervielfältigung der Unterlagen, oder Teilen

Mehr

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

2. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt. Arbeitsblätter Der Windows Small Business Server 2011 MCTS Trainer Vorbereitung zur MCTS Prüfung 70 169 Aufgaben Kapitel 1 1. Sie sind der Administrator Ihres Netzwerks, das den SBS 2011 Standard ausführt.

Mehr

Quick Cluster Overview

Quick Cluster Overview Physikalische Fakultät der Universtät Heidelberg Projektpraktikum Informatik, SS 06 Aufgabenstellung Problem: von Clusterdaten Vermeidung der schwächen von Ganglia und Lemon Nutzung von Ganglia bzw. Lemon

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Softwarelösungen. Systemvoraussetzung E+S Anwendung Forms11

Softwarelösungen. Systemvoraussetzung E+S Anwendung Forms11 Systemvoraussetzung Forms11 Stand 5. Februar 2014 Impressum E+S Unternehmensberatung für EDV GmbH Ravensberger Bleiche 2 33649 Bielefeld Telefon +49 521 94717 0 Telefax +49 521 94717 90 E-Mail info@es-software.de

Mehr

PView7 & Citrix XenApp

PView7 & Citrix XenApp Whitepaper PView7 & Citrix XenApp -basierte Bereitstellung von PView7 mit Citrix XenApp Deutsch Products for Solutions Rev. 1.0.0 / 2010-02-10 1 Zusammenfassung Citrix XenApp ist eine Software für die

Mehr

Virtualisierung Linux-Kurs der Unix-AG

Virtualisierung Linux-Kurs der Unix-AG Virtualisierung Linux-Kurs der Unix-AG Zinching Dang 12. August 2015 Einführung Virtualisierung: Aufteilung physikalischer Ressourcen in mehrere virtuelle Beispiel: CPUs, Festplatten, RAM, Netzwerkkarten

Mehr