Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen

Größe: px
Ab Seite anzeigen:

Download "Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen"

Transkript

1 Andreas Flaig Masterarbeit im Fach Information Systems Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen Themasteller: Prof. Dr. Ali Sunyaev Vorgelegt in der Masterprüfung im Studiengang Information Systems der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln Köln, Mai 2013

2 II Inhaltsverzeichnis Abkürzungsverzeichnis...IV Abbildungsverzeichnis...V Tabellenverzeichnis...VI 1 Einleitung Problemstellung Zielsetzung Vorgehensweise Aufbau der Arbeit In-Memory-Datenbanken Begriffsdefinition Verwendete Literatur Ausgewählte Eigenschaften von In-Memory-Datenbanken Verwendung des Primärspeichers Spaltenorientierte Datenspeicherung Kompressionsverfahren Insert-Only-Verfahren Recovery-Mechanismen Vergleich zu konventionellen Datenbanken Datenqualität Begriffsdefinition Ursachen für Datenqualitätsprobleme Datenqualitätsdimensionen Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft Bisherige Trennung von OLTP- und OLAP-Datenbanken In-Memory-Datenbank für OLTP In-Memory-Datenbank für OLAP Integrierte In-Memory-Datenbank für OLTP und OLAP Auswirkungen von In-Memory-Datenbanken auf die Datenqualität Auswirkungen beim Nutzungsszenario In-Memory-Datenbank für OLTP Auswirkungen beim Nutzungsszenario In-Memory-Datenbank für OLAP Auswirkungen beim Nutzungsszenario Integrierte In-Memory-Datenbank Fazit...61

3 III Literaturverzeichnis...63 Anhang...69 Erklärung...70 Lebenslauf...71

4 IV Abkürzungsverzeichnis DRAM OLAP OLTP SSD USV Dynamic Random-Access Memory Online Analytical Processing Online Transaction Processing Solid State Drive Unterbrechungsfreie Stromversorgung

5 V Abbildungsverzeichnis Abb. 2-1: Speicherhierarchie mit Zugriffszeiten...10 Abb. 2-2: Physische Umsetzung von Tab. 2-2 bei zeilenorientierter Datenspeicherung (schematische Darstellung)...15 Abb. 2-3: Physische Umsetzung von Tab. 2-2 bei spaltenorientierter Datenspeicherung (schematische Darstellung)...15 Abb. 4-1: Zusammenhang zwischen OLTP- und OLAP-Datenbanken...43 Abb. 4-2: Integrierte In-Memory-Datenbank für OLTP und OLAP...47

6 VI Tabellenverzeichnis Tab. 2-1: Übersicht über die verwendete Literatur...8 Tab. 2-2: Ausschnitt aus einer beispielhaften Kundentabelle...15 Tab. 3-1: Einfluss von In-Memory-Datenbanken auf mögliche Ursachen für Datenqualitätsprobleme...34 Tab. 5-1: Auswirkungen möglicher Nutzungsszenarien von In-Memory-Datenbanken auf die Datenqualitätsdimensionen...61

7 1 1 Einleitung 1.1 Problemstellung Aus technischer Perspektive versprechen In-Memory-Datenbanken sehr große Potentiale zur Verbesserung der Leistungsfähigkeit von Datenbanksystemen. In der Praxis werden In-Memory-Datenbanken bisher allerdings kaum in Unternehmen eingesetzt. So geben in einer Studie lediglich 16% der befragten Unternehmen an, bereits In-Memory-Technologien, zu denen insbesondere In-Memory-Datenbanken zählen, im Einsatz zu haben. 1 Zwar planen weitere 31% der befragten Unternehmen In- Memory-Technologien in Zukunft einzusetzen, jedoch steht eine Mehrheit von 53% der befragten Unternehmen diesen Technologien skeptisch gegenüber und plant daher nicht ihre Nutzung. Ein Grund für die ablehnende Haltung vieler Unternehmen gegenüber In- Memory-Technologien und damit auch In-Memory-Datenbanken liegt möglicherweise darin begründet, dass die Folgen des Einsatzes dieser Technologien, u. a. auch im Hinblick auf die Datenqualität, bisher kaum eingeschätzt werden können. Da In- Memory-Datenbanken bei ihrem Einsatz in einem Unternehmen jedoch Teil des Datenverarbeitungsprozesses werden und sie darüber hinaus große Unterschiede zu den bisher verwendeten konventionellen Datenbanken aufweisen, ist ihre Nutzung gegebenenfalls mit Auswirkungen auf die Datenqualität verbunden. Dabei ist die Datenqualität für Unternehmen allgemein ein wichtiges Thema, weil jede positive oder negative Veränderung letztlich Einfluss auf den wirtschaftlichen Erfolg eines Unternehmens haben kann. 2 Im Rahmen dieser Arbeit wird daher der Frage nachgegangen, welche Auswirkungen In-Memory-Datenbanken auf die Datenqualität in Unternehmen haben. In der bisherigen Forschung werden In-Memory-Datenbanken vorwiegend aus einer technischen Perspektive betrachtet. 3 Neben der prinzipiellen Funktionsweise stehen vor allem Methoden und Algorithmen zur Verbesserung von technischen Aspekten im Zentrum der wissenschaftlichen Betrachtung. Daneben existieren zwar auch wenige informationswirtschaftliche Untersuchungen, in denen z. B. die Auswirkungen von In- 1 Vgl. zu diesem und dem folgenden Satz o. V. (2012), S Vgl. Wang, Strong (1996), S. 6 sowie Ge, Helfert, Jannach (2011), S Vgl. z. B. DeWitt u. a. (1984), Garcia-Molina, Salem (1992) sowie Plattner (2009).

8 2 Memory-Datenbanken auf Geschäftsprozesse betrachtet werden. 4 Eine explizite Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen findet jedoch nicht statt. Um diese Forschungslücke ein Stück weit zu schließen, werden in dieser Arbeit daher die Auswirkungen von In-Memory- Datenbanken auf die Datenqualität in Unternehmen untersucht. 1.2 Zielsetzung Ziel der Arbeit ist die Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen. Dazu ist es zunächst notwendig, die Eigenschaften von In-Memory-Datenbanken im Vergleich zu konventionellen, d. h. auf Sekundärspeicher basierenden Datenbanken, zu untersuchen. Ferner soll das Konzept der Datenqualität erläutert werden, wobei der Fokus vor allem auf den verschiedenen Datenqualitätsdimensionen liegt, aus denen Datenqualität bewertet werden kann. Daneben sollen mögliche Ursachen für Datenqualitätsprobleme aufgezeigt und dabei der Frage nachgegangen werden, welche dieser Ursachen einen Zusammenhang zur verwendeten Datenbanktechnologie aufweisen, um mögliche Auswirkungen des Einsatzes von In-Memory-Datenbanken ableiten zu können. Darüber hinaus sollen die Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft in Unternehmen untersucht und dazu exemplarische Nutzungsszenarien für den Einsatz von In-Memory- Datenbanken aufgezeigt werden. Dabei soll auch der Frage nachgegangen werden, wie durch den Einsatz von In-Memory-Datenbanken möglicherweise die Trennung zwischen dedizierten Datenbanken für das Online Transaction Processing (OLTP) und das Online Analytical Processing (OLAP) aufgehoben werden kann. Letztlich sollen für jedes zuvor entwickelte Nutzungsszenario mögliche Auswirkungen von In-Memory- Datenbanken auf die einzelnen Datenqualitätsdimensionen abgeleitet werden. 1.3 Vorgehensweise Die Ergebnisse der vorliegenden Arbeit basieren auf der Durchführung einer Literaturuntersuchung. Dazu wurde zum Themenbereich In-Memory-Datenbanken eine Literaturrecherche in den Suchportalen ACM Digital Library, AIS Electronic Library (AISeL), EBSCOhost, IEEE Xplore Digital Library, ProQuest und ScienceDirect durchgeführt. Als Suchbegriffe wurden in memory, main memory und memory 4 Vgl. Wessel, Köffer, Becker (2013).

9 3 resident jeweils in Kombination mit dem Begriff database verwendet und untereinander mit einem logischen OR verknüpft. Beim Begriff database wurde explizit darauf geachtet, dass sowohl Singular als auch Plural gefunden werden. Falls möglich wurde die Suche auf Titel, Abstract und Schlüsselwörter beschränkt. Ansonsten wurden lediglich die Metadaten durchsucht. Ebenso wurde darauf geachtet, dass database jeweils nicht zu weit weg von den ersten drei Begriffen steht. Dazu wurde, sofern vom jeweiligen Suchportal unterstützt, mit Hilfe eines speziellen Operators ( ONEAR/1, P/1 bzw. PRE/1 ) definiert, dass jeweils maximal ein zusätzliches Wort zwischen einem der ersten drei Begriffe ( in memory, main memory, memory resident ) und database stehen darf (z. B. "in memory" ONEAR/1 database). Dadurch konnte die Ergebnismenge eingeschränkt werden, ohne jedoch relevante Treffer auszuschließen, die z. B. den Begriff In-Memory Column Database beinhalten. Falls ein solcher Operator in einem Suchportal nicht zur Verfügung stand, wurde im Titel mittels AND -Verknüpfung gesucht, wohingegen Abstract und Schlüsselwörter in der restriktiveren Variante mit dem verbundenen String (z. B. in memory database ) durchsucht wurden. Daneben erfolgte eine Beschränkung der Suche auf wissenschaftliche Publikationen. Der letztlich für jedes Portal verwendete Suchstring ist im Anhang dieser Arbeit aufgeführt. Anschließend erfolgte eine Filterung der Suchergebnisse und Auswahl der auszuwertenden Literatur anhand der folgenden Kriterien: Die auszuwertende Literatur soll grundlegende Konzepte von In-Memory-Datenbanken behandeln. Dabei werden sowohl Publikationen herangezogen, die einen allgemeinen Überblick über den Forschungsstand von In-Memory-Datenbanken geben, als auch solche, die sich vornehmlich auf bestimmte, für diese Arbeit relevante Teilaspekte von In-Memory-Datenbanken (z. B. Recovery-Mechanismen) beziehen. Allerdings wurden all jene Publikationen, die sich vorwiegend auf allzu spezifische technische Aspekte von In-Memory-Datenbanken konzentrieren (z. B. Abfrageoptimierungen, konkrete Implementierungen von Datenbank-Operatoren), aus der Auswertung ausgeschlossen, da in dieser Arbeit nur die grundlegenden technischen Eigenschaften von In-Memory- Datenbanken im Vergleich zu konventionellen Datenbanken dargelegt werden. Für das eigentliche Thema der Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen spielen allzu spezifische technische Aspekte dieser Datenbanktechnologie keine Rolle.

10 4 Darüber hinaus wurden mittels Rückwärtssuche weitere Veröffentlichungen identifiziert und in die Auswertung miteinbezogen. Zum Themenbereich Datenqualität wurde auf die fünf Publikationen Wand, Wang (1996), Wang, Strong (1996), Pipino, Lee, Wang (2002), Batini u. a. (2009) und Ge, Helfert, Jannach (2011) zurückgegriffen, da sie grundlegende Aspekte zur Bewertung und Messung von Datenqualität beinhalten und darüber hinaus häufig von anderen Autoren zitiert werden. Mit Hilfe dieser fünf Publikationen werden die zu betrachtenden Datenqualitätsdimensionen extrahiert und definiert, um sie im späteren Verlauf auf mögliche Auswirkungen durch In-Memory-Datenbanken hin zu untersuchen. Daneben wurde zur Identifizierung von Ursachen für Datenqualitätsprobleme auf Lee u. a. (2006) zurückgegriffen. 1.4 Aufbau der Arbeit Im ersten Teil der Arbeit wird zunächst auf den Begriff der In-Memory-Datenbanken eingegangen. Dazu werden die Grundlagen von In-Memory-Datenbanken erläutert sowie für den späteren Verlauf der Arbeit relevante Eigenschaften dieser Datenbanktechnologie herausgestellt. Darüber hinaus erfolgt ein Vergleich von In- Memory-Datenbanken zu den bisher eingesetzten konventionellen Datenbanken. Im darauf folgenden Kapitel wird der Begriff Datenqualität eingeführt. Neben einer Begriffsdefinition wird der Frage nachgegangen, bei welchen Ursachen für Datenqualitätsprobleme ein möglicher Zusammenhang zur verwendeten Datenbanktechnologie besteht und ob der Einsatz einer In-Memory-Datenbank daher Auswirkungen auf die jeweilige Ursache besitzt. Anschließend wird der Begriff der Datenqualitätsdimension eingeführt und in der Literatur genannte Datenqualitätsdimensionen definiert. Im darauf folgenden Kapitel werden die Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft in Unternehmen untersucht. Dabei werden drei verschiedenen Nutzungsszenarien ( In-Memory- Datenbank für OLTP, In-Memory-Datenbank für OLAP, Integrierte In-Memory- Datenbank ) zum Einsatz von In-Memory-Datenbanken in Unternehmen unterschieden. Im anschließenden Kapitel werden für jedes dieser Nutzungsszenarien die möglichen Auswirkungen auf die einzelnen Datenqualitätsdimensionen untersucht und dabei Verbesserungen sowie Herausforderungen bezüglich der Datenqualität aufgezeigt. Im abschließenden Fazit wird u. a. aufgezeigt, in welchen Bereichen weiterer

11 5 Forschungsbedarf besteht. 2 In-Memory-Datenbanken 2.1 Begriffsdefinition Bei einer In-Memory-Datenbank handelt es sich um ein Datenbanksystem, dessen wesentliche Eigenschaft die dauerhafte Vorhaltung und Verarbeitung des gesamten Datenbestandes im Arbeitsspeicher (Primärspeicher) ist. 5 Zwar existiert bei In-Memory- Datenbanken neben der primären Kopie der Daten im Arbeitsspeicher noch eine weitere im Sekundärspeicher, jedoch wird auf diese ausschließlich zu Sicherungs- und Wiederherstellungszwecken im Falle eines Fehlers zugegriffen. 6 Im Gegensatz dazu basiert eine konventionelle Datenbank vollständig auf Sekundärspeicher. 7 Dabei kommt traditionell vor allem Festplattenspeicher zum Einsatz, wobei mittlerweile auch die deutlich schnelleren Solid State Drives (SSD) verwendet werden 8. Der Arbeitsspeicher hat bei konventionellen Datenbanken lediglich die Funktion eines Zwischenspeichers (Cache), weshalb bei dieser Datenbanktechnologie in der Regel ein Zugriff auf den Sekundärspeicher notwendig ist, um eine Datenbankabfrage beantworten zu können. Da der Zugriff auf den Sekundärspeicher jedoch um ein Vielfaches langsamer ist als der Zugriff auf den wesentlich schneller angebundenen Arbeitsspeicher, können In- Memory-Datenbanken deutliche Geschwindigkeitsvorteile gegenüber konventionellen Datenbanken realisieren. 9 Es ist wichtig noch einmal zu betonen, dass es sich bei In-Memory-Datenbanken nach der vorhergehenden Definition nicht lediglich um konventionelle Datenbanken handelt, die mit einem besonders großen Zwischenspeicher (Arbeitsspeicher) ausgestattet sind. 10 Stattdessen stellen In-Memory-Datenbanken eine eigenständige Datenbanktechnologie dar. Spielt bei der Entwicklung von konventionellen Datenbanken häufig die Vermeidung von Sekundärspeicherzugriffen eine große Rolle, so wird die Entwicklung 5 Vgl. Eich (1989), S sowie Garcia-Molina, Salem (1992), S Vgl. Garcia-Molina, Salem (1992), S Vgl. zu diesem und den folgenden beiden Sätzen Garcia-Molina, Salem (1992), S Vgl. Polte, Simsa, Gibson (2008), S Vgl. Gruenwald, Eich (1994), S Vgl. Eich (1989), S. 252.

12 6 von In-Memory-Datenbanken von vornherein vollständig auf den Primärspeicher ausgerichtet. 11 Der Sekundärspeicher wird dagegen lediglich zur Sicherung und Wiederherstellung der In-Memory-Datenbank benötigt. Bei In-Memory-Datenbanken handelt es sich nicht um ein neuartiges Konzept, sondern die Grundlagen dieser Datenbanktechnologie wurden bereits Mitte der 1980er Jahre entwickelt. 12 Allerdings ermöglichte erst das Aufkommen moderner Computerarchitekturen, zu denen u. a. Mehrkernprozessoren, 64-Bit-Technologie und sehr große und günstige Arbeitsspeichermengen zu zählen sind, die sinnvolle Umsetzung dieses vormals eher theoretischen Konzepts. 13 Hervorzuheben ist insbesondere die 64-Bit-Technologie, durch die erst die Möglichkeit entstand, mehr als 2 32 Byte (= 4 GiB) Arbeitsspeicher direkt zu adressieren. 14 Dadurch können inzwischen auch sehr große In-Memory-Datenbanken mit Arbeitsspeicherkapazitäten, die im Terabyte-Bereich liegen, realisiert werden. 15 In der wissenschaftlichen Literatur finden sich synonym zum Begriff In-Memory- Datenbank häufig die Bezeichnungen Main Memory Database oder auch Memory- Resident Database 16. Dabei handelt es sich jedoch um das gleiche Konzept, das lediglich unter einem anderen Namen geführt wird. Um etwaigen Missverständnissen vorzubeugen, wird in dieser Arbeit einheitlich die Bezeichnung In-Memory-Datenbank verwendet. 2.2 Verwendete Literatur Neben Zeitschriftenartikeln und Konferenzbeiträgen werden auch zwei Bücher in die Literaturauswertung miteinbezogen. Dabei handelt es sich zum einen um Plattner, Zeier (2011), in dem detailliert ein Ansatz zur Implementierung einer In-Memory-Datenbank erläutert wird. Beim zweiten Buch Kemper, Eickler (2009) handelt es sich um ein 11 Vgl. zu diesem und dem folgenden Satz Lehman, Carey (1986a), S Vgl. z. B. DeWitt u. a. (1984), Eich (1986), Hagmann (1986), Lehman, Carey (1986b) sowie Lehman, Carey (1987). 13 Vgl. Plattner, Zeier (2011), S Vgl. Eich (1989), S Vgl. Kemper, Neumann (2011), S. 196, Thiele, Lehner, Habich (2011), S. 60 sowie Funke, Kemper, Neumann (2012), S Vgl. z. B. DeWitt u. a. (1984), Garcia-Molina, Salem (1992) und Gruenwald, Eich (1994).

13 7 Grundlagenwerk, das sich intensiv mit dem Thema konventionelle Datenbanken auseinander setzt. Diese Publikation wird vor allem für den Vergleich von konventionellen Datenbanken mit In-Memory-Datenbanken in Kapitel 2.4 herangezogen. In Tabelle 2-1 wird eine Übersicht über die im Wesentlichen verwendete Literatur zum Thema In-Memory-Datenbanken gegeben. Dabei erfolgt eine Zuordnung der Publikationen zu den in diesem Kapitel erläuterten Eigenschaften von In-Memory- Datenbanken. Darüber hinaus wird die in der jeweiligen Publikation vorgeschlagene Nutzungsform für In-Memory-Datenbanken identifiziert und sofern möglich in die Kategorie OLTP, OLAP oder Hybrid eingeordnet. Die Nutzungsformen dienen Memory-Datenbanken in Unternehmen. Publikation DeWitt u. a. (1984) Eich (1986) Hagmann (1986) Lehman, Carey (1986b) Lehman, Carey (1987) Eich (1989) Garcia-Molina, Salem (1992) Levy, Silberschatz (1992) Huang, Gruenwald (1996) Lee, Kim, Cha (2001) Stonebraker u. a. (2007) X X X X X X X X X X als Grundlage für die in Kapitel 4 erläuterten Nutzungsszenarien zum Einsatz von In- Spaltenorientierung Kompressionsverfahren Recovery- Mechanismen Insert- Only- Verfahren Nutzungsform (X) X OLTP Plattner (2009) X X X Hybrid Krueger u. a. (2010) X X X Hybrid Kemper, Neumann (2011) X X Hybrid

14 8 Publikation Spaltenorientierung Kompressionsverfahren Recovery- Mechanismen Insert- Only- Verfahren Nutzungsform Krueger u. a. (2011a) X X X Hybrid Krueger u. a. (2011b) X X X Hybrid Plattner, Zeier (2011) X X X X Hybrid Thiele, Lehner, Habich (2011) Funke, Kemper, Neumann (2012) Tab. 2-1: Übersicht über die verwendete Literatur X X OLAP /Hybrid X X Hybrid 2.3 Ausgewählte Eigenschaften von In-Memory-Datenbanken Verwendung des Primärspeichers Wie zuvor erwähnt ist die wesentliche Eigenschaft einer In-Memory-Datenbank die Verwendung des Arbeitsspeichers als primärer Ort zur dauerhaften Speicherung der Daten. Dies ist insofern zunächst verwunderlich, da es sich bei herkömmlichem Arbeitsspeicher, dem Dynamic Random-Access Memory (DRAM), um einen flüchtigen Speicher handelt. 17 DRAM muss demnach dauerhaft mit Strom versorgt werden, damit die in ihm abgelegten Daten erhalten bleiben. Wird daher ein auf DRAM basierendes System, das eine In-Memory-Datenbank ausführt, von der Stromversorgung getrennt, so gehen alle im Arbeitsspeicher abgelegten Daten verloren. 18 Zwar kann durch bestimmte Techniken (z. B. unterbrechungsfreie Stromversorgung (USV) oder spezieller nichtflüchtiger Arbeitsspeicher) der Datenverlust im Arbeitsspeicher bei Abbruch der Stromversorgung verhindert werden, jedoch bieten diese Techniken keinen Schutz vor Datenverlusten, die aufgrund von Betriebssystem- oder Hardwarefehlern hervorgerufen werden. 19 Zur permanenten Sicherung der Daten benötigen daher auch In-Memory- Datenbanken zwingend einen nicht-flüchtigen Sekundärspeicher, wobei hier vor allem Flash- oder Festplattenspeicher zu nennen sind. Somit ist gewährleistet, dass auch nach Störungen, die zum Verlust des Arbeitsspeicherinhalts führen, die Datenbank 17 Vgl. Boncz, Kersten, Manegold (2008), S Vgl. Plattner, Zeier (2011), S Vgl. zu diesem und dem folgenden Satz Lehman, Carey (1986b), S. 241, Lehman, Carey (1987), S. 104 sowie Garcia-Molina, Salem (1992), S. 510.

15 9 vollständig aus dem Sekundärspeicher wiederhergestellt und in den Arbeitsspeicher zurückgeladen werden kann. Die dabei verwendeten Recovery-Mechanismen werden im Kapitel vorgestellt. Die Entwicklung der Hardwaretechnologie ist auch soweit fortgeschritten, dass die maximal verfügbaren Arbeitsspeichergrößen in Serversystemen bereits im Bereich von einigen Terabyte liegen und zukünftig noch weiter steigen werden. 20 Einige Autoren gehen sogar davon aus, dass die Arbeitsspeicherkapazitäten inzwischen einem schnelleren Wachstum unterliegen als die Datenmengen, die typischerweise im geschäftlichen Umfeld als operationale Daten anfallen. 21 Zwar wird es auch immer Anwendungsfälle geben, die noch größere Arbeitsspeicherkapazitäten erfordern und deshalb nicht mit In-Memory-Datenbanken realisiert werden können (z. B. Speicherung von unstrukturierten Daten), jedoch sollten die schon heute verfügbaren Arbeitsspeichergrößen für viele Unternehmensanwendungen (z. B. Verwaltung von Kunden- und Auftragsdaten) mehr als ausreichend dimensioniert sein. Zudem ist die Datenorganisation in In-Memory-Datenbanken wesentlich effizienter als in konventionellen Datenbanken, so dass in der Regel erheblich weniger Platz für die Speicherung der gleichen Datenmenge benötigt wird (siehe Kapitel 2.3.2) Vgl. Plattner (2009), S. 5, Kemper, Neumann (2011), S. 196 sowie Thiele, Lehner, Habich (2011), S Vgl. zu diesem und dem folgenden Satz Krueger u. a. (2010), S. 132 sowie Kemper, Neumann (2011), S Vgl. Plattner (2009), S. 2.

16 10 Abb. 2-1: Speicherhierarchie mit Zugriffszeiten 23 Um die Auswirkungen der Verwendung des Arbeitsspeichers als primärer Ort für die Speicherung einer Datenbank aufzuzeigen, bietet sich zunächst die Betrachtung der Speicherhierarchie eines aktuellen Computersystems an. Die Darstellung in Abbildung 2-1 erfolgt in Form einer Pyramide, was die von oben nach unten zunehmende Speichergröße der Datenspeicher auf den einzelnen Ebenen symbolisieren soll. 24 Auf den einzelnen Ebenen sind neben den Datenspeichern auch die typischen Zugriffszeiten des Prozessors (CPU) auf diese angegeben. Auch bei den Zugriffszeiten ist ein Anstieg von oben nach unten entlang der Pyramidenform zu verzeichnen. An der Spitze der Speicherhierarchie stehen die direkt beim Prozessor angesiedelten CPU- Register. Diese können nur wenige Byte aufnehmen, besitzen dafür jedoch mit weniger als einer Nanosekunde (= 0, s) die schnellste Zugriffszeit aller CPU- Register CPU-Caches (L1, L2 & L3) > 1 ns Arbeitsspeicher (Hauptspeicher) ~ 100 ns Zugriffslücke 10³-10 5 Sekundärspeicher: Flash-Speicher (SSD) ~ 0,1 ms = ns Festplattenspeicher (HDD) ~ 10 ms = Archivspeicher: Magnetbänder > 1 s 23 Vgl. Polte, Simsa, Gibson (2008), S. 2, Kemper, Eickler (2009), S. 203 und Plattner, Zeier (2011), S Vgl. zu diesem Absatz Kemper, Eickler (2009), S

17 11 Datenspeicher. Auf der Ebene unterhalb der CPU-Register folgen die CPU-Caches. Diese bilden eine eigene Hierarchie und werden nach ihrer Nähe zum Prozessor in mehrere Stufen, den so genannten Cache-Leveln, eingeteilt. 25 Dabei gilt, je näher der Cache an der CPU liegt, desto niedriger ist der Cache-Level. Typische Cache-Level heutiger Prozessoren sind Level-1 (L1), Level-2 (L2) und Level-3 (L3). Die Speichergröße der einzelnen CPU- Caches liegt im Bereich von mehreren Kilobyte bis wenigen Megabyte. Die Zugriffszeiten sind mit wenigen Nanosekunden geringfügig langsamer als bei den CPU- Registern. Allgemein gilt, je näher ein Cache an der CPU liegt, desto geringer ist seine Speicherkapazität sowie auch seine Zugriffszeit. 26 Die CPU-Caches sind erforderlich, damit moderne Prozessoren keine unnötigen Taktzyklen darauf verwenden, auf die benötigten Daten aus dem langsamer angebundenen Arbeitsspeicher (ca. 100 ns) zu warten. So werden beim Zugriff auf den Arbeitsspeicher nicht nur einzelne Zellen ausgelesen, sondern immer ganze zusammenhängende Datenbereiche als so genannte Cache-Line. Durch dieses Caching-Prinzip erhöht sich bei der Verarbeitung von Daten die Wahrscheinlichkeit dafür, dass die vom Prozessor benötigten Daten bereits in einem der CPU-Caches vorliegen und somit nicht erst aus dem langsamer angebundenen Arbeitsspeicher gelesen werden müssen. In einem einzelnen Computersystem können mittlerweile Arbeitsspeicherkapazitäten von mehreren Terabyte realisiert werden. 27 Die Ebene unterhalb des Arbeitsspeichers bildet der so genannte Sekundärspeicher, wobei hier vor allem die herkömmlichen, auf Magnetspeicher basierenden Festplatten 28 sowie die neueren, auf Flash-Speicher basierenden Solid State Drives (SSD) zu nennen sind. Im Unterschied zu den vorherigen Ebenen ist beim Zugriff der CPU auf den Sekundärspeicher ein vergleichsweise langsamer Input-/Output-Prozess notwendig, weswegen man in der Literatur auch von einer Zugriffslücke spricht. 29 Diese wird traditionell mit dem Faktor 10 5 angegebenen, wobei sich dieser Wert auf den Unterschied in der Zugriffszeit zwischen Arbeitsspeicher und Festplattenspeicher 25 Vgl. zu diesem und den folgenden drei Sätzen Boncz, Kersten, Manegold (2008), S Vgl. zu diesem und den folgenden drei Sätzen Boncz, Kersten, Manegold (2008), S Vgl. Kemper, Neumann (2011), S. 196 sowie Funke, Kemper, Neumann (2012), S Im Englischen als Hard Disk Drive (HDD) bezeichnet. 29 Vgl. zu diesem und dem folgenden Satz Kemper, Eickler (2009), S. 203.

18 12 bezieht. Mit dem Aufkommen der SSDs konnte diese Zugriffslücke ein Stück weit verringert werden. 30 Allerdings ist der Geschwindigkeitsvorteil des Arbeitsspeichers bei einer Zugriffszeit, die um den Faktor 10 3 schneller ist, auch gegenüber einem SSD noch immer beträchtlich. Im Hinblick auf die Kapazität können einzelne Festplatten oder SSDs bereits einige Terabyte Speicherplatz aufweisen. In einem Computersystem zusammengeschlossen sind daher problemlos Speicherkapazitäten von mehreren Hundert Terabyte und mehr möglich. Auf der untersten Ebene der Speicherhierarchie sind die Archivspeicher angesiedelt, wobei diese meist in Form von Magnetbändern bereitgestellt werden. 31 Da Magnetbänder nur sequentiell gelesen und beschrieben werden können, ist die Zugriffszeit vergleichsweise hoch. Die Speicherkapazität eines einzelnen Magnetbandes liegt auf einem ähnlichen Niveau wie bei einer Festplatte Spaltenorientierte Datenspeicherung Die Verwendung von Arbeitsspeicher zur primären Speicherung der Daten hat auch Einfluss auf die physische Datenorganisation, im Folgenden auch als Datenlayout bezeichnet, einer In-Memory-Datenbank. Tabelle 2-2 zeigt einen Ausschnitt aus einer beispielhaften Kundentabelle, wie sie typischerweise in Unternehmen zu finden ist. Bei konventionellen Datenbanken erfolgt die Speicherung derartiger Tabellen meist zeilenorientiert 32, wobei eine Zeile einem zusammenhängenden Datensatz (Tupel) entspricht, der aus mehreren Attributen (Spalten) besteht. 33 Die einzelnen Tupel werden demnach hintereinander gereiht auf dem Sekundärspeicher abgelegt (Abbildung 2-2) und belegen dort somit zusammenhängende Speicherbereiche. Dadurch wird eine schnelle Verarbeitung ganzer Tupel sichergestellt, da immer nur sequenzielle Lese-/Schreibvorgänge vom bzw. auf den Sekundärspeicher erforderlich sind. 34 Ein solches Zugriffsszenario findet sich typischerweise bei Systemen, die für die Verarbeitung von Transaktionsdaten (z. B. Kunden- und Auftragsdaten), auch als Online 30 Vgl. zu diesem und dem folgenden Satz Polte, Simsa, Gibson (2008), S Vgl. zu diesem Absatz Kemper, Eickler (2009), S Im Englischen als row store bezeichnet. 33 Vgl. zu diesem und dem folgenden Satz Kemper, Eickler (2009), S Vgl. Kemper, Eickler (2009), S. 202.

19 13 Transaction Processing (OLTP) bezeichnet, zuständig sind. 35 Abfragen, die Berechnungen über ganze Spalten einer Tabelle erfordern und somit nur wenige Attribute vieler Tupel betreffen, können dagegen nur langsam ausgeführt werden, da hierbei in zufälliger Reihenfolge auf den Sekundärspeicher zugegriffen wird und somit die CPU-Caches nicht ausgenutzt werden können Derartige Abfragen kommen typischerweise beim Online Analytical Processing (OLAP) vor, wofür bisher auf speziell für diesen Zweck optimierte Datenbanken zurückgegriffen wird. 38 Dabei kommt meist eine spaltenorientierte Speicherung 39 der Datenbanktabellen zum Einsatz. Hierzu wird eine logische Datenbanktabelle spaltenweise zerlegt und die einzelnen Spalten als zusammengehörige Einheit im Sekundär- oder Arbeitsspeicher abgelegt (Abbildung 2-3). 40 Dies hat den Vorteil, dass die einzelnen Spalten sehr schnell durchlaufen werden können, da sie als zusammenhängende Einheiten in die CPU-Caches geladen werden. Dadurch können analytische Abfragen, die z. B. häufig die Berechnung von Summenoder Durchschnittswerten über ganze Spalten erfordern, sehr schnell ausgeführt werden. Dagegen ist der Zugriff auf viele Attribute eines einzelnen Tupels bei dieser Datenorganisation mit höheren Kosten verbunden, da hierzu das zerlegte Tupel zunächst rekonstruiert werden muss, wobei in zufälliger Reihenfolge auf den zugrundeliegenden Speicher zugegriffen wird. 41 Allerdings unterscheiden sich diese Kosten erheblich, je nachdem welche Speicherart eingesetzt wird. So ist das Lesen in zufälliger Reihenfolge bei Festplattenspeicher weitaus problematischer als bei Arbeitsspeicher, da letzterer als Random Access Memory auf zufällige Zugriffe ausgelegt ist. 42 Die spaltenorientierte Datenorganisation erscheint daher prädestiniert für den Einsatz in In-Memory- Datenbanken, da vor allem komplexe analytische Abfragen (OLAP), die häufig Aggregationen und Gruppierungen über ganze Spalten erfordern, durch die optimale 35 Vgl. Kemper, Eickler (2009), S Aufgrund der zeilenorientierten Speicherung werden die CPU-Caches implizit auch mit den nicht angefragten Attributen eines Tupels belegt. 37 Vgl. Kemper, Eickler (2009), S Vgl. Kemper, Eickler (2009), S Im Englischen als column store bezeichnet. 40 Vgl. zu diesem und den folgenden beiden Sätzen Kemper, Eickler (2009), S Vgl. Krueger u. a. (2010), S Vgl. Plattner, Zeier (2011), S. 182.

20 14 Nutzung der CPU-Caches sehr schnell ausgeführt werden können. Daneben können auch für OLTP-Abfragen, die oft schreibend auf die Datenbank zugreifen und meist nur einzelne Tupel betreffen, bei einer spaltenorientierten Datenspeicherung hohe Transaktionsraten erzielt werden. 43 Allerdings werden in der Literatur auch alternative Ansätze zur Datenorganisation in In- Memory-Datenbanken vorgeschlagen, die u. a. auf eine noch höhere Performanz bei OLTP-Abfragen abzielen. So entwickeln Stonebraker u. a. (2007) eine zeilenorientierte In-Memory-Datenbank, die vollständig auf OLTP optimiert ist. 44 Dadurch können OLTP-Transaktionsraten erreicht werden, die um den Faktor 82 höher sind als bei einer konventionellen Datenbank. Dabei muss jedoch beachtet werden, dass eine derart spezialisierte In-Memory-Datenbank ausschließlich für ihren Einsatzzweck OLTP vorgesehen ist und daher nicht für komplexe analytische Abfragen verwendet werden kann. 45 Plattner, Zeier (2011) schlagen neben einem rein zeilen- oder spaltenorientierten Datenlayout auch eine Mischung aus beiden vor. 46 Dieses hybride Datenlayout basiert auf einer vertikalen Partitionierung der Datenbanktabellen. Anders als bei der spaltenorientierten Datenorganisation werden jedoch nicht die kompletten Datenbanktabellen spaltenweise zerlegt, sondern lediglich einzelne Spalten (Attribute) aus den Datenbanktabellen gelöst und als zusammenhängende Einheiten gespeichert. Die restlichen Attribute werden dagegen wie bei der zeilenorientierten Datenorganisation tupelweise auf dem Datenspeicher abgelegt. Mit dem hybriden Datenlayout wird versucht einen Kompromiss zwischen transaktionalen und analytischen Abfragen zu schaffen. Allerdings stellt die Frage, welche Attribute spaltenorientiert gespeichert werden sollen, eine neue Herausforderung dar. Diese Entscheidung kann mitunter auch erst während des operativen Einsatzes einer In- Memory-Datenbank getroffen werden, wenn Statistiken über die Nutzung der einzelnen Datenbanktabellen vorliegen. Allerdings ist dann eine aufwändige Neuorganisation der bereits gespeicherten Daten erforderlich. 43 Vgl. Kemper, Neumann (2011), S Vgl. zu diesem und dem folgenden Satz Stonebraker u. a. (2007), S. 1151, 1154, Vgl. Stonebraker u. a. (2007), S. 1151, Vgl. zu diesem Absatz Plattner, Zeier (2011), S

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann Blatt Nr. 11 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe15 Moritz Kaufmann (moritz.kaufmann@tum.de)

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik, Mathematik und Naturwissenschaften Abstract Oberseminar "Datenbanksysteme - Aktuelle Trends" Hauptspeicherdatenbanken Eingereicht

Mehr

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen Lennart Leist Inhaltsverzeichnis 1 Einführung 2 1.1 Aufgaben einer Datenbank...................... 2 1.2 Geschichtliche Entwicklung

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk FRAGEKATALOG Informatik BAKIP HARDWARE Frage 01: Im inneren eines Computergehäuses befindet sich unter anderem das Mainboard. Welche Komponenten sind an diesem Mutterbrett angeschlossen bzw. verbaut? Nenne

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen:

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen: 1 Einführung in Datenbanksysteme Fast jeder kennt Excel und hat damit in seinem Leben schon einmal gearbeitet. In Excel gibt es Arbeitsblätter, die aus vielen Zellen bestehen, in die man verschiedene Werte

Mehr

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme Proseminar Speicher- und Dateisysteme Schriftliche Ausarbeitung zu meinem Vortrag am 01.06.2012 über Zukünftige Speichertechnologien -HVD, Racetrack und mehr- Jan-Ole Zürcher, 6325134 Universität Hamburg

Mehr

Effiziente Anwendungen von In-Memory Datenbanken

Effiziente Anwendungen von In-Memory Datenbanken Effiziente Anwendungen von In-Memory Datenbanken Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften der Wirtschaftswissenschaftlichen

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Wiederherstellung (Recovery)

Wiederherstellung (Recovery) Fragestellungen Aufgaben der Komponenten für das Recovery: Sicherstellung der Dauerhaftigkeit der gespeicherten Daten, d.h. Daten, die in einer Transaktion einmal bestätigt wurden (commit), bleiben auch

Mehr

Teamcenter Rapid Start (Rich Client)

Teamcenter Rapid Start (Rich Client) 15.06.15-1 - E:\Stefan\CAD\Teamcenter\TCRS10\Anleitungen\TeamcenterRich.doc Teamcenter Rapid Start (Rich Client) 1. Starten und Beenden - Teamcenter starten (Desktop-Verknüpfung): - Anmeldeinformationen

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Dokumentation QuickHMI-Schnittstelle. Datenbanken

Dokumentation QuickHMI-Schnittstelle. Datenbanken Dokumentation QuickHMI-Schnittstelle für SQLServer Datenbanken Version 1.0 D-28359 Bremen info@indi-systems.de Tel + 49 421-989703-30 Fax + 49 421-989703-39 Inhaltsverzeichnis Was ist die QuickHMI-Schnittstelle

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen

ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen C3: Structured Query Language Lernziele: Nach der Bearbeitung dieser Lektion haben Sie folgende Kenntnisse erworben: Sie können elementaren

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector 7.4 Analyse anhand der SQL-Trace 337 7.3.5 Vorabanalyse mit dem Code Inspector Der Code Inspector (SCI) wurde in den vorangegangenen Kapiteln immer wieder erwähnt. Er stellt ein paar nützliche Prüfungen

Mehr

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008 Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Andreas Glaser, 23. September 2008 Teufenerstrasse 19 CH 9001 St.Gallen t [+41] 71 228 67 77 f [+41] 71 228 67 88 info@namics.com

Mehr

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store...

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher- Datenbanksysteme Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher-Datenbanksysteme Disk is Tape, Tape is dead Jim Gray Die Zeit ist reif für ein Re-engineering der Datenbanksysteme

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Teil XI Spalten-orientierte DBMSs

Teil XI Spalten-orientierte DBMSs Teil XI Spalten-orientierte DBMSs Spalten-orientierte Datenbankmanagementsysteme 1 Motivation 2 Funktionsweise 3 Erweiterungen 4 Literatur c Sattler / Saake / Köppen Data-Warehouse-Technologien Letzte

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Logische Modellierung von Data Warehouses

Logische Modellierung von Data Warehouses Logische Modellierung von Data Warehouses Vertiefungsarbeit von Karin Schäuble Gliederung. Einführung. Abgrenzung und Grundlagen. Anforderungen. Logische Modellierung. Methoden.. Star Schema.. Galaxy-Schema..

Mehr

Microsoft SQL Server 2005 für Administratoren

Microsoft SQL Server 2005 für Administratoren Microsoft SQL Server 2005 für Administratoren Irene Bauder ISBN 3-446-22800-4 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-22800-4 sowie im Buchhandel Sichern von

Mehr

Einführung in SQL Datenbanken bearbeiten

Einführung in SQL Datenbanken bearbeiten Einführung in SQL Datenbanken bearbeiten Jürgen Thomas Entstanden als Wiki-Buch Bibliografische Information Diese Publikation ist bei der Deutschen Nationalbibliothek registriert. Detaillierte Angaben

Mehr

Beheben von verlorenen Verknüpfungen 20.06.2005

Beheben von verlorenen Verknüpfungen 20.06.2005 Vor folgender Situation ist sicher jeder Solid Edge-Anwender beim Öffnen von Baugruppen oder Drafts schon einmal gestanden: Die Ursache dafür kann sein: Die Dateien wurden über den Explorer umbenannt:

Mehr

2. Word-Dokumente verwalten

2. Word-Dokumente verwalten 2. Word-Dokumente verwalten In dieser Lektion lernen Sie... Word-Dokumente speichern und öffnen Neue Dokumente erstellen Dateiformate Was Sie für diese Lektion wissen sollten: Die Arbeitsumgebung von Word

Mehr

Vorlesungsinhalt. Recovery. G. Specht: Datenbanksysteme 11-1. Kapitel XI. Vorlesung Datenbanksysteme Univ.-Prof. Dr.

Vorlesungsinhalt. Recovery. G. Specht: Datenbanksysteme 11-1. Kapitel XI. Vorlesung Datenbanksysteme Univ.-Prof. Dr. Recovery Kapitel XI Vorlesung Datenbanksysteme Univ.-Prof. Dr. Günther Specht Universität Innsbruck Institut für Informatik Datenbanken und Informationssysteme (DBIS) Vorlesungsinhalt 11. Recovery Fehler

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Lokales Storage Teil 1

Lokales Storage Teil 1 Lokales Storage Teil 1 Zinching Dang 08. Juli 2015 1 Lokales Storage im Allgemeinen Lokales Storage im Allgemeinen Datenträger, die direkt am Host angeschlossen sind Anbindung über verschiedene Bus-Systeme

Mehr

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet

Zero Effort Backup (ZEB) automatische Datensicherung über das Internet Ralph Lehmann. Computerservice und IT-Beratung. Kochstraße 34. 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Kochstraße 34 04275 Leipzig Ralph Lehmann Computerservice und IT-Beratung Tel.:

Mehr

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3 Institut für Kommunikationsnetze und Rechnersysteme Technische Informatik I Paul J. Kühn, Matthias Meyer Übung 3 Speicherhierarchie Inhaltsübersicht Aufgabe 3.1 Daten-Cache Aufgabe 3.2 Virtueller Speicher

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

SSDs im Einsatz mit MicroStation

SSDs im Einsatz mit MicroStation SSDs im Einsatz mit MicroStation Inhalt: Was ist eine SSD? HDD / SSD Wichtige Fakten SSDs im Einsatz mit Windows 7 SSDs im Einsatz mit MicroStation Verantwortlich für die MicroStation Tippliste sind die

Mehr

Microsoft Vista Leistungsoptimierung

Microsoft Vista Leistungsoptimierung Mehr Geschwindigkeit durch ReadyBoost Wenn ein System über zu wenig Arbeitsspeicher verfügt, dann leidet die Performance darunter. Wer Vista mit weniger als 2 GB RAM betreibt, wird bald an die Grenzen

Mehr

Alles Spricht von RAID-Verband

Alles Spricht von RAID-Verband Alles Spricht von RAID-Verband Der Begriff "RAID" fiel in der Vergangenheit lediglich in dem Zusammenhang von Server-PC's. Doch heutzutage, wo die PC-Hardware immer günstiger werden und das Interesse an

Mehr

Übersicht über Technologie und Nutzung von Solid State Drives

Übersicht über Technologie und Nutzung von Solid State Drives Fakultät Informatik, Institut für Angewandte Informatik, Professur für Technische Informationssysteme Übersicht über Technologie und Nutzung von Solid State Drives WS 2010/11, 6. Dezember 2010 Betreuer:

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Whitepaper. Produkt: combit Relationship Manager / address manager. FILESTREAM für Microsoft SQL Server aktivieren

Whitepaper. Produkt: combit Relationship Manager / address manager. FILESTREAM für Microsoft SQL Server aktivieren combit GmbH Untere Laube 30 78462 Konstanz Whitepaper Produkt: combit Relationship Manager / address manager FILESTREAM für Microsoft SQL Server aktivieren FILESTREAM für Microsoft SQL Server aktivieren

Mehr

Integration Services Übersicht

Integration Services Übersicht Integration Services Übersicht Integration Services Übersicht Integration Services stellt umfangreiche integrierte Tasks, Container, Transformationen und Datenadapter für die En t- wicklung von Geschäftsanwendungen

Mehr

Referat über Streamer, DAT und Datensicherung

Referat über Streamer, DAT und Datensicherung %DOWKDVDU1HXPDQQ7HFKQLNXP )DFKVFKXO I 7HFKQLN Modul 7 Klasse: ITZ99 Lehrer: Herr Beford Referat über Streamer, DAT und Datensicherung Verfasser: Thomas Hartz Erklärung: 2. Februar 2000 Hiermit erkläre

Mehr

Leistungsbeschreibung. PHOENIX Archiv. Oktober 2014 Version 1.0

Leistungsbeschreibung. PHOENIX Archiv. Oktober 2014 Version 1.0 Leistungsbeschreibung PHOENIX Archiv Oktober 2014 Version 1.0 PHOENIX Archiv Mit PHOENIX Archiv werden Dokumente aus beliebigen Anwendungen dauerhaft, sicher und gesetzeskonform archiviert. PHOENIX Archiv

Mehr

Implementierung von Dateisystemen

Implementierung von Dateisystemen Implementierung von Dateisystemen Teil 2 Prof. Dr. Margarita Esponda WS 2011/2012 44 Effizienz und Leistungssteigerung Festplatten sind eine wichtige Komponente in jedem Rechnersystem und gleichzeitig

Mehr

Datensicherungskonzept Westfälische Hochschule

Datensicherungskonzept Westfälische Hochschule Datensicherungskonzept Westfälische Hochschule -ZIM- Rev. 1.00 Stand: 04.04.2014 Revisionsstände Revisionsstand Kommentar 1.00 Erste Version Seite 2 1 Einleitung Das Datensicherungskonzept dient zur Dokumentation

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

AdmiCash - Datenpflege

AdmiCash - Datenpflege AdmiCash - Datenpflege Grundlegende Funktionen der Datenpflege in AdmiCash Es kommt immer wieder vor, dass AdmiCash - Anwender die Ordnerstruktur der AdmiCash - Daten manuell anpassen. Da es sich um private

Mehr

FlowFact Alle Versionen

FlowFact Alle Versionen Training FlowFact Alle Versionen Stand: 29.09.2005 Brief schreiben, ablegen, ändern Die FlowFact Word-Einbindung macht es möglich, direkt von FlowFact heraus Dokumente zu erzeugen, die automatisch über

Mehr

PIPEX Datensicherheit und Datensicherung

PIPEX Datensicherheit und Datensicherung PIPEX Datensicherheit und Datensicherung Stand: 01.10.2013 Version: 1.0 Autor: Status: Dem Thema Datensicherheit und Datensicherung kommt auch im Bereich der TV-Inspektion eine immer größere Bedeutung

Mehr

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011 PRÄSENTATION MAGNETISCHE FESTPLATTEN Proseminar Speicher- und Dateisysteme Björn Fries GLIEDERUNG (1) Einleitung o Was ist eine Festplatte? o Aufgabe und Einsatz (2) Technischer Aufbau a. Physikalischer

Mehr

Virtuelle Tape Libraries, Überblick und Merkmale. Martin Mrugalla martin.mrugalla@empalis.com

Virtuelle Tape Libraries, Überblick und Merkmale. Martin Mrugalla martin.mrugalla@empalis.com Virtuelle Tape Libraries, Überblick und Merkmale Martin Mrugalla martin.mrugalla@empalis.com Inhalt Was ist eine Virtuelle Tape Library (VTL)? Mögliche Gründe für eine VTL im TSM Umfeld Klärung der Begriffe

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 378 Umsetzung ausgewählter Supply-Chain-Operations-Reference-Metriken durch das

Mehr

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche].

Computerpflege. Windows XP Update (Arbeitssicherheit) Dieses Programm öffnet die Internetseite von Windows. Starten Sie die [Schnellsuche]. Computerpflege Neben dem Virus Schutz ist es sehr wichtig den PC regelmässig zu Pflegen. Es sammeln sich täglich verschiedene Dateien an die nicht wirklich gebraucht werden und bedenkenlos gelöscht werden

Mehr

RAID Redundant Array of Independent [Inexpensive] Disks

RAID Redundant Array of Independent [Inexpensive] Disks RAID Redundant Array of Independent [Inexpensive] Disks Stefan Wexel Proseminar Algorithms and Data Structures im WS 2011/2012 Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik

Mehr

(Titel des Berichts)

(Titel des Berichts) (Titel des Berichts) Praxissemesterbericht von (Vorname Name) aus (Geburtsort) Matrikelnummer Anschrift Telefon HTW Aalen Hochschule für Technik und Wirtschaft Betreuender Professor Abgabetermin Angaben

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Top-Themen. Office 365: So funktioniert die E-Mail-Archivierung... 2. Seite 1 von 16

Top-Themen. Office 365: So funktioniert die E-Mail-Archivierung... 2. Seite 1 von 16 Top-Themen Office 365: So funktioniert die E-Mail-Archivierung... 2 Seite 1 von 16 Schritt-für-Schritt-Anleitung Office 365: So funktioniert die E-Mail- Archivierung von Thomas Joos Seite 2 von 16 Inhalt

Mehr

In-Memory-Computing: Chancen für Unternehmen und Marktanalyse

In-Memory-Computing: Chancen für Unternehmen und Marktanalyse In-Memory-Computing: Chancen für Unternehmen und Marktanalyse Abschlussarbeit Betreuer: Dipl.- Wirt.- Inf. (FH) Nikolai Kunz Verwaltungs- und Wirtschaftsakademie Frankfurt am Main Von Markus Schnabel Studienrichtung:

Mehr

HANA. TOBA-Team Dresden 19.05.2012

HANA. TOBA-Team Dresden 19.05.2012 HANA TOBA-Team Dresden 19.05.2012 Kunde droht mit Auftrag! Ein großer Discounter schickt Anfrage: Bis wann und zu welchem Preis können Sie 30.000 Stück liefern? Die Hektik beginnt! Bis wann Welche und

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung

FLASHRECOVER SNAPSHOTS. Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS Sofortige, unlimitierte Snapshots, speziell für 100 % Flash-Speicherung FLASHRECOVER SNAPSHOTS BIETEN EFFIZIENTE, SKALIERBARE UND LEICHT ZU VERWALTENDE SNAPSHOTS OHNE KOMPROMISSE

Mehr

Aktuelle Trends aus Business Intelligence & Datawarehouse

Aktuelle Trends aus Business Intelligence & Datawarehouse Aktuelle Trends aus Business Intelligence & Datawarehouse Autor: Klaus Rohrmoser Es entstehen immer größere Datenmengen, die in immer unterschiedlicheren Formaten und aus immer mehr Datenquellen gespeist

Mehr

Transaktionsverwaltung

Transaktionsverwaltung Transaktionsverwaltung VU Datenbanksysteme vom 21.10. 2015 Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Transaktionsverwaltung

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

3 ORDNER UND DATEIEN. 3.1 Ordner

3 ORDNER UND DATEIEN. 3.1 Ordner Ordner und Dateien PC-EINSTEIGER 3 ORDNER UND DATEIEN Themen in diesem Kapitel: Erstellung von Ordnern bzw Dateien Umbenennen von Datei- und Ordnernamen Speicherung von Daten 3.1 Ordner Ordner sind wie

Mehr

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten 1. Einleitung Im täglichen Gespräch mit Unternehmen stellen wir als Suchmaschinen-Marketing- Agentur immer häufiger fest, dass Unternehmen

Mehr

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Dieses Dokument dient zur Information über die Organisation der Projektphasen und der technischen Vorbereitung eines Refile

Mehr

Kapitel 4: Data Warehouse Architektur

Kapitel 4: Data Warehouse Architektur Data Warehousing, Motivation Zugriff auf und Kombination von Daten aus mehreren unterschiedlichen Quellen, Kapitel 4: Data Warehousing und Mining 1 komplexe Datenanalyse über mehrere Quellen, multidimensionale

Mehr

Gliederung und Einordnung

Gliederung und Einordnung Gliederung und Einordnung 1. Objektorientierte Programmierung mit Object Pascal (5. Studienbrief, Kapitel 5) 9.4. + 16.4. 2. Software-Bausteine am Beispiel der Delphi-Komponenten (5. Studienbrief, Kapitel

Mehr

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine.

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine. Kapitel 2 Datenverwaltung durch SQL Server Wir wollen das obige Skript zwei Mal laufen lassen, einmal mit und einmal ohne eingeschalteten Schreibcache der Festplatte. Für eine lokale Festplatte können

Mehr

Mitarbeitereinsatzplanung. easysolution GmbH 1

Mitarbeitereinsatzplanung. easysolution GmbH 1 Mitarbeitereinsatzplanung easysolution GmbH 1 Mitarbeitereinsatzplanung Vorwort Eines der wichtigsten, aber auch teuersten Ressourcen eines Unternehmens sind die Mitarbeiter. Daher sollten die Mitarbeiterarbeitszeiten

Mehr

3 Windows als Storage-Zentrale

3 Windows als Storage-Zentrale 3 Windows als Storage-Zentrale Windows als zentrale Datenspeichereinheit punktet gegenüber anderen Lösungen vor allem bei der Integration in vorhandene Unternehmensnetze sowie bei der Administration. Dabei

Mehr

dpa-infocom - Datenlieferung

dpa-infocom - Datenlieferung dpa-infocom - Datenlieferung Copyright 2006 von dpa-infocom GmbH Status des Dokuments: FINAL Inhaltsverzeichnis Inhaltsverzeichnis...1 1. Verzeichnisstrukturen...2 2. Nachrichtenmanagement...2 3. Datenübertragung...3

Mehr

Server Recovery unter dem

Server Recovery unter dem Server Recovery unter dem MAXDATA b.center M2 Benutzerhandbuch Version: 1.0 SecureGUARD GmbH, 2011 Inhalt: 1. Einleitung... 3 2. Recovery-Vorgang... 3 2.1. Voraussetzungen... 3 2.2. Vorgehensweise... 3

Mehr

Formulierungshilfen für das wissenschaftliche Schreiben

Formulierungshilfen für das wissenschaftliche Schreiben Formulierungshilfen für das wissenschaftliche Schreiben 1. Einleitendes Kapitel 1.1.1 Einen Text einleiten und zum Thema hinführen In der vorliegenden Arbeit geht es um... Schwerpunkt dieser Arbeit ist...

Mehr

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit Universität Passau Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Bachelorarbeit Der Einsatz moderner Medien und Kommunikationsmöglichkeiten

Mehr

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit Universität Passau Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Masterarbeit "Identifikation von Erfolgsfaktoren für eine Facebook- Recruiting-Strategie"

Mehr

Dateisysteme mit Plugin-Funktion

Dateisysteme mit Plugin-Funktion Dateisysteme mit Plugin-Funktion Basierend auf Reiser 4 unter Linux http://llugb.amsee.de/logo.gif Ausgearbeitet und vorgetragen von Michael Berger 1/23 Agenda Die Idee Dateisysteme mit Plugin-Funktion

Mehr

6 InfoCubes erstellen und konfigurieren

6 InfoCubes erstellen und konfigurieren InfoCubes bilden die Reportingschicht in der LSA; sie sind für die Performance des Reportings entscheidend. In diesem Kapitel stellen wir Ihnen vor, welche InfoCubes es gibt und wie Sie damit arbeiten.

Mehr

Inhalte der heutigen Vorlesung

Inhalte der heutigen Vorlesung Inhalte der heutigen Vorlesung Wiederholung und Fortsetzung Hardware Von-Neumann-Architektur (Rechnerarchitektur) Speicher Software Wie groß ist ein Gigabyte? http://www.spiegel.de/netzwelt/tech/0,1518,606308,00.html

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

GoVault Data Protection-Software Überblick

GoVault Data Protection-Software Überblick 1226-GoVaultSoftware-GermanTranslation-A4 13/3/08 09:16 Page 1 Das GoVault-System enthält die Windows-basierte Software GoVault Data Protection und bildet damit eine komplette Backup- und Restore-Lösung

Mehr

Das Studiengangsinformationssystem (SGIS)

Das Studiengangsinformationssystem (SGIS) Das Studiengangsinformationssystem (SGIS) Manual für Typo3-Redakteure Version 1.a Mai 2015 Kontakt: Referat 1.4 - Allgemeine Studienberatung und Career Service Christian Birringer, christian.birringer@uni-rostock.de

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

Daten retten von SSDs

Daten retten von SSDs von SSDs Daten von SSDs zu retten ist nicht so einfach wie von Festplatten. Der rtikel erklärt, was an SSDs besonders ist. Wenn Sie in Windows versehentlich Daten auf einer Festplatte löschen, dann ist

Mehr

VMware Schutz mit NovaBACKUP BE Virtual

VMware Schutz mit NovaBACKUP BE Virtual VMware Schutz mit NovaBACKUP BE Virtual Anforderungen, Konfiguration und Restore-Anleitung Ein Leitfaden (September 2011) Inhalt Inhalt... 1 Einleitung... 2 Zusammenfassung... 3 Konfiguration von NovaBACKUP...

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16 2. Braunschweiger Linux-Tage Vortrag über RAID von Thomas King http://www.t-king.de/linux/raid1.html 2. Braunschweiger Linux-Tage Seite 1/16 Übersicht: 1. Was ist RAID? 1.1. Wo wurde RAID entwickelt? 1.2.

Mehr

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery Kapitel II Datenbereitstellung 2004 AIFB / FZI 1 II. Datenbereitstellung 2004 AIFB / FZI 2 II. Datenbereitstellung Collect Initial Data identify relevant attributes identify inconsistencies between sources

Mehr

IAWWeb PDFManager. - Kurzanleitung -

IAWWeb PDFManager. - Kurzanleitung - IAWWeb PDFManager - Kurzanleitung - 1. Einleitung Dieses Dokument beschreibt kurz die grundlegenden Funktionen des PDFManager. Der PDF Manager dient zur Pflege des Dokumentenbestandes. Er kann über die

Mehr

Handbuch Version 1.02 (August 2010)

Handbuch Version 1.02 (August 2010) Handbuch Version 1.02 (August 2010) Seite 1/27 Inhaltsverzeichnis 1. Einleitung 1.1. Begrüßung 03 1.2. Was ist PixelX Backup FREE / PRO 03 1.3. Warum sollten Backups mittels einer Software erstellt werden?

Mehr

Kooperationsplattform der Anhalt Dessau AG. Benutzerhandbuch

Kooperationsplattform der Anhalt Dessau AG. Benutzerhandbuch Kooperationsplattform der Anhalt Dessau AG Benutzerhandbuch Inhaltsverzeichnis Vorwort 2 1. Einführung 3 1.1 Anmeldung im System 1.2 Die Kollaborationsplattform 1.3 Rechteübersicht 3 4 5 2. Benutzersuche

Mehr