Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen

Größe: px
Ab Seite anzeigen:

Download "Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen"

Transkript

1 Andreas Flaig Masterarbeit im Fach Information Systems Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen Themasteller: Prof. Dr. Ali Sunyaev Vorgelegt in der Masterprüfung im Studiengang Information Systems der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln Köln, Mai 2013

2 II Inhaltsverzeichnis Abkürzungsverzeichnis...IV Abbildungsverzeichnis...V Tabellenverzeichnis...VI 1 Einleitung Problemstellung Zielsetzung Vorgehensweise Aufbau der Arbeit In-Memory-Datenbanken Begriffsdefinition Verwendete Literatur Ausgewählte Eigenschaften von In-Memory-Datenbanken Verwendung des Primärspeichers Spaltenorientierte Datenspeicherung Kompressionsverfahren Insert-Only-Verfahren Recovery-Mechanismen Vergleich zu konventionellen Datenbanken Datenqualität Begriffsdefinition Ursachen für Datenqualitätsprobleme Datenqualitätsdimensionen Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft Bisherige Trennung von OLTP- und OLAP-Datenbanken In-Memory-Datenbank für OLTP In-Memory-Datenbank für OLAP Integrierte In-Memory-Datenbank für OLTP und OLAP Auswirkungen von In-Memory-Datenbanken auf die Datenqualität Auswirkungen beim Nutzungsszenario In-Memory-Datenbank für OLTP Auswirkungen beim Nutzungsszenario In-Memory-Datenbank für OLAP Auswirkungen beim Nutzungsszenario Integrierte In-Memory-Datenbank Fazit...61

3 III Literaturverzeichnis...63 Anhang...69 Erklärung...70 Lebenslauf...71

4 IV Abkürzungsverzeichnis DRAM OLAP OLTP SSD USV Dynamic Random-Access Memory Online Analytical Processing Online Transaction Processing Solid State Drive Unterbrechungsfreie Stromversorgung

5 V Abbildungsverzeichnis Abb. 2-1: Speicherhierarchie mit Zugriffszeiten...10 Abb. 2-2: Physische Umsetzung von Tab. 2-2 bei zeilenorientierter Datenspeicherung (schematische Darstellung)...15 Abb. 2-3: Physische Umsetzung von Tab. 2-2 bei spaltenorientierter Datenspeicherung (schematische Darstellung)...15 Abb. 4-1: Zusammenhang zwischen OLTP- und OLAP-Datenbanken...43 Abb. 4-2: Integrierte In-Memory-Datenbank für OLTP und OLAP...47

6 VI Tabellenverzeichnis Tab. 2-1: Übersicht über die verwendete Literatur...8 Tab. 2-2: Ausschnitt aus einer beispielhaften Kundentabelle...15 Tab. 3-1: Einfluss von In-Memory-Datenbanken auf mögliche Ursachen für Datenqualitätsprobleme...34 Tab. 5-1: Auswirkungen möglicher Nutzungsszenarien von In-Memory-Datenbanken auf die Datenqualitätsdimensionen...61

7 1 1 Einleitung 1.1 Problemstellung Aus technischer Perspektive versprechen In-Memory-Datenbanken sehr große Potentiale zur Verbesserung der Leistungsfähigkeit von Datenbanksystemen. In der Praxis werden In-Memory-Datenbanken bisher allerdings kaum in Unternehmen eingesetzt. So geben in einer Studie lediglich 16% der befragten Unternehmen an, bereits In-Memory-Technologien, zu denen insbesondere In-Memory-Datenbanken zählen, im Einsatz zu haben. 1 Zwar planen weitere 31% der befragten Unternehmen In- Memory-Technologien in Zukunft einzusetzen, jedoch steht eine Mehrheit von 53% der befragten Unternehmen diesen Technologien skeptisch gegenüber und plant daher nicht ihre Nutzung. Ein Grund für die ablehnende Haltung vieler Unternehmen gegenüber In- Memory-Technologien und damit auch In-Memory-Datenbanken liegt möglicherweise darin begründet, dass die Folgen des Einsatzes dieser Technologien, u. a. auch im Hinblick auf die Datenqualität, bisher kaum eingeschätzt werden können. Da In- Memory-Datenbanken bei ihrem Einsatz in einem Unternehmen jedoch Teil des Datenverarbeitungsprozesses werden und sie darüber hinaus große Unterschiede zu den bisher verwendeten konventionellen Datenbanken aufweisen, ist ihre Nutzung gegebenenfalls mit Auswirkungen auf die Datenqualität verbunden. Dabei ist die Datenqualität für Unternehmen allgemein ein wichtiges Thema, weil jede positive oder negative Veränderung letztlich Einfluss auf den wirtschaftlichen Erfolg eines Unternehmens haben kann. 2 Im Rahmen dieser Arbeit wird daher der Frage nachgegangen, welche Auswirkungen In-Memory-Datenbanken auf die Datenqualität in Unternehmen haben. In der bisherigen Forschung werden In-Memory-Datenbanken vorwiegend aus einer technischen Perspektive betrachtet. 3 Neben der prinzipiellen Funktionsweise stehen vor allem Methoden und Algorithmen zur Verbesserung von technischen Aspekten im Zentrum der wissenschaftlichen Betrachtung. Daneben existieren zwar auch wenige informationswirtschaftliche Untersuchungen, in denen z. B. die Auswirkungen von In- 1 Vgl. zu diesem und dem folgenden Satz o. V. (2012), S Vgl. Wang, Strong (1996), S. 6 sowie Ge, Helfert, Jannach (2011), S Vgl. z. B. DeWitt u. a. (1984), Garcia-Molina, Salem (1992) sowie Plattner (2009).

8 2 Memory-Datenbanken auf Geschäftsprozesse betrachtet werden. 4 Eine explizite Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen findet jedoch nicht statt. Um diese Forschungslücke ein Stück weit zu schließen, werden in dieser Arbeit daher die Auswirkungen von In-Memory- Datenbanken auf die Datenqualität in Unternehmen untersucht. 1.2 Zielsetzung Ziel der Arbeit ist die Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen. Dazu ist es zunächst notwendig, die Eigenschaften von In-Memory-Datenbanken im Vergleich zu konventionellen, d. h. auf Sekundärspeicher basierenden Datenbanken, zu untersuchen. Ferner soll das Konzept der Datenqualität erläutert werden, wobei der Fokus vor allem auf den verschiedenen Datenqualitätsdimensionen liegt, aus denen Datenqualität bewertet werden kann. Daneben sollen mögliche Ursachen für Datenqualitätsprobleme aufgezeigt und dabei der Frage nachgegangen werden, welche dieser Ursachen einen Zusammenhang zur verwendeten Datenbanktechnologie aufweisen, um mögliche Auswirkungen des Einsatzes von In-Memory-Datenbanken ableiten zu können. Darüber hinaus sollen die Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft in Unternehmen untersucht und dazu exemplarische Nutzungsszenarien für den Einsatz von In-Memory- Datenbanken aufgezeigt werden. Dabei soll auch der Frage nachgegangen werden, wie durch den Einsatz von In-Memory-Datenbanken möglicherweise die Trennung zwischen dedizierten Datenbanken für das Online Transaction Processing (OLTP) und das Online Analytical Processing (OLAP) aufgehoben werden kann. Letztlich sollen für jedes zuvor entwickelte Nutzungsszenario mögliche Auswirkungen von In-Memory- Datenbanken auf die einzelnen Datenqualitätsdimensionen abgeleitet werden. 1.3 Vorgehensweise Die Ergebnisse der vorliegenden Arbeit basieren auf der Durchführung einer Literaturuntersuchung. Dazu wurde zum Themenbereich In-Memory-Datenbanken eine Literaturrecherche in den Suchportalen ACM Digital Library, AIS Electronic Library (AISeL), EBSCOhost, IEEE Xplore Digital Library, ProQuest und ScienceDirect durchgeführt. Als Suchbegriffe wurden in memory, main memory und memory 4 Vgl. Wessel, Köffer, Becker (2013).

9 3 resident jeweils in Kombination mit dem Begriff database verwendet und untereinander mit einem logischen OR verknüpft. Beim Begriff database wurde explizit darauf geachtet, dass sowohl Singular als auch Plural gefunden werden. Falls möglich wurde die Suche auf Titel, Abstract und Schlüsselwörter beschränkt. Ansonsten wurden lediglich die Metadaten durchsucht. Ebenso wurde darauf geachtet, dass database jeweils nicht zu weit weg von den ersten drei Begriffen steht. Dazu wurde, sofern vom jeweiligen Suchportal unterstützt, mit Hilfe eines speziellen Operators ( ONEAR/1, P/1 bzw. PRE/1 ) definiert, dass jeweils maximal ein zusätzliches Wort zwischen einem der ersten drei Begriffe ( in memory, main memory, memory resident ) und database stehen darf (z. B. "in memory" ONEAR/1 database). Dadurch konnte die Ergebnismenge eingeschränkt werden, ohne jedoch relevante Treffer auszuschließen, die z. B. den Begriff In-Memory Column Database beinhalten. Falls ein solcher Operator in einem Suchportal nicht zur Verfügung stand, wurde im Titel mittels AND -Verknüpfung gesucht, wohingegen Abstract und Schlüsselwörter in der restriktiveren Variante mit dem verbundenen String (z. B. in memory database ) durchsucht wurden. Daneben erfolgte eine Beschränkung der Suche auf wissenschaftliche Publikationen. Der letztlich für jedes Portal verwendete Suchstring ist im Anhang dieser Arbeit aufgeführt. Anschließend erfolgte eine Filterung der Suchergebnisse und Auswahl der auszuwertenden Literatur anhand der folgenden Kriterien: Die auszuwertende Literatur soll grundlegende Konzepte von In-Memory-Datenbanken behandeln. Dabei werden sowohl Publikationen herangezogen, die einen allgemeinen Überblick über den Forschungsstand von In-Memory-Datenbanken geben, als auch solche, die sich vornehmlich auf bestimmte, für diese Arbeit relevante Teilaspekte von In-Memory-Datenbanken (z. B. Recovery-Mechanismen) beziehen. Allerdings wurden all jene Publikationen, die sich vorwiegend auf allzu spezifische technische Aspekte von In-Memory-Datenbanken konzentrieren (z. B. Abfrageoptimierungen, konkrete Implementierungen von Datenbank-Operatoren), aus der Auswertung ausgeschlossen, da in dieser Arbeit nur die grundlegenden technischen Eigenschaften von In-Memory- Datenbanken im Vergleich zu konventionellen Datenbanken dargelegt werden. Für das eigentliche Thema der Untersuchung der Auswirkungen von In-Memory-Datenbanken auf die Datenqualität in Unternehmen spielen allzu spezifische technische Aspekte dieser Datenbanktechnologie keine Rolle.

10 4 Darüber hinaus wurden mittels Rückwärtssuche weitere Veröffentlichungen identifiziert und in die Auswertung miteinbezogen. Zum Themenbereich Datenqualität wurde auf die fünf Publikationen Wand, Wang (1996), Wang, Strong (1996), Pipino, Lee, Wang (2002), Batini u. a. (2009) und Ge, Helfert, Jannach (2011) zurückgegriffen, da sie grundlegende Aspekte zur Bewertung und Messung von Datenqualität beinhalten und darüber hinaus häufig von anderen Autoren zitiert werden. Mit Hilfe dieser fünf Publikationen werden die zu betrachtenden Datenqualitätsdimensionen extrahiert und definiert, um sie im späteren Verlauf auf mögliche Auswirkungen durch In-Memory-Datenbanken hin zu untersuchen. Daneben wurde zur Identifizierung von Ursachen für Datenqualitätsprobleme auf Lee u. a. (2006) zurückgegriffen. 1.4 Aufbau der Arbeit Im ersten Teil der Arbeit wird zunächst auf den Begriff der In-Memory-Datenbanken eingegangen. Dazu werden die Grundlagen von In-Memory-Datenbanken erläutert sowie für den späteren Verlauf der Arbeit relevante Eigenschaften dieser Datenbanktechnologie herausgestellt. Darüber hinaus erfolgt ein Vergleich von In- Memory-Datenbanken zu den bisher eingesetzten konventionellen Datenbanken. Im darauf folgenden Kapitel wird der Begriff Datenqualität eingeführt. Neben einer Begriffsdefinition wird der Frage nachgegangen, bei welchen Ursachen für Datenqualitätsprobleme ein möglicher Zusammenhang zur verwendeten Datenbanktechnologie besteht und ob der Einsatz einer In-Memory-Datenbank daher Auswirkungen auf die jeweilige Ursache besitzt. Anschließend wird der Begriff der Datenqualitätsdimension eingeführt und in der Literatur genannte Datenqualitätsdimensionen definiert. Im darauf folgenden Kapitel werden die Auswirkungen von In-Memory-Datenbanken auf die Systemlandschaft in Unternehmen untersucht. Dabei werden drei verschiedenen Nutzungsszenarien ( In-Memory- Datenbank für OLTP, In-Memory-Datenbank für OLAP, Integrierte In-Memory- Datenbank ) zum Einsatz von In-Memory-Datenbanken in Unternehmen unterschieden. Im anschließenden Kapitel werden für jedes dieser Nutzungsszenarien die möglichen Auswirkungen auf die einzelnen Datenqualitätsdimensionen untersucht und dabei Verbesserungen sowie Herausforderungen bezüglich der Datenqualität aufgezeigt. Im abschließenden Fazit wird u. a. aufgezeigt, in welchen Bereichen weiterer

11 5 Forschungsbedarf besteht. 2 In-Memory-Datenbanken 2.1 Begriffsdefinition Bei einer In-Memory-Datenbank handelt es sich um ein Datenbanksystem, dessen wesentliche Eigenschaft die dauerhafte Vorhaltung und Verarbeitung des gesamten Datenbestandes im Arbeitsspeicher (Primärspeicher) ist. 5 Zwar existiert bei In-Memory- Datenbanken neben der primären Kopie der Daten im Arbeitsspeicher noch eine weitere im Sekundärspeicher, jedoch wird auf diese ausschließlich zu Sicherungs- und Wiederherstellungszwecken im Falle eines Fehlers zugegriffen. 6 Im Gegensatz dazu basiert eine konventionelle Datenbank vollständig auf Sekundärspeicher. 7 Dabei kommt traditionell vor allem Festplattenspeicher zum Einsatz, wobei mittlerweile auch die deutlich schnelleren Solid State Drives (SSD) verwendet werden 8. Der Arbeitsspeicher hat bei konventionellen Datenbanken lediglich die Funktion eines Zwischenspeichers (Cache), weshalb bei dieser Datenbanktechnologie in der Regel ein Zugriff auf den Sekundärspeicher notwendig ist, um eine Datenbankabfrage beantworten zu können. Da der Zugriff auf den Sekundärspeicher jedoch um ein Vielfaches langsamer ist als der Zugriff auf den wesentlich schneller angebundenen Arbeitsspeicher, können In- Memory-Datenbanken deutliche Geschwindigkeitsvorteile gegenüber konventionellen Datenbanken realisieren. 9 Es ist wichtig noch einmal zu betonen, dass es sich bei In-Memory-Datenbanken nach der vorhergehenden Definition nicht lediglich um konventionelle Datenbanken handelt, die mit einem besonders großen Zwischenspeicher (Arbeitsspeicher) ausgestattet sind. 10 Stattdessen stellen In-Memory-Datenbanken eine eigenständige Datenbanktechnologie dar. Spielt bei der Entwicklung von konventionellen Datenbanken häufig die Vermeidung von Sekundärspeicherzugriffen eine große Rolle, so wird die Entwicklung 5 Vgl. Eich (1989), S sowie Garcia-Molina, Salem (1992), S Vgl. Garcia-Molina, Salem (1992), S Vgl. zu diesem und den folgenden beiden Sätzen Garcia-Molina, Salem (1992), S Vgl. Polte, Simsa, Gibson (2008), S Vgl. Gruenwald, Eich (1994), S Vgl. Eich (1989), S. 252.

12 6 von In-Memory-Datenbanken von vornherein vollständig auf den Primärspeicher ausgerichtet. 11 Der Sekundärspeicher wird dagegen lediglich zur Sicherung und Wiederherstellung der In-Memory-Datenbank benötigt. Bei In-Memory-Datenbanken handelt es sich nicht um ein neuartiges Konzept, sondern die Grundlagen dieser Datenbanktechnologie wurden bereits Mitte der 1980er Jahre entwickelt. 12 Allerdings ermöglichte erst das Aufkommen moderner Computerarchitekturen, zu denen u. a. Mehrkernprozessoren, 64-Bit-Technologie und sehr große und günstige Arbeitsspeichermengen zu zählen sind, die sinnvolle Umsetzung dieses vormals eher theoretischen Konzepts. 13 Hervorzuheben ist insbesondere die 64-Bit-Technologie, durch die erst die Möglichkeit entstand, mehr als 2 32 Byte (= 4 GiB) Arbeitsspeicher direkt zu adressieren. 14 Dadurch können inzwischen auch sehr große In-Memory-Datenbanken mit Arbeitsspeicherkapazitäten, die im Terabyte-Bereich liegen, realisiert werden. 15 In der wissenschaftlichen Literatur finden sich synonym zum Begriff In-Memory- Datenbank häufig die Bezeichnungen Main Memory Database oder auch Memory- Resident Database 16. Dabei handelt es sich jedoch um das gleiche Konzept, das lediglich unter einem anderen Namen geführt wird. Um etwaigen Missverständnissen vorzubeugen, wird in dieser Arbeit einheitlich die Bezeichnung In-Memory-Datenbank verwendet. 2.2 Verwendete Literatur Neben Zeitschriftenartikeln und Konferenzbeiträgen werden auch zwei Bücher in die Literaturauswertung miteinbezogen. Dabei handelt es sich zum einen um Plattner, Zeier (2011), in dem detailliert ein Ansatz zur Implementierung einer In-Memory-Datenbank erläutert wird. Beim zweiten Buch Kemper, Eickler (2009) handelt es sich um ein 11 Vgl. zu diesem und dem folgenden Satz Lehman, Carey (1986a), S Vgl. z. B. DeWitt u. a. (1984), Eich (1986), Hagmann (1986), Lehman, Carey (1986b) sowie Lehman, Carey (1987). 13 Vgl. Plattner, Zeier (2011), S Vgl. Eich (1989), S Vgl. Kemper, Neumann (2011), S. 196, Thiele, Lehner, Habich (2011), S. 60 sowie Funke, Kemper, Neumann (2012), S Vgl. z. B. DeWitt u. a. (1984), Garcia-Molina, Salem (1992) und Gruenwald, Eich (1994).

13 7 Grundlagenwerk, das sich intensiv mit dem Thema konventionelle Datenbanken auseinander setzt. Diese Publikation wird vor allem für den Vergleich von konventionellen Datenbanken mit In-Memory-Datenbanken in Kapitel 2.4 herangezogen. In Tabelle 2-1 wird eine Übersicht über die im Wesentlichen verwendete Literatur zum Thema In-Memory-Datenbanken gegeben. Dabei erfolgt eine Zuordnung der Publikationen zu den in diesem Kapitel erläuterten Eigenschaften von In-Memory- Datenbanken. Darüber hinaus wird die in der jeweiligen Publikation vorgeschlagene Nutzungsform für In-Memory-Datenbanken identifiziert und sofern möglich in die Kategorie OLTP, OLAP oder Hybrid eingeordnet. Die Nutzungsformen dienen Memory-Datenbanken in Unternehmen. Publikation DeWitt u. a. (1984) Eich (1986) Hagmann (1986) Lehman, Carey (1986b) Lehman, Carey (1987) Eich (1989) Garcia-Molina, Salem (1992) Levy, Silberschatz (1992) Huang, Gruenwald (1996) Lee, Kim, Cha (2001) Stonebraker u. a. (2007) X X X X X X X X X X als Grundlage für die in Kapitel 4 erläuterten Nutzungsszenarien zum Einsatz von In- Spaltenorientierung Kompressionsverfahren Recovery- Mechanismen Insert- Only- Verfahren Nutzungsform (X) X OLTP Plattner (2009) X X X Hybrid Krueger u. a. (2010) X X X Hybrid Kemper, Neumann (2011) X X Hybrid

14 8 Publikation Spaltenorientierung Kompressionsverfahren Recovery- Mechanismen Insert- Only- Verfahren Nutzungsform Krueger u. a. (2011a) X X X Hybrid Krueger u. a. (2011b) X X X Hybrid Plattner, Zeier (2011) X X X X Hybrid Thiele, Lehner, Habich (2011) Funke, Kemper, Neumann (2012) Tab. 2-1: Übersicht über die verwendete Literatur X X OLAP /Hybrid X X Hybrid 2.3 Ausgewählte Eigenschaften von In-Memory-Datenbanken Verwendung des Primärspeichers Wie zuvor erwähnt ist die wesentliche Eigenschaft einer In-Memory-Datenbank die Verwendung des Arbeitsspeichers als primärer Ort zur dauerhaften Speicherung der Daten. Dies ist insofern zunächst verwunderlich, da es sich bei herkömmlichem Arbeitsspeicher, dem Dynamic Random-Access Memory (DRAM), um einen flüchtigen Speicher handelt. 17 DRAM muss demnach dauerhaft mit Strom versorgt werden, damit die in ihm abgelegten Daten erhalten bleiben. Wird daher ein auf DRAM basierendes System, das eine In-Memory-Datenbank ausführt, von der Stromversorgung getrennt, so gehen alle im Arbeitsspeicher abgelegten Daten verloren. 18 Zwar kann durch bestimmte Techniken (z. B. unterbrechungsfreie Stromversorgung (USV) oder spezieller nichtflüchtiger Arbeitsspeicher) der Datenverlust im Arbeitsspeicher bei Abbruch der Stromversorgung verhindert werden, jedoch bieten diese Techniken keinen Schutz vor Datenverlusten, die aufgrund von Betriebssystem- oder Hardwarefehlern hervorgerufen werden. 19 Zur permanenten Sicherung der Daten benötigen daher auch In-Memory- Datenbanken zwingend einen nicht-flüchtigen Sekundärspeicher, wobei hier vor allem Flash- oder Festplattenspeicher zu nennen sind. Somit ist gewährleistet, dass auch nach Störungen, die zum Verlust des Arbeitsspeicherinhalts führen, die Datenbank 17 Vgl. Boncz, Kersten, Manegold (2008), S Vgl. Plattner, Zeier (2011), S Vgl. zu diesem und dem folgenden Satz Lehman, Carey (1986b), S. 241, Lehman, Carey (1987), S. 104 sowie Garcia-Molina, Salem (1992), S. 510.

15 9 vollständig aus dem Sekundärspeicher wiederhergestellt und in den Arbeitsspeicher zurückgeladen werden kann. Die dabei verwendeten Recovery-Mechanismen werden im Kapitel vorgestellt. Die Entwicklung der Hardwaretechnologie ist auch soweit fortgeschritten, dass die maximal verfügbaren Arbeitsspeichergrößen in Serversystemen bereits im Bereich von einigen Terabyte liegen und zukünftig noch weiter steigen werden. 20 Einige Autoren gehen sogar davon aus, dass die Arbeitsspeicherkapazitäten inzwischen einem schnelleren Wachstum unterliegen als die Datenmengen, die typischerweise im geschäftlichen Umfeld als operationale Daten anfallen. 21 Zwar wird es auch immer Anwendungsfälle geben, die noch größere Arbeitsspeicherkapazitäten erfordern und deshalb nicht mit In-Memory-Datenbanken realisiert werden können (z. B. Speicherung von unstrukturierten Daten), jedoch sollten die schon heute verfügbaren Arbeitsspeichergrößen für viele Unternehmensanwendungen (z. B. Verwaltung von Kunden- und Auftragsdaten) mehr als ausreichend dimensioniert sein. Zudem ist die Datenorganisation in In-Memory-Datenbanken wesentlich effizienter als in konventionellen Datenbanken, so dass in der Regel erheblich weniger Platz für die Speicherung der gleichen Datenmenge benötigt wird (siehe Kapitel 2.3.2) Vgl. Plattner (2009), S. 5, Kemper, Neumann (2011), S. 196 sowie Thiele, Lehner, Habich (2011), S Vgl. zu diesem und dem folgenden Satz Krueger u. a. (2010), S. 132 sowie Kemper, Neumann (2011), S Vgl. Plattner (2009), S. 2.

16 10 Abb. 2-1: Speicherhierarchie mit Zugriffszeiten 23 Um die Auswirkungen der Verwendung des Arbeitsspeichers als primärer Ort für die Speicherung einer Datenbank aufzuzeigen, bietet sich zunächst die Betrachtung der Speicherhierarchie eines aktuellen Computersystems an. Die Darstellung in Abbildung 2-1 erfolgt in Form einer Pyramide, was die von oben nach unten zunehmende Speichergröße der Datenspeicher auf den einzelnen Ebenen symbolisieren soll. 24 Auf den einzelnen Ebenen sind neben den Datenspeichern auch die typischen Zugriffszeiten des Prozessors (CPU) auf diese angegeben. Auch bei den Zugriffszeiten ist ein Anstieg von oben nach unten entlang der Pyramidenform zu verzeichnen. An der Spitze der Speicherhierarchie stehen die direkt beim Prozessor angesiedelten CPU- Register. Diese können nur wenige Byte aufnehmen, besitzen dafür jedoch mit weniger als einer Nanosekunde (= 0, s) die schnellste Zugriffszeit aller CPU- Register CPU-Caches (L1, L2 & L3) > 1 ns Arbeitsspeicher (Hauptspeicher) ~ 100 ns Zugriffslücke 10³-10 5 Sekundärspeicher: Flash-Speicher (SSD) ~ 0,1 ms = ns Festplattenspeicher (HDD) ~ 10 ms = Archivspeicher: Magnetbänder > 1 s 23 Vgl. Polte, Simsa, Gibson (2008), S. 2, Kemper, Eickler (2009), S. 203 und Plattner, Zeier (2011), S Vgl. zu diesem Absatz Kemper, Eickler (2009), S

17 11 Datenspeicher. Auf der Ebene unterhalb der CPU-Register folgen die CPU-Caches. Diese bilden eine eigene Hierarchie und werden nach ihrer Nähe zum Prozessor in mehrere Stufen, den so genannten Cache-Leveln, eingeteilt. 25 Dabei gilt, je näher der Cache an der CPU liegt, desto niedriger ist der Cache-Level. Typische Cache-Level heutiger Prozessoren sind Level-1 (L1), Level-2 (L2) und Level-3 (L3). Die Speichergröße der einzelnen CPU- Caches liegt im Bereich von mehreren Kilobyte bis wenigen Megabyte. Die Zugriffszeiten sind mit wenigen Nanosekunden geringfügig langsamer als bei den CPU- Registern. Allgemein gilt, je näher ein Cache an der CPU liegt, desto geringer ist seine Speicherkapazität sowie auch seine Zugriffszeit. 26 Die CPU-Caches sind erforderlich, damit moderne Prozessoren keine unnötigen Taktzyklen darauf verwenden, auf die benötigten Daten aus dem langsamer angebundenen Arbeitsspeicher (ca. 100 ns) zu warten. So werden beim Zugriff auf den Arbeitsspeicher nicht nur einzelne Zellen ausgelesen, sondern immer ganze zusammenhängende Datenbereiche als so genannte Cache-Line. Durch dieses Caching-Prinzip erhöht sich bei der Verarbeitung von Daten die Wahrscheinlichkeit dafür, dass die vom Prozessor benötigten Daten bereits in einem der CPU-Caches vorliegen und somit nicht erst aus dem langsamer angebundenen Arbeitsspeicher gelesen werden müssen. In einem einzelnen Computersystem können mittlerweile Arbeitsspeicherkapazitäten von mehreren Terabyte realisiert werden. 27 Die Ebene unterhalb des Arbeitsspeichers bildet der so genannte Sekundärspeicher, wobei hier vor allem die herkömmlichen, auf Magnetspeicher basierenden Festplatten 28 sowie die neueren, auf Flash-Speicher basierenden Solid State Drives (SSD) zu nennen sind. Im Unterschied zu den vorherigen Ebenen ist beim Zugriff der CPU auf den Sekundärspeicher ein vergleichsweise langsamer Input-/Output-Prozess notwendig, weswegen man in der Literatur auch von einer Zugriffslücke spricht. 29 Diese wird traditionell mit dem Faktor 10 5 angegebenen, wobei sich dieser Wert auf den Unterschied in der Zugriffszeit zwischen Arbeitsspeicher und Festplattenspeicher 25 Vgl. zu diesem und den folgenden drei Sätzen Boncz, Kersten, Manegold (2008), S Vgl. zu diesem und den folgenden drei Sätzen Boncz, Kersten, Manegold (2008), S Vgl. Kemper, Neumann (2011), S. 196 sowie Funke, Kemper, Neumann (2012), S Im Englischen als Hard Disk Drive (HDD) bezeichnet. 29 Vgl. zu diesem und dem folgenden Satz Kemper, Eickler (2009), S. 203.

18 12 bezieht. Mit dem Aufkommen der SSDs konnte diese Zugriffslücke ein Stück weit verringert werden. 30 Allerdings ist der Geschwindigkeitsvorteil des Arbeitsspeichers bei einer Zugriffszeit, die um den Faktor 10 3 schneller ist, auch gegenüber einem SSD noch immer beträchtlich. Im Hinblick auf die Kapazität können einzelne Festplatten oder SSDs bereits einige Terabyte Speicherplatz aufweisen. In einem Computersystem zusammengeschlossen sind daher problemlos Speicherkapazitäten von mehreren Hundert Terabyte und mehr möglich. Auf der untersten Ebene der Speicherhierarchie sind die Archivspeicher angesiedelt, wobei diese meist in Form von Magnetbändern bereitgestellt werden. 31 Da Magnetbänder nur sequentiell gelesen und beschrieben werden können, ist die Zugriffszeit vergleichsweise hoch. Die Speicherkapazität eines einzelnen Magnetbandes liegt auf einem ähnlichen Niveau wie bei einer Festplatte Spaltenorientierte Datenspeicherung Die Verwendung von Arbeitsspeicher zur primären Speicherung der Daten hat auch Einfluss auf die physische Datenorganisation, im Folgenden auch als Datenlayout bezeichnet, einer In-Memory-Datenbank. Tabelle 2-2 zeigt einen Ausschnitt aus einer beispielhaften Kundentabelle, wie sie typischerweise in Unternehmen zu finden ist. Bei konventionellen Datenbanken erfolgt die Speicherung derartiger Tabellen meist zeilenorientiert 32, wobei eine Zeile einem zusammenhängenden Datensatz (Tupel) entspricht, der aus mehreren Attributen (Spalten) besteht. 33 Die einzelnen Tupel werden demnach hintereinander gereiht auf dem Sekundärspeicher abgelegt (Abbildung 2-2) und belegen dort somit zusammenhängende Speicherbereiche. Dadurch wird eine schnelle Verarbeitung ganzer Tupel sichergestellt, da immer nur sequenzielle Lese-/Schreibvorgänge vom bzw. auf den Sekundärspeicher erforderlich sind. 34 Ein solches Zugriffsszenario findet sich typischerweise bei Systemen, die für die Verarbeitung von Transaktionsdaten (z. B. Kunden- und Auftragsdaten), auch als Online 30 Vgl. zu diesem und dem folgenden Satz Polte, Simsa, Gibson (2008), S Vgl. zu diesem Absatz Kemper, Eickler (2009), S Im Englischen als row store bezeichnet. 33 Vgl. zu diesem und dem folgenden Satz Kemper, Eickler (2009), S Vgl. Kemper, Eickler (2009), S. 202.

19 13 Transaction Processing (OLTP) bezeichnet, zuständig sind. 35 Abfragen, die Berechnungen über ganze Spalten einer Tabelle erfordern und somit nur wenige Attribute vieler Tupel betreffen, können dagegen nur langsam ausgeführt werden, da hierbei in zufälliger Reihenfolge auf den Sekundärspeicher zugegriffen wird und somit die CPU-Caches nicht ausgenutzt werden können Derartige Abfragen kommen typischerweise beim Online Analytical Processing (OLAP) vor, wofür bisher auf speziell für diesen Zweck optimierte Datenbanken zurückgegriffen wird. 38 Dabei kommt meist eine spaltenorientierte Speicherung 39 der Datenbanktabellen zum Einsatz. Hierzu wird eine logische Datenbanktabelle spaltenweise zerlegt und die einzelnen Spalten als zusammengehörige Einheit im Sekundär- oder Arbeitsspeicher abgelegt (Abbildung 2-3). 40 Dies hat den Vorteil, dass die einzelnen Spalten sehr schnell durchlaufen werden können, da sie als zusammenhängende Einheiten in die CPU-Caches geladen werden. Dadurch können analytische Abfragen, die z. B. häufig die Berechnung von Summenoder Durchschnittswerten über ganze Spalten erfordern, sehr schnell ausgeführt werden. Dagegen ist der Zugriff auf viele Attribute eines einzelnen Tupels bei dieser Datenorganisation mit höheren Kosten verbunden, da hierzu das zerlegte Tupel zunächst rekonstruiert werden muss, wobei in zufälliger Reihenfolge auf den zugrundeliegenden Speicher zugegriffen wird. 41 Allerdings unterscheiden sich diese Kosten erheblich, je nachdem welche Speicherart eingesetzt wird. So ist das Lesen in zufälliger Reihenfolge bei Festplattenspeicher weitaus problematischer als bei Arbeitsspeicher, da letzterer als Random Access Memory auf zufällige Zugriffe ausgelegt ist. 42 Die spaltenorientierte Datenorganisation erscheint daher prädestiniert für den Einsatz in In-Memory- Datenbanken, da vor allem komplexe analytische Abfragen (OLAP), die häufig Aggregationen und Gruppierungen über ganze Spalten erfordern, durch die optimale 35 Vgl. Kemper, Eickler (2009), S Aufgrund der zeilenorientierten Speicherung werden die CPU-Caches implizit auch mit den nicht angefragten Attributen eines Tupels belegt. 37 Vgl. Kemper, Eickler (2009), S Vgl. Kemper, Eickler (2009), S Im Englischen als column store bezeichnet. 40 Vgl. zu diesem und den folgenden beiden Sätzen Kemper, Eickler (2009), S Vgl. Krueger u. a. (2010), S Vgl. Plattner, Zeier (2011), S. 182.

20 14 Nutzung der CPU-Caches sehr schnell ausgeführt werden können. Daneben können auch für OLTP-Abfragen, die oft schreibend auf die Datenbank zugreifen und meist nur einzelne Tupel betreffen, bei einer spaltenorientierten Datenspeicherung hohe Transaktionsraten erzielt werden. 43 Allerdings werden in der Literatur auch alternative Ansätze zur Datenorganisation in In- Memory-Datenbanken vorgeschlagen, die u. a. auf eine noch höhere Performanz bei OLTP-Abfragen abzielen. So entwickeln Stonebraker u. a. (2007) eine zeilenorientierte In-Memory-Datenbank, die vollständig auf OLTP optimiert ist. 44 Dadurch können OLTP-Transaktionsraten erreicht werden, die um den Faktor 82 höher sind als bei einer konventionellen Datenbank. Dabei muss jedoch beachtet werden, dass eine derart spezialisierte In-Memory-Datenbank ausschließlich für ihren Einsatzzweck OLTP vorgesehen ist und daher nicht für komplexe analytische Abfragen verwendet werden kann. 45 Plattner, Zeier (2011) schlagen neben einem rein zeilen- oder spaltenorientierten Datenlayout auch eine Mischung aus beiden vor. 46 Dieses hybride Datenlayout basiert auf einer vertikalen Partitionierung der Datenbanktabellen. Anders als bei der spaltenorientierten Datenorganisation werden jedoch nicht die kompletten Datenbanktabellen spaltenweise zerlegt, sondern lediglich einzelne Spalten (Attribute) aus den Datenbanktabellen gelöst und als zusammenhängende Einheiten gespeichert. Die restlichen Attribute werden dagegen wie bei der zeilenorientierten Datenorganisation tupelweise auf dem Datenspeicher abgelegt. Mit dem hybriden Datenlayout wird versucht einen Kompromiss zwischen transaktionalen und analytischen Abfragen zu schaffen. Allerdings stellt die Frage, welche Attribute spaltenorientiert gespeichert werden sollen, eine neue Herausforderung dar. Diese Entscheidung kann mitunter auch erst während des operativen Einsatzes einer In- Memory-Datenbank getroffen werden, wenn Statistiken über die Nutzung der einzelnen Datenbanktabellen vorliegen. Allerdings ist dann eine aufwändige Neuorganisation der bereits gespeicherten Daten erforderlich. 43 Vgl. Kemper, Neumann (2011), S Vgl. zu diesem und dem folgenden Satz Stonebraker u. a. (2007), S. 1151, 1154, Vgl. Stonebraker u. a. (2007), S. 1151, Vgl. zu diesem Absatz Plattner, Zeier (2011), S

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann Blatt Nr. 11 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe15 Moritz Kaufmann (moritz.kaufmann@tum.de)

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

OPERATIONEN AUF EINER DATENBANK

OPERATIONEN AUF EINER DATENBANK Einführung 1 OPERATIONEN AUF EINER DATENBANK Ein Benutzer stellt eine Anfrage: Die Benutzer einer Datenbank können meist sowohl interaktiv als auch über Anwendungen Anfragen an eine Datenbank stellen:

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

Aufgabe 1: [Logische Modellierung]

Aufgabe 1: [Logische Modellierung] Aufgabe 1: [Logische Modellierung] a) Entwerfen Sie für das von Ihnen entworfene Modell aus Aufgabe 2 des 1. Übungsblattes ein Star-Schema. b) Entwerfen Sie für das vorangegangene Modell einen Teil eines

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik, Mathematik und Naturwissenschaften Abstract Oberseminar "Datenbanksysteme - Aktuelle Trends" Hauptspeicherdatenbanken Eingereicht

Mehr

Wiederherstellung (Recovery)

Wiederherstellung (Recovery) Fragestellungen Aufgaben der Komponenten für das Recovery: Sicherstellung der Dauerhaftigkeit der gespeicherten Daten, d.h. Daten, die in einer Transaktion einmal bestätigt wurden (commit), bleiben auch

Mehr

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector 7.4 Analyse anhand der SQL-Trace 337 7.3.5 Vorabanalyse mit dem Code Inspector Der Code Inspector (SCI) wurde in den vorangegangenen Kapiteln immer wieder erwähnt. Er stellt ein paar nützliche Prüfungen

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 378 Umsetzung ausgewählter Supply-Chain-Operations-Reference-Metriken durch das

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

1 Transaktionen in SQL. 2 Was ist eine Transaktion. 3 Eigenschaften einer Transaktion. PostgreSQL

1 Transaktionen in SQL. 2 Was ist eine Transaktion. 3 Eigenschaften einer Transaktion. PostgreSQL 1 Transaktionen in SQL Um Daten in einer SQL-Datenbank konsistent zu halten, gibt es einerseits die Möglichkeit der Normalisierung, andererseits sog. Transaktionen. 2 Was ist eine Transaktion Eine Transaktion

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

10. Vorlesung: Datenorganisation SS 2007

10. Vorlesung: Datenorganisation SS 2007 10. Vorlesung: Datenorganisation SS 2007 8 Parallele Transaktionen 9 9.1 Drei-Ebenen Ebenen-Architektur 9.2 Verteilte Datenbanken 9.3 Client-Server Server-Datenbanken 9.4 Föderierte Datenbanken 9.5 Das

Mehr

Whitepaper. Produkt: combit Relationship Manager / address manager. FILESTREAM für Microsoft SQL Server aktivieren

Whitepaper. Produkt: combit Relationship Manager / address manager. FILESTREAM für Microsoft SQL Server aktivieren combit GmbH Untere Laube 30 78462 Konstanz Whitepaper Produkt: combit Relationship Manager / address manager FILESTREAM für Microsoft SQL Server aktivieren FILESTREAM für Microsoft SQL Server aktivieren

Mehr

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen Lennart Leist Inhaltsverzeichnis 1 Einführung 2 1.1 Aufgaben einer Datenbank...................... 2 1.2 Geschichtliche Entwicklung

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 350

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 350 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 350 Ein konzeptioneller Business-Intelligence-Ansatz zur Gestaltung von Geschäftsprozessen

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Einführung in Datenbanken

Einführung in Datenbanken Grundlagen der Programmierung 2 Einführung in Datenbanken Grundlagen der Programmierung 2 I-1 Inhalt Einführung Entity-Relationship-Diagramm Relationales Modell Entity-Relationship-Diagramm ins Relationales

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Datenquellen. Was beinhaltet eine Datenquelle (DQ)? 1. Neue Liste erfassen. Word 2010

Datenquellen. Was beinhaltet eine Datenquelle (DQ)? 1. Neue Liste erfassen. Word 2010 Was beinhaltet eine Datenquelle (DQ)? sind steht's in tabellarischer Form erstellte Auflistungen von Datensätzen. In der ersten Zeile stehen als Spaltenkopf die Feldnamen, die später im Hauptdokument als

Mehr

ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen

ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen ARIS II - Modellierungsmethoden, Metamodelle und Anwendungen C3: Structured Query Language Lernziele: Nach der Bearbeitung dieser Lektion haben Sie folgende Kenntnisse erworben: Sie können elementaren

Mehr

Physische Datenorganisation

Physische Datenorganisation Physische Datenorganisation Physische Datenorganisation 2002 Prof. Dr. Rainer Manthey Informationssysteme 1 Übersicht Datenbanken, Relationen und Tupel werden auf der untersten Ebene der bereits vorgestellten

Mehr

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen:

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen: 1 Einführung in Datenbanksysteme Fast jeder kennt Excel und hat damit in seinem Leben schon einmal gearbeitet. In Excel gibt es Arbeitsblätter, die aus vielen Zellen bestehen, in die man verschiedene Werte

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

B-Bäume I. Algorithmen und Datenstrukturen 220 DATABASE SYSTEMS GROUP

B-Bäume I. Algorithmen und Datenstrukturen 220 DATABASE SYSTEMS GROUP B-Bäume I Annahme: Sei die Anzahl der Objekte und damit der Datensätze. Das Datenvolumen ist zu groß, um im Hauptspeicher gehalten zu werden, z.b. 10. Datensätze auf externen Speicher auslagern, z.b. Festplatte

Mehr

Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden

Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden Sperrvermerk Risikomanagement für IT-Projekte: Vergleich von Risiken und Methoden Bachelorarbeit Zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert Maika Büschenfeldt Datenbanken: Skript 1 1. Was ist eine relationale Datenbank? In Datenbanken können umfangreiche Datenbestände strukturiert abgelegt werden. Das Konzept relationaler Datenbanken soll

Mehr

Semantische Integrität (auch: Konsistenz) der in einer Datenbank gespeicherten Daten als wichtige Anforderung

Semantische Integrität (auch: Konsistenz) der in einer Datenbank gespeicherten Daten als wichtige Anforderung 6. Datenintegrität Motivation Semantische Integrität (auch: Konsistenz) der in einer Datenbank gespeicherten Daten als wichtige Anforderung nur sinnvolle Attributwerte (z.b. keine negativen Semester) Abhängigkeiten

Mehr

Datenbanken 16.1.2008. Die Entwicklung der Datenbanksysteme ist eng an die der Hardware gekoppelt und wird wie jene in Generationen eingeteilt:

Datenbanken 16.1.2008. Die Entwicklung der Datenbanksysteme ist eng an die der Hardware gekoppelt und wird wie jene in Generationen eingeteilt: Datenbanksysteme Entwicklung der Datenbanksysteme Die Entwicklung der Datenbanksysteme ist eng an die der Hardware gekoppelt und wird wie jene in Generationen eingeteilt: 1. Generation: In den fünfziger

Mehr

Einführung in Datenbanksysteme. H. Wünsch 01.2001

Einführung in Datenbanksysteme. H. Wünsch 01.2001 Einführung in Datenbanksysteme H. Wünsch 01.2001 H. Wünsch 01/2001 Einführung Datenbanken 2 Was sind Datenbanken? Datenbanken sind Systeme zur Beschreibung, Speicherung und Wiedergewinnung von Datenmengen.

Mehr

Bachelorarbeit. Preisvergleichdienste auf Smartphones: Vergleich deutscher Anbieter und technische Trends. Vorgelegt von.

Bachelorarbeit. Preisvergleichdienste auf Smartphones: Vergleich deutscher Anbieter und technische Trends. Vorgelegt von. Leibniz Universität Hannover Fachbereich Wirtschaftswissenschaften Lehrstuhl Wirtschaftsinformatik Leiter: Prof. Dr. Breitner Bachelorarbeit Zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.)

Mehr

Verwaltung großer Datenmengen auf einem Netzwerklaufwerk. Ein Vergleich zwischen MS-ACCESS und SQLite.

Verwaltung großer Datenmengen auf einem Netzwerklaufwerk. Ein Vergleich zwischen MS-ACCESS und SQLite. Verwaltung großer Datenmengen auf einem Netzwerklaufwerk. Ein Vergleich zwischen MS-ACCESS und SQLite. Was tun, wenn man als Entwickler eine Datenbank einsetzen will, aber keine SQL-Datenbank installieren

Mehr

Physischer Datenbankentwurf: Datenspeicherung

Physischer Datenbankentwurf: Datenspeicherung Datenspeicherung.1 Physischer Datenbankentwurf: Datenspeicherung Beim Entwurf des konzeptuellen Schemas wird definiert, welche Daten benötigt werden und wie sie zusammenhängen (logische Datenbank). Beim

Mehr

2. Word-Dokumente verwalten

2. Word-Dokumente verwalten 2. Word-Dokumente verwalten In dieser Lektion lernen Sie... Word-Dokumente speichern und öffnen Neue Dokumente erstellen Dateiformate Was Sie für diese Lektion wissen sollten: Die Arbeitsumgebung von Word

Mehr

Oracle BI EE mit großen Datenmengen

Oracle BI EE mit großen Datenmengen Oracle BI EE mit großen Datenmengen Christian Casek Riverland Solutions GmbH München Schlüsselworte: Oracle BI EE, Oracle BI Applications, Informatica, RPD, große Datenmengen, Performance, Performanceoptimierung,

Mehr

Oracle-Statistiken im Data Warehouse effizient nutzen

Oracle-Statistiken im Data Warehouse effizient nutzen Oracle-Statistiken im Data Warehouse effizient nutzen Reinhard Mense ARETO Consulting Köln Schlüsselworte: DWH, Data Warehouse, Statistiken, Optimizer, Performance, Laufzeiten Einleitung Für die performante

Mehr

Vertriebssteuerungs und Opportunity. Management System. Bedienungsanleitung. Wolfgang Kuhn

Vertriebssteuerungs und Opportunity. Management System. Bedienungsanleitung. Wolfgang Kuhn Vertriebssteuerungs und Opportunity Management System Bedienungsanleitung Wolfgang Kuhn 27.06.2011 Vertriebssteuerungsprogramm oder Opportunity Management System für den Mittelstand Das Softwarepaket basiert

Mehr

Leitfaden Datensicherung und Datenrücksicherung

Leitfaden Datensicherung und Datenrücksicherung Leitfaden Datensicherung und Datenrücksicherung Inhaltsverzeichnis 1. Einführung - Das Datenbankverzeichnis von Advolux... 2 2. Die Datensicherung... 2 2.1 Advolux im lokalen Modus... 2 2.1.1 Manuelles

Mehr

Betriebssysteme. Dipl.-Ing.(FH) Volker Schepper

Betriebssysteme. Dipl.-Ing.(FH) Volker Schepper Speicherverwaltung Real Mode Nach jedem starten eines PC befindet sich jeder x86 (8086, 80386, Pentium, AMD) CPU im sogenannten Real Mode. Datenregister (16Bit) Adressregister (20Bit) Dadurch lassen sich

Mehr

Das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft und den Metallhandel

Das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft und den Metallhandel Das Management Informationssystem für die RECY CLE by tegos - das Management Informationssystem für die by tegos wurde von der tegos GmbH Dortmund basierend auf Microsoft Technologie entwickelt. Sie erhalten

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Auswertung der Workload-Befragung mit MS ACCESS

Auswertung der Workload-Befragung mit MS ACCESS Auswertung der Workload-Befragung mit MS ACCESS Inhaltsverzeichnis 1. Aufbereitung der Daten... 2 1.1. Herstellung der Textfiles... 2 1.2. Import der Textdateien... 3 1.3. Verbindungen erstellen... 8 2.

Mehr

www.informatik-aktuell.de

www.informatik-aktuell.de www.informatik-aktuell.de Flashback Reise in die Vergangenheit einfach. gut. beraten. Warum Oracle Zeitreisen anbieten kann, der Microsoft SQL Server aber leider nicht. IT-Tage Datenbanken 18.12.2015,

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Microsoft SQL Server 2005 für Administratoren

Microsoft SQL Server 2005 für Administratoren Microsoft SQL Server 2005 für Administratoren Irene Bauder ISBN 3-446-22800-4 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-22800-4 sowie im Buchhandel Sichern von

Mehr

Das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft und den Metallhandel

Das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft und den Metallhandel Das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft und den Metallhandel BI RECY CLE BI by tegos - das Management Informationssystem für die Wertstoff- und Entsorgungswirtschaft

Mehr

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN VERSION 1.0 OPTIMIERUNG VON ABFRAGEN IN MS SQL

Mehr

HANA. TOBA-Team Dresden 19.05.2012

HANA. TOBA-Team Dresden 19.05.2012 HANA TOBA-Team Dresden 19.05.2012 Kunde droht mit Auftrag! Ein großer Discounter schickt Anfrage: Bis wann und zu welchem Preis können Sie 30.000 Stück liefern? Die Hektik beginnt! Bis wann Welche und

Mehr

Produktinformation eevolution OLAP

Produktinformation eevolution OLAP Produktinformation eevolution OLAP Was ist OLAP? Der Begriff OLAP steht für Kurz gesagt: eevolution -OLAP ist die Data Warehouse Lösung für eevolution. Auf Basis verschiedener

Mehr

Kurzbeschreibung der Intranet Software für das Christophorus Projekt (CP)

Kurzbeschreibung der Intranet Software für das Christophorus Projekt (CP) Kurzbeschreibung der Intranet Software für das Christophorus Projekt (CP) 1 Inhaltsverzeichnis Einleitung 3 Benutzerrechte 4 Schwarzes Brett 5 Umfragen 6 Veranstaltungen 7 Protokolle 9 Mitgliederverzeichnis

Mehr

Datenschutz-Vereinbarung

Datenschutz-Vereinbarung Datenschutz-Vereinbarung zwischen intersales AG Internet Commerce Weinsbergstr. 190 50825 Köln, Deutschland im Folgenden intersales genannt und [ergänzen] im Folgenden Kunde genannt - 1 - 1. Präambel Die

Mehr

Datenbanken. Ein DBS besteht aus zwei Teilen:

Datenbanken. Ein DBS besteht aus zwei Teilen: Datenbanken Wikipedia gibt unter http://de.wikipedia.org/wiki/datenbank einen kompakten Einblick in die Welt der Datenbanken, Datenbanksysteme, Datenbankmanagementsysteme & Co: Ein Datenbanksystem (DBS)

Mehr

Seminar. NoSQL Datenbank Technologien. Michaela Rindt - Christopher Pietsch. Richtlinien Ausarbeitung (15. November 2015)

Seminar. NoSQL Datenbank Technologien. Michaela Rindt - Christopher Pietsch. Richtlinien Ausarbeitung (15. November 2015) Seminar Datenbank Technologien Richtlinien Ausarbeitung (15. November 2015) Michaela Rindt - Christopher Pietsch Agenda 1 2 3 1 / 12 Richtlinien Ausarbeitung (15. November 2015) Teil 1 2 / 12 Richtlinien

Mehr

FlowFact Alle Versionen

FlowFact Alle Versionen Training FlowFact Alle Versionen Stand: 29.09.2005 Brief schreiben, ablegen, ändern Die FlowFact Word-Einbindung macht es möglich, direkt von FlowFact heraus Dokumente zu erzeugen, die automatisch über

Mehr

Softwaretool Data Delivery Designer

Softwaretool Data Delivery Designer Softwaretool Data Delivery Designer 1. Einführung 1.1 Ausgangslage In Unternehmen existieren verschiedene und häufig sehr heterogene Informationssysteme die durch unterschiedliche Softwarelösungen verwaltet

Mehr

(Titel des Berichts)

(Titel des Berichts) (Titel des Berichts) Praxissemesterbericht von (Vorname Name) aus (Geburtsort) Matrikelnummer Anschrift Telefon HTW Aalen Hochschule für Technik und Wirtschaft Betreuender Professor Abgabetermin Angaben

Mehr

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk FRAGEKATALOG Informatik BAKIP HARDWARE Frage 01: Im inneren eines Computergehäuses befindet sich unter anderem das Mainboard. Welche Komponenten sind an diesem Mutterbrett angeschlossen bzw. verbaut? Nenne

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme Proseminar Speicher- und Dateisysteme Schriftliche Ausarbeitung zu meinem Vortrag am 01.06.2012 über Zukünftige Speichertechnologien -HVD, Racetrack und mehr- Jan-Ole Zürcher, 6325134 Universität Hamburg

Mehr

Mengenvergleiche: Alle Konten außer das, mit dem größten Saldo.

Mengenvergleiche: Alle Konten außer das, mit dem größten Saldo. Mengenvergleiche: Mehr Möglichkeiten als der in-operator bietet der θany und der θall-operator, also der Vergleich mit irgendeinem oder jedem Tupel der Unteranfrage. Alle Konten außer das, mit dem größten

Mehr

Kurzanleitung zu. Sage50

Kurzanleitung zu. Sage50 Kurzanleitung zu Sage50 Inhalt 1 Einleitung... 3 2 Finanzbuchhaltung... 4 2.1 Einfügen von Konten oder Gruppen... 4 2.2 Jahreswechsel und Saldoübertrag... 6 3 Lohnbuchhaltung... 11 3.1 Kontierung der Lohnarten...

Mehr

Speicherung von XML in (objekt-)relationalen Datenbanken. Burkhard Schäfer

Speicherung von XML in (objekt-)relationalen Datenbanken. Burkhard Schäfer Speicherung von XML in (objekt-)relationalen Datenbanken Burkhard Schäfer Übersicht Motivation Anforderungen Ansätze modellorientiert strukturorientiert Zusammenfassung Motivation Warum XML in Datenbanken

Mehr

! DBMS organisiert die Daten so, dass minimal viele Plattenzugriffe nötig sind.

! DBMS organisiert die Daten so, dass minimal viele Plattenzugriffe nötig sind. Unterschiede von DBMS und files Speichern von Daten! DBMS unterstützt viele Benutzer, die gleichzeitig auf dieselben Daten zugreifen concurrency control.! DBMS speichert mehr Daten als in den Hauptspeicher

Mehr

Spezifikationen für die Datenträgerlöschung mit GDisk

Spezifikationen für die Datenträgerlöschung mit GDisk Spezifikationen für die Datenträgerlöschung mit GDisk Dieses Kapitel behandelt die folgenden Themen: Informationen zu diesem Dokument Informationen zu den Spezifikationen für die Datenträgerlöschung mit

Mehr

MS Access 2013 Kompakt

MS Access 2013 Kompakt 2 ABFRAGEN Eine Abfrage ist im Wesentlichen der Filterung eines Datenbestandes sehr ähnlich. Auch hier werden aus einer Menge von Informationen nur jene Datensätze ausgewählt, die einem vorher definierten

Mehr

Kapitel 8: Physischer Datenbankentwurf

Kapitel 8: Physischer Datenbankentwurf 8. Physischer Datenbankentwurf Seite 1 Kapitel 8: Physischer Datenbankentwurf Speicherung und Verwaltung der Relationen einer relationalen Datenbank so, dass eine möglichst große Effizienz der einzelnen

Mehr

Datenbanken: Transaktionskonzept und Concurrency Control

Datenbanken: Transaktionskonzept und Concurrency Control Wesentlich für das Arbeiten mit Datenbanken sind konsistente Datenbestände! Folgerung: es muss sichergestellt werden, dass Datenmanipulationen von Benutzern immer in einem erneut konsistenten Zustand der

Mehr

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3

Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3 Institut für Kommunikationsnetze und Rechnersysteme Technische Informatik I Paul J. Kühn, Matthias Meyer Übung 3 Speicherhierarchie Inhaltsübersicht Aufgabe 3.1 Daten-Cache Aufgabe 3.2 Virtueller Speicher

Mehr

Besonders für den Anfänger empfiehlt sich folgende Vorgehensweise für die Erstellung von Manipulationsabfragen:

Besonders für den Anfänger empfiehlt sich folgende Vorgehensweise für die Erstellung von Manipulationsabfragen: Manipulationsabfragen Datenbanksysteme 6 Manipulationsabfragen Lerninhalte Tabellenerstellungsabfragen Löschabfragen Anfügeabfragen Aktualisierungsabfragen Lerninhalte Mit den Datenbanksprachen SQL und

Mehr

1 Die Active Directory

1 Die Active Directory 1 Die Active Directory Infrastruktur Prüfungsanforderungen von Microsoft: Configuring the Active Directory Infrastructure o Configure a forest or a domain o Configure trusts o Configure sites o Configure

Mehr

HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG. Das Luzifer-Rätsel. Prof. Dr. Hartmut Plesske Wintersemester 2008/09. von.

HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG. Das Luzifer-Rätsel. Prof. Dr. Hartmut Plesske Wintersemester 2008/09. von. HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Das Luzifer-Rätsel Prof. Dr. Hartmut Plesske Wintersemester 2008/09 von Max Nagl nagl@fh-konstanz.de Inhaltsverzeichnis Inhaltsverzeichnis

Mehr

Effiziente Anwendungen von In-Memory Datenbanken

Effiziente Anwendungen von In-Memory Datenbanken Effiziente Anwendungen von In-Memory Datenbanken Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften der Wirtschaftswissenschaftlichen

Mehr

RAID Redundant Array of Independent [Inexpensive] Disks

RAID Redundant Array of Independent [Inexpensive] Disks RAID Redundant Array of Independent [Inexpensive] Disks Stefan Wexel Proseminar Algorithms and Data Structures im WS 2011/2012 Rheinisch-Westfälische Technische Hochschule Aachen Lehrstuhl für Informatik

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Systemvoraussetzungen und Installation

Systemvoraussetzungen und Installation Systemvoraussetzungen und Installation Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 2 2. Einzelarbeitsplatzinstallation... 3 3. Referenz: Client/Server-Installation... 5 3.1. Variante A:

Mehr

Überblick. Multi-Cloud Computing Motivation Redundant Array of Cloud Storage (RACS) Zusammenfassung. c td MWCC (WS14/15) Multi-Cloud Computing 13 1

Überblick. Multi-Cloud Computing Motivation Redundant Array of Cloud Storage (RACS) Zusammenfassung. c td MWCC (WS14/15) Multi-Cloud Computing 13 1 Überblick Multi-Cloud Computing Motivation Redundant Array of Cloud Storage (RACS) Zusammenfassung c td MWCC (WS14/15) Multi-Cloud Computing 13 1 Vendor Lock-In -Problem Typische Vorgehensweise bei der

Mehr

IAWWeb PDFManager. - Kurzanleitung -

IAWWeb PDFManager. - Kurzanleitung - IAWWeb PDFManager - Kurzanleitung - 1. Einleitung Dieses Dokument beschreibt kurz die grundlegenden Funktionen des PDFManager. Der PDF Manager dient zur Pflege des Dokumentenbestandes. Er kann über die

Mehr

Smart-Grid-Tools Beschleunigen Sie die Erstellung von Bauteilen ZUSAMMENFASSUNG. IM WORKSHOP Tip #14. Die Herausforderung, große Bauteile zu erstellen

Smart-Grid-Tools Beschleunigen Sie die Erstellung von Bauteilen ZUSAMMENFASSUNG. IM WORKSHOP Tip #14. Die Herausforderung, große Bauteile zu erstellen IM WORKSHOP Tip #14 Smart-Grid-Tools Beschleunigen Sie die Erstellung von Bauteilen ZUSAMMENFASSUNG Mai 2007 Autor: Phil Loughhead Die Erstellung von Bauteilen ist ein fundamentaler Bestandteil des Design-

Mehr

4 ANALYSE VON TABELLEN

4 ANALYSE VON TABELLEN MS Excel 2010 Aufbau Analyse von Tabellen 4 ANALYSE VON TABELLEN Lernen Sie in diesem Kapitel die Möglichkeiten kennen, Tabelleninhalte optimal auszuwerten und mit was wäre wenn die Daten zu analysieren.

Mehr

Formulierungshilfen für das wissenschaftliche Schreiben

Formulierungshilfen für das wissenschaftliche Schreiben Formulierungshilfen für das wissenschaftliche Schreiben 1. Einleitendes Kapitel 1.1.1 Einen Text einleiten und zum Thema hinführen In der vorliegenden Arbeit geht es um... Schwerpunkt dieser Arbeit ist...

Mehr

Transaktionsverwaltung

Transaktionsverwaltung Transaktionsverwaltung VU Datenbanksysteme vom 21.10. 2015 Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Transaktionsverwaltung

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

Synchronisation in Datenbanksystemen in a nutshell

Synchronisation in Datenbanksystemen in a nutshell Synchronisation in Datenbanksystemen in a nutshell 1. Modell für nebenläufige Transaktionen und Korrektheitskriterium Transaktionsmodell: Folgen von Lese und Schreiboperationen abgeschlossen durch c=commit.

Mehr

Datenträgerverwaltung

Datenträgerverwaltung Datenträgerverwaltung Datenträgerverwaltung 1/9 Datenträgerverwaltung Inhaltsverzeichnis Vorgangsweise...2 Umwandeln einer Basisfestplatte in eine Dynamische Festplatte... 2 Spiegelung erstellen... 4 Partitionen

Mehr

Ersatzteile der Extraklasse Magento-Module der Shopwerft

Ersatzteile der Extraklasse Magento-Module der Shopwerft Ersatzteile der Extraklasse Magento-Module der Shopwerft MicroStudio - Fotolia.com Werden von Kunden oder Suchmaschinen Elemente des Shops aufgerufen, die nicht vorhanden sind, wird statt des gewünschten

Mehr

Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken

Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken Version 2.0 D-28359 Bremen info@indi-systems.de Tel + 49 421-989703-30 Fax + 49 421-989703-39 Inhaltsverzeichnis Was ist die QuickHMI-Schnittstelle

Mehr

CONTENT-FOLDER ProductInfo

CONTENT-FOLDER ProductInfo CONTENT- FOLDER ProductInfo Mehr Tempo für Ihren Workflow Mit CONTENT-FOLDER ist ein schneller und direkter Zugriff auf im Tagesgeschäft benötigte Informationen garantiert. CONTENT-FOLDER beschleunigt

Mehr

Einführung in SQL Datenbanken bearbeiten

Einführung in SQL Datenbanken bearbeiten Einführung in SQL Datenbanken bearbeiten Jürgen Thomas Entstanden als Wiki-Buch Bibliografische Information Diese Publikation ist bei der Deutschen Nationalbibliothek registriert. Detaillierte Angaben

Mehr

Transaktionen und Synchronisation konkurrierender Zugriffe

Transaktionen und Synchronisation konkurrierender Zugriffe Transaktionen und Synchronisation konkurrierender Zugriffe Fragestellungen Aufgaben des Transaktionsmanagers Aktivieren von Transaktionen entsprechend den Anforderungen von Anwendungsprogrammen. Dabei

Mehr

MICROS-FIDELIO GmbH. Informationen zum Support mit der BOMGAR Software

MICROS-FIDELIO GmbH. Informationen zum Support mit der BOMGAR Software Support & Services MICROS-FIDELIO GmbH Informationen zum Support mit der BOMGAR Software 2010 MICROS-FIDELIO GmbH Europadamm 2-6 41460 Neuss Deutschland Alle Rechte vorbehalten. Ohne vorherige schriftliche

Mehr

Gestalten eigener Menüleisten in MS-Office 97/2000/XP/2003

Gestalten eigener Menüleisten in MS-Office 97/2000/XP/2003 Gestalten eigener Menüleisten in MS-Office 97/2000/XP/2003 In MS-Office können eigene (benutzerdefinierte) Menüsysteme erstellt werden. Weiterhin existiert natürlich auch die Möglichkeit in das existierende

Mehr