Optimale Performance durch Constraints im Data Warehouse
|
|
|
- Marcus Albert
- vor 9 Jahren
- Abrufe
Transkript
1 Optimale Performance durch Constraints im Data Warehouse Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Einleitung Die Frage, ob und in welchem Umfang Datenbankconstraints in einem Data Warehouse eingesetzt werden sollen, wird in vielen Projekten kontrovers diskutiert. Obwohl Constraints ein wichtiges Hilfsmittel beim physischen Datenbankdesign sind, werden sie oft weggelassen, sei es aus Architekturüberlegungen, aus Performancegründen oder einfach aus Unwissenheit. 1 A sagt: In unserem Data Warehouse verzichten wir auf Constraints. Sie führen zu Fehlern und Abhängigkeiten in den ETL-Prozessen und sind mühsam zu definieren. B meint: Constraints sind nicht nur wichtig zur Überprüfung der Datenintegrität und als Dokumentation des Datenmodells, sondern vor allem auch für gute Performance im Data Warehouse. C fragt: Was sind Constraints? Dass Constraints nicht nur für die Datenintegrität und die Verständlichkeit des Datenmodells wichtig sind, sondern auch helfen, die Performance von ETL-Prozessen und Abfragen im Data Warehouse zu verbessern, soll hier anhand von konkreten Beispielen aufgezeigt werden. Wichtig ist dabei jedoch, dass die Constraints so angelegt werden, dass sie die Performance nicht verschlechtern, sondern eben verbessern. Doch dazu später. Constraints im Data Warehouse Datenbankconstraints werden hauptsächlich dazu verwendet, um die Datenintegrität in der Datenbank zu prüfen. In OLTP-Systemen mag das zweckmässig sein, aber ist es sinnvoll, dies in einem Data Warehouse zu tun, wenn die Korrektheit der Daten bereits beim Laden überprüft wird? Angenommen, all unsere Dimensionstabellen enthalten als Primärschlüssel eine Sequenznummer. Beim Laden der Fakten wird für jeden Dimensionsschlüssel ein Key Lookup durchgeführt. Somit ist durch den ETL- Prozess sichergestellt, dass nur gültige Dimensions-IDs ermittelt werden. Weshalb sollen wir dies also nochmals zusätzlich mittels Foreign Key Constraints überprüfen? Bleiben wir gleich bei diesem Beispiel: Wird kein passender Dimensionseintrag gefunden, kann durch entsprechende Fehlerbehandlung im ETL-Tool oder direkt in SQL implementiert werden, dass entweder ein NULL-Wert (nicht zu empfehlen) oder ein Verweis auf einen Default-Eintrag ( Singleton ) eingefügt wird. Dies ist möglich, ohne dass Constraints auf der Zieltabelle notwendig sind. Trotzdem ist es wichtig, diese zusätzlichen Integritätsregeln in Form von Constraints zu definieren. Im konkreten Fall: Ein Primary Key Constraint auf jeder Dimensionstabelle, Foreign Key Constraints zwischen Fakten- und Dimensionstabellen sowie NOT NULL-Constraints für alle Dimensionsschlüssel der Faktentabelle. 1 Bequemlichkeit könnte ein weiterer Grund sein, aber das wollen wir niemandem unterstellen.
2 Die Constraints erhöhen nicht nur die Lesbarkeit des Datenmodells (bzw. ermöglichen Abfragen auf den Data Dictionary, um Abhängigkeiten zwischen den Tabellen zu ermitteln), sondern stellen dem Optimizer zusätzliche Informationen zur Verfügung, die für die Ermittlung von Execution Plan für SQL-Abfragen und ETL-Prozesse verwendet werden können. Der Oracle Query Optimizer ist in der Lage, aufgrund vorhandener Constraints eine Abfrage zu vereinfachen oder umzuschreiben. Dies ermöglicht, dass überflüssige Schritte im Execution Plan weggelassen werden und dadurch die Abfrage beschleunigt werden kann. In den hier vorgestellten Fällen ist der Performancegewinn bescheiden, doch in komplexen Abfragen auf viele Tabellen mit grossen Datenmengen können die Unterschiede in den Antwortzeiten beträchtlich sein, je nachdem ob Constraints vorhanden sind oder nicht. Weitere Beispiele dazu werden am Vortrag gezeigt. Den Optimizer informieren: NOT NULL Constraints Das erste Beispiel 2 zeigt das unterschiedliche Verhalten des Optimizers bei Abfragen auf mehrere Bitmap Indizes. Auf der Tabelle CUSTOMERS sollen alle Kunden mit Jahrgang 1965 ermittelt werden, die nicht männlich sind. Auf den Attributen CUST_GENDER und CUST_YEAR_OF_BIRTH ist je ein Bitmap Index vorhanden. Listing 1 zeigt die entsprechende Abfrage mit dem zugehörigen Execution Plan. SELECT * FROM customers WHERE cust_gender!= 'M' AND cust_year_of_birth = Id Operation Name SELECT STATEMENT 1 TABLE ACCESS BY INDEX ROWID CUSTOMERS 2 BITMAP CONVERSION TO ROWIDS 3 BITMAP MINUS 4 BITMAP MINUS * 5 BITMAP INDEX SINGLE VALUE CUSTOMERS_YOB_BIX * 6 BITMAP INDEX SINGLE VALUE CUSTOMERS_GENDER_BIX * 7 BITMAP INDEX SINGLE VALUE CUSTOMERS_GENDER_BIX Predicate Information (identified by operation id): access("cust_year_of_birth"=1965) 6 - access("cust_gender" IS NULL) 7 - access("cust_gender"='m') Listing 1: Abfrage auf mehrere Bitmap Indizes mit BITMAP MINUS Interessant dabei ist, dass der Bitmap Index auf CUST_GENDER zweimal gelesen wird. Schauen wir uns diesen Execution Plan etwas genauer an: 2 Das Verhalten des Cost-based Optimizer in dieser Situation wird detailliert in Fehler! Verweisquelle konnte nicht gefunden werden. anhand eines ähnlichen Beispiels erklärt.
3 Zuerst werden alle Kunden mit Jahrgang 1965 ermittelt, für die das Attribut CUST_GENDER nicht auf NULL gesetzt ist. Dies wird mit einer BITMAP MINUS Operation auf die zwei Bitmap Indizes ermittelt (Zeilen 4 bis 6). Nun werden über einen weiteren Zugriff auf den gleichen Bitmap Index alle männlichen Kunden ermittelt (Zeile 7). Die entsprechenden Datensätze werden über eine weitere BITMAP MINUS Operation von der ursprünglichen Resultatmenge eliminiert (Zeile 4). Warum so umständlich? Kein Mensch käme auf die Idee, die Abfrage über diese Zwischenschritte zu lösen. Wir wissen ja, dass im Attribut CUST_GENDER immer entweder ein M (male) oder F (female) steht, dass das Feld also nie leer ist. Der Optimizer scheint dies nicht zu wissen und zwar aus dem einfachen Grund, weil wir es ihm nicht mitgeteilt haben. Falls ein Attribut immer gefüllt ist und dies sollte in einem Data Warehouse durch den Einsatz von Singletons immer gewährleitet werden können muss dies durch einen NOT NULL Constraint entsprechend definiert werden. Mit dieser zusätzlichen Information ist der Optimizer in der Lage, einen einfacheren Execution Plan zu generieren, der mit einem BITMAP MINUS auskommt. Die Ermittlung der NULL-Werte entfällt, weil durch den Constraint sichergestellt ist, dass es keine geben kann. Listing 2 zeigt die gleiche Abfrage, nachdem das Attribut CUST_GENDER auf NOT NULL gesetzt wurde. ALTER TABLE customers MODIFY (cust_gender NOT NULL); SELECT * FROM customers WHERE cust_gender!= 'M' AND cust_year_of_birth = Id Operation Name SELECT STATEMENT 1 TABLE ACCESS BY INDEX ROWID CUSTOMERS 2 BITMAP CONVERSION TO ROWIDS 3 BITMAP MINUS * 4 BITMAP INDEX SINGLE VALUE CUSTOMERS_YOB_BIX * 5 BITMAP INDEX SINGLE VALUE CUSTOMERS_GENDER_BIX Predicate Information (identified by operation id): access("cust_year_of_birth"=1965) 5 - access("cust_gender"='m') Listing 2: Abfrage auf mehrere Bitmap Indizes mit BITMAP MINUS und NOT NULL Constraint
4 Unnötige Joins vermeiden: Join Elimination Das zweite Beispiel zeigt eine Abfrage auf ein Star Schema. Es soll der Umsatz pro Produktkategorie für den März 2014 ermittelt werden. Listing 3 zeigt die entsprechende Abfrage und den zugehörigen Execution Plan. SELECT p.prod_cat_desc, SUM(s.amount_sold) FROM sales s JOIN products p ON (s.prod_id = p.prod_id) JOIN customers c ON (s.cust_id = c.cust_id) JOIN times t ON (s.time_id = t.time_id) WHERE t.calendar_month_desc = ' ' GROUP BY p.prod_cat_desc; Id Operation Name SELECT STATEMENT 1 HASH GROUP BY 2 NESTED LOOPS * 3 HASH JOIN 4 TABLE ACCESS FULL PRODUCTS 5 NESTED LOOPS 6 NESTED LOOPS * 7 TABLE ACCESS FULL TIMES 8 PARTITION RANGE ITERATOR 9 BITMAP CONVERSION TO ROWIDS * 10 BITMAP INDEX SINGLE VALUE SALES_TIME_BIX 11 TABLE ACCESS BY LOCAL INDEX ROWID SALES * 12 INDEX UNIQUE SCAN CUSTOMERS_PK Listing 3: Abfrage auf Star Schema ohne Foreign Key Constraints Wenn wir uns die SQL-Abfrage und den Execution Plan genauer ansehen, stellen wir fest, dass unnötigerweise die Dimensionstabelle CUSTOMERS gelesen und dazu gejoined wird, obwohl für das Resultat gar keine Attribute daraus verwendet werden. Solche Situationen sind nicht ungewöhnlich, da die Abfragen auf ein Star Schema häufig von einem Reporting- oder OLAP-Tool generiert wird und somit teilweise überflüssige Tabellen mitselektiert werden. Der Optimizer ist jedoch in der Lage, durch eine Transformation ( Join Elimination ) solche Abfragen zu vereinfachen und unnötige Joins wegzulassen. Voraussetzung dafür ist, dass zwischen den Tabellen Foreign Key Constraints definiert sind. 3 In Listing 4 wird die gleiche Abfrage ausgeführt, jedoch mit vorhandenen Foreign Key Constraints zwischen Faktentabelle und Dimensionen. Der Execution Plan zeigt, dass der Optimizer in der Lage ist, die unnötige Tabelle CUSTOMERS wegzulassen und somit ein Join weniger ausgeführt werden muss. 3 Die Constraints müssen entweder mit ENABLE aktiviert (aber nicht zwingend validiert) werden oder mittels RELY als vertrauenswürdig deklariert werden. Das Verhalten unterscheidet sich jedoch in Oracle 11g und 12c, siehe [3].
5 SELECT p.prod_cat_desc, SUM(s.amount_sold) FROM sales s JOIN products p ON (s.prod_id = p.prod_id) JOIN customers c ON (s.cust_id = c.cust_id) JOIN times t ON (s.time_id = t.time_id) WHERE t.calendar_month_desc = ' ' GROUP BY p.prod_cat_desc; Id Operation Name SELECT STATEMENT 1 HASH GROUP BY * 2 HASH JOIN 3 TABLE ACCESS FULL PRODUCTS 4 NESTED LOOPS 5 NESTED LOOPS * 6 TABLE ACCESS FULL TIMES 7 PARTITION RANGE ITERATOR 8 BITMAP CONVERSION TO ROWIDS * 9 BITMAP INDEX SINGLE VALUE SALES_TIME_BIX 10 TABLE ACCESS BY LOCAL INDEX ROWID SALES Predicate Information (identified by operation id): access("s"."prod_id"="p"."prod_id") 6 - filter("t"."calendar_month_desc"=' ') 9 - access("s"."time_id"="t"."time_id") Listing 4: Abfrage auf Star Schema mit Foreign Key Constraints Durch die Definition der Foreign Key Constraints hat der Query Optimizer zusätzliche Informationen zur Verfügung, die es ihm ermöglichen, die nicht benötigte Tabelle in der Abfrage wegzulassen und somit einen effizienteren Ausführungsplan zu ermitteln. Abkürzungen während den Abfragen: Query Rewrite Zur Performanceoptimierung werden in Data Warehouses oft Materialized Views und Query Rewrite verwendet. Beim Query Rewrite überprüft der Optimizer bei jeder SQL-Abfrage, ob eine passende Materialized View zur Verfügung steht, welche die erforderlichen Informationen liefern kann. Ist dies der Fall, wird der SQL-Befehl so umgeschrieben, dass er auf die Materialized View zugreift. In einfachen Fällen funktioniert das Query Rewrite auch ohne Constraints, beispielsweise dann, wenn die SQL-Abfrage identisch ist mit dem SELECT-Statement der Materialized View ( Full Text Match ). Es gibt aber Situationen, in denen der Optimizer eine Materialized View nicht verwenden kann, weil die Beziehungen zwischen den Tabellen nicht definiert oder nicht validiert sind. Dies kann insbesondere in folgenden Situationen vorkommen:
6 Query Rewrite mit Join Eliminiation: Nicht alle Tabellen der Materialized View werden in der Abfrage verwendet. Query Rewrite mit Join-Back: Zur Ermittlung von zusätzlichen Dimensionsattributen wird die Materialized View mit einer oder mehreren Dimensionstabelle gejoined. Auch dazu ein Beispiel: Die Materialized View MV_PRSUBCAT_MONTH_SALES enthält die aggregierten Verkaufszahlen pro Produkt-Subkategorie und Monat. Wir möchten den Gesamtumsatz pro Subkategorie ermitteln, ohne Einschränkung oder Gruppierung nach Monaten. Das Query Rewrite funktioniert in diesem Fall offenbar nicht, wie die Analyse in Listing 5 zeigt: VAR query VARCHAR2(1000) EXEC :query := 'SELECT p.prod_subcategory, ' - ' sum(s.amount_sold) dollars ' - 'FROM sales s, products p ' - 'WHERE s.prod_id = p.prod_id ' - 'GROUP BY p.prod_subcategory' EXEC dbms_mview.explain_rewrite(:query, 'MV_PRSUBCAT_MONTH_SALES') SELECT message FROM rewrite_table WHERE mv_name = 'MV_PRSUBCAT_MONTH_SALES'; MESSAGE QSM-01150: query did not rewrite QSM-01110: query rewrite not possible with materialized view MV_PRSUBCAT_MONTH_SALES because it contains a join between tables (SALES and TIMES) that is not present in the query and that potentially eliminates rows needed by the query QSM-01052: referential integrity constraint on table, SALES, not VALID in ENFORCED integrity mode Listing 5: Analyse einer SQL-Abfrage mit dbms_mview.explain_rewrite Die Fehlermeldungen, die hier angezeigt werden, haben alle die gleiche Ursache: Im verwendeten Star Schema sind keine Foreign Key Constraints definiert. Dies verhindert die Verwendung von Query Rewrite. Nach dem Erstellen der fehlenden Foreign Key Constraints und der erneuten Ausführung von dbms_mview.explain_rewrite ist nun ein Query Rewrite möglich, wie Listing 6 zeigt. ALTER TABLE sales ADD CONSTRAINT sales_product_fk (prod_id) REFERENCES products (PROD_ID); ALTER TABLE sales ADD CONSTRAINT sales_time_fk (time_id) REFERNCES times (time_id);
7 DELETE FROM rewrite_table; EXEC dbms_mview.explain_rewrite(:query, 'MV_PRSUBCAT_MONTH_SALES') SELECT message FROM rewrite_table WHERE mv_name = 'MV_PRSUBCAT_MONTH_SALES'; MESSAGE QSM-01151: query was rewritten QSM-01033: query rewritten with materialized view, V_PRSUBCAT_MONTH_SALES Listing 6: Erneute Analyse mit dbms_mview.explain_rewrite Die Bremsen lösen: Reliable Constraints Kritische Stimmen werden nun argumentieren: Das ist ja alles nett, aber die Performance der ETL- Prozesse wird schlechter, weil die Constraints während des Ladens geprüft werden müssen. Dies ist nicht der Fall, wenn diese als Reliable Constraints definiert werden. Eine übliche Vorgehensweise in Oracle Data Warehouses ist es, die Foreign Key Constraints auf ENABLE NOVALIDATE zu setzen. Damit sind die Fremdschlüsselbeziehungen zwischen den Tabellen dokumentiert, werden aber nicht vom Datenbanksystem überprüft. Damit die Constraints trotzdem zur Abfrageoptimierung verwendet werden können, müssen die Foreign Keys und die zugehörigen Primary Key Constraints auf RELY gesetzt werden, wie in Listing 7 anhand eines Beispiels einer Kopf- und Versionstabelle im Core aufgezeigt wird. -- Primary Key Constraint auf DWH_HEAD_ID der Kopftabelle ALTER TABLE cor_product ADD CONSTRAINT cor_product_pk PRIMARY KEY (dwh_head_id) RELY; -- Zusätzlicher Unique Constraint auf Business Keys ALTER TABLE cor_product ADD CONSTRAINT cor_product_uk UNIQUE (supplier_bk, product_bk); -- Primary Key Constraint auf DWH_VERS_ID der Versionstabelle ALTER TABLE cor_product_vers ADD CONSTRAINT cor_product_vers_pk PRIMARY KEY (dwh_vers_id); -- Foreign Key Constraint von Versions- auf Kopftabelle ALTER TABLE cor_product_vers ADD CONSTRAINT cor_prodv_head_fk FOREIGN KEY (dwh_head_id) REFERENCES cor_product (dwh_head_id) RELY ENABLE NOVALIDATE; Listing 7: Definition von Constraints auf Core-Tabellen
8 Jeweils vor Ausführung der ETL-Prozesse werden nun alle Foreign Key Constraints der Zieltabellen ausgeschaltet. Damit werden unnötige Prüfungen der Constraints während des Ladevorgangs vermieden. Vor allem bei der Verwendung von künstlichen Schlüsseln und Lookup-Operatoren in den ETL-Prozessen ist es überflüssig, einen soeben ermittelten Surrogate Key beim Einfügen in die Datenbank nochmals zu überprüfen. Durch das Ausschalten der Fremdschlüssel können die Ladezeiten verringert werden. Dach Beendigung des Ladevorgangs werden die Constraints wieder eingeschaltet, jedoch nicht überprüft. Listing 8 zeigt ein entsprechendes Beispiel. -- Foreign Key Constraint ausschalten ALTER TABLE cor_product_vers MODIFY CONSTRAINT cor_prodv_head_fk DISABLE NOVALIDATE; -- ETL-Prozess für COR_PRODUCT_VERS ausführen BEGIN Load_COR_PRODUCT_VERS; END; -- Foreign Key Constraint ausschalten ALTER TABLE cor_product_vers MODIFY CONSTRAINT cor_prodv_head_fk ENABLE NOVALIDATE; Listing 8: Aus- und Einschalten von Foreign Key Constraints während ETL-Prozess Das Einschalten der Constraints ist nicht zwingend notwendig. Die gezeigten Optimierungsmöglichkeiten (Join Elimination, Query Rewrite, Join Back) funktionieren auch, wenn die Foreign Key Constraints auf DISABLE gesetzt sind. Wichtig ist jedoch, dass die Constraints auf RELY gesetzt sind. Dadurch wird dem Query Optimizer mitgeteilt, dass er sich auf die Constraint- Definitionen verlassen kann, obwohl die Datenintegritiät nicht von der Datenbank geprüft wurde. Ein weiterer Vorteil von Reliable Constraints besteht darin, dass Abhängigkeiten in der Ladereihenfolge vermieden werden können. So werden zum Beispiel in Data Vault 2.0 Hash-Keys anstelle von Sequenznummern verwendet, um die verschiedenen Arten von Tabellen (Hubs, Links und Satellites) ohne Key Lookups und somit unabhängig voneinander laden zu können. Mit eingeschalteten Foreign Key Constraints ist dies nicht möglich. Werden hingegen die Constraints mit RELY DISABLE NOVALIDATE angelegt, bestehen zum Ladezeitpunkt keine Abhängigkeiten zwischen den Tabellen. Trotzdem kann der Query Optimizer die Constraints zur Optimierung von Abfragen und nachfolgenden ETL-Prozessen verwenden. Dadurch und durch die Unabhängigkeit der einzelnen ETL-Prozesse können die Ladezeiten im Data Warehouse zusätzlich verkürzt werden. Constraints sind also keine Bremse beim Laden, sondern eine Hilfe bei der Performanceoptimierung sowohl beim Laden ins Data Warehouse als auch bei Abfragen auf die Data Marts. 4 Wo sollen welche Constraints erstellt werden? Der Einsatz der verschiedenen Constrainttypen ist je nach DWH-Schicht, Modellierungsmethode und gewählter Architektur unterschiedlich. Weitere Informationen dazu sind in [4] zu finden. 4 Weitere Informationen zur Definition und Verwendung von Reliable Constraints sind im Blog Post [2] beschrieben.
9 Fazit In der Staging Area werden üblicherweise keine Constraints eingesetzt. Primary Key Constraints werden in der Cleansing Area, im Core und in den Data Marts erstellt. Auf den Faktentabellen wird üblicherweise auf einen Primary Key Constraint verzichtet. Im Core werden zusätzlich Unique Constraints auf die fachlichen Schlüssel erstellt. Foreign Key Constraints werden teilweise in der Cleansing Area, sicher aber im Core und in den Data Marts erstellt. Je nach gewählter Architektur und Design der ETL-Prozesse können diese als Reliable Constraints definiert werden. NOT NULL Constraints werden außer in der Staging Area immer angelegt. Insbesondere Fremdschlüsselattribute (z.b. Dimensionsschlüssel in Faktentabellen) sollten als NOT NULL definiert werden, um Outer Joins bei Abfragen zu vermeiden. Check Constraints dienen zur Überprüfung der eingegebenen Werte und werden in Data Warehouses selten eingesetzt. Diese Art von Konsistenzprüfungen werden durch die ETL- Prozesse oder Qualitäts-Checks in der Cleansing Area durchgeführt. Constraints werden im Data Warehouse nicht primär für ihren ursprünglichen Zweck nämlich die Sicherstellung der Datenintegrität eingesetzt, sondern hauptsächlich zur Dokumentation der Abhängigkeiten im Datenmodell sowie zur Performanceoptimierung. Durch die Definition von Constraints werden dem Query Optimizer zusätzliche Informationen zur Verfügung gestellt, die zur Optimierung von SQL-Befehlen für ETL-Prozesse und Abfragen verwendet werden können. Durch die Verwendung von Reliable Constraints besteht zusätzlich die Möglichkeit, Foreign Key Constraints so anzulegen, dass die Ladeprozesse nicht beeinträchtigt werden. Quellen und weitere Informationen [1] Jonathan Lewis: Cost-Based Oracle Fundamentals, Seiten Apress, 2006, ISBN [2] Foreign Key Constraints in an Oracle Data Warehouse [3] Join Elimination: Difference between Oracle 11g and 12c [4] D. Schnider, C. Jordan, P. Welker, J. Wehner: Data Warehouse Blueprints Hanser Verlag, 2016, ISBN Kontaktadresse: Dani Schnider Trivadis AG Sägereistrasse 29 CH-8152 Glattbrugg Telefon: Fax: Internet:
Optimale Performance durch Constraints im Data Warehouse
Optimale Performance durch Constraints im Data Warehouse DOAG Konferenz, 17. November 2016 Dani Schnider, Trivadis AG @dani_schnider BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG
ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE
ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE Indexierungsstrategie im Data Warehouse Dani Schnider, Trivadis AG DOAG Konferenz, Nürnberg BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR.
Oracle In-Memory & Data Warehouse: Die perfekte Kombination?
Oracle In-Memory & Data Warehouse: Die perfekte Kombination? Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Einleitung Als Larry Ellison in einer Keynote im Juni 2014 die Oracle In-Memory Option
Partitionierungsstrategien für Data Vault
ierungsstrategien für Data Vault Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Einleitung Während das Laden von Tabellen in Data Vault in der Regel nicht zeitkritisch ist, stellt uns das effiziente
INDEXIERUNGS- STRATEGIE IM DATA WAREHOUSE
INDEXIERUNGS- STRATEGIE IM DATA WAREHOUSE ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE DOAG Konferenz 2011 Dani Schnider Trivadis AG Nürnberg, BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG
Indexierungsstrategie im Data Warehouse Zwischen Albtraum und optimaler Performance
Indexierungsstrategie im Data Warehouse Zwischen Albtraum und optimaler Performance Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Schlüsselworte: Data Warehouse, Indexierung, Staging Area, Cleansing
Performance in der Oracle Datenbank von Anfang an
Performance in der Oracle Datenbank von Anfang an Marco Mischke, 26.04.2018 DOAG Regional Agenda Tabellen Indizes Ausführungspläne SQL vs PL/SQL Tabellen Zu 99% werden Standard Strukturen zur Speicherung
Wie modelliere ich mein Core Data Warehouse?
Wie modelliere ich mein Core Data Warehouse? Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Schlüsselworte: Data Warehouse, Datenmodellierung, Historisierung Einleitung Das Core dient im Data Warehouse
Optimiertes Laden in die F-Fakten-Tabelle des SAP BW
Optimiertes Laden in die F-Fakten-Tabelle des SAP BW Schlüsselworte SAP BW Index unusable. Einleitung Jörn Bartels Oracle München Mit Oracle Database 11g Release 2 kann das Laden der F-Fakten Tabelle in
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider, Trivadis AG DOAG Konferenz 2015
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider, Trivadis AG DOAG Konferenz 2015 BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENEVA HAMBURG COPENHAGEN LAUSANNE MUNICH STUTTGART
Oracle Database 12c Was Sie immer schon über Indexe wissen wollten
Oracle Database 12c Was Sie immer schon über Indexe wissen wollten Marco Mischke, 08.09.2015 DOAG Regionaltreffen B* Indexe - Aufbau 0-Level Index A-F G-Z 1-Level Index A-F G-Z 2-Level Index A-F G-M N-Z
Index- und Zugriffsstrukturen für. Holger Brämer, 05IND-P
Index- und Zugriffsstrukturen für Data Warehousing Holger Brämer, 05IND-P Index- und Zugriffstrukturen für Data Warehousing Materialisierte Sichten Bitmap-Indexe Verbundindexe Materialisierte Sichten gehören
Nutzung der Oracle Database InMemory Option für SAP BW
Nutzung der Oracle Database InMemory Option für SAP BW Schlüsselworte Oracle, SAP-BW, InMemory, Star-Schema. Jörn Bartels Oracle München Einleitung In SAP BW wurde bisher ein erweitertes Snow Flake Schema
Oracle In-Memory & Data Warehouse: Die perfekte Kombination?
: Die perfekte Kombination? DOAG Konferenz, 16. November 2016 Dani Schnider, Trivadis AG @dani_schnider BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN
FEHLERTOLERANTE LADEPROZESSE IN ORACLE
FEHLERTOLERANTE LADEPROZESSE IN ORACLE GEGEN SCHLAFLOSE NÄCHTE DOAG BI Konferenz 2012 Dani Schnider Trivadis AG München, BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN
Indexstrategien im Data Warehouse
Indexstrategien im Data Warehouse Reinhard Mense areto consulting gmbh Köln Schlüsselworte Business Intelligence, Data Warehouse, Bitmap Index, B*Tree Index, Partial Index, Star Schema, Snowflake Schema,
Haben Sie die Zeit im Griff? Designtipps zur Zeitdimension
Haben Sie die Zeit im Griff? Designtipps zur Zeitdimension Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Schlüsselworte: Data Warehouse, Data Mart, Star Schema, Dimensionale Modellierung, Zeitdimension
Analytic Views: Einsatzgebiete im Data Warehouse
Analytic Views: Einsatzgebiete im Data Warehouse Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Einleitung Analytic Views sind eine der wesentlichen Erweiterungen in Oracle 12c Release 2. Durch zusätzliche
Modellierung agiler Data Warehouses mit Data Vault
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Schlüsselworte: Data Warehouse, Data Vault, Datenmodellierung, Agile Projektentwicklung, Historisierung,
Oracle 9i Einführung Performance Tuning
Kurs Oracle 9i Einführung Performance Tuning Teil 3 Der Optimizer Timo Meyer Wintersemester 2005 / 2006 Seite 1 von 16 Seite 1 von 16 1. auf Tabellen 2. 3. Optimizer 4. Optimizer RBO 5. Optimizer CBO 6.
Performance Tuning mit Oracle 12c
Performance Tuning mit Oracle 12c Agenda 1. Adaptive Execution Plans 2. Adaptive Statistics 3. SQL Plan-Direktiven 4. Neuerungen bei Statistiken 5. Konkurrierendes Sammeln von Statistiken 6. Private Session-Statistiken
Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH
Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Dani Schnider Principal Consultant Business Intelligence BI Trilogie, Zürich/Basel 25./26. November 2009 Basel Baden Bern Lausanne Zürich
Erzeugen von Constraints
Erzeugen von Constraints Was sind Constraints? Durch Constraints werden Regeln auf einem bestimmtem Tabellen-Level erzwungen. Die folgenden Constraint-Typen sind in Oracle integriert: NOT NULL UNIQUE Key
IT-Symposium 2008 05.06.2008
Selftuning Database Ein Traum oder Wirklichkeit Ralf Durben Oracle Deutschland GmbH www.hp-user-society.de 1 Die Arbeitswelt des Gestern, heute und morgen Früher Ein für wenige Datenbanken
Grundlagen von SQL. Informatik 2, FS18. Dr. Hermann Lehner (Material von Dr. Markus Dahinden) Departement Informatik, ETH Zürich
Grundlagen von SQL Informatik 2, FS18 Dr. Hermann Lehner (Material von Dr. Markus Dahinden) Departement Informatik, ETH Zürich Markus Dahinden 13.05.18 1 Grundlagen von SQL (Structured Query Language)
The Underestimated Subquery Factoring Clause
The Underestimated Subquery Factoring Clause Philipp Salvisberg Senior Consultant [email protected] DOAG Konferenz Mannheim, 16. November 2006 Basel Baden Bern Lausanne Zürich Düsseldorf
5/14/18. Grundlagen von SQL. Grundlagen von SQL. Google, Facebook und Co. setzen auf SQL. Whatsapp
5/14/18 Grundlagen von SQL (Structured Query Language) Datenbanksprache Befehle Datenbanken und Tabellen erstellen/verändern Daten manipulieren (eingeben, ändern, löschen) Datenbank durchsuchen (Queries
StarView: mit statischem SQL dynamische Abfragen auf StarSchema
StarView: mit statischem SQL dynamische Abfragen auf StarSchema DOAG Konferenz 2013 Nürnberg, 19.-21. November 2013 Slavomir Nagy metafinanz Informationssysteme GmbH Wir fokussieren mit unseren Services
Prakt. Datenbankprogrammierung. Sommersemester Was sind Constraints? I,11: Verwendung von Constraints. Festlegung von Constraints
Prakt. Datenbankprogrammierung Sommersemester 2005 I,11: Verwendung von Constraints Was sind Constraints? Constraints stellen Regeln auf Tabellenebene sicher. Constraints verhindern das Löschen aus einer
Warum wird mein Index nicht benutzt?
Warum wird mein Index nicht benutzt? Index Nutzung-1 Tätigkeitsbereiche: Oracle Support Hotline: Mo-Fr 8.00 18.00 Uhr Erweiterung um eine Rufbereitschaft auch am Wochenende möglich Oracle IT-Consulting
Analytische Funktionen erfolgreich eingesetzt
Analytische Funktionen erfolgreich eingesetzt Dani Schnider Trivadis AG Glattbrugg, Schweiz Schlüsselworte: Analytische Funktionen, SQL, Performance Optimierung, Data Warehousing Zusammenfassung Analytische
Fehlerbehandlung mittels DML Error Logging
Fehlerbehandlung mittels DML Error Logging Andreas Buckenhofer Daimler TSS GmbH Ulm Schlüsselworte DML Error Logging, DBMS_ERRLOG, LOGGING / NOLOGGING, Direct Path Einleitung Eine satzbasierte Verarbeitung
Anfrageoptimierung Ausführungspläne, Hints, Statistikinformationen, IDEs
Anfrageoptimierung Ausführungspläne, Hints, Statistikinformationen, IDEs Peter Matjeschk 05-INDT Fachbereich Informatik, Mathematik und Naturwissenschaften HTWK-Leipzig 19. Juni 2008 Peter Matjeschk (Fb
SCD2 mal anders. Andrej Pashchenko Trivadis GmbH Düsseldorf
SCD2 mal anders Andrej Pashchenko Trivadis GmbH Düsseldorf Schlüsselworte Slowly Changing Dimensions Type 2, Historisierung. Einleitung Die Historisierung der Daten ist eine übliche, aber auch komplexe
Oracle 10g Einführung
Kurs Oracle 10g Einführung Teil 5 Einführung Timo Meyer Administration von Oracle-Datenbanken Timo Meyer Sommersemester 2006 Seite 1 von 16 Seite 1 von 16 Agenda 1 Tabellen und Views erstellen 2 Indizes
Haben Sie die Zeit im Griff? Designtipps zur Zeitdimension
Haben Sie die Zeit im Griff? Designtipps zur Zeitdimension Dani Schnider Principal Consultant 22. November 2012 Abfragen im Data Warehouse haben fast immer einen Zeitbezug. Ob es dabei um die Mitarbeiterauslastung
Wiederholung VU Datenmodellierung
Wiederholung VU Datenmodellierung VU Datenbanksysteme Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Wintersemester
DOAG Konferenz Was Sie bei modernen Datenbank-Systemen anders machen müssen!
oracledeli.wordpress.com DOAG Konferenz 2015 Was Sie bei modernen Datenbank-Systemen anders machen müssen! Matthias Schulz Selbständiger Software- und Datenbankentwickler: Consulting Schulungen Workshops
Dieser Foliensatz darf frei verwendet werden unter der Bedingung, dass diese Titelfolie nicht entfernt wird.
Thomas Studer Relationale Datenbanken: Von den theoretischen Grundlagen zu Anwendungen mit PostgreSQL Springer, 2016 ISBN 978-3-662-46570-7 Dieser Foliensatz darf frei verwendet werden unter der Bedingung,
Relationales Datenbanksystem Oracle
Relationales Datenbanksystem Oracle 1 Relationales Modell Im relationalen Modell wird ein relationales Datenbankschema wie folgt beschrieben: RS = R 1 X 1 SC 1... R n X n SC n SC a a : i=1...n X i B Information
Berechnung von Kennzahlen mit der SQL Model Clause
Berechnung von Kennzahlen mit der Thomas Mauch 12.07.2018 DOAG BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 1 AGENDA 1. Einführung 2. Syntax 3. Performance
Oracle OLAP 11g: Performance für das Oracle Data Warehouse
Oracle OLAP 11g: Performance für das Oracle Data Warehouse Marc Bastien Oracle BI Presales Agenda Performanceprobleme in Oracle DWH: gibt s das überhaupt? Mögliche Gründe und Lösungen
Generieren Sie die Befehle zum Sammeln von Statistiken auf diesen Objekten
Aufgabe 1_4_1: Überprüfen Sie die Schemata DOAG auf Objekte mit Stale Statistics Generieren Sie die Befehle zum Sammeln von Statistiken auf diesen Objekten delete from doag.order_line where order_line_id>8000000;
SQL Optimizer und SQL Performance
SQL Optimizer und SQL Performance Schlüsselworte SQL, Optimizer, Explain Plan, SQL Trace Marco Mischke Robotron Datenbank Software GmbH Dresden Einleitung Dieser Vortrag beschäftigt sich mit grundlegenden
Wiederholung VU Datenmodellierung
Wiederholung VU Datenmodellierung VL Datenbanksysteme Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Wintersemester
Oracle Old Features. Uwe Küchler Valentia GmbH Frankfurt am Main
Oracle Old Features Uwe Küchler Valentia GmbH Frankfurt am Main Schlüsselwörter: Datenbank, Performance, Constraints, ANSI SQL, PL/SQL. Einleitung Bereits im vorigen Jahrtausend hat Oracle Features in
3.3. Implementierung in SQL DDL-Grundlagen Constraint-Verzögerung Implementierungs-Strategien
CREATE TABLE SPEND_STAT ( S_STATUS VARCHAR2(1), STAT_TXT VARCHAR2(15), PRIMARY KEY (S_STATUS) ENABLE ) ; 3.3. Implementierung in SQL DDL-Grundlagen Constraint-Verzögerung Implementierungs-Strategien DDL:
Die View von der View von der View PERFORMANTES SQL SCHREIBEN
Die View von der View von der View PERFORMANTES SQL SCHREIBEN Schlüsselworte SQL, Performance, Optimizer Uwe Embshoff Airpas Aviation AG Braunschweig Einleitung Es gibt viel Literatur zum Thema Oracle
DWH Automatisierung mit Data Vault 2.0
DWH Automatisierung mit Data Vault 2.0 Andre Dörr Trevisto AG Nürnberg Schlüsselworte Architektur, DWH, Data Vault Einleitung Wenn man die Entwicklung von ETL / ELT Prozessen für eine klassische DWH Architektur
Nested Tables Types als Ergänzung zu Pivot XML
Nested Tables Types als Ergänzung zu Pivot XML Thomas Strub Logica Deutschland GmbH & Co. KG Frankfurt Schlüsselworte Nested Tables, pivot, pivot xml, unpivot, collect, PL/SQL Einleitung Die Verknüpfung
Partitioning Technik und Anwendungsbeispiele
Partitioning Technik und Anwendungsbeispiele Klaus Reimers ORDIX AG Köln Schlüsselworte: Range Partitioning, Hash Partitioning, List partitioning, System Partitioning, Interval Partitioning, Virtual Column
SQL. Datendefinition
SQL Datendefinition Die Organisation einer Datenbank basiert auf einer Anzahl verschiedener Objekte. Diese können physikalischer oder logischer Natur sein. Das folgende Kapitel beschäftigt sich mit der
DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER
DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.
Introduction to Data and Knowledge Engineering. 6. Übung SQL
Introduction to Data and Knowledge Engineering 6. Übung SQL Aufgabe 6.1 Datenbank-Schema Buch PK FK Autor PK FK ISBN Titel Preis x ID Vorname Nachname x BuchAutor ISBN ID PK x x FK Buch.ISBN Autor.ID FB
Auf einen Blick. Abfrage und Bearbeitung. Erstellen einer Datenbank. Komplexe Abfragen. Vorwort... 13
Auf einen Blick Vorwort... 13 Teil 1 Vorbereitung Kapitel 1 Einleitung... 17 Kapitel 2 SQL der Standard relationaler Datenbanken... 21 Kapitel 3 Die Beispieldatenbanken... 39 Teil 2 Abfrage und Bearbeitung
Inhaltsverzeichnis. Vorwort Kapitel 1 Einleitung... 15
Vorwort..................................................... 13 Kapitel 1 Einleitung.......................................... 15 Kapitel 2 SQL der Standard relationaler Datenbanken... 19 2.1 Die Geschichte................................
Oracle 9i Einführung. Performance Tuning. Kurs. Teil 12 Materialized Views. Universität Hannover. Praxisbeispiel. Migration.
Kurs Oracle 9i Einführung Performance Tuning Teil 12 Materialized Views Timo Meyer Wintersemester 2005 / 2006 Seite 1 von 9 Seite 1 von 9 Agenda 1. Einführung Materialized Views 2. 3. Materialized View
Fehlertoleranz und Robustheit von ETL-Prozessen Wie gestalten wir Abläufe möglichst widerstandsfähig. Christian Borghardt I BI Consultant
Fehlertoleranz und Robustheit von ETL-Prozessen Wie gestalten wir Abläufe möglichst widerstandsfähig Christian Borghardt I BI Consultant Über uns areto consulting gmbh Echter Business Intelligence Spezialist
Schnellübersichten. SQL Grundlagen und Datenbankdesign
Schnellübersichten SQL Grundlagen und Datenbankdesign 5 Datenbanken 2 6 Tabellen erstellen und verwalten 3 7 Daten einfügen, aktualisieren, löschen 4 8 Einfache Datenabfragen 5 9 Schlüsselfelder und Indizes
Auf einen Blick. Abfrage und Bearbeitung. Erstellen einer Datenbank. Komplexe Abfragen. Vorwort 13
Auf einen Blick Vorwort 13 Teil 1 Vorbereitung Kapitel 1 Einleitung 17 Kapitel 2 SQL - der Standard relationaler Datenbanken 21 Kapitel 3 Die Beispieldatenbanken 39 Teil 2 Abfrage und Bearbeitung Kapitel
Inhaltsverzeichnis. Vorwort 13. Kapitel 1 Einleitung 15
Vorwort 13 Kapitel 1 Einleitung 15 Kapitel 2 SQL-der Standard relationaler Datenbanken... 19 2.1 Die Geschichte 19 2.2 Die Bestandteile 20 2.3 Die Verarbeitung einer SQL-Anweisung 22 2.4 Die Struktur von
Eine neue Datenbank erstellen
Eine neue Datenbank erstellen Eine neue Datenbank erstellen Eine Tabelle in der Entwurfsansicht erstellen Eine Tabelle in der Entwurfsansicht erstellen Eine Tabelle in der Entwurfsansicht erstellen Das
DWH-Modellierung mit Data Vault in Kombination mit ODI 12c - Erfahrungen aus der Praxis - Claus Jordan Trivadis GmbH Stuttgart
Schlüsselworte DWH-Modellierung mit Data Vault in Kombination mit ODI 12c - Erfahrungen aus der Praxis - Claus Jordan Trivadis GmbH Stuttgart Data Warehouse, DWH, Data Vault, ODI, Oracle Data Integrator
Brücken bauen im dimensionalen Modell
Brücken bauen im dimensionalen Modell Dani Schnider Trivadis AG Zürich/Glattbrugg, Schweiz Schlüsselworte: Data Warehouse, Data Mart, Star Schema, Dimensionale Modellierung, Bridge Tables, Multi-Valued
Materialized Views. Jan-Peter Timmermann. DOAG Regiotreffen Hamburg: Materialized Views Seite 1
Materialized Views Jan-Peter Timmermann DOAG Regiotreffen Hamburg: Materialized Views Seite 1 Klassische View Sind virtuelle Tabellen Erstellung nicht aufwendig, da nur ein Eintrag im Data Dictionary vorgenommen
Urs Meier ([email protected]) Art der Info Technical Info (Februar 2002) Aus unserer Projekterfahrung und Forschung
Betrifft Optimizer Autor Urs Meier ([email protected]) Art der Info Technical Info (Februar 2002) Quelle Aus unserer Projekterfahrung und Forschung Einführung Mit jedem Oracle Release nimmt die Anzahl
Create-Table-Befehl. CREATE TABLE Tabellenname ( { Spalte { Datentyp Gebietsname } [ Spaltenbedingung [ ] ] Tabellenbedingung }
Create-Table-Befehl CREATE TABLE Tabellenname ( { Spalte { Datentyp Gebietsname } [ Spaltenbedingung [ ] ] Tabellenbedingung } [, ] ) Liste der wichtigsten Datentypen in SQL INTEGER INT SMALLINT NUMERIC(x,y)
Datenbank und Tabelle mit SQL erstellen
Datenbank und Tabelle mit SQL erstellen 1) Übung stat Mit dem folgenden Befehlen legt man die Datenbank stat an und in dieser die Tabelle data1 : CREATE DATABASE stat; USE stat; CREATE TABLE data1 ( `id`
Referenzielle Integrität SQL
Referenzielle Integrität in SQL aus Referential Integrity Is Important For Databases von Michael Blaha (Modelsoft Consulting Corp) VII-45 Referenzielle Integrität Definition: Referenzielle Integrität bedeutet
Von der transaktionalen zur dimensionalen Modellierung Vortrag auf der DOAG, Nürnberg, Felix Krul I Senior BI Consultant
Von der transaktionalen zur dimensionalen Modellierung Vortrag auf der DOAG, Nürnberg, 17.11.2015 Felix Krul I Senior BI Consultant Über uns areto consulting gmbh Echter Business Intelligence Spezialist
WS 2010/11 Datenbanksysteme Fr 15:15 16:45 R 1.008. Vorlesung #5. SQL (Teil 3)
Vorlesung #5 SQL (Teil 3) Fahrplan Besprechung der Übungsaufgaben Rekursion Rekursion in SQL-92 Rekursion in DBMS- Dialekten (Oracle und DB2) Views (Sichten) - gespeicherte Abfragen Gewährleistung der
Übung PL/SQL Trigger Lösungen
Übung PL/SQL Trigger Lösungen 1) Gebe das aktuelle Datum aus. Wofür steht dual? Ändere das Datum für Deine aktuelle Session auf das Format Jahr (4 Stellen) Monat (2 Stellen) Tag (2 Stellen)[Leerzeichen]Stunde
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 8 Hausaufgabe 1 Übung zur Vorlesung Grundlagen: Datenbanken im WS13/14 Henrik Mühe ([email protected])
Ich liebe es, wenn ein Plan funktioniert
Ich liebe es, wenn ein Plan funktioniert Der Ausführungsplan Thomas Klughardt Senior Presales Consultant 16.11.2011 Quest Software 60 Büros 3 HQs Nord-/ Mittel-/ Südamerika Europa Asien / Pazifik 3600+
Performance-Prognosen im Test, trotz Datenschutzauflagen. Daniel Stein. DOAG November 2016
Performance-Prognosen im Test, trotz Datenschutzauflagen Daniel Stein DOAG November 2016 Agenda Vorstellung Motivation Situation heute Praxisbeispiele Fazit & Ausblick 2 Vorstellung Daniel Stein» 31 Jahre»
Schnelle Kurzgeschichten
Schnelle Kurzgeschichten Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte: Data Warehousing, Dimensionen, Performance, Slowly Changing Dimensions. Einleitung Unsere Kundin ist im
SQL structured query language
Umfangreiche Datenmengen werden üblicherweise in relationalen Datenbank-Systemen (RDBMS) gespeichert Logische Struktur der Datenbank wird mittels Entity/Realtionship-Diagrammen dargestellt structured query
Konzeptueller Entwurf
Konzeptueller Entwurf UML Klassendiagrame UML Assoziationen Entspricht Beziehungen Optional: Assoziationsnamen Leserichtung ( oder ), sonst bidirektional Rollennamen Kardinalitätsrestriktionen UML Kardinalitätsrestriktionen
Data Warehousing Grundbegriffe und Problemstellung
Data Warehousing Grundbegriffe und Problemstellung Dr. Andrea Kennel, Trivadis AG, Glattbrugg, Schweiz [email protected] Schlüsselworte Data Warehouse, Cube, Data Mart, Bitmap Index, Star Queries,
Datenbanksysteme 2013
Datenbanksysteme 2013 Kapitel 8: Datenintegrität Vorlesung vom 14.05.2013 Oliver Vornberger Institut für Informatik Universität Osnabrück Datenintegrität Statische Bedingung (jeder Zustand) Dynamische
Datenintegrität. Kapitel 5 1
Datenintegrität Integitätsbedingungen Schlüssel Beziehungskardinalitäten Attributdomänen Inklusion bei Generalisierung statische Integritätsbedingungen Bedingungen an den Zustand der Datenbasis dynamische
Fehlertolerante Ladeprozesse gegen schlaflose Nächte
Fehlertolerante Ladeprozesse gegen schlaflose Nächte Dani Schnider Principal Consultant 19. September 2012 Mitten in der Nacht bricht die ETL-Verarbeitung ab, weil ein falscher oder unvollständiger Datensatz
Datenbanken. Zusammenfassung. Datenbanksysteme
Zusammenfassung Datenbanksysteme Christian Moser Seite 1 vom 7 12.09.2002 Wichtige Begriffe Attribut Assoziation API Atomares Attribut Datenbasis DBMS Datenunabhängigkeit Datenbankmodell DDL DML DCL ER-Diagramm
Data Vault und Ladeperformance Markus Kollas CGI Deutschland Ltd. & Co. KG Sulzbach (Taunus)
Data Vault und Ladeperformance Markus Kollas CGI Deutschland Ltd. & Co. KG Sulzbach (Taunus) Schlüsselworte Data Vault, Beladen und Entladen, Data Warehouse, Core Warehouse, Data Marts, Sternschema, Hash-Keys
Ich liebe es wenn ein Plan funktioniert! Der Ausführungsplan
Ich liebe es wenn ein Plan funktioniert! Der Ausführungsplan Thomas Klughardt Quest Software Köln Schlüsselworte: SQL Statement, Ausführungsplan, Explain Plan, Tuning, Optimierung, Query Optimizer Einleitung
