Hausarbeit zum Seminar: Digital Information Curation WS 2005/2006. Dozenten: Prof. Dr. Marc Scholl, Dr. André Seifert. Language, Model, and Algorithms
|
|
- Lorenz Claus Schneider
- vor 8 Jahren
- Abrufe
Transkript
1 Universität Konstanz Hausarbeit zum Seminar: Digital Information Curation WS 2005/2006 Dozenten: Prof. Dr. Marc Scholl, Dr. André Seifert Declarative Data Cleaning: Language, Model, and Algorithms Sebastian Rexhausen
2 1 Einführung Grundlage dieser Seminararbeit bildet die Veröffentlichung von Helena Galhardas et al. Declarative Data Cleaning: Language, Model, and Algorithms in VLDB '01: Proceedings of the 27th International Conference on Very Large Data Bases aus dem Jahre In ihr wird der Ansatz des Declarative Data Cleanings genauer erläutert und das darauf aufsetzende Projekt AJAX näher vorgestellt. Die damals verfügbaren Data Cleaning Tools führten in den Augen der Autoren zu ungenügenden Ergebnissen, weshalb sie den Entwurf eines eigenen Konzeptes/Tools vorantrieben, welches beim Design und der Implementierung des Data Cleaning Prozesses unterstützen sollte. Dabei wurde vor allem Wert gelegt auf klare Trennung von logischer Spezifikation und physischer Implementierung der Datentransformationen, Nachvollziehbarkeit und Erklärung der Data Cleaning Ergebnisse und zuletzt auf Benutzerinteraktion während des ganzen Analyse-Prozesses. Die in dieser Arbeit verwendeten Beispiele werden anhand von Citeseer-Quellenangaben, welche auch im Paper [1] genutzt werden, erläutert. 2 Data Cleaning Data Cleaning wird auch synonym unter den Begriffen data cleansing, data scrubbing oder Datenbereinigung verwendet. Seine Aufgabe besteht darin, Inkonsistenzen und Fehler in Datenbeständen zu erkennen und die unsauberen Daten anschließend zu entfernen bzw. zu korrigieren. Die Hauptnachfrage nach Data Cleaning liegt beim Entfernen von Anomalien in einer Datensammlung, bei der Überführung von unstrukturierten/teilstrukturierten Daten in strukturierte Daten oder bei der Kombination von Daten aus mehreren Quellen (siehe [2] Seite 11ff). Data Cleaning Verfahren finden eine weite Verbreitung bei Decision-Support-Systemen und bei Data Warehouses denn nur auf Grund von verlässlichen Daten kann die Genauigkeit, Richtigkeit und hohe Performance bei darauf basierenden Analysen gewährleistet werden. Unsaubere Daten können auf verschiedenartige Weise entstehen. Im Folgenden wird versucht anhand einer Problemstellung, wie sie Citeseer beim Einfügen von neuen Dokumenten in ihren Datenbestand hat, näher auf die verschiedenen Arten von unsauberen Daten einzugehen. Im Beispiel werden Quellenangaben aus zwei verschiedenen Arbeiten behandelt, die dasselbe Dokument beschreiben:
3 Referenz aus Paper1: [QGMW96] Dallan Quass, Ashish Gupta, Inderphal Singh Mumick, and Jennifer Widom. Making Views Self-Maintainable for Data Warehousing. In Proceedings of the Conference on Parallel and Distributed Information Systems. Miami Beach, Florida, USA, Available via WWW at www-db.stanford.edu as pub/papers/self-maint.ps. Referenz aus Paper2: [12] D. Quass, A. Gupta, I. Mumick, and J. Widom: Making views selfmaintanable for data, PDIS'95 Data Cleaning Probleme: Keine universelle ID Auf Grund von nicht existierenden Standards im Bezug auf Zitierstil der Quellenangabe existiert kein Zwang eine weltweit geltende, universelle ID für dasselbe Objekt zu nutzen. Somit können Data Cleaning Systeme bei Extraktion von Quellenangaben ([QGMW96] [12]) aus verschiedenen Papers nicht von einem Matching über eine universelle ID ausgehen, sondern müssen die Zuordnung derselben Objekte über verschiedene Verfahren sicherstellen. Syntax & Formatierung Ebenfalls kann nicht davon ausgegangen werden, dass ein Standard für die Syntax bzw. die Formatierung von Quellenangaben genutzt wird. Folglich müssen aufwendige Verfahren generiert werden, um z.b. denselben Autor (Dallan Quass D. Quass) oder dieselbe Konferenz (Conference on Parallel and Distributed Information Systems PDIS) zu identifizieren. Konsistenz der Daten Ferner kann nicht von einer völligen Korrektheit der in den Quellenangaben enthaltenen Daten (1996 '95) ausgegangen werden. Bei solchen Inkonsistenzen muss in den meisten Fällen ein Mensch zur Korrektur herangezogen werden. Fehlerhaftigkeit der Daten Fehlerhafte Daten, die durch Tippfehler (maintanable), Rechtschreibfehler oder Import-Fehler entstehen, sind ein weiteres großes Problem für die Data Cleaning Verfahren. Rechtschreibkorrekturen oder Ähnlichkeitsmaße wie die Levenshtein- Distanz können in vielen Fällen diese Probleme minimieren. Aber gerade bei Eigen-
4 oder Ortsnamen muss auf die Exaktheit der Daten größter Wert gelegt und somit muss die Wahl der Verfahren durch mehrere Testreihen gestützt werden. Unterschiedliche Informationen Die letzte große Problemstellung sind unterschiedliche Informationen in den Quellenangaben (Ortsangabe keine Ortsangabe). Ihnen kann meist auch nur durch Miteinbeziehen eines Menschen entgegnet werden. 2.1 Declarative Data Cleaning Die Ergebnisse aller bis zum Erscheinen des Papers genutzten Data Cleaning Ansätze und Tools zeigten laut den Autoren bei der Analyse mehrere Unzulänglichkeiten. So war es mit keinem der damaligen Tools möglich, z.b. ein Auftreten von Inkonsistenzen (1996 '95) während des Analyseprozesses zu beheben. Die Änderungen konnten nur aus Logfiles ausgelesen werden und im Nachhinein (halb-)automatisch bzw. manuell vorgenommen werden Nutzerinteraktion während dieses bis dato unidirektionalen Prozesses war nicht vorgesehen. Ferner waren die Spezifikation der Funktionen und deren Implementierung so sehr miteinander verwoben, dass bei kleinen Änderungen große Teile des Codes neu geschrieben werden mussten oder ein Austausch eines Algorithmusses die Anpassung der Spezifikation nach sich zog. Diese Unzulänglichkeiten ließen die Autoren bei der Entwicklung ihres Frameworks ihr Hauptaugenmerk auf die Punkte und lenken: Trennung von logischer Spezifikation und physischer Implementierung Die Trennung von logischer Spezifikation und physischer Implementierung ermöglicht, dass ein Problem beschrieben werden kann, ohne erklären zu müssen, wie die passenden Berechnungen aussehen. Der Fokus liegt also nicht wie bei anderen Data Cleaning Tools darauf, wie etwas zu geschehen hat oder was zu tun ist, sondern nur noch darauf, welches Ergebnis gewünscht ist (ähnlich zu Prolog oder SQL).
5 Abbildung 1 Datenflussdiagramm mit logischer und physischer Ebene für bibliographische Daten anhand des Citeseer Beispiels Logische Spezifikation In der logischen Spezifikation wird ein Datenflussdiagramm mit Hilfe von logischen Operatoren (Mapping, Matching, Clustering, Merging, View siehe Kapitel 3) erstellt, um aus den zuvor unsauberen Publikationsdaten (Dirty Data) eine Liste von sauberen Publikationen (Publications) zu erstellen. Ein Datenflussdiagramm für das Säubern der Citeseer-Daten würde wie Abbildung 1 aussehen (Ziffern beziehen sich auf Abbildung): 1. Füge jedem Datensatz einen eindeutigen Schlüssel hinzu 2. Extrahiere aus jedem Datensatz die Namen der Autoren, Titel der Veröffentlichung, Name der Veranstaltung und die Beziehung von Autor und Titel 3. Extrahiere aus jedem Datensatz die Ausgabe, Nummer, Land, Stadt, Seitenanzahl, Jahr und URL. Nutze anschließend eigene Wörterbücher (Cities, Countries), um die Einträge auf einen gemeinsamen, in den Wörterbüchern festgelegten, Nenner zu bringen. 4. Eliminiere Duplikate 5. Füge die Einträge zusammen In Abbildung 2 ist der Data Cleaning Prozess genau aufgezeigt und die zum Bereinigen der Publikationsdaten benötigten Tabellen und die Ergebnis-Tabelle Publications zu sehen.
6 Abbildung 2 - Data Cleaning Prozess am Beispiel von Citeseer Physische Implementierung Die physische Ebene bezieht sich auf die Implementierung der hinter den logischen Operatoren stehenden Funktionen. Wie genau diese Funktionen aussehen oder wie ihr Quellcode aussieht kann dem Nutzer egal sein er muss sich wie beim Anfragen einer SQL- Datenbank nur um die logische Ebene kümmern (Query formulieren) und könnte später die Optimierung der dahinter stehenden Algorithmen angehen ohne die Anfrage umformulieren zu müssen. Ferner kann er zwischen verschiedenen Funktionen (für Matching z.b. Nested Loop oder Neighborhood Join) wählen solche mit denen er denkt, optimale (sowohl nach Qualitätsals auch nach Performanz-Kriterien) Ergebnisse zu erzielen User Interaction Bei bis dato vorhandenen Data Cleaning Systemen wurden Datensätze, die nicht korrekt bereinigt werden konnten, in eine Logdatei geschrieben. Manche zur Bereinigung von Daten nötige Schritte des Data Cleaning Prozesses konnten/können nicht automatisch vom System vorgenommen werden. Je größer also die zu bereinigende Datenmenge, desto größer wurde auch die Logdatei. Mit Hilfe von Dialogen (z.b oder 1995 korrekt? ), Exceptions und Backtracking (Zurückverfolgen der Anfragen) versucht das AJAX-System hingegen schon während der Analyse den User mit in den Data Cleaning Prozess einzubeziehen. Falls Fehler im Prozess auftreten, wird nicht wie bei anderen Systemen die Arbeit unterbrochen (oder die Logdatei erweitert), sondern dem Nutzer nur das Auftreten mitgeteilt. Er kann somit die Effektivität und Effizienz seines vorher festgelegten Datenflussdiagramms weiter steigern.
7 3 Specification Language 3.1 Mapping Der Mapping-Operator arbeitet die Daten für die weitere Verarbeitung auf. Falls kein Unique- Key vorhanden ist, erzeugt er einen und fügt ihn dem Eintrag hinzu falls nicht übernimmt er den vorhandenen. Formale Spezifikation: CREATE MAPPING <operation-name> FROM <predicate-name> [<alias-variable>] [LET <let-clause>] [WHERE <where-clause>] <select-into-clause> Citeseer-Funktion (siehe Abbildung 1 Ziffer 1): CREATE MAPPING AddKeytoDirtyData FROM DirtyData LET Key = generatekey(dirtydata.paper) {SELECT Key.gernerateKey AS paperkey, DirtyData.paper AS paper INTO KeyDirtyData} 3.2 Matching Der Matching-Operator sucht nach Einträgen, die wahrscheinlich das gleiche Objekt beschreiben. Die Übereinstimmungskriterien können ein oder mehrere Einträge sein. Formale Spezifikation: CREATE MATCHING <operation-name> FROM (<predicate-name> [<alias-variable>])+ [LET <let-clause>] [WHERE <where-clause>] INTO <predicate-name> Citeseer-Funktion (Siehe Abbildung 1 Ziffer 4): CREATE MATCHING MatchDirtyAuthors FROM DirtyAuthors a1, DirtyAuthors a2 LET distance = editdistanceauthors(a1.name, a2.name)
8 WHERE distance < maxdist(a1.name, a2.name, 15) INTO MatchAuthors 3.3 Clustering Der Clustering-Operator gruppiert Einträge, deren Ähnlichkeitswert einen vorgegebenen Schwellenwert übersteigt. Formale Spezifikation: CREATE CLUSTERING <operation-name> FROM <predicate-name> [<alias-variable>] BY METHOD <method-name> WITH PARAMETERS <parameter-name> [{<parameter-name}] INTO <predicate-name> Citeseer-Funktion (Siehe Abbildung 1 Ziffer 4): CREATE CLUSTERING clusterauthorsbytransitiveclosure FROM MatchAuthors BY METHOD transitive closure WITH PARAMETERS authorkey1, authorkey2 INTO clusterauthors 3.4 Merging Der Merging-Operator fügt die durch den Clusteralgorithmus berechneten Gruppen zu jeweils einem Eintrag zusammen. Formale Spezifikation: CREATE MERGING <operation-name> USING <predicate-name> [<alias-variable>] LET <let-clause> [WHERE <where-clause>] <select-into-clause> Citeseer-Funktion (Siehe Abbildung 1 Ziffer 4): CREATE MERGING MergeAuthors USING clusterauthors(cluster_id) ca LET name = getlongestauthorname(dirtyauthors(ca).name) key = generatekey()
9 {SELECT key AS authorkey, name AS name INTO Authors} 3.5 View Der View-Operator arbeitet die Inhalte aus verschiedenen Relationen zu einer neuen Relation so auf, dass sie einem gewünschten Ausgabeformat entsprechen. Formale Spezifikation: CREATE VIEW <operation-name> FROM (<predicate-name> [<alias-variable>])+ [WHERE <where-clause>] {<select-into-clause>} Citeseer-Funktion (Siehe Abbildung 1 Ziffer 5): CREATE VIEW viewpublications FROM DirtyPubs p, Titles t WHERE p.pubkey AS pubkey {SELECT p.pubkey AS pubkey, t.title AS title, t.eventkey AS eventkey, p.volume AS volume, p.number AS number, p.country AS country, p.city AS city, p.pages AS pages,... INTO Publications CONSTRAINT NOT NULL title}
10 4 Fazit Das in dem Paper beschriebene Verfahren ist eine zur damaligen Zeit konsequente Weiterentwicklung der bestehenden Verfahren. Es wurde ein Data Cleaning Framework entwickelt, welches die größten Schwachpunkte (Trennung von logischer Spezifikation und physischer Implementierung) der bisherigen Produkte angeht und um neue Ideen (User Interaction) erweitert. Leider hat der Prototyp nie das Licht der freien Welt erblick und wurde trotz viel versprechender Ansätze und scheinbar sehr gut funktionierendem Prototyp nicht wie versprochen (siehe [2]) der breiten Masse zugänglich gemacht. Allerdings wurde das Anwendungsgebiet von Declarative Data Cleaning enorm eingeschränkt obwohl es eigentlich eine Erweiterung darstellen sollte. Es arbeitet nur auf bereits strukturierten Daten und muss ferner das Schema dieser Daten im Vorhinein kennen, um darauf seine Operationen anwenden zu können. Wie aber unstrukturierte Daten behandelt und abgeglichen werden können, wird in diesem Paper nicht behandelt. Ferner ist die PhD Thesis [2] der Hauptautorin Helena Galhardas auch die letzte Veröffentlichung im Hinblick auf Declarative Data Cleaning. Wenn es also die Lösung der Data Cleaning Bewegung gewesen wäre, hätten weitere Entwicklungen und darauf basierende Veröffentlichungen folgen müssen auch von Fremdautoren. Summa summarum ist die Arbeit von Galhardas, Florescu, Shasha, Simon und Saita also zwar ein logischer Schritt der Weiterentwicklung von bestehenden Verfahren, der aber irgendwann sowieso kommen musste.
11 5 Quellen: [1] Helena Galhardas, Daniela Florescu, Dennis Shasha, Eric Simon, Cristian-Augustin Saita: Declarative Data Cleaning: Language, Model, and Algorithms, 10S., in VLDB '01: Proceedings of the 27th International Conference on Very Large Data Bases, [2] Helena Galhardas: Data Cleaning: Model, Declarative Language, and Algorithms, PhD Thesis, 146S., University Versailles Saint-Quentin-en-Yvelines, 17 September 2001,
Declarative Data Cleaning
Declarative Data Cleaning Vortragsgrundlage: Helena Galhardas, Daniela Florescu, Dennis Shasha, Eric Simon, Cristian Augustin Saita: Declarative Data Cleaning: Language, Model, and Algorithms, in VLDB
MehrISU 1. Ue_08/02_Datenbanken/SQL. 08 Datenbanken. Übung. SQL Einführung. Eckbert Jankowski. www.iit.tu-cottbus.de
08 Datenbanken Übung SQL Einführung Eckbert Jankowski www.iit.tu-cottbus.de Datenmodell (Wiederholung, Zusammenfassung) Objekte und deren Eigenschaften definieren Beziehungen zwischen den Objekten erkennen/definieren
MehrDatenintegration als automatisierter Prozess
Datenintegration als automatisierter Prozess Hauptseminar Tom Schöner tom.schoener@haw-hamburg.de Department Informatik, Informatik Master 12.06.2018 1 Inhaltsübersicht Einführung Thema und Fragestellungen
MehrGrundlagen von SQL. Informatik 2, FS18. Dr. Hermann Lehner (Material von Dr. Markus Dahinden) Departement Informatik, ETH Zürich
Grundlagen von SQL Informatik 2, FS18 Dr. Hermann Lehner (Material von Dr. Markus Dahinden) Departement Informatik, ETH Zürich Markus Dahinden 13.05.18 1 Grundlagen von SQL (Structured Query Language)
MehrIntroduction to Data and Knowledge Engineering. 6. Übung SQL
Introduction to Data and Knowledge Engineering 6. Übung SQL Aufgabe 6.1 Datenbank-Schema Buch PK FK Autor PK FK ISBN Titel Preis x ID Vorname Nachname x BuchAutor ISBN ID PK x x FK Buch.ISBN Autor.ID FB
Mehr5/14/18. Grundlagen von SQL. Grundlagen von SQL. Google, Facebook und Co. setzen auf SQL. Whatsapp
5/14/18 Grundlagen von SQL (Structured Query Language) Datenbanksprache Befehle Datenbanken und Tabellen erstellen/verändern Daten manipulieren (eingeben, ändern, löschen) Datenbank durchsuchen (Queries
MehrWS 2010/11 Datenbanksysteme Fr 15:15 16:45 R 1.008. Vorlesung #5. SQL (Teil 3)
Vorlesung #5 SQL (Teil 3) Fahrplan Besprechung der Übungsaufgaben Rekursion Rekursion in SQL-92 Rekursion in DBMS- Dialekten (Oracle und DB2) Views (Sichten) - gespeicherte Abfragen Gewährleistung der
MehrIntegration, Migration und Evolution
14. Mai 2013 Programm für heute 1 2 Quelle Das Material zu diesem Kapitel stammt aus der Vorlesung Datenintegration & Datenherkunft der Universität Tübingen gehalten von Melanie Herschel im WS 2010/11.
MehrDatenbanken. Seminararbeit. Einführung in das wissenschaftliche Arbeiten
Seminararbeit vorgelegt von: Gutachter: Studienbereich: Christian Lechner Dr. Georg Moser Informatik Datum: 6. Juni 2013 Inhaltsverzeichnis Inhaltsverzeichnis 1 Einführung in Datenbanken 1 1.1 Motivation....................................
MehrData-Warehouse-Technologien
Data-Warehouse-Technologien Prof. Dr.-Ing. Kai-Uwe Sattler 1 Prof. Dr. Gunter Saake 2 1 TU Ilmenau FG Datenbanken & Informationssysteme 2 Universität Magdeburg Institut für Technische und Betriebliche
MehrVisualisierung in Informatik und Naturwissenschaften
Visualisierung in Informatik und Naturwissenschaften Datenbankvisualisierung Sven Bernhard 12.06.1999 Datenbankvisualisierung Datenbanktheorie in 5 Minuten Visualisierung vs. Datenbanken Visualisierung
Mehrmit konventionellen Datenbanksystemen konventionellen Datenbanksystemen
Stream-Verwaltung mit konventionellen Datenbanksystemen Christian Rensch.06.005 Seminar Data Streams Thema Verwaltung von Datenströmen in konventionellen Datenbanksystemen optimiert auf Daten geringer
MehrBerechnung von Kennzahlen mit der SQL Model Clause
Berechnung von Kennzahlen mit der Thomas Mauch 12.07.2018 DOAG BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 1 AGENDA 1. Einführung 2. Syntax 3. Performance
MehrTipps & Tricks: Umkodieren von ICD-9-Daten Daten zu ICD-10 in SAS mittels PROC SQL
Tipps & Tricks: Umkodieren von ICD-9-Daten Daten zu ICD-10 in SAS mittels PROC SQL Andreas Deckert Institute of Public Health, Universität Heidelberg Problemstellung Mortalitäts-Follow-Up einer Kohorte
MehrFachPraktikum 1590 Erweiterbare Datenbanksysteme. Aufgaben Phase 1
FachPraktikum 1590 Erweiterbare Datenbanksysteme Aufgaben Phase 1 Wintersemester 2004/2005 Ralf Hartmut Güting, Dirk Ansorge, Thomas Behr, Markus Spiekermann Praktische Informatik IV, Fernuniversität Hagen
MehrSchemamerging und -mapping
Schemamerging und -mapping Seminar Informationsqualität und -integration, 30.06.2006 Überblick Schemaintegration / Einleitung Ziele Integrationskonflikte Integrationstechniken Multidatenbankanfragesprachen
MehrIn diesem Abschnitt wollen wir uns mit der Architektur von Datenbank Managements Systemen beschäftigen.
1 In diesem Abschnitt wollen wir uns mit der Architektur von Datenbank Managements Systemen beschäftigen. Zunächst stellt sich die Frage: Warum soll ich mich mit der Architektur eines DBMS beschäftigen?
Mehr1 Relationenalgebra [8 P.] Gegeben seien die folgenden Relationenschemata: Hafen(HNR, Ort, Grundsteinlegung)
1 Relationenalgebra Gegeben seien die folgenden Relationenschemata: [8 P.] Hafen(HNR, Ort, Grundsteinlegung) Matrose(MNR, Nachname, Geburtsdatum, Ausbildungsort Hafen.HNR) Schi(SNR, Name, Bruttoregistertonnen,
MehrWiederholung VU Datenmodellierung
Wiederholung VU Datenmodellierung VU Datenbanksysteme Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Wintersemester
MehrDomänen: Grundtypen, alle vordefiniert, z.b. INTEGER ~ integer NUMERIC (p,s) p: precision, s: scale (nach,) etc.
Kapitel 6 Relationale DB-Sprache SQL SEQUEL: Structured English Query Language, 70er Jahre SQL: System R, SQL/DS, TransBase, Oracle... ANSI Standards 1, 2, 3 6.1 Daten-Definitionssprache DDL Domänen: Grundtypen,
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Grundlagen: Datenbanken im WS16/17 Harald Lang, Linnea Passing (gdb@in.tum.de
MehrDatenbanken Unit 9: OLAP, OLTP und objektrelationale Datenbanken
Datenbanken Unit 9: OLAP, OLTP und objektrelationale Datenbanken 31. V. 2016 Outline 1 Organisatorisches 2 SQL 3 OLTP, OLAP, SAP, and Data Warehouse OLTP and OLAP SAP 4 Objekt-relationale Datenbanken Beispiel
MehrGrundlagen von Datenbanken
Grundlagen von Datenbanken Aufgabenzettel 4 SQL-Anfragen Überblick: DB-Entwurf und Modellierung Konzeptioneller Entwurf Anforderungen Informationsmodell PNr. Vorname Nachname Geb.Datum Person n Datum kaufen
MehrBig Data Management Thema 14: Cassandra
Thema 14: Cassandra Jan Kristof Nidzwetzki Thema 14: Cassandra 1 / 25 Übersicht 1 Grundlagen Überblick Geschichte Datenmodel 2 Architektur Der logische Ring Persistenz der Daten Tunable Consistency Read
MehrDATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER
DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.
MehrACCESS SQL ACCESS SQL
ACCESS SQL Datenbankabfragen mit der Query-Language ACCESS SQL Datenbankpraxis mit Access 34 Was ist SQL Structured Query Language Bestehend aus Datendefinitionssprache (DDL) Datenmanipulationssprache
MehrFehlerbehandlung mittels DML Error Logging
Fehlerbehandlung mittels DML Error Logging Andreas Buckenhofer Daimler TSS GmbH Ulm Schlüsselworte DML Error Logging, DBMS_ERRLOG, LOGGING / NOLOGGING, Direct Path Einleitung Eine satzbasierte Verarbeitung
MehrGROUP BY, HAVING und Sichten
GROUP BY, HAVING und Sichten Tutorübungen 09/33 zu Grundlagen: Datenbanken (WS 14/15) Michael Schwarz Technische Universität München 11.11 / 12.11.2014 1/12 GROUP BY HAVING Sichten Eine Tabelle studenten
MehrWiederholung VU Datenmodellierung
Wiederholung VU Datenmodellierung VL Datenbanksysteme Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Wintersemester
MehrEs geht also im die SQL Data Manipulation Language.
1 In diesem Abschnitt wollen wir uns mit den SQL Befehlen beschäftigen, mit denen wir Inhalte in Tabellen ( Zeilen) einfügen nach Tabelleninhalten suchen die Inhalte ändern und ggf. auch löschen können.
Mehrmit Musterlösungen Prof. Dr. Gerd Stumme, Dipl.-Inform. Christoph Schmitz 11. Juni 2007
6. Übung zur Vorlesung Datenbanken im Sommersemester 2007 mit Musterlösungen Prof. Dr. Gerd Stumme, Dipl.-Inform. Christoph Schmitz 11. Juni 2007 Aufgabe 1: Rekursion Betrachten Sie die folgende Tabelle
MehrÜbung PL/SQL Trigger Lösungen
Übung PL/SQL Trigger Lösungen 1) Gebe das aktuelle Datum aus. Wofür steht dual? Ändere das Datum für Deine aktuelle Session auf das Format Jahr (4 Stellen) Monat (2 Stellen) Tag (2 Stellen)[Leerzeichen]Stunde
Mehr7. XML-Datenbanksysteme und SQL/XML
7. XML-Datenbanksysteme und SQL/XML Native XML-DBS vs. XML-Erweiterungen von ORDBS Speicherung von XML-Dokumenten Speicherung von XML-Dokumenten als Ganzes Generische Dekomposition von XML-Dokumenten Schemabasierte
MehrEine neue Datenbank erstellen
Eine neue Datenbank erstellen Eine neue Datenbank erstellen Eine Tabelle in der Entwurfsansicht erstellen Eine Tabelle in der Entwurfsansicht erstellen Eine Tabelle in der Entwurfsansicht erstellen Das
MehrInnovationslabor Semantische Integration von Webdaten
Innovationslabor Semantische Integration von Webdaten Workflow-basierte Datenintegration und Objekt-Matching Dr. Andreas Thor http://dbs.uni-leipzig.de/format Workflow-basierte Datenintegration Ausgangspunkt
MehrNachtrag: Farben. Farbblindheit. (Light und Bartlein 2004)
Nachtrag: Farben Farbblindheit (Light und Bartlein 2004) 1 Vorgeschlagene Farbskalen (Light and Bartlein 2004) Farbkodierung metrisch skalierter Daten Unterscheide: 1. Sequential Data (ohne Betonung der
MehrDisclaimer. 1 Allgemeine Grundlagen (8 Punkte) (3 Punkte) (3 Punkte) (2 Punkte)... 2
Disclaimer Dieser Braindump ist nach bestem Wissen und Gewissen erstellt, dennoch kann für Richtigkeit nicht garantiert werden. Siehe auch den zugehörigen Thread im FSI-Forum. Alle Aufgaben sind selbstverständlich
MehrT:\Dokumentationen\Asseco_BERIT\Schulung\BERIT_LIDS7_Basiskurs\Impo rt_export\beritde_lt_do_20120918_lids7.basisschulung_import_export.
LIDS 7 Import/Export Mannheim, 11.02.2013 Autor: Anschrift: Version: Status: Modifiziert von: Ablage: Christine Sickenberger - Asseco BERIT GmbH Asseco BERIT GmbH Mundenheimer Straße 55 68219 Mannheim
MehrEin XML Dokument zeichnet sich im Wesentlichen durch seine baumartige Struktur aus:
RDF in wissenschaftlichen Bibliotheken 5HWULHYDODXI5') Momentan existiert noch keine standardisierte Anfragesprache für RDF Dokumente. Auf Grund der existierenden XML Repräsentation von RDF liegt es jedoch
MehrNICHT TRIVIAL: MAKROVARIABLEN - GLOBAL ODER LOKAL
WEBINAR@LUNCHTIME NICHT TRIVIAL: MAKROVARIABLEN - GLOBAL ODER LOKAL FRAGE Antworten EINSTIEGSFRAGE Wie werden die Makrovariablen durch Call Symput erstellt Global, lokal, teils-teils oder gar nicht? %macro
MehrDatenbanken und Informationssysteme II (PO B.3)
Datenbanken und Informationssysteme II (PO B.3) Szenario Öffentlicher Nahverkehr: Es gibt Haltestellen, Streckenabschnitte, Linien und Fahrzeiten. Ein Streckenabschnitt ist die direkte Verbindung zwischen
MehrVIEWS UND WEITERE TABELLEN-OPERATIONEN
KAPITEL 9 VIEWS UND WEITERE TABELLEN-OPERATIONEN 9.1 Vereinbarung und Einsatz von Views 9.1.1 Einrichtung von Views Die CREATE VIEW-Anweisung Von Ausnahmen abgesehen ist es wie wir zuvor erläutert haben
MehrA Datendenition in SQL ( Punkte)
A Datendenition in SQL (5 + 2 + 1 Punkte) Eine Sportredaktion verwaltet die Ergebnisse der Fuball-Bundesliga in einer Datenbank mit folgendem Schema: Mannschaften (MannschaftID, MannschaftName) Spiele
MehrDomain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing
SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0
MehrSQL - Datenbankdesign - Aufbau
SQL - Datenbankdesign - Aufbau Kompakt-Intensiv-Training Unsere fünftägige ANSI SQL Schulung vermittelt Ihnen alle nötigen Kenntnisse zur Erstellung von Datenauswertungen und Programmierung wiederkehrender
MehrABP Wo steckt der Fehler in der SQL-Anfrage? Semantische Prüfung von Lösungen Prof. Dr. Inga Marina Saatz
ABP 017 Wo steckt der Fehler in der SQL-Anfrage? Semantische Prüfung von Lösungen 017 - Prof. Dr. Inga Marina Saatz Inhaltsübersicht Prof. Inga M. Dr. Saatz I. Saatz Datenbanken SQLearn 1 Fachbereich ABP
Mehr[ SQL] Wissen, das sich auszahlt
[www.teia.de SQL] Wissen, das sich auszahlt INHALT SEITE 12 [I] 1] Einführung in SQL und relationale Datenbanken 12 14 16 18 11 1.1 1.2 Einführung Die Structured Query Language (SQL) Tabellen Mehrere Tabellen
MehrLogische Optimierung. Im Allgemeinen wird keine optimale Lösung erzielt, sondern nur eine Verbesserung. Logische Optimierung
Logische Optimierung Höhere, nichtprozedurale Abfragesprachen (SQL, QBE,...) verlangen keine Kenntnisse des Benutzers über die Implementierung, müssen aber in prozedurale Form (z. B. Relationenalgebra)
Mehrd.h. zu Definitions-Stelle eindeutiger Funktionswert x X! y Y : (x,y) f umgekehrt: (x 1,y), (x 2,y) f ist o.k. X Y f(x) = y
Kapitel 7 Normalformen und DB-Entwurf Kap. 7.1 Normalformen Theorie Funktionale Abhängigkeit: f X Y f als Relation, d.h. Menge von Paaren {(x,y)} x: Definitions-Stelle, y: Funktionswert f ist Funktion
MehrEinführung in SQL. Sprachumfang: Indizes. Datensätzen. Zugriffsrechten
Einführung in SQL Die Sprache SQL (Structured Query Language) ist eine Programmiersprache für relationale Datenbanksysteme, die auf dem ANSI-SQL-Standard beruht. SQL wird heute von fast jedem Datenbanksystem
MehrInformationsintegration Beispiel
Informationsintegration Beispiel 17.4.2007 Felix Naumann Informationsintegration 2 Web Service A Web Service B Federated Database Systems Amit Sheth
MehrEntwicklung eines Tutorials für XQuery
Informatik Dimitar Menkov Entwicklung eines Tutorials für XQuery Development of a Tutorial for XQuery Masterarbeit Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Bibliothek
MehrLösung zu Aufgabe 6. Lösung:
Lösung zu Aufgabe 6 1.Ihre Aufgabe ist es nun, diese Daten in das bestehende Datenbank-Schema zu integrieren und dazu die entsprechenden Tabellen zu erstellen. Abgabe: neue Tables 2 P Lösung: CREATE TABLE
MehrFEHLERTOLERANTE LADEPROZESSE IN ORACLE
FEHLERTOLERANTE LADEPROZESSE IN ORACLE GEGEN SCHLAFLOSE NÄCHTE DOAG BI Konferenz 2012 Dani Schnider Trivadis AG München, BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN
MehrFakultät für Informatik & Wirtschaftsinformatik DB & IS II - WS Metadaten. Andreas Schmidt Metadaten 1/17
Metadaten Andreas Schmidt Metadaten 1/17 Metadaten Metadaten sind Daten über Daten Data-Dictionary speichert Informationen über die Struktur der Daten, z.b.: Tabellen, Spalten, Datentypen Primär- und Fremdschlüssel,
MehrDatenbanken und Informationssysteme II
Fakultät für Informatik und Wirtschaftsinformatik SS 2012 Datenbanken und Informationssysteme II Szenario: Stundenplan. Es gibt Dozenten, Veranstaltungen (Typ: V(orlesung), U(ebung) und L(abor)), die jeweils
MehrZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE
ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE Indexierungsstrategie im Data Warehouse Dani Schnider, Trivadis AG DOAG Konferenz, Nürnberg BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR.
MehrPraktische SQL-Befehle
Praktische SQL-Befehle Datenbanksysteme I WiSe 2018/2019 Todor Ivanov DB1 WS2018 1 Praktische SQL-Befehle Nested Selects Inserts Updates Views Triggers Constraints Functions Voraussetzung: Laptop + MySQL/
MehrMicrosoft Access 2010 SQL nutzen
Microsoft Access 2010 SQL nutzen Welche Bestellungen hat Kunde x aufgegeben? Welche Kunden haben noch nie bestellt? Wer hat welche Bestellungen von welchen Kunden aufgenommen? S(tructured)Q(uery)L(anguage)
MehrAufbau und Bestandteile von Formularen. Oracle Forms. Erstellen eines neuen Blocks (1) Starten von Oracle Forms
Oracle Forms Oracle Forms ist eine Applikation für den Entwurf und die Erstellung Forms-basierender Anwendungen. Diese Forms umfassen Dateneingabe-Formulare Datenabfrage-Formulare Browser-Formulare Oracle
MehrAlgorithmen zur Berechnung der Transitiven Hülle einer Datenbankrelation
Algorithmen zur Berechnung der Transitiven Hülle einer Datenbankrelation Daniel Reinhold Shenja Leiser 6. Februar 2006 2/28 Gliederung Einführung Transitive Hülle Definition Iterative Algorithmen 1. Naive
MehrGrundzüge und Vorteile von XML-Datenbanken am Beispiel der Oracle XML DB
Grundzüge und Vorteile von XML-Datenbanken am Beispiel der Oracle XML DB Jörg Liedtke, Oracle Consulting Vortrag zum Praxis-Seminar B bei der KIS-Fachtagung 2007, Ludwigshafen Agenda
MehrDB I S. 1 Relationenalgebra [8 P.] Gegeben seien die folgenden Relationenschemata: Person(PNR, Vorname, Nachname, Geburtsdatum, Wohnort Ort.
1 Relationenalgebra Gegeben seien die folgenden Relationenschemata: [8 P.] Person(PNR, Vorname, Nachname, Geburtsdatum, Wohnort Ort.ONR) Jugendherberge(JNR, Name, Ort Ort.ONR, Manager Person.PNR) Ort(ONR,
MehrAuf einen Blick. Abfrage und Bearbeitung. Erstellen einer Datenbank. Komplexe Abfragen. Vorwort... 13
Auf einen Blick Vorwort... 13 Teil 1 Vorbereitung Kapitel 1 Einleitung... 17 Kapitel 2 SQL der Standard relationaler Datenbanken... 21 Kapitel 3 Die Beispieldatenbanken... 39 Teil 2 Abfrage und Bearbeitung
MehrDatenbanken. Zusammenfassung. Datenbanksysteme
Zusammenfassung Datenbanksysteme Christian Moser Seite 1 vom 7 12.09.2002 Wichtige Begriffe Attribut Assoziation API Atomares Attribut Datenbasis DBMS Datenunabhängigkeit Datenbankmodell DDL DML DCL ER-Diagramm
MehrDatenbanken Unit 9: OLAP, OLTP und objektrelationale Datenbanken
Datenbanken Unit 9: OLAP, OLTP und objektrelationale Datenbanken 17. V. 2017 Outline 1 Organisatorisches 2 SQL 3 OLTP, OLAP, SAP, and Data Warehouse OLTP and OLAP SAP 4 Objekt-relationale Datenbanken Beispiel
MehrKompetenzen Modellieren und Implementieren Visualisieren und Präsentieren Problemlösen Begründen und Bewerten Kommunizieren und Kooperieren
Funktionale Modellierung und Tabellenkalkulation Modelle und Modellbildung in der Informatik Funktionaler Modellierung (Funktionen, Parameter, Datenflussdiagramme Grundprinzipien eines Tabellenkalkulationssystems
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einleitung... 15
Vorwort..................................................... 13 Kapitel 1 Einleitung.......................................... 15 Kapitel 2 SQL der Standard relationaler Datenbanken... 19 2.1 Die Geschichte................................
Mehr4. Objektrelationales Typsystem Kollektionstypen. Nested Table
Nested Table Bei einer Nested Table handelt es sich um eine Tabelle als Attributwert. Im Gegensatz zu Varray gibt es keine Beschränkung bei der Größe. Definition erfolgt auf einem Basistyp, als Basistypen
MehrBeispiel zur referentiellen Integrität
3. Der SQL-Standard 3.14. Integrität und Trigger Seite 1 Beispiel zur referentiellen Integrität CREATE TABLE T1( k1 NUMERIC NOT NULL PRIMARY KEY); CREATE TABLE T2( k2 NUMERIC NOT NULL PRIMARY KEY, k1 NUMERIC,
MehrHistorisierung und Versionierung
DOAG NRW-Regionaltreffen 7. Juli 2005, Aachen Historisierung und Versionierung für ein bestehendes Datenmodell ohne Änderung der Anwendung Martin Friemel, Martin Kubitza Enterprise Web AG, Duisburg fon
MehrAuf einen Blick. Abfrage und Bearbeitung. Erstellen einer Datenbank. Komplexe Abfragen. Vorwort 13
Auf einen Blick Vorwort 13 Teil 1 Vorbereitung Kapitel 1 Einleitung 17 Kapitel 2 SQL - der Standard relationaler Datenbanken 21 Kapitel 3 Die Beispieldatenbanken 39 Teil 2 Abfrage und Bearbeitung Kapitel
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 7 Übung zur Vorlesung Grundlagen: Datenbanken im WS13/14 Henrik Mühe (muehe@in.tum.de) http://www-db.in.tum.de/teaching/ws1314/dbsys/exercises/
MehrDatenzugriffskomponente mit JPA 2.1
Datenzugriffskomponente mit JPA 2.1 (Grundlagen der Java Persistence Architecture) Vladislav Faerman Gliederung Einführung Konfiguration Objekt-Relationales Mapping (ORM) mit JPA Das zentrale Konzept der
Mehr/26
7 8 3 3 7 2 8 2 8. /2 Sudoku 2 2 3 3 7 7 8 8 8 Füllen Sie die leeren Felder so aus, dass in jeder Zeile, in jeder Spalte und in jedem 3x3 Kästchen alle Zahlen von bis stehen.. 2/2 Warum? 7 8 3 3 7 2 8
MehrMigration einer relationalen Datenbank für annotierte Sprachdaten nach neo4j - erste Erfahrungen
Migration einer relationalen Datenbank für annotierte Sprachdaten nach neo4j - erste Erfahrungen Christoph Draxler, Magdalena Obermayer Institut für Phonetik und Sprachverarbeitung LMU München draxler@phonetik.uni-muenchen.de
MehrInhaltsverzeichnis. Vorwort 13. Kapitel 1 Einleitung 15
Vorwort 13 Kapitel 1 Einleitung 15 Kapitel 2 SQL-der Standard relationaler Datenbanken... 19 2.1 Die Geschichte 19 2.2 Die Bestandteile 20 2.3 Die Verarbeitung einer SQL-Anweisung 22 2.4 Die Struktur von
MehrCustomizing Datensicht erstellen. Erweiterung der Baumstruktur um eigene Sichten
Customizing Datensicht erstellen Erweiterung der Baumstruktur um eigene Sichten TITEL Customizing Datensicht erstellen AUTOR Docusnap Consulting DATUM 26.04.2017 Die Weitergabe, sowie Vervielfältigung
MehrProjektpraktikum MultimediaGrid
Projektpraktikum MultimediaGrid WS 2005/06 Carsten Saathoff Bernhard Tausch Agenda Motivation Aufgaben Zeitplan Vortragsthemen Auswahl des Managements Motivation Grid Wikipedia: Grid computing offers a
MehrPostgreSQL Ein Überblick
26. August 2007 Agenda Neue Funktionen im Bereich SQL, XML und Volltextsuche Geschwindigkeitsverbesserungen Neue Erweiterungen (contrib) XML (1) Neuer Datentyp xml ( well-formedness ) Viele Funktionen
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 06 Übung zur Vorlesung Grundlagen: Datenbanken im WS16/17 Harald Lang, Linnea Passing (gdb@in.tum.de
MehrData Warehousing. Sommersemester Ulf Leser Wissensmanagement in der Bioinformatik
Data Warehousing Sommersemester 2004 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte
MehrSQL für Trolle. mag.e. Dienstag, 10.2.2009. Qt-Seminar
Qt-Seminar Dienstag, 10.2.2009 SQL ist......die Abkürzung für Structured Query Language (früher sequel für Structured English Query Language )...ein ISO und ANSI Standard (aktuell SQL:2008)...eine Befehls-
MehrSudoku. Warum 6? Warum 6?
. / Sudoku Füllen Sie die leeren Felder so aus, dass in jeder Zeile, in jeder Spalte und in jedem x Kästchen alle Zahlen von bis stehen.. / Warum?. / Warum?. / Geschichte der Logik Syllogismen (I) Beginn
MehrMultimedia im Netz Wintersemester 2013/14. Übung 03 (Nebenfach)
Multimedia im Netz Wintersemester 2013/14 Übung 03 (Nebenfach) Ludwig-Maximilians-Universität München Multimedia im Netz WS 2013/14 - Übung 3-1 Datenbanken und SQL Mit Hilfe von Datenbanken kann man Daten
MehrOracle und SQL. Kursinhalte. Kompakt-Intensiv-Training. Oracle und SQL
Oracle und SQL Kompakt-Intensiv-Training In unsere Schulung "Oracle und SQL" erhalten Sie einen breitgefächerten Überblick über die fachmännische und effektive Nutzung der SQL-Implementierung in Oracle.
MehrDatenbanken Unit 9: OLAP, OLTP, Data Warehouse Ranking Algorithmen
Datenbanken Unit 9: OLAP, OLTP, Data Warehouse Ranking Algorithmen 28. V. 2018 Outline 1 Organisatorisches 2 OLTP, OLAP, SAP, and Data Warehouse OLTP and OLAP SAP 3 Ranking 4 SQL Organisatorisches Ergebnisse
MehrNeugestaltung der Datenbank des Chemnitzer Studentennetzes
12.12.2012 Neugestaltung der Datenbank des Chemnitzer Studentennetzes Verteidigung Bachelorarbeit Morris Jobke Prüfer: Dr. Frank Seifert Betreuer: Dipl.-Inf. Johannes Fliege Neugestaltung der Datenbank
MehrDaten, Datenbanken, Datenbankmanagmentsysteme
banken bankmanagmentsysteme Wikipedia sagt Bspe.: : sind zum Zweck der Verarbeitung zusammengefasste Zeichen, die aufgrund bekannter oder unterstellter Abmachungen Informationen tragen. 15.03.2012 als
MehrMicrosoft Access Abfragen. Verknüpfung von Tabellen
Microsoft Access Abfragen. Verknüpfung von Tabellen Welche Bestellungen hat Kunde... aufgegeben? Welche Kunden im Staat USA haben Waren im Wert von mindestens... bestellt? Welche Waren wurden nicht bestellt?
MehrPräsentation mongodb. David Wild
Präsentation mongodb David Wild 11.12.2012 Einleitung 2009 vom US-Startup 10gen als Open-Source-Lösung vorgestellt Einleitung 2009 vom US-Startup 10gen als Open-Source-Lösung vorgestellt Name stammt aus
MehrÜbersicht der wichtigsten MySQL-Befehle
Übersicht der wichtigsten MySQL-Befehle 1. Arbeiten mit Datenbanken 1.1 Datenbank anlegen Eine Datenbank kann man wie folgt erstellen. CREATE DATABASE db_namen; 1.2 Existierende Datenbanken anzeigen Mit
MehrDB I S. 1 Referentielle Aktionen [10 P.] Gegeben sei folgende Datendefinition:
1 Referentielle Aktionen Gegeben sei folgende Datendefinition: [10 P.] CREATE TABLE Wissenschaftler( SVNr int PRIMARY KEY, Vorname varchar(25) NOT NULL, Nachname varchar(25) NOT NULL, Gehalt int NOT NULL
MehrAufgabe 1: Min-Hashing
Aufgabe 1: Min-Hashing In dieser Aufgabe geht es darum, Kunden auf Grund ihrer bestellten Teile zu vergleichen. Kunden werden im TPC-H-Schema etwa durch die Spalte c_custkey in der Tablle customer identifiziert,
MehrAnwendungsentwicklung Datenbanken SQL. Stefan Goebel
Anwendungsentwicklung Datenbanken SQL Stefan Goebel SQL Structured Query Language strukturierte Abfragesprache von ANSI und ISO standardisiert deklarativ bedeutet was statt wie SQL beschreibt, welche Daten
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 05 Übung zur Vorlesung Grundlagen: Datenbanken im WS16/17 Harald Lang, Linnea Passing (gdb@in.tum.de
MehrEclipse und EclipseLink
Eclipse und EclipseLink Johannes Michler Johannes.Michler@promatis.de PROMATIS, Ettlingen Zugriff auf Oracle Datenbanken aus Eclipse RCP Anwendungen via EclipseLink 18.09.2009 1 Gliederung Eclipse als
MehrEinführung SQL Data Definition Language (DDL)
Innsbruck Information System University of Innsbruck School of Management Universitätsstraße 15 6020 Innsbruck Einführung SQL Data Definition Language (DDL) Universität Innsbruck Institut für Wirtschaftsinformatik,
MehrOracle 10g Einführung
Kurs Oracle 10g Einführung Teil 5 Einführung Timo Meyer Administration von Oracle-Datenbanken Timo Meyer Sommersemester 2006 Seite 1 von 16 Seite 1 von 16 Agenda 1 Tabellen und Views erstellen 2 Indizes
Mehr