Ziele. Datenbankanwendung. Wintersemester 2010/2011. TU Kaiserslautern Fachbereich Informatik Postfach 3049 67653 Kaiserslautern



Ähnliche Dokumente
Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Der Begriff Cloud. Eine Spurensuche. Patric Hafner geops

Zend PHP Cloud Application Platform

Cnlab / CSI Herbsttagung 2014 WAS IST CLOUD UND WAS NICHT?

Unternehmen-IT sicher in der Public Cloud

Lizenzierung von System Center 2012

JONATHAN JONA WISLER WHD.global

Daten haben wir reichlich! The unbelievable Machine Company 1

DBS 1 DBS1. Prof. Dr. E. Rahm. Lehrveranstaltungen zu Datenbanken (WS 09/10) Wintersemester 2009/2010. Universität Leipzig Institut für Informatik

Emil Dübell EDConsulting

Prüfungsberatungs-Stunde Datenbanksysteme 1 (Dbs1)

Mythen des Cloud Computing

Open Source als de-facto Standard bei Swisscom Cloud Services

Microsoft Azure Fundamentals MOC 10979

Trend Micro Lösungen im Storage Umfeld

Datenbanksysteme 1. Organisation. Prof. Stefan F. Keller. Ausgabe Copyright 2005 HSR SS 2005

Der Cloud Point of Purchase. EuroCloud Conference, 18. Mai 2011 (Christoph Streit, CTO & Co-Founder ScaleUp)"

Secure Cloud - "In-the-Cloud-Sicherheit"

WS 2002/03. Prof. Dr. Rainer Manthey. Institut für Informatik III Universität Bonn. Informationssysteme. Kapitel 1. Informationssysteme

arlanis Software AG SOA Architektonische und technische Grundlagen Andreas Holubek

Braucht Social TV ein neues Interface? Felix Segebrecht

Apache HBase. A BigTable Column Store on top of Hadoop

Einführung in Datenbanken

Markus BöhmB Account Technology Architect Microsoft Schweiz GmbH

Datenbanken. Prof. Dr. Bernhard Schiefer.

Allgemeines zu Datenbanken

Cloud Architektur Workshop

Carl-Christian Kanne. Einführung in Datenbanken p.1/513

Wo finde ich die Software? - Jedem ProLiant Server liegt eine Management CD bei. - Über die Internetseite

It's all in the Cloud! Cloud Computing Grundlagen

7. Übung - Datenbanken

Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96

Seminar Informationsintegration und Informationsqualität. Dragan Sunjka. 30. Juni 2006

(Software) Architektur der Dinge. Roland Graf / Simon Kranzer IKT-Forum 2016 I(o)T for Industry - Von IT zu IoT

SALSAH eine virtuelle Forschungsumgebung für die Geisteswissenschaften

Business Intelligence Praktikum 1

! "# $% &'!( $ ) *(+,(,-

Windows Server 2012 R2 Essentials & Hyper-V

Team Collaboration im Web 2.0

Microsoft SharePoint. share it, do it!

Sicht eines Technikbegeisterten

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse?

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.

11 Inhaltsübersicht. c M. Scholl, 2005/06 Informationssysteme: 11. Inhaltsübersicht 11-1

XAMPP-Systeme. Teil 3: My SQL. PGP II/05 MySQL

MOBILE APPLIKATIONEN IM TRAVEL MANAGEMENT. Einführung Mobile Applikationen für Geschäftsreisen Eine Handlungsempfehlung VDR Fachausschuss Technologie

Vorlesung Datenbankmanagementsysteme. Vorlesung Datenbankmanagementsysteme Überblick M. Lange, S. Weise Folie #0-1

Event Stream Processing & Complex Event Processing. Dirk Bade

Ziele der Vorlesung (1)

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen

Workflow, Business Process Management, 4.Teil

synergetic AG Open House 2012 Ihr Unternehmen in der Wolke - Cloud Lösungen von synergetic

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd :48:05

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit

SMART Newsletter Education Solutions April 2015

Mission. TARGIT macht es einfach und bezahlbar für Organisationen datengetrieben zu werden

Contents. Interaction Flow / Process Flow. Structure Maps. Reference Zone. Wireframes / Mock-Up

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

G DATA GOES AZURE. NEXT LEVEL MANAGED ENDPOINT SECURITY DRAGOMIR VATKOV Technical Product Manager B2B

Umbenennen eines NetWorker 7.x Servers (UNIX/ Linux)

MOBILE ON POWER MACHEN SIE IHRE ANWENDUNGEN MOBIL?!

ORM & OLAP. Object-oriented Enterprise Application Programming Model for In-Memory Databases. Sebastian Oergel

Content Management System mit INTREXX 2002.

Softwareanforderungen für Microsoft Dynamics CRM Server 2015

Modul 6 Virtuelle Private Netze (VPNs) und Tunneling

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Data. Guido Oswald Solution Switzerland. make connections share ideas be inspired

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

MEHR INNOVATION. MIT SICHERHEIT. COMPAREX Briefing Circle 2014

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

Big Data Mythen und Fakten

3. Stored Procedures und PL/SQL

Installation SQL- Server 2012 Single Node

Preisliste für The Unscrambler X

UM ALLE DATEN ZU KOPIEREN. ZUNÄCHST die Daten des alten Telefons auf einen Computer kopieren

Die Renaissance von Unified Communication in der Cloud. Daniel Jonathan Valik UC, Cloud and Collaboration

Themen. M. Duffner: Datenbanksysteme

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller

Business Intelligence Praktikum 1

Herzlich Willkommen! MR Cloud Forum Bayreuth

Windows Azure für Java Architekten. Holger Sirtl Microsoft Deutschland GmbH

Konzept zur Push Notification/GCM für das LP System (vormals BDS System)

Datenbanken und Informationssysteme. Datenbanken und Informationssysteme

Datenbanken und Informationssysteme

Business Intelligence. Bereit für bessere Entscheidungen

Einführung. Kapitel 1 2 / 508

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing

Perceptive Document Composition

Ein Stern in dunkler Nacht Die schoensten Weihnachtsgeschichten. Click here if your download doesn"t start automatically

Leitfaden E-Books Apple. CORA E-Books im ibook Store kaufen. Liebe Leserinnen und Leser, vielen Dank für Ihr Interesse an unseren CORA E-Books.

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER

Tuning des Weblogic /Oracle Fusion Middleware 11g. Jan-Peter Timmermann Principal Consultant PITSS

<Insert Picture Here> Oracle Datenbank Einführung Ulrike Schwinn

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Grundbegriffe der Informatik

Dynamic Ressource Management

Data Center Automa-on for the Cloud. Pascal Petsch

Transkript:

Prof. Dr.-Ing. Dr. h. c. Theo Härder AG Datenbanken und Informationssysteme Zi. 36/330, Tel.: 0631-205-4030 E-Mail: haerder@cs.uni-kl.de http://wwwlgis.informatik.uni-kl.de/cms/index.php?id=30 Ziele Vermittlung von Grundlagen- und Methodenwissen 1 zur Anwendung von Datenbanksystemen; Erwerb von Fähigkeiten und Fertigkeiten für DB-Administrator und DB-Anwendungsentwickler - Entwurf, Aufbau und Wartung von Datenbanken sowie Programmierung und Übersetzung von DB-Programmen, insbesondere auf der Basis von Datenbankanwendung Relationenmodell und SQL objekt-relationalen Datenmodellenmit Bezug auf den Standard SQL:1999 - Sicherung der DB-Daten und der Abläufe von DB-Programmen Transaktionsverwaltung Wintersemester 2010/2011 TU Kaiserslautern Fachbereich Informatik Postfach 3049 67653 Kaiserslautern Synchronisation Fehlerbehandlung (Logging und Recovery) Semantische Integrität, aktive DB-Mechanismen - Datenschutz und Zugriffskontrolle - Verarbeitung großer Objekte Vorlesung: Beginn: 27.10.2010 Ort: 48 210 Zeit: Mi., 11.45 13.15 Uhr und Ort: 46 280 Zeit: Fr., 11.45 13.15 Uhr Voraussetzungen für Übernahme von Tätigkeiten: - Entwicklung von datenbankgestützten (Web-)Anwendungen - Nutzung von Datenbanken unter Verwendung von (interaktiven) Datenbanksprachen - Systemverantwortlicher für Datenbanksysteme, insbesondere Unternehmens-, Datenbank-, Anwendungsund Datensicherungsadministrator Übung: Ort: 13 222 Zeit: Do., 15.30 17.00 Uhr 1. Grundlagenwissen ist hochgradig allgemeingültig und nicht von bestimmten Methoden abhängig. Die Halbwertzeit ist sehr hoch. Methodenwissen muß ständig an die aktuelle Entwicklung angepaßt werden. In der Informatik haben sich die entscheidenden Methoden alle 8-10 Jahre erheblich geändert. Werkzeugwissen ist methodenabhängig. Werkzeuge haben in der Informatik oft nur eine Lebensdauer von 2-3 Jahren. 0-1 0-2

0. Übersicht und Motivation ÜBERSICHT (vorl.) - Zusammenfassung: Relationenmodell - Wichtige künftige Entwicklungen 1. Anforderungen und Beschreibungsmodelle - Anforderungen an DBS - Aufbau von DBS - Beschreibungsmodelle (Fünf-Schichten-Modell, Drei-Ebenen-Beschreibungsarchitektur) 2. Logischer DB-Entwurf - Konzeptioneller DB-Entwurf - Normalformenlehre (1NF, 2NF, 3NF, 4NF) - Synthese von Relationen - Stern- und Schneeflocken-Schemata 3. Tabellen und Sichten - Datendefinition von SQL-Objekten - Schemaevolution - Indexstrukturen - Sichtenkonzept 4. Anwendungsprogrammierschnittstellen - Kopplung mit einer Wirtssprache - Übersetzung und Optimierung von DB-Anweisungen - Eingebettetes / Dynamisches SQL, PSM - CLI, JDBC und SQLJ 5. Transaktionsverwaltung ÜBERSICHT (2) - ACID-Konzept, Ablauf von Transaktionen - Commit-Protokolle für zentralisierten Ablauf für verteilten Ablauf mit zentralisierter Kontrolle: 2PC und Optimierungen - BASE-Konzept (basically available, soft state, eventually consistent) 6. Serialisierbarkeit - Anomalien beim Mehrbenutzerbetrieb - Theorie der Serialisierbarkeit Final-State-Serialisierbarkeit, Sichtenserialisierbarkeit Konfliktserialisierbarkeit - Klassen von Historien 7. Synchronisation Algorithmen - Sperrprotokolle (Deadlocks, S2PL und SS2PL) - Nicht-sperrende Protokolle (Zeitstempel, SGT) - Optimistische Synchronisation (BOCC, FOCC) 8. Sperrverfahren Implementierung und Analyse - Zweiphasen-Sperrprotokolle RUX-Protokoll hierarchische Verfahren - Konsistenzebenen - Optimierungen (Mehrversions-, Prädikats-, spezielle Protokolle) - Leistungsbewertung und Lastkontrolle 0-3 0-4

ÜBERSICHT (3) LITERATURLISTE 9. Logging und Recovery - Fehlermodell und Recovery-Arten - Logging-Strategien - Recovery-Konzepte Abhängigkeiten - Sicherungspunkte - Transaktions-, Crash- und Medien-Recovery 10. Integritätskontrolle und aktives Verhalten - Semantische Integritätskontrolle - Regelverarbeitung in DBS, Trigger-Konzept von SQL - Definition und Ausführung von ECA-Regeln 11. Datenschutz und Zugriffskontrolle - Technische Probleme des Datenschutzes - Konzepte der Zugriffskontrolle, Zugriffskontrolle in SQL - Sicherheitsprobleme in statistischen Datenbanken 12. Große Objekte - Anforderungen und Verarbeitung mit SQL - Lokator-Konzept, Speicherungsstrukturen -... Elmasri, R., Navathe, S. B.: Grundlagen von Datenbanksystemen, Ausgabe Grundstudium, 3. Auflage, Pearson Studium, 2005 Härder, T., Rahm, E.: Datenbanksysteme Konzepte und Techniken der Implementierung, Springer-Verlag, Berlin, 2001 Kemper, A., Eickler, A.: Datenbanksysteme Eine Einführung, 7. Auflage, Oldenbourg-Verlag, 2009 Kemper, A, Wimmer, M.: Übungsbuch Datenbanksysteme, 2. Auflage, Oldenbourg- Verlag, 2009 Kifer, M., Bernstein, A., Lewis, P. M.: Database Systems An Application-Oriented Approach, 2nd Edition, Pearson International Edition, 2006 Saake, G., Sattler, K.-U., Heuer, A.: Datenbanken Konzepte und Sprachen, 3. Auflage, mitp, 2008 Silberschatz, A., Korth, H. F., Sudarshan, S: Database System Concepts, 6th Edition, McGraw-Hill, 2011 Vossen, G.: Datenmodelle, Datenbanksprachen und Datenbankmanagementsysteme, 5. Auflage, Oldenbourg, München, 2008 ZEITSCHRIFTEN: ACM TODS Transactions on Database Systems, ACM Publikation (vierteljährlich) Information Systems Pergamon Press (6-mal jährlich) The VLDB Journal VLDB Foundation (vierteljährlich) Informatik Forschung und Entwicklung Springer Verlag (vierteljährlich) ACM Computing Surveys ACM-Publikation (vierteljährlich) TAGUNGSBÄNDE: SIGMOD VLDB ICDE BTW Tagungsbände, jährliche Konferenz der ACM Special Interest Group on Management of Data Tagungsbände, jährliche Konferenz Very Large Data Bases Tagungsbände, jährliche Konferenz Int. Conf. on Data Engineering Tagungsbände der alle 2 Jahre stattfindenden Tagungen Datenbanksysteme für Business, Technologie und Web der GI, und weitere Tagungen innerhalb des GI-Fachbereichs DBIS und viele weitere Konferenzreihen 0-5 0-6

Notwendigkeit effizienter DBMS Evolution und Historie Spektrum der Datenarten 2 - nicht nur relationale Tabellen, sondern auch VITA-Daten 3 - Speicherung, Verwaltung, inhaltsoriertierte Suche, Verknüpfung,... Everything! recorded all books MultiMedia all books (words) one photo one film one book Jotta Zetta Exa Peta Tera Giga Mega Kilo Informationen sind in unserer vom Wettbewerb geprägten Welt ähnlich wie die Luft, die wir atmen überall vorhanden und absolut lebenswichtig. Datenbanktechnik ist eine nützliche Infrastruktur wie fließendes Wasser, das wir erst bemerken, wenn es fehlt. 2. Bezeichnungen für Zehnerpotenzen: 3 kilo, 6 mega, 9 giga, 12 tera, 15 peta 18 exa, 21 zetta, 24 yotta und in der anderen Richtung: 24 yecto, 21 zepto, 18 atto, 15 femto, 12 pico, 9 nano, 6 micro, 3 milli 3. How much data is out there? 300 PByte online, 8 EByte offline, 200 EByte analog data (audio, video, etc.) http://www.sims.berkeley.edu/research/projects/how-much-info-2003/ ODMG 3.0 SQL: 1999 XML ODMG 1.0 OM Data Model SQL-86 Entity-Relationship Model SQL CODASYL Standard Relational Data Model Hierarchical Network Relational Object-Oriented Object-Relational Semi-Structured XML 1960 1970 1980 1990 2000 0-7 0-8

Verteilung von DBS und Dateien Informationsmodellierung Es gibt verschiedenartige Datenmodelle und die sie realisierenden DBS Entity/Relationship-Diagramm einer Beispiel-Miniwelt - relational und objekt-relational (RDBS/ORDBS) - hierarchisch (DBS nach dem Hierarchiemodell) FBnr Fachbereich - netzwerkartig (DBS nach dem Codasyl-Standard) - objektorientiert (OODBS) 100 % Einsatzverteilung Flache Dateien istin eingeschr.- ist-dekanvon 1 n gehört-zu n 80 % 60 % Hier. DBS Cod. DBS Pnr Pname Fachgeb. 1 Prof 1 1 Student Matnr SName Studbeg. 40 % 20 % RDBS/ORDBS m Prüfung n Fach 0 % 1990 1995 2000 2005 2010 OODBS Datum Note Künftige DBS - Aufstellung berücksichtigt nur strukturierte Daten. 85% der weltweit verfügbaren Daten aber sind semi- oder unstrukturiert (Internet, wiss. Aufzeichnungen und Experimente usw.) - SQL-XML-DBS, XML-SQL-DBS, native XML-DBS, purexml DBS Voraussetzung für die Vorlesung: Beherrschung von - Informationsmodellen (erweitertes ER-Modell) - Relationenmodell und Relationenalgebra - SQL-92 als Standardsprache - Spezifikation benutzerdefinierter Beziehungen (rein struktureller Natur) - Klassifikation der Beziehungstypen (1:1, 1:n, n:m) relativ semantikarme Darstellung von Weltausschnitten - deshalb Verfeinerungen/Erweiterungen durch Kardinalitätsrestriktionen ([1,1]:[1,10], [0:1]:[0:*]) Abstraktionskonzepte (Klassifikation/Instantiierung, Generalisierung/Spezialisierung, Element-/Mengen-Assoziation, Element-/Komponenten-Aggregation) 0-9 0-10

DB-Schema Relationenmodell Beispiel FB FBNR FBNAME DEKAN Deskriptive DB-Sprachen Relationenmodell Beispiel (2) PROF STUDENT PNR PNAME FBNR FACHGEB MATNR SNAME FBNR STUDBEG PRÜFUNG PNR MATNR FACH DATUM NOTE - hohes Auswahlvermögen und Mengenorientierung - leichte Erlernbarkeit auch für den DV-Laien - RM ist symmetrisches Datenmodell, d.h., es gibt keine bevorzugte Zugriffs- oder Auswertungsrichtung Ausprägungen FB FBNR FBNAME DEKAN FB 9 WIRTSCHAFTSWISS 4711 FB 5 INFORMATIK 2223 PROF PNR PNAME FBNR FACHGEB 1234 HÄRDER FB 5 DATENBANKSYSTEME 5678 WEDEKIND FB 9 INFORMATIONSSYSTEME 4711 MÜLLER FB 9 OPERATIONS RESEARCH 6780 NEHMER FB 5 BETRIEBSSYSTEME STUDENT MATNR SNAME FBNR STUDBEG 123 766 COY FB 9 1.10.05 225 332 MÜLLER FB 5 15.04.02 654 711 ABEL FB 5 15.10.04 226 302 SCHULZE FB 9 1.10.05 196 481 MAIER FB 5 23.10.05 130 680 SCHMID FB 9 1.04.07 PRÜFUNG PNR MATNR FACH PDATUM NOTE 5678 123 766 BWL 22.10.07 4 4711 123 766 OR 16.01.08 3 1234 654 711 DV 17.04.08 2 1234 123 766 DV 17.04.07 4 6780 654 711 SP 19.09.07 2 1234 196 481 DV 15.10.07 1 6780 196 481 BS 23.10.07 3 Anfragebeispiele Q1: Finde alle Studenten aus Fachbereich 5, die ihr Studium vor 2005 begonnen haben. SELECT * FROM STUDENT WHERE FBNR = FB5 AND STUDBEG < 1.1.05 Q2: Finde alle Studenten des Fachbereichs 5, die im Fach Datenverwaltung eine Note 2 oder besser erhalten haben. SELECT * FROM STUDENT WHERE FBNR = FB5 AND MATNR IN (SELECT MATNR FROM PRÜFUNG WHERE FACH = DV AND NOTE 2 ) Q3: Finde die Durchschnittsnoten der DV-Prüfungen für alle Fachbereiche mit mehr als 1000 Studenten. SELECT S.FBNR, AVG (P.NOTE) FROM PRÜFUNG P, STUDENT S WHERE P.FACH = DV AND P.MATNR = S.MATNR GROUP BY S.FBNR HAVING (SELECT COUNT(*) FROM STUDENT T WHERE T.FBNR = S.FBNR) > 1000 0-11 0-12

Bewertung Relationenmodell 4 The Big Picture Informationen des Benutzers - ausschließlich durch den Inhalt der Daten - keine physischen Verbindungen, keine bedeutungsvolle Ordnung Deskriptive Sprachen - hohes Auswahlvermögen und Mengenorientierung - leichte Erlernbarkeit auch für den DV-Laien Vorteile - strenge theoretische Grundlage - einfache Informationsdarstellung durch Tabellen, keine Bindung an Zugriffspfade oder Speichertechnologie, keine Aussage über die Realisierung - hoher Grad an Datenunabhängigkeit - symmetrisches Datenmodell; d.h., es gibt keine bevorzugte Zugriffs- oder Auswertungsrichtung - Parallelisierung möglich, Verteilung der Daten über Prädikate Nachteile - zu starke Beschränkung der Modellierungsmöglichkeiten - schwerfällige und unnatürliche Modellierung bei komplexeren Objekten - Einsatz von nicht-prozeduralen Sprachen soll Ineffizienz implizieren!? - aber: Optimierung der Anforderungen liegt in der Systemverantwortung 4.What's The Greatest Software Ever Written? By Charles Babcock, InformationWeek, Aug. 14, 2006 My No. 2 choice is IBM's System R, a research project at the company's Almaden Research Lab in San Jose, Calif., that gave rise to the relational database. In the 1970s, Edgar Codd looked at the math of set theory and conceived a way to apply it to data storage and retrieval. Sets are related elements that together make up an abstract whole. The set of colors blue, white, and red, for example, are related elements that together make up the colors of the French flag. A relational database, using set theory, can keep elements related without storing them in a separate and clearly labeled bin. It also can find all the elements of a set on an impromptu basis while knowing only one unique identifier about the set. System R and all that flowed from it DB2, Oracle, Microsoft SQL Server, Sybase, PostgreSQL, MySQL, and others will have an impact that we're still just beginning to feel. Relational databases can both store data sets about customers and search other sets of data to find how particular customers shop. The data is entered into the database as it's acquired; the database finds relationships hidden in the data. The relational database and its SQL access language let us do something the human mind has found almost impossible: locate a broad set of related data without remembering much about its content, where it's stored, or how it's related. All that's needed is one piece of information, a primary key that allows access to the set. I like System R for its incredible smoothness of operation, its scalability, and its overwhelming usefulness to those who deal with masses of data. It's software with a rare air of mathematical truth about it. Objektorientiertes Verarbeitungsmodell Transaktionsverarbeitung Client/Server- Verarbeitungsmodell WWW-basiertes Verarbeitungsmodell Middleware und Componentware SELECT Unfall.Fahrer, Unfall.Vers-Nummer FROM Unfall, Autobahn WHERE CONTAINS(Unfall.Bericht, Schaden IN SAME SENTENCE AS ( schwer AND vordere AND Stoßstange )) AND FARBE(Unfall.Foto, rot ) > 0.6 AND ABSTAND(Unfall.Ort, Autobahn.Ausfahrt) < miles (0.5) AND Autobahn.Nummer = A8; Next-Generation DBMS Multimedia-DBS Parallele und Verteilte DBS Aktive DBS Bild Text Regeln Trigger Raum 0-13 0-14

Was sind Data-Warehouse-Systeme? Aufbau eines Data Warehouse Die Zielvorgabe für ein Data Warehouse ist es, die im Unternehmen vorhandenen (und eventuell noch aufzubauende) Datenbestände dem Endbenutzer so bereitzustellen, daß dieser nicht nur einen vorgegebenen Blickwinkel (durch Programme realisiert) auf diese Daten einnehmen kann. Das bedeutet, daß sowohl der Datenbestand selbst als auch die benutzten Werkzeuge flexibel genug sein müssen, um alle anfallenden Fragestellungen zu beantworten. OLAP Data Mining Berichte/ Analysen Ein oft dargestelltes Beispiel solcher Blickwinkel ist der Absatz von verschiedenen Produkten (Verkäufern und Lieferanten), in verschiedenen Märkten unter Berücksichtigung der Zeit. ER-Schema mit 5 Dimensionen Zeit Verkäufer l Produkt k m Kauf Lieferant n o Markt 3-dimensionaler Datenbereich Produkt Markt Damit können nun unterschiedliche Fragen direkt beantwortet werden: Für den Marktleiter: Wie entwickelt sich Produkt (Warengruppe) X in meinem Markt im Zeitraum [Anfang, Ende]? Zeit Extraktion/ Transaktion Metadaten/Repository Extraktion/ Transformation Transaktion Data Warehouse als Datenbank Für den Warengruppenmanager: Welche Absatzverteilung auf Märkte bezogen gibt es für Produkt X im Zeitraum [Anfang, Ende] (dargestellte Ebene in der Abbildung)? Für den Finanzvorstand: Wie entwickelt sich das Umsatzergebnis (als Summe über alle Märkte und alle Warengruppen) über die Zeit? Extraktion/ Datenzugriff Transaktion Monitoring Die Analogie zum Warenhaus ist also dahingehend zu interpretieren, daß der Anwender durch die Datenangebote geführt wird und die für ihn relevanten Informationen einfach mitnehmen kann. Neben bereits dargestellten verschiedenen Blickwinkeln ergibt sich innerhalb der Dimensionen auch noch die Notwendigkeit einer Hierarchisierung: Beispielsweise kann die Produktdimension auf artikelgenaue Informationen verfeinert oder aber auf Warengruppen oder Sortimentsbereiche vergröbert werden. Aktuelle Forschungs- und Entwicklungsthemen: Real-time Data Analysis, Real-time Business Inteligence Extraktion/ Transaktion OLTP- Systeme operationale Daten 0-15 0-16

Begriffe Viele Namen, die nicht alle gleiche Bedeutung besitzen: - Data Mining, Knowledge Discovery, Business Intelligence, Data Exploration, Pattern Recognition, Information Retrieval, Knowledge Management,... Dies ist unsere Sicht: Vertauschte Rollen Anfrage Ein weiteres Paradigma Alles fließt (panta rhei) 5 Ergebnis Daten Datenbanksystem Subskriptionssystem Ergebnis - Knowledge Discovery ist ein Prozeß zu Suche oder Erzeugung von Wissen aus großen Datenmengen. Seltener wird dazu auch der Begriff Data Exploration benutzt. Daten Subskriptionen - Anfragen - Auslieferungsbedingungen - Eine Phase dieses Prozesses, Pattern Generation genannt, generiert relevante Informationen. In unserem Falle ist diese Phase gleichbedeutend mit Data Mining, hier kann aber auch z.b. Online Analytical Processing (OLAP) angesiedelt sein. - Business Intelligence bezeichnet den Einsatz von Knowledge Discovery im Unternehmen, um ökonomischen Nutzen zu erzielen. - statt Auswertung von gespeicherten Daten Filterung, Verknüpfung und Transformation von Datenströmen - zentrale Bedeutung für die individuelle Informationsversorgung, insbesondere bei einer immer weiter fortschreitenden Verwendung vieler kleiner und damit mobiler Endgeräte Wichtige Unterschiede - Der Begriff Pattern Recognition wird eher in anderen Disziplinen wie Kl (Bildverstehen) und Naturwissenschaften (z.b. bei Informationssystemen für Biochemie und Geographie (GIS)) verwendet, obwohl es sich hierbei im Prinzip auch um Knowledge Discovery handelt. Eigenschaft Verarbeitungscharakteristik Datenbankbasierte Informationssysteme zustandsorientiert (globaler Zustand) Subskriptionssysteme konsumorientiert (evtl. lokaler temporärer Zustand) - Information Retrieval ist gleichbedeutend mit Data Exploration, wird aber eher für textorientierte Informationen benutzt (Such-Maschinen, Text-Mining ). - Knowledge Management umfaßt u. a. auch Knowledge Discovery. Im Vordegrund steht aber die Verwaltung von Wissen, damit es auch in Zukunft den Mitgliedern einer Organisation in geeigneter Weise (Geschwindigkeit, Qualität, Kosten, etc.) zur Verfügung steht. Anfragesemantik Zugriffscharakteristik Auswertungssemantik Schemaaspekt isolierte Anfrage systemzentriert ( row-set model ) komplexe Analysen Existenz eines globalen Schemas stehende Anfragen ( standing query ) dokumentenzentriert ( document model ) informativ, Auslöser detaillierter Analysen Zugriff auf lokale Schemata der partizipierenden Datenquellen 5. fälschlicherweise Heraklit zugeschriebene Formel für sein Weltbild 0-17 0-18

Hype-Begriffe wechslen schnell! Gemessen mit Google Trends Amazon S3 (March 2006) Salesforce AppExchange (March 2006) Amazon EC2 (August 2006) Google App Engine (April 2008) Facebook Platform (May 2007) Microsoft Azure (Oct 2008) Was ist Grid Computing und was Cloud Computing? - Flexible Zuordnung von Rechnern, Daten und Funktionen - Das macht auch Seti@Home (> 3 Mio Benutzer)! Was fehlt also noch? 0-19 0-20

What is Cloud Computing? whatis.com: Definition of Cloud Computing (Good Luck) Defining Cloud Computing The interesting thing about cloud com puting is that we ve redefined cloud com puting to include everything that we already do. [ ] The com puter industry is the only industry that is m ore fashiondriven than wom en s fashion. M aybe I m an idiot, but I have no idea w hat anyone is talking about. W hat is it? It s com plete gibberish. It s insane. W hen is this idiocy going to stop? Larry Ellison during Oracle s Analyst Day Cloud computing is simply a buzzword used to repackage grid computing and utility computing, both of which have existed for decades. Software-as-a-Service My customer resource management (CRM) system is out on the Internet! Grids vs. Clouds Shared Virtual Resources Batch Jobs vs. Online Applications Different Approaches to State Management Network Diagrams A service is on a cloud somewhere Virtualization Platforms & APIs Hardware can be manipulated with software 0-21 Pros and Cons of Cloud Computing (www.dsp-ip.com) Pros - Scale - Cost (CAPEX, OPEX) 6 - Advance architecture - Agility - Cost Clouds are renowned for being cheap for storage and processing 7 - Elasticity Growth and shrinkage Cons - Security & privacy Is it safe? For whom and at what level? - Regulatory compliance 8 : HIPPA, SOX, etc. - Interoperability and vendor lock-in - Lack of control - Standardization Challenges - Organizational barriers - Reliability (service outage) - Definition of SLAs (service-level agreements) - Service management (LCM), monitoring - Customization - Integration with other applications - Technology (limited languages & APIs) Cloud Concerns - Security is No. 1! 6.Capex heißt capital expenditures und bedeutet Kapitaleinsatz Opex heißt operating expenditure und bedeutet Instandhaltungsaufwand. 7.Amazon main services: Elastic Cloud Serrvice (EC2), Simple Storage Service (S3), Simple Database Service (SimpleDB), Simple Queue Service (SQS) 8.Handeln in Übereinstimmung mit geltenden Vorschriften 0-22

The NIST Definition of Cloud Computing Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction. This cloud model promotes availability and is composed of five essential characteristics, three service models, and four deployment models. 9 Essential Characteristics - On-demand self-service. A consumer can unilaterally provision computing capabilities, such as server time and network storage, as needed automatically without requiring human interaction with each service's provider. - Broad network access. Capabilities are available over the network and accessed through standard mechanisms that promote use by heterogeneous thin or thick client platforms (e.g., mobile phones, laptops, and PDAs). - Resource pooling. The provider's computing resources are pooled to serve multiple consumers using a multi-tenant model, with different physical and virtual resources dynamically assigned and reassigned according to consumer demand. There is a sense of location independence in that the customer generally has no control or knowledge over the exact location of the provided resources but may be able to specify location at a higher level of abstraction (e.g., country, state, or datacenter). Examples of resources include storage, processing, memory, network bandwidth, and virtual machines. - Rapid elasticity. Capabilities can be rapidly and elastically provisioned, in some cases automatically, to quickly scale out and rapidly released to quickly scale in. To the consumer, the capabilities available for provisioning often appear to be unlimited and can be purchased in any quantity at any time. - Measured Service. Cloud systems automatically control and optimize resource use by leveraging a metering capability at some level of abstraction appropriate to the type of service (e.g., storage, processing, bandwidth, and active user accounts). Resource usage can be monitored, controlled, and reported providing transparency for both the provider and consumer of the utilized service. Note: Cloud software takes full advantage of the cloud paradigm by being service-oriented with a focus on statelessness, low coupling, modularity, and semantic interoperability. 9.Authors: Peter Mell and Tim Grance. Version 15, 10-7-09 National Institute of Standards and Technology, Information Technology Laboratory The NIST Definition of Cloud Computing (2) Service Models - Cloud Software as a Service (SaaS). The capability provided to the consumer is to use the provider's applications running on a cloud infrastructure. The applications are accessible from various client devices through a thin client interface such as a web browser (e.g., web-based email). The consumer does not manage or control the underlying cloud infrastructure including network, servers, operating systems, storage, or even individual application capabilities, with the possible exception of limited user-specific application configuration settings. - Cloud Platform as a Service (PaaS). The capability provided to the consumer is to deploy onto the cloud infrastructure consumer-created or acquired applications created using programming languages and tools supported by the provider. The consumer does not manage or control the underlying cloud infrastructure including network, servers, operating systems, or storage, but has control over the deployed applications and possibly application hosting environment configurations. - Cloud Infrastructure as a Service (IaaS). The capability provided to the consumer is to provision processing, storage, networks, and other fundamental computing resources where the consumer is able to deploy and run arbitrary software, which can include operating systems and applications. The consumer does not manage or control the underlying cloud infrastructure but has control over operating systems, storage, deployed applications, and possibly limited control of select networking components (e.g., host firewalls). Deployment Models - Private cloud. The cloud infrastructure is operated solely for an organization. It may be managed by the organization or a third party and may exist on premise or off premise. - Community cloud. The cloud infrastructure is shared by several organizations and supports a specific community that has shared concerns (e.g., mission, security requirements, policy, and compliance considerations). It may be managed by the organizations or a third party and may exist on premise or off premise. - Public cloud. The cloud infrastructure is made available to the general public or a large industry group and is owned by an organization selling cloud services. - Hybrid cloud. The cloud infrastructure is a composition of two or more clouds (private, community, or public) that remain unique entities but are bound together by standardized or proprietary technology enabling data and application portability (e.g., cloud bursting for load-balancing between clouds). 0-23 0-24

Energieeffizienz Es müssen gigantische Datenmengen gespeichert und verarbeitet werden Einsatz von Flash-Speicher in DBMS Device-related I/O experiments (random read/write) MB/s 4 KB block size 60 50 40 30 20 10 0 disk 128 256 512 1024 2048 disk with cache 128 256 512 1024 2048 data volume in MB flash 128 256 512 1024 2048 read wr ite Neue Herausforderung: Energieproportionale Verarbeitung! 2x CPU active: 110W 4x SSDs active (9W) Server idle power (140 W) 4x HDDs active (10W) power (Watts) 100 CPU idle 4SDDs idle 4HDDs idle System board 4GB DIMMs 4GB DIMMs 4GB DIMMs 4GB DIMMs 80 60 40 20 % observed SW optimization read/write gap relative energy efficiency ideal energy proportional HW optimization Verlässliche adaptive DBMS DBMS ist nur eine (wichtige) Komponente in einem Informationssystem! Höherer Grad an Selbst-Bewusstsein gefordert - Adaptivität hinsichtlich Benutzer und Arbeitslasten Betriebsmittel, Plattformen und Umgebungen Information (Repräsentation, Inhalt, ) Verhaltensmodelle im DBMS erforderlich - in den Schichten - schichtenübergreifend zusätzliche Kanäle für nicht-lokale Information Adaptivität zwischen den Komponenten des Informationssystems - heterogen und organisationsübergreifend - Agreement-Protokolle Entwicklungsziele (J. Gray: 1998 Turing Lecture) 10 1. Trouble-free systems: Build a system used by millions of people each day and yet administered and managed by a single part-time person. 2. Secure system: Assure that the system of problem 1 only services authorized users, service cannot be denied by unauthorized users, and information cannot be stolen (and prove it). 3. Always up: Assure that the system is unavailable for less than one second per hundred years 8 9 s of availability (and prove it). 0 20 40 60 80 100 % system utilization 10. J. Gray is the recipient of the 1998 A. M. Turing Award. These problems, strongly related to database systems, are extracted from the text of the talk J. Gray gave in receipt of that award. http://www.research.microsoft.com/~gray/ 0-25 0-26

Dynamische Informationsfusion MyLifeBits Selbst wenn der Mensch sein Leben lang kein Wort vergessen würde, ist die Speicherung der Informationsmenge heute schon leicht machbar 11 Federation Information Placement Integration Transformation Bilanz (durchschnittliche Zahlen für US-Bürger/Jahr) Stunden Wort/Minute Wörter/Jahr MBytes TV 1578 120 11 Mio. 50 Film 12 120 - - Lesen 354 300 6,4 Mio. 32 Paradigmenwechsel: bedarfsgetriebene, skalierbare Kopplung und Integration von Datenquellen, -strömen und -analysemodellen (DSMs) DSMs - persistent gespeicherte Daten - kontinuierliche Datenströme, in Zeitfenstern zu verarbeiten (Sensordaten, Web-Nutzerverhalten) - abgeleitete DA-Modelle (data mining) Skalierbarkeit - weltweiter Zugriff auf DSMs: Internet, Grid Computing, P2P, Web Services - Effiziente Auswahl der geeignetsten Komponenten aus einer großen und schnell wachsenden Menge Dynamik - dynamische Strukturen zur Kooperation in neuen Applikationen: Katastrophen-Management, E-*, - Ad-hoc-Integration von relevanten DSMs (variable Anzahl, heterogen, autonom, mobil, wechselnde Verfügbarkeit, ) Datenqualität - Daten variieren in Genauigkeit, Vollständigkeit, Aktualität und Dimensionalität - zusätzliche Methoden und Metadaten ~6 GBytes von ASCII-Daten (Text) in 75 Jahren Die automatische Erfassung dieser Informationen (Spracherkennung, und OCR oder elektronische Bücher/Zeitungen und ASCII-Skripte von TV- Sendungen) ist mit tragbaren Geräten möglich. Das gilt nicht für Ton, Bild und Bewegtbild! Aber in 20 Jahren? Speicherbedarf für eine Person (nach Jim Gray) Datentyp Datenrate (Bytes/ Sek.) benötigter Speicher pro Stunde und Tag Aufzeichnung der gesamten Lebensgeschichte wird möglich benötiger Speicher für eine Lebenszeit gelesener Text 50 200 KB; 2-10 MB 60-300 GBytes gesproch.text @120 wpm 12 43 K; 0,5 MB 15 GBytes Sprache (komprimiert) 1.000 3,6 MB; 40 MB 1,2 TBytes Bewegtbild (komprimiert) 500.000 2 GB; 20 GB 1 PByte Weltweites Wachstum - Professionelle Content Provider (Journalisten usw.): 2 GB Text pro Tag - Benutzergenerierte Web-Inhalte: dramatisch (siehe social networks) 11. http://research.microsoft.com/barc/mediapresence/mylifebits.aspx; http://en.wikipedia.org/wiki/mylifebits 0-27 0-28

Schlussfolgerungen Internetpionier Kevin Kelly zeichnet Netzlandschaft mit der Hand Es wird genug Platten- und Bandspeicher geben, um alles zu speichern, was alle Menschen schreiben, sagen, tun oder photographieren. - Für das Schreiben gilt dies bereits heute - In einigen Jahren trifft das auch für die restlichen Informationen zu - Wie lange wird es noch dauern, bis alle VITA-Dokumente eines Menschen als Lebensgeschichte aufgezeichnet werden können? Rechner speichern und verwalten Informationen besser und effektiver als Menschen - Viele Platten und Kommunikationsverbindungen speichern direkt Informationen aus Rechner-zu-Rechner- und nicht mehr (nur) aus Mensch-zu- Mensch-Kommunikation - Wie lange wird es noch dauern, bis der Mensch die meiste gespeicherte Information gar nicht mehr zu sehen bekommt? - Wir müssen lernen, wie alles automatisch ausgewertet werden kann und was bei unserer knappen Zeit unserer besonderen Aufmerksamkeit bedarf. Künftige Entwicklung - Heute konzentriert man sich bei den Digitalen Bibliotheken auf die Eingabe: auf das Scanning, Komprimieren und OCR von Informationen. - Morgen wird anstelle der Eingabe die relevante Auswahl die wesentliche Rolle spielen: Selektion, Suche und Qualitätsbewertung von Informationen Wir können eine reale World Encyclopedia mit einem echten planetary memory for all mankind aufbauen, wie H.G. Wells bereits 1938 in seinem Buch World Brain geschrieben hat! 0-29 0-30