Datenbanksysteme SS 2007
|
|
|
- Charlotte Raske
- vor 10 Jahren
- Abrufe
Transkript
1 Datenbanksysteme SS 2007 Frank Köster (Oliver Vornberger) Institut für Informatik Universität Osnabrück 1
2 Kapitel 16: Data Warehousing und Knowledge Discovery in Databases
3 DEFINITIONEN & BEGRIFFE Klassische Definition Data Warehouse (DWH) "A Data Warehouse is a subject-oriented, integrated, non-volatile, and time-variant collection of data in support of managements decisions (W.H. Inmon, 1996) Weitere Begriffe im DWS-Kontext Data Warehousing bezeichnet den Data-Warehouse-Prozess d.h. einen Prozess, der alle Schritte der Datenbewirtschaftung und Datennutzung im DWS-Kontext umfasst. Definition Data-Warehouse-System (DWS) Data-Warehouse-System: Informationssystem, bestehend aus allen für den Data-Warehouse-Prozess notwendigen Komponenten. Dies sind die Komponenten des Datenbeschaffungsbereichs und der Analyse, der Metadatenmanager, der Data-Warehouse-Manager und die Datenbanken Basisdatenbank, Data Warehouse und Repositorium. (Bauer und Günzel, 2001 Seite 516) Folie 3
4 REFERENZARCHITEKTUR DWS-Referenzarchitektur (vgl. Bauer und Günzel, 2001) Bereich der Datenbeschaffung Datenquelle(n) Extraktion Arbeitsbereicdatenbank Laden Basis- Laden Data Analyse Warehouse Transformation Monitor Data-Warehouse- Manager Metadaten- Manager Datenfluss Kontrollfluss Repository Data-Warehouse-System Folie 4
5 REFERENZARCHITEKTUR DWS-Referenzarchitektur Phasen des Data Warehousing I/II (vgl. Bauer und Günzel, 2001) Bereich der Datenbeschaffung Datenquelle(n) Extraktion Arbeitsbereicdatenbank Laden Basis- Laden Data Analyse Warehouse Monitor 1 Transformation 3 Data-Warehouse- Manager Metadaten- Manager Datenfluss Kontrollfluss Repository Data-Warehouse-System Folie 5
6 REFERENZARCHITEKTUR DWS-Referenzarchitektur Phasen des Data Warehousing II/II (vgl. Bauer und Günzel, 2001) Phasen des Data Warehousing 1. Überwachung der Quellen auf Änderungen durch Monitore 2. Kopieren der relevanten Daten mittels Extraktion in (temporären) Arbeitsbereich 3. Transformation der Daten im Arbeitsbereich (Datenbereinigung bzw. Qualitässicherung und Datenintegration) 4. Kopieren der Daten in integrierte Basisdatenbank als Grundlage für verschiedene Analysen und Quelle für DWH(s) 5. Laden der Daten in DWH(s) 6. Analyse Operationen auf Daten des DWH zur Steuerung Data-Warehouse-Manager Folie 6
7 REFERENZARCHITEKTUR DWS-Referenzarchitektur Data-Warehouse-Manager I/II (vgl. Bauer und Günzel, 2001) Zentrale Komponente eines Data-Warehouse-Systems Initiierung, Steuerung und Überwachung der einzelnen Prozesse Kontrolle des Data-Warehouse-Prozesses Initiierung des Datenbeschaffungsprozesses in regelm. Zeitabständen jede Nacht, am Wochenende bei Änderung einer Quelle auf explizites Verlangen eines Nutzers (Administrators) Starten der Datenextraktion aus Quellen und Übertragung in Arbeitsbereich des DWS später mehr hierzu Nach Auslösen des Ladeprozesses Überwachung der weiteren Schritte (Bereinigung, Integration ) Koordination der Verarbeitungsreihenfolge Folie 7
8 REFERENZARCHITEKTUR DWS-Referenzarchitektur Data-Warehouse-Manager II/II (vgl. Bauer und Günzel, 2001) Im Fehlerfall Dokumentation von Fehlern Wiederanlaufmechanismen Zugriff auf Metadaten aus dem Repository zur Steuerung der Abläufe insbesondere Parametrisierung involvierter Komponenten Bereich der Datenbeschaffung Datenquelle(n) Extraktion Arbeitsbereicdatenbank Laden Basis- Laden Data Analyse Warehouse Transformation Monitor Data-Warehouse- Manager Folie 8
9 REFERENZARCHITEKTUR DWS-Referenzarchitektur Datenquellen I/III (vgl. Bauer und Günzel, 2001) Lieferanten der Daten und Metadaten für das DWH gehören selbst nicht zum DWS können intern (z.b. die Daten eines Unternehmens selbst) oder extern (z.b. Internet) sein heterogen bzgl. Struktur, Inhalt und Schnittstellen DBen, Dateien, Internet-Seiten...) Auswahl der Quellen und die Qualität der Daten ist von besonderer Bedeutung Faktoren bei der Quellenauswahl (siehe hierzu auch Folien 11 und 12) Zweck des DWH bzw. DWS Qualität der Quelldaten... Verfügbarkeit rechtlich, organisatorisch, technisch, zeitlich Preis für Erwerb der Daten speziell bei externen Quellen Folie 9
10 REFERENZARCHITEKTUR DWS-Referenzarchitektur Datenquellen II/III (vgl. Bauer und Günzel, 2001) Kriterien zur Klassifikation von Datenquellen Herkunft Zeit intern, extern aktuell, historisch Nutzungsebene Primärdaten, Metadaten Inhalt Darstellung Kodierung Vertrauen Zahl, Zeichenkette, Grafik, Dokument numerisch, alphanumerisch, BLOB Sprache und Zeichensatz Grad der Vertrauens- bzw. Glaubwürdigkeit Qualität (siehe folgende Folie) Folie 10
11 REFERENZARCHITEKTUR DWS-Referenzarchitektur Datenquellen III/III (vgl. Bauer und Günzel, 2001) Kriterien zur Einschätzung der Datenqualität einer Quelle Konsistenz Korrektheit Widerspruchsfreiheit Übereinstimmung mit der Realität Vollständigkeit z.b. keine fehlenden Werte oder Attribute Genauigkeit Granularität z.b. Anzahl der Nachkommastellen z.b. tages- oder monatsgenaue Daten Zuverlässigkeit & Glaubwürdigkeit wie etwa Nachvollziehbarkeit der Entstehung der Daten oder die Vertrauenswürdigkeit eines Datenlieferanten Verständlichkeit insbesondere inhaltliche und technische bzw. strukturelle Adäquatheit für jeweilige Zielgruppe Verwendbarkeit/Relevanz z.b. geeignetes Format oder Zweckdienlichkeit Folie 11
12 REFERENZARCHITEKTUR DWS-Referenzarchitektur Monitor I/I (vgl. Bauer und Günzel, 2001) Beobachtung der Datenquellen Ziel: Entdecken von Veränderungen in einer Datenquelle i.allg. existiert ein Monitor pro Quelle Folie 12
13 REFERENZARCHITEKTUR DWS-Referenzarchitektur Arbeitsbereich I/I (vgl. Bauer und Günzel, 2001) Der Arbeitsbereich ist die zentrale Datenhaltungskomponente des Datenbeschaffungsbereichs (engl. staging area) Temporärer Zwischenspeicher zur Datentransformation Schnittstelle zwischen Quellen und Basisdatenbank bzw. DWH Ausführung von (zeitaufwändigen) Transformationen direkt im Arbeitsbereich bspw. Transformationenen zur Datenbereinigung und -Integration etc. Laden der transformierten Daten in das DWH bzw. die Basisdatenbank erst nach erfolgreichem Abschluss ihrer Transformation Vorteile für Quellen und DWH keine Beeinflussung der Quellen oder des DWH keine Übernahme fehlerbehafteter Daten in das DWH Folie 13
14 REFERENZARCHITEKTUR DWS-Referenzarchitektur Extraktion I/I (vgl. Bauer und Günzel, 2001) Übertragen der gewünschten Quelldaten in den Arbeitsbereich des DWS Aktivierung ist abhängig von Monitoring-Strategie periodisch Ereignisgesteuert z.b. nach gewisser Anzahl von Änderungen auf Anfrage eines Nutzers (Administrators) sofortige Extraktion Technische Grundlage Nutzung von Standardschnittstellen zu operativen Systemen z.b. vielfach ODBC oder JDBC Berücksichtigt i.allg. Ausnahmebehandlung zur Fortsetzung im Fehlerfall Folie 14
15 REFERENZARCHITEKTUR DWS-Referenzarchitektur Transformation I/I (vgl. Bauer und Günzel, 2001) Vorbereitung und Anpassung der Daten für das Laden in die Basisdatenbank bzw. das DWH inhaltlich: Daten-/Instanzintegration und Bereinigung strukturell: Schemaintegration Überführung aller Daten in ein einheitliches Format Datentypen, Datumsangaben, Maßeinheiten, Kodierungen, Kombination bzw. Separierung von Attributwerten etc. Qualitätsanforderungen Schemaanforderungen Beseitigung von Verunreinigungen (engl. Data Cleaning bzw. Data Cleansing) fehlerhafte oder fehlende Werte, Redundanzen und veraltete Werte identifizieren und handhaben Datenmigration Datenbereinigung Folie 15
16 REFERENZARCHITEKTUR DWS-Referenzarchitektur Laden I/I (vgl. Bauer und Günzel, 2001) Übertragung der transformierten Daten in die Basisdatenbank bzw. das DWH Technische Grundlage Nutzung spezieller Ladewerkzeuge z.b. SQL*Loader von Oralce) Bulk-Laden Schnelles Laden großer Datenmengen. Historisierung beachten! Änderung in Quellen dürfen DWH-Daten nicht überschreiben stattdessen zusätzliches Abspeichern Folie 16
17 REFERENZARCHITEKTUR DWS-Referenzarchitektur Basisdatenbank I/I (vgl. Bauer und Günzel, 2001) Integrierte (physische) Datenbasis für verschiedene Analysen und Quelle für DWH(s); Basisdatenbank ist i.d.r. allgemeiner als DWH(s) unabhängig von konkreten Analysen d.h. insbesondere zumeist noch keine analysespezifische Datenaufbereitung Versorgung des DWH (auch mehrerer DWHs) mit qualitätsgesicherten Daten Anmerkung: Die Basisdatenbank wird in der Praxis oft weggelassen entspricht Operational Data Store (ODS) nach W.H. Inmon Folie 17
18 REFERENZARCHITEKTUR DWS-Referenzarchitektur Data Warehouse I/I (vgl. Bauer und Günzel, 2001) DB für Analysezwecke orientiert sich in Struktur und Inhalt an Analysebedürfnissen Grundlage sind oft (relationale) DBen Besonderheiten: Unterstützung des Ladeprozesses in das DWH Schnelles Laden großer Datenmengen Massenlader (bulk loader) unter Umgehung von Mehrbenutzerkoordination und Konsistenzprüfung Unterstützung des Analyseprozesses Effiziente Anfrageverarbeitung durch spezielle Indexstrukturen und Caching Folie 18
19 REFERENZARCHITEKTUR DWS-Referenzarchitektur Analyse I/I (vgl. Bauer und Günzel, 2001) Nutzung der gesammelten Daten in Datenanalysewerkzeugen. Hierbei kommen i.d.r. verschiedene Werkzeuge zur Navigation/Sichtung und Analyse mit verschiedenen Techniken zum Einsatz. Analysemöglichkeiten sind vielfältig einfache Operationen (z.b. Aggregation, Visualisierung) Online Analytical Processing oder komplexe statistische Untersuchungen... bis hin zu Knowledge Discovery in Databases Data Mining... oder auch Aufbereitung der Ergebnisse für Weiterverarbeitung bzw. Weitergabe Grundlage für Entscheidungen praktische Umsetzung Folie 19
20 REFERENZARCHITEKTUR DWS-Referenzarchitektur Analyse Data Marts I/II (vgl. Bauer und Günzel, 2001) Bereich der Datenbeschaffung Data Marts Datenquelle(n) Extraktion Arbeitsbereicdatenbank Laden Basis- Laden Data Analyse Warehouse Transformation Monitor Data-Warehouse- Manager Metadaten- Manager Datenfluss Kontrollfluss Repository Data-Warehouse-System Folie 20
21 REFERENZARCHITEKTUR DWS-Referenzarchitektur Analyse Data Marts II/II (vgl. Bauer und Günzel, 2001) Konzept zur Bereitstellung einer inhaltlich beschränkten Sicht auf das DWH z.b. für eine spezielle Abteilung Zweck der Data Marts? Eigenständigkeit, Datenschutz, Lastverteilung, Datenvolumen etc. Folie 21
22 REFERENZARCHITEKTUR DWS-Referenzarchitektur Repository I/I (vgl. Bauer und Günzel, 2001) Speicherung der Metadaten des DWS erfolgt in Repository des DWS Metadaten Informationen, die Aufbau, Wartung und Administration des DWS vereinfachen/ermöglichen und eine wichtige Grundlage zur Informationsgewinnung darstellen Beispiele Datenbankschemata Zugriffsrechte, Prozessinformationen (Verarbeitungsschritte & Parameter)... Folie 22
23 REFERENZARCHITEKTUR DWS-Referenzarchitektur Metadaten Manager I/I (vgl. Bauer und Günzel, 2001) Der Metadatenmanager ist die zentrale Instanz im Kontext des Metadatenmanagements Steuerung der Metadatenverwaltung Zugriff, Anfrage und Navigation Versions- und Konfigurationsverwaltung Varianten allgemein einsetzbar: erweiterbares Basisschema werkzeugspezifisch: fester Teil von Werkzeugen Beobachtung in der Praxis: Häufig Integration von bzw. Austausch zwischen dezentralen Metadatenmanagementsystemen notwendig Folie 23
24 REFERENZARCHITEKTUR DWS-Referenzarchitektur (vgl. Bauer und Günzel, 2001) Bereich der Datenbeschaffung Datenquelle(n) Extraktion Arbeitsbereicdatenbank Laden Basis- Laden Data Analyse Warehouse Transformation Monitor Data-Warehouse- Manager Metadaten- Manager Datenfluss Kontrollfluss Repository Data-Warehouse-System Bleibt die Frage Wie sieht der Weg zur Instantiierung eines solchen Systems aus? Folie 24
25 REFERENZARCHITEKTUR DWS-Entwurf natürlich ein Prozess Niemals unterschätzen! sieht vertraut aus Folie 25
26 KDD & DATA MINING Begriffe KDD & Data Mining Knowledge Discovery in Databases KDD is the nontrivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data. (Fayyad et al., 1996) KDD ist ein interaktiver, mehrstufiger und iterativer Prozess. Ein zentraler Prozessschritt ist dabei das Data Mining. Data Mining [...] data mining the automatic creation of a model that identifies relevant trends and patterns in source data [...] (Woods & Kyral, 1997) Was sind essentielle Aspekte des Data Mining? automatische Verfahren (Interaktion KDD) Algorithmen erkunden große/komplexe Datenmengen Folie 26
27 KDD & DATA MINING Der Prozess des KDD Was passiert bei der Exploration von Daten? Exploratory data analysis is detective work numerical detective work or counting detective work or graphical detective work (Tukey, 1977) Folie 27
28 KDD & DATA MINING Der Prozess des KDD Was passiert bei der Exploration von Daten? M D W A I Frage Design Erhebung Analyse Antwort Routine-Erhebungen Ungeplante Erhebungen Folie 28
29 KDD & DATA MINING Der Prozess des KDD Was passiert bei der Exploration von Daten? M D W A I Frage Design Erhebung Analyse Antwort Routine-Erhebungen Ungeplante Erhebungen Unterstützung durch Data Mining Möglichkeiten Limitierungen! Folie 29
30 KDD & DATA MINING Der Prozess des KDD (vgl. Fayyad et al., 1996) Folie 30
31 KDD & DATA MINING Der Prozess des KDD nach Fayyad (1996) I/II Selection In dieser Phase wird in Abhängigkeit vom Anwendungsgebiet und der dort untersuchten Fragestellung der im weiteren Verlauf betrachtete Datenausschnitt definiert. Preprocessing Die zuvor selektierten Daten werden bspw. bzgl. ihrer Konsistenz geprüft und ggf. die Konsistenz innerhalb der Daten hergestellt. Hierbei werden z.b. uneinheitliche Darstellungen gleicher Inhalte von Datenfeldern auf eine für die weitere Analyse verbindliche Darstellung vereinheitlicht. Transformation Die in den vorangegangenen Phasen selektierten und vorverarbeiteten Daten werden in dieser Phase nach Bedarf, d.h. insbesondere unter Berücksichtigung der untersuchten Fragestellung, aggregiert/verdichtet oder in anderer Form transformiert. Hierdurch wird das im anschließenden Data-Mining-Schritt zu verarbeitende Datenvolumen i.d.r. reduziert und vor dem Hintergrund eines Anwendungsgebiets oder einer anzuwendenden Data-Mining-Technik notwendig erscheinende Transformationsschritte müssen nicht erst während der automatischen Analyse berechnet werden. Folie 31
32 KDD & DATA MINING Der Prozess des KDD nach Fayyad (1996) II/II Data Mining Die transformierten Daten werden durch eine adäquat erscheinende Data-Mining- Technik automatisch nach Mustern, charakteristischen Phänomenen oder Zusammenhängen durchsucht. Interpretation Die Resultate des Data Mining werden in dieser Phase vor dem Hintergrund des Anwendungsgebiets und der hierin untersuchten Fragestellung ausgewertet und bzgl. ihrer Qualität bewertet. Hierbei sind insbesondere Triviale oder bzgl. ihrer Plausibilität bzw. Validität fragwürdige Resultate zu identifizieren, wie sie etwa aufgrund von Artefakten oder Fehlern innerhalb der Daten (i.allg. mangelhafte Datenqualität) entstehen können. Hierbei ist größte Sorgfalt geboten, um Artefakte oder Datenfehler nicht etwa fälschlicherweise als Phänomene anzusehen. Folie 32
33 KDD PROZESSMODELLE KDD verschiedene Prozessmodelle (Übersicht) Task Analysis Preprocessing Data Mining Postprocessing Deployment CRISP-DM Business Understanding Data Understanding Data Preparation Modelling Evaluation Deployment nach Fayyad Selection Preprocessing Transformation Data Mining Interpretation/ Evaluation nach Brachman & Anand Task Discovery Data Discovery Data Cleaning Model Development Data Analysis Output Generation nach Hippner & Wilde Aufgabendefinition Auswahl der Daten Datenaufbereitung Auswahl der DM-Verf. Anwend. der DM-Verf. Interpretation/ Evaluation Anwendung der Ergebnisse SEMMA Sample Explore Modify/ Manage Model Assess nach Wrobel et al. Anwendung verstehen Extraktion/ Integration DM-Verfahren wählen Analysedaten erzeugen Verfahrensanwendung Ergebnisverarbeitung Umsetzung IBM Intelligent Miner Auswählen Umsetzen Data Mining Interpretieren Folie 33
34 KDD PROZESSMODELLE KDD verschiedene Prozessmodelle (grundlegende Phasen) Task Analysis Ziel-/Aufgabendefinition und Festlegung des Analyserahmens Preprocessing Datensammlung, -aufbereitung und -transformation Data Mining Kern-Phase der Datenanalyse ( Modellextraktion ) Postprocessing Ergebnissaufbereitung und Evaluation Deployment Umsetzung/Anwendung der Ergebnisse Task Analysis, Preprocessing und Postprocessing sind in der Praxis i.d.r. sehr Zeitaufwändig! Folie 34
35 DATA MINING BEISPIEL I/II Assoziationsanalyse I/III Ziel der Assoziationsanalyse ist die Analyse sachlicher Verbundbeziehungen in Transaktionen z.b. beim Produkterwerb im Supermarkt Resultat sind Aussagen der folgenden Form In 40% der Fälle, in denen Zahnbürsten gekauft werden, wird auch Zahnpasta gekauft. Beide Produkte kommen in 0,8% aller Transaktionen vor. Praktische Fragestellung: Welche Produkte werden oft zusammen gekauft. Cross-Selling: Wer A kauft, kauft vielfach auch B Anhaltspunkte zur Optimierung der Präsentation bzw. Platzierung von Produkten in Werbematerialien oder Supermarktregalen. Gezieltes Bewerben von Käufern bestimmter Produkte. Folie 35
36 DATA MINING BEISPIEL I/II Assoziationsanalyse II/III Schema einer Assoziationsregel Assoziationsregel Prämisse (unabhängige Variable) wenn A Konsequenz (abhängige Variable) dann B Konfidenz Support Lift strukturelle Komponenten Gütekriterien wenn Zahnbürste, dann Zahnpasta Konfidenz = 40%; Support = 0,8%; Lift = 20 Support Konfidenz Lift := Anteil an gesamten Transaktionen := Quotient aus Anzahl der Transaktionen die im wenn-dann-part enthalten sind und der Anzahl der Transaktionen aus der wenn-bedingung := Konfidenz / erwartete Konfidenz (siehe nächste Folie) Folie 36
37 DATA MINING BEISPIEL I/II Assoziationsanalyse III/III Vollständiges Beispiel Eine Supermarkt habe Transaktionen an den Kassen, wobei davon das Produkt Zahnbürste enthielten, darunter 800, die ebenfalls das Produkt Zahnpasta enthielten. Assoziationsregel (ohne Einschätzung der Güte): Wenn Zahnbürste gekauft wird, dann wird auch Zahnpasta gekauft. Support: 800/ = 0,008 (also 0,8%) Konfidenz: 800/2.000 = 0,4 (also 40%) Produkt Zahnpasta taucht in insgesamt Transaktionen auf. Somit ist die erwartete Konfidenz: 2.000/ = 0.02 Lift: 0,4 / 0,02 = 20 Folie 37
38 DATA MINING BEISPIEL II/II Klassifikation I/V Ziel der Klassifikation ist es, Objekte einer Eingabedatenmenge zu (vorgegebenen) Klassen zuzuordnen. Die Merkmale der Objekte müssen hierzu bei der Klassifikation derart in einen funktionalen Zusammenhang gebracht werden, sodass deren Abbildung auf eine Klasse möglich wird. Die der Klassifikation zugrunde liegenden Kriterien und ihr funktionaler Zusammenhang wird beim Data Mining anhand von Daten gelernt. Anwendungssituationen Welche (zukünftigen) Kunden bedeuten für eine Versicherung ein hohes Risiko? Welche (zukünftigen) Kunden eines Kreditinstituts erscheinen Kreditwürdig? Folie 38
39 DATA MINING BEISPIEL II/II Klassifikation II/V Training Lernen der Kriterien zur Zuordnung von Objekten zu Klassen Gegeben: Menge von Trainingsobjekten, die durch Merkmale (unabhängige Variablen) charakterisiert sind. Information über Klassenzugehörigkeit (abhängige Variable). Resultat: Klassendefinitionen Anwendung Zuordnung von Objekten zu Klassen Gegeben: Objektbeschreibungen durch Angabe der Merkmale. Resultat: Klassenzuordnung Folie 39
40 DATA MINING BEISPIEL II/II Klassifikation III/V Beispiel I/III Gegeben ist eine Menge von Daten (Bilanzdaten/Kennzahlen) über verschiedene Firmen: U = G = E = F = UG = FE = Umsatz Gewinn Eigenkapital Fremdkapital Gewinnanteil am Umsatz Fremdkapital/Eigenkapital Jeder Datensatz ist einer von zwei Klassen zugeordnet: kw = nkw = kreditwürdig nicht-kreditwürdig Bilanzdaten Kennzahlen Welche Attributwerte bestimmen, ob eine Firma kreditwürdig ist? Folie 40
41 DATA MINING BEISPIEL II/II Klassifikation IV/V Beispiel II/III U < 5 Mio U > 50 Mio 5 Mio U 50 Mio UG 20 UG > 20 UG 5 UG > 5 UG 5 UG > 5 nkw kw nkw kw kw FE 5 FE > 5 nkw kw Folie 41
42 DATA MINING BEISPIEL II/II Klassifikation V/V Beispiel III/III Ein Entscheidungsbaum ist offenbar eine grafische Darstellung von Regeln: die Knoten des Baums entsprechen Entscheidungen an den Wurzel sind die Klassen notiert Beispiel: U < 5 Mio und UG 20 nkw Wenn der Umsatz kleiner als 5 Mio ist und der Gewinn weniger als (bzw. gleich) 20% des Umsatzes beträgt, dann ist die Firma nicht kreditwürdig. Folie 42
43 LITERATUR A. Bauer & H. Günzel (Hrsg.) (2001). Data Warehouse Systeme Architektur, Entwicklung, Anwendung. dpunkt.verlag. M. Ester & J. Sander (2000). Knowledge Discovery in Databases Techniken und Anwendungen. Springer-Verlag. U.M. Fayyad, G. Piatetsky-Shapiro & P. Smyth (1996). Knowledge Discovery and Data Mining: Towards a Unifying Framework. In E. Simoudis, J.W. Han & U. Fayyad (Hrsg.), Proceedings of the 2 nd International Conference on Knowledge Discovery and Data Mining, AAAI Press, Seiten U.M. Fayyad, G. Piatetsky-Shapiro & P. Smyth (1996). From data mining to knowledge discovery in databases. AI Magazine 17, Fall 1996, Seiten F. Köster (2002). Analyse von Simulationsmodellen mit Methoden des Knowledge Discovery in Databases. Dissertation, Carl von Ossietzky Universität Oldenburg (Fachbereich Informatik). Oldenburger Satz & Einband. F. Köster & K. Mehl (2003). A Data-Driven Approach to Support the Development of Agents Assisting the Assessment and Diagnosis of Man/Machine Interactions. 12th International Symposium on Aviation Psychology, Dayton (OH), USA Proceedings, Seiten E. Woods & E. Kyral (1997). Ovum Evaluates: Data Mining. Ovum Evaluates, Ovum Ltd. Folie 43
44 Ende von Kapitel 16: Data Warehousing und Knowledge Discovery in Databases
Data-Warehouse-Architektur
Data-Warehouse-Architektur ƒ Anforderungen ƒ Referenzarchitektur ƒ Phasen des Data Warehousing ƒ Komponenten Vorlesung Data-Warehouse-Technologien 2-1 Anforderungen des Data Warehousing ƒ Unabhängigkeit
Anforderungen des Data Warehousing. 2. Data-Warehouse-Architektur. Anforderungen des Data Warehousing. Referenzarchitektur. Data-Warehouse-Manager
2. Data-Warehouse-Architektur Anforderungen Referenzarchitektur Phasen des Data Warehousing Komponenten Anforderungen des Data Warehousing Unabhängigkeit zwischen Datenquellen und Analysesystemen (bzgl.
Data-Warehouse-Architektur
Data-Warehouse-Architektur Anforderungen Referenzarchitektur Phasen des Data Warehousing Komponenten VL Data Warehouses, WS 2000/2001 2-1 Anforderungen des Data Warehousing Unabhängigkeit zwischen Datenquellen
Data Mining Anwendungen und Techniken
Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses
Business Intelligence Data Warehouse. Jan Weinschenker
Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data
Teil II Data-Warehouse-Architektur
Teil II Data-Warehouse-Architektur Data-Warehouse-Architektur 1 Anforderungen 2 Referenzarchitektur 3 Phasen des Data Warehousing 4 c Sattler / Saake / Köppen Data-Warehouse-Technologien Letzte Änderung:
Architektur eines Data Warehouse Systems. Mario Jandeck
Architektur eines Data Warehouse Systems Mario Jandeck Agenda Folie 2 von 24 1. Die Referenzarchitektur 2. Komponenten des Data Warehouse Systems 3. Datenbeschaffung und Qualität 4. Analyse im Data Warehouse
Data Mining-Projekte
Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein
Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG
Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information
Datenmanagement. Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau. Strategisches Informationsmanagement 1 (01/2006)
Simone Unfried, Passau Vitaly Aleev, Passau Claus Schönleber, Passau (01/2006) Strategisches Informationsmanagement 1 Definition Notwendige Vermaischung der Daten in der Vorstufe zur Destillation von hochprozentiger
Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery
Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?
Agile Vorgehensmodelle in der Softwareentwicklung: Scrum
C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was
Data-Warehouse-Architektur. Anforderungen des Data Warehousing. Anforderungen Referenzarchitektur Phasen des Data Warehousing Komponenten
Data-Warehouse-Architektur Anforderungen Referenzarchitektur Phasen des Data Warehousing Komponenten Vorlesung Data-Warehouse-Technologien 2-1 Anforderungen des Data Warehousing Unabhängigkeit zwischen
Database Exchange Manager. Infinqa IT Solutions GmbH, Berlin Stralauer Allee 2 10245 Berlin Tel.:+49(0) 30 2900 8639 Fax.:+49(0) 30 2900 8695
Database Exchange Manager Replication Service- schematische Darstellung Replication Service- allgemeines Replikation von Daten von bzw. in ein SAP-System und einer relationalen DMS-Datenbank Kombination
Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse
Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher
Survival Guide für Ihr Business Intelligence-Projekt
Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren
Kapitel 2 Terminologie und Definition
Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale
PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28.
PPC und Data Mining Seminar aus Informatik LV-911.039 Michael Brugger Fachbereich der Angewandten Informatik Universität Salzburg 28. Mai 2010 M. Brugger () PPC und Data Mining 28. Mai 2010 1 / 14 Inhalt
Data Warehouse Theorie und Praxis. Ali Khabbazian T-Systems
Data Warehouse Theorie und Praxis Ali Khabbazian T-Systems Agenda Was ist Data Warehouse? Warum Data Warehouse? Architektur und Komponenten Wie realisiere ich mein Data-Warehouse- System? (Tools und Technik)
Autorisierung. Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente
Autorisierung Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente Dokumentation zum Referat von Matthias Warnicke und Joachim Schröder Modul: Komponenten basierte Softwareentwickelung
BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit
BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon
Kurzanleitung. Zuordnung eines Moodle-Kurses in TUMonline
Kurzanleitung Zuordnung eines Moodle-Kurses in TUMonline Inhalt 1 Allgemeine Informationen... 2 2 Kategorie elearning zuordnen... 2 3 Wo ist die Kategorie nach der Zuteilung zu finden?... 4 4 Wann wird
Metadaten bei der Digitalisierung von analogen archivalischen Quellen. Kathrin Mileta, Dr. Martina Wiech
Metadaten bei der Digitalisierung von analogen archivalischen Quellen Kathrin Mileta, Dr. Martina Wiech 2014 Metadaten Aufgabe des LAV NRW im DFG-Pilotprojekt zur Digitalisierung archivalischer Quellen:
BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen 11.15 11.45
9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics
Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.
Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung
Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH
Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele
Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze
Ihre Interessentendatensätze bei inobroker Wenn Sie oder Ihre Kunden die Prozesse von inobroker nutzen, werden Interessentendatensätze erzeugt. Diese können Sie direkt über inobroker bearbeiten oder mit
Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer
Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer Klassendiagramme Ein Klassendiagramm dient in der objektorientierten Softwareentwicklung zur Darstellung von Klassen und den Beziehungen,
Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96
Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96 Dieser Fragenkatalog wurde aufgrund das Basistextes und zum Teil aus den Prüfungsprotokollen erstellt, um sich auf mögliche
Cad-OasEs Int. GmbH. 20 Jahre UG/NX Erfahrung prägen Methodik und Leistungen. Nutzen Sie dieses Wissen!
Cad-OasEs Int. GmbH 20 Jahre UG/NX Erfahrung prägen Methodik und Leistungen Nutzen Sie dieses Wissen! Roland Hofmann Geschäftsführer der Cad-OasEs Int. GmbH Die Cad-OasEs bietet seit mehr als 20 Jahren
Data Mining als Arbeitsprozess
Data Mining als Arbeitsprozess Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 31. Dezember 2015 In Unternehmen werden umfangreichere Aktivitäten oder Projekte im Bereich des Data Mining
2. Einrichtung der ODBC-Schnittstelle aus orgamax (für 32-bit-Anwendungen)
1. Einführung: Über den ODBC-Zugriff können Sie bestimmte Daten aus Ihren orgamax-mandanten in anderen Anwendungen (beispielsweise Microsoft Excel oder Microsoft Access) einlesen. Dies bietet sich beispielsweise
Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse?
Ein Beispiel Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Dipl.-Kfm. Claus Häberle WS 2015 /16 # 42 XML (vereinfacht) visa
Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken
Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen
Allgemeines zu Datenbanken
Allgemeines zu Datenbanken Was ist eine Datenbank? Datensatz Zusammenfassung von Datenelementen mit fester Struktur Z.B.: Kunde Alois Müller, Hegenheimerstr. 28, Basel Datenbank Sammlung von strukturierten,
Persönliches Adressbuch
Persönliches Adressbuch Persönliches Adressbuch Seite 1 Persönliches Adressbuch Seite 2 Inhaltsverzeichnis 1. WICHTIGE INFORMATIONEN ZUR BEDIENUNG VON CUMULUS 4 2. ALLGEMEINE INFORMATIONEN ZUM PERSÖNLICHEN
SQL Server 2012 und SharePoint im Unternehmenseinsatz. Referent Daniel Caesar
SQL Server 2012 und SharePoint im Unternehmenseinsatz Referent Daniel Caesar sqlxpert Daniel Caesar Publikationen Themen SQL Server Admin, Entwicklung SharePoint Admin, Entwicklung.NET Entwicklung Rechtssichere
Data Warehouse Technologien
Veit Köppen Gunter Saake Kai-Uwe Sattler Data Warehouse Technologien Inhaltsverzeichnis Inhaltsverzeichnis vii 1 Einführung in Data-Warehouse-Systeme 1 1.1 Anwendungsszenario Getränkemarkt...............
Der Datenschutzbeauftragte. Eine Information von ds² 05/2010
Der Datenschutzbeauftragte Eine Information von ds² 05/2010 Inhalt Voraussetzungen Der interne DSB Der externe DSB Die richtige Wahl treffen Leistungsstufen eines ds² DSB Was ds² für Sie tun kann 2 Voraussetzungen
Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware
Datenübernahme von HKO 5.9 zur Advolux Kanzleisoftware Die Datenübernahme (DÜ) von HKO 5.9 zu Advolux Kanzleisoftware ist aufgrund der von Update zu Update veränderten Datenbank (DB)-Strukturen in HKO
Einführungsveranstaltung: Data Warehouse
Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring
How to do? Projekte - Zeiterfassung
How to do? Projekte - Zeiterfassung Stand: Version 4.0.1, 18.03.2009 1. EINLEITUNG...3 2. PROJEKTE UND STAMMDATEN...4 2.1 Projekte... 4 2.2 Projektmitarbeiter... 5 2.3 Tätigkeiten... 6 2.4 Unterprojekte...
Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining
Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe
Dies ist nur ein Beispielfall!
Der OEE-Wert (Overall Equipment Effectiveness) ist eine Kennzahl zur Berechnung und Analyse der Produktivität einer Maschine/Person u.ä. anhand eines Leistungswirkungsgrades! Er ermöglicht Ihnen klare
Suche schlecht beschriftete Bilder mit Eigenen Abfragen
Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere
IBM SPSS Modeler Entity Analytics - Erweiterte Konfiguration
IBM SPSS Entity Analytics - Erweiterte Konfiguration Einführung Die vorgesehene Zielgruppe für dieses Handbuch sind Systemadministratoren, die IBM SPSS Entity Analytics (EA) für die Ausführung in einer
Task: Nmap Skripte ausführen
Task: Nmap Skripte ausführen Inhalt Einfache Netzwerkscans mit NSE Ausführen des Scans Anpassung der Parameter Einleitung Copyright 2009-2015 Greenbone Networks GmbH Herkunft und aktuellste Version dieses
Grundbegriffe der Wirtschaftsinformatik Informationssystem I
Informationssystem I Keine Definition [Stahlknecht, Hasenkamp (2002) und Mertens et al. (2000)] Ein System zur Beschaffung, Verarbeitung, Übertragung, Speicherung und/oder Bereitstellung von Informationen
Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen
Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.
SDD System Design Document
SDD Software Konstruktion WS01/02 Gruppe 4 1. Einleitung Das vorliegende Dokument richtet sich vor allem an die Entwickler, aber auch an den Kunden, der das enstehende System verwenden wird. Es soll einen
OPERATIONEN AUF EINER DATENBANK
Einführung 1 OPERATIONEN AUF EINER DATENBANK Ein Benutzer stellt eine Anfrage: Die Benutzer einer Datenbank können meist sowohl interaktiv als auch über Anwendungen Anfragen an eine Datenbank stellen:
Look Inside: desite. modellorientiertes Arbeiten im Bauwesen. B.I.M.
Building Information Modeling Look Inside: desite modellorientiertes Arbeiten im Bauwesen. B.I.M. desite MD unterstützt Sie bei der täg lichen Arbeit mit Gebäudemodellen und ermöglicht den Zugang zu den
Gesicherte Prozeduren
Gesicherte Prozeduren Wenn eine Anwendung auf einer Client-Maschine läuft, wird normalerweise jede SQL-Anweisung einzeln vom Client an den Server gesandt, und jedes Ergebnistupel wird einzeln zurückgeliefert.
Internet Explorer Version 6
Internet Explorer Version 6 Java Runtime Ist Java Runtime nicht installiert, öffnet sich ein PopUp-Fenster, welches auf das benötigte Plugin aufmerksam macht. Nach Klicken auf die OK-Taste im PopUp-Fenster
Revit Modelle in der Cloud: Autodesk 360 Mobile
Revit Modelle in der Cloud: Autodesk 360 Mobile Die Präsentation Ihrer Revit Modelle kann auf unterschiedlichste Weise erfolgen. Diverse Cloud Plattformen bieten kostenlosen Speicherplatz und Freigabeoptionen
Content Management Datenbanken, Schnittstellen
Unterschiedlichste Informationen übersichtlich organisiert sypress Content Management Systemgruppe sypress bietet Ihnen Produkt oder Themen bezogen die Verwaltung beliebiger Inhalte. Die Speicherung erfolgt
StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung.
StuPro-Seminar Dokumentation in der Software-Wartung StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung Folie 1/xx Software-Wartung: theoretisch Ausgangslage eigentlich simpel: fertige
Handbuch zum Excel Formular Editor
Handbuch zum Excel Formular Editor Mit diesem Programm können Sie die Zellen von ihrer Excel Datei automatisch befüllen lassen. Die Daten können aus der Coffee Datenbank, oder einer weiteren Excel Datendatei
Parallels Mac Management 3.5
Parallels Mac Management 3.5 Deployment-Handbuch 25. Februar 2015 Copyright 1999 2015 Parallels IP Holdings GmbH und Tochterunternehmen. Alle Rechte vorbehalten. Alle anderen hierin erwähnten Marken und
Veit Köppen Gunter Saake Kai-Uwe Sattler. 2. Auflage. Data Warehouse Technologien
Veit Köppen Gunter Saake Kai-Uwe Sattler 2. Auflage Data Warehouse Technologien Inhaltsverzeichnis Inhaltsverzeichnis ix 1 Einführung in Data-Warehouse-Systeme 1 1.1 Anwendungsszenario Getränkemarkt...
Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER
Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos in Verbindung mit der Webshopanbindung wurde speziell auf die Shop-Software shop to date von DATA BECKER abgestimmt. Mit
ITIL und Entwicklungsmodelle: Die zwei Kulturen
Kombination von IT Service Management (ITIL) und Anwendungsentwicklung Kai Witte und Matthias Kaulke, München, den 30.03.2006 Rahmeninformationen Wo sind wir? Unternehmensdarstellung (1) Unabhängiges Beratungsunternehmen
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank
SEPA Lastschriften. Ergänzung zur Dokumentation vom 27.01.2014. Workshop Software GmbH Siemensstr. 21 47533 Kleve 02821 / 731 20 02821 / 731 299
SEPA Lastschriften Ergänzung zur Dokumentation vom 27.01.2014 Workshop Software GmbH Siemensstr. 21 47533 Kleve 02821 / 731 20 02821 / 731 299 www.workshop-software.de Verfasser: SK [email protected]
PQ Explorer. Netzübergreifende Power Quality Analyse. Copyright by Enetech 2000-2010 www.enetech.de Alle Rechte vorbehalten. ros@enetech.
1 PQ Explorer Netzübergreifende Power Quality Analyse 2 Ortsunabhängige Analyse: so einfach, wie noch nie PQ-Explorer ist ein Instrument, das die Kontrolle und Überwachung von Energieversorgungsnetzen
Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.
Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence
Projekt - Zeiterfassung
Projekt - Zeiterfassung Kosten eines Projektes? Zeit, die Ihre Mitarbeiter für ein Projekt aufgewendet haben? Projektkosten Stundensaldo Mitarbeiter Zeitaufwand Verrechenbare Kosten Wer machte was? Kostentransparenz
Typisierung des Replikationsplan Wirries, Denis Datenbankspezialist
Typisierung des Replikationsplan Wirries, Denis Datenbankspezialist Feintypisierung - Überblick Ergebnisse Ergebnisse aus aus anderen anderen Arbeitsergebnissen Arbeitsergebnissen Replikationsplan Replikationsplan
C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl
C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl
Umgang mit der Software ebuddy Ändern von IP Adresse, Firmware und erstellen von Backups von ewon Geräten.
ewon - Technical Note Nr. 001 Version 1.3 Umgang mit der Software ebuddy Ändern von IP Adresse, Firmware und erstellen von Backups von ewon Geräten. 19.10.2006/SI Übersicht: 1. Thema 2. Benötigte Komponenten
Business Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum
LOPEZ_SU AREZ_DAT ENANALYS E_ZERZEP
LEISTUNGSÜBERSICHT 2014 ÜBERBLICK Seite 2 Das Unternehmen Seite 3 Datenanalyse Seite 4 Prozessoptimierung Seite 5 Treuhand & Revision Seite 6 Interim Management Seite 7 Referenzen Seite 8 Kontakt Seite
Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller
Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität
Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:
Informationssystemanalyse Problemstellung 2 1 Problemstellung Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: große Software-Systeme werden im Schnitt ein Jahr zu spät
Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML
Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,
SharePoint Demonstration
SharePoint Demonstration Was zeigt die Demonstration? Diese Demonstration soll den modernen Zugriff auf Daten und Informationen veranschaulichen und zeigen welche Vorteile sich dadurch in der Zusammenarbeit
crm-now/ps Webforms Webdesigner Handbuch Erste Ausgabe
crm-now/ps Webforms Webdesigner Handbuch Erste Ausgabe crm-now/ps Webforms: Webdesigner Handbuch Copyright 2006 crm-now Versionsgeschichte Version 01 2006-08-21 Release Version crm-now c/o im-netz Neue
1 Lieferantenbewertung
1 Lieferantenbewertung Mit Hilfe der Lieferantenbewertung können alle aktiven Lieferanten nach ISO Kriterien bewertet werden. Die zur Bewertung hinterlegten Faktoren können individuell vorgegeben werden.
Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken.
Seite erstellen Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken. Es öffnet sich die Eingabe Seite um eine neue Seite zu erstellen. Seiten Titel festlegen Den neuen
Fassade. Objektbasiertes Strukturmuster. C. Restorff & M. Rohlfing
Fassade Objektbasiertes Strukturmuster C. Restorff & M. Rohlfing Übersicht Motivation Anwendbarkeit Struktur Teilnehmer Interaktion Konsequenz Implementierung Beispiel Bekannte Verwendung Verwandte Muster
Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.
Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,
Delta Audit - Fragenkatalog ISO 9001:2014 DIS
QUMedia GbR Eisenbahnstraße 41 79098 Freiburg Tel. 07 61 / 29286-50 Fax 07 61 / 29286-77 E-mail [email protected] www.qumedia.de Delta Audit - Fragenkatalog ISO 9001:2014 DIS Zur Handhabung des Audit - Fragenkatalogs
Häufig wiederkehrende Fragen zur mündlichen Ergänzungsprüfung im Einzelnen:
Mündliche Ergänzungsprüfung bei gewerblich-technischen und kaufmännischen Ausbildungsordnungen bis zum 31.12.2006 und für alle Ausbildungsordnungen ab 01.01.2007 Am 13. Dezember 2006 verabschiedete der
Drei Fragen zum Datenschutz im. Nico Reiners
Drei Fragen zum Datenschutz im Geoinformationswesen Nico Reiners 1. Frage Welche Geoinformationen sind personenbezogen? Personenbezug? Personenbezogene Daten sind Einzelangaben über persönliche oder sachliche
Mai 2006. Hauptseminar: Nichtrelationale Datenbanken Historisch-Kulturwissenschaftliche Informationsverarbeitung Universität zu Köln
Hauptseminar: Nichtrelationale Historisch-Kulturwissenschaftliche Informationsverarbeitung Universität zu Köln Mai 2006 Was ist eine Datenbank? Erweiterung relationaler um eine Deduktionskomponente Diese
PHIMEA MITARBEITERZUFRIEDENHEIT. Erkennen. Verstehen. Handeln. Mitarbeiter sind das Kapital in Ihrem Unternehmen
METHODISCHE UND STATISTISCHE BERATUNG Erkennen. Verstehen. Handeln. Mitarbeiter sind das Kapital in Ihrem Unternehmen...und bilden somit die Basis für nachhaltigen unternehmerischen Erfolg. Interne Befragungen
Tutorial Windows XP SP2 verteilen
Tutorial Windows XP SP2 verteilen Inhaltsverzeichnis 1. Einführung... 3 2. Windows XP SP2 bereitstellen... 3 3. Softwarepaket erstellen... 4 3.1 Installation definieren... 4 3.2 Installationsabschluss
INFORMATION LIFECYCLE MANAGEMENT
INFORMATION LIFECYCLE MANAGEMENT REVISIONSSICHERES LÖSCHEN UND RESTRUKTURIEREN VON DOKUMENTENSTRUKTUREN WOLFGANG EIGENBROD RAUM 1B02/03 CENIT EIM IT-TAG 13.06.2013 AGENDA 1. AUSGANGSLAGE - FAKTEN 2. INFORMATION
Die Beschreibung bezieht sich auf die Version Dreamweaver 4.0. In der Version MX ist die Sitedefinition leicht geändert worden.
In einer Website haben Seiten oft das gleiche Layout. Speziell beim Einsatz von Tabellen, in denen die Navigation auf der linken oder rechten Seite, oben oder unten eingesetzt wird. Diese Anteile der Website
4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.
Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel
Inhaltsverzeichnis: Definitionen Informationssysteme als Kommunikationssystem Problemlösende Perspektiven Allgemeine System Annäherung Fazit
Informationssysteme Inhaltsverzeichnis: Definitionen Informationssysteme als Kommunikationssystem Problemlösende Perspektiven Allgemeine System Annäherung Fazit Definitionen: Informationen Informationssysteme
Zentrum. Zentrum Ideenmanagement. Zentrum Ideenmanagement. Umfrage zur Nutzung von mobilen Endgeräten im Ideenmanagement
Zentrum Zentrum Ideenmanagement Zentrum Ideenmanagement Expertenkreis Technologie & Software Umfrage zur Nutzung von mobilen Endgeräten im Ideenmanagement Auswertung Fragebogen 2013 In 2011 hat der Expertenkreis
Datenbanken. Prof. Dr. Bernhard Schiefer. [email protected] http://www.fh-kl.de/~schiefer
Datenbanken Prof. Dr. Bernhard Schiefer [email protected] http://www.fh-kl.de/~schiefer Wesentliche Inhalte Begriff DBS Datenbankmodelle Datenbankentwurf konzeptionell, logisch und relational
IT-Unternehmensarchitektur Übung 01: IT-Strategie
IT-Unternehmensarchitektur Übung 01: IT-Strategie 29. April 2010 (Donnerstag) Fachgebiet Software-Architekturen, Prof. Dr. Robert Hirschfeld Dipl.-Math. Gernot Dern, Dipl.-Inform. (univ.) Wolfgang Keller,
Seminar C16 - Datenmodellierung für SAP BW
C16: Datenmodellierung für SAP BW Ein Seminar der DWH academy Seminar C16 - Datenmodellierung für SAP BW Dieses Seminar soll einen umfassenden Einblick in die Datenmodellierung beim Einsatz von SAP BW
Avira Management Console 2.6.1 Optimierung für großes Netzwerk. Kurzanleitung
Avira Management Console 2.6.1 Optimierung für großes Netzwerk Kurzanleitung Inhaltsverzeichnis 1. Einleitung... 3 2. Aktivieren des Pull-Modus für den AMC Agent... 3 3. Ereignisse des AMC Agent festlegen...
Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung
Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung Dr.-Ing. Frauke Weichhardt, Semtation GmbH Christian Fillies, Semtation GmbH Claus Quast, Microsoft Deutschland GmbH Prozessmodellierung
impact ordering Info Produktkonfigurator
impact ordering Info Copyright Copyright 2013 veenion GmbH Alle Rechte vorbehalten. Kein Teil der Dokumentation darf in irgendeiner Form ohne schriftliche Genehmigung der veenion GmbH reproduziert, verändert
Content Management System mit INTREXX 2002.
Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,
Data/Information Quality Management
Data/Information Quality Management Seminar WI/Informationsmanagement im Sommersemester 2002 Markus Berberov, Roman Eder, Peter Gerstbach 11.6.2002 Inhalt! Daten und Datenqualität! Einführung und Definition!
