Visualisierung der Imperfektion in multidimensionalen Daten

Größe: px
Ab Seite anzeigen:

Download "Visualisierung der Imperfektion in multidimensionalen Daten"

Transkript

1 Universität Karlsruhe (TH) Fakultät für Informatik Institut für Programmstrukturen und Datenorganisation (IPD) Hauptseminar Imperfektion und erweiterte Konzepte im Data Warehousing Visualisierung der Imperfektion in multidimensionalen Daten Seminararbeit von Cand.-Inform. Horst Fortner Sommersemester 2005

2

3 Inhaltsverzeichnis Abbildungsverzeichnis iii 8 Visualisierung der Imperfektion in multidimensionalen Daten Einführung Motivation Begriffe Visualisierung imperfekter Informationen im Straßenverkehr Benutzergruppen im Straßenverkehrsbereich Visualisierungstechniken (noch ohne Imperfektion) Erweiterung der drei vorgestellten Verfahren um Imperfektion Skizzierung des Visualisierungswerkzeugs Datenvisualisierung und Visual Data Mining (VDM) Einordnung des VDM Automatisiertes Data Mining und seine Schwächen Visuelle Datenexploration Beispiel-Einsatzgebiet für VDM: Kooperatives Data Mining Klassifizierung visueller Data Mining Techniken Einordnung und Vergleich Zusammenfassung und Ausblick Literaturverzeichnis 23 i

4 Inhaltsverzeichnis ii

5 Abbildungsverzeichnis 8.1 Übersicht der Visualisierungstechniken [For05] Bewertungstabelle Visualisierungstechniken [For05] Beispiel ThemeRiver [SHW02] Prinzip der parallelen Koordinaten [Spe01] Inxight Table Lens [IS] ThemeRiver ohne (li.) und mit (re.) Ergänzung um Ungenauigkeit - auf beiden Seiten ist die Unschärfe durch linguistische Variablen visualisiert. [For05] Parallele Koordinaten, erweitert um Imperfektion. [For05] Table Lens, erweitert um Imperfektion. [For05] Bewertung der um Imperfektion erweiterten Visualisierungstechniken. [For05] Paketstruktur im Visualisierungswerkzeug [For05] Einordnung des VDM zwischen Data Mining und Informationsvisualisierung [Fay96] VDM im KDD-Prozess [Fay96] Ansätze des visuellen Data Mining Exemplarischer Entscheidungsbaum [Ank04] Der interaktive Mining-Prozess mit DataJewel [Ank04] Die Visualisierungstechnik CalendarView [Ank04] Klassifikation visueller DM-Techniken [Kei01] iii

6

7 Horst Fortner 8 Visualisierung der Imperfektion in multidimensionalen Daten 8.1 Einführung Motivation Die Visualisierung multidimensionaler Daten verbessert typische Data Mining Anwendungen sowie OLAP-Anwendungen (Online Analytical Processing) und ermöglicht kooperatives Data Mining, bei dem der Benutzer interaktiv die Datenanalyse steuert. In dieser Seminararbeit werden zunächst bestehende Visualisierungstechniken daraufhin untersucht, wie sie sich um imperfekte Informationen erweitern lassen und anschließend bewertet. Weiterhin wird auf die Bedeutung des Visual Data Mining (VDM) eingegangen und erläutert, welche Rolle die Visualisierung im VDM spielt. Anschließend werden die vorgestellten Visualisierungstechniken sowie die VDM-Techniken mittels eines orthogonalen Klassifikationsschemas eingeordnet. Das letzte Kapitel fasst die Ergebnisse zusammen und gibt einen Ausblick auf interessante zukünftige Forschungszweige Begriffe Imperfekte Informationen: Es lässt sich eine Grobeinteilung imperfekter Informationen in drei Kategorien durchführen [Koo04], nämlich in unsichere, unscharfe und ungenaue Informationen. Unsicher ist eine Information, wenn nicht entschieden werden kann, ob sie wahr oder falsch ist. Unsichere Informationen treten z. B. in Wettervorhersagen auf, da diese Prognosen nur wahrscheinlich sind, nicht aber sicher. 1

8 8 Visualisierung der Imperfektion in multidimensionalen Daten Unscharf ist eine Information, wenn bei Verwendung von Kategorien für gewisse Eigenschaften keine eindeutige Grenze gezogen werden kann (linguistische Variablen), z.b. ist nicht scharf abgrenzbar, ob ein Mensch groß oder ein Produkt teuer ist. Ungenau ist eine Information, wenn sie durch Intervalle angegeben wird, die nicht beliebig genau (bzw. kurz) sein können, z. B. spricht man bei Messungen in der Physik von Messungenauigkeit. Visualisierung: Laut Wikipedia bedeutet Visualisierung, abstrakte Daten in eine angebrachte, verstehbare Form zu bringen. Dabei können Details weggelassen werden, die im Kontext vernachlässigbar sind. Visualisierte Daten müssen daher korrekt interpretiert werden. Diese Definition weist schon darauf hin, dass bei der Visualisierung Imperfektion implizit vorhanden sein kann, da Informationen ( Details ) weggelassen werden können. Im Rahmen dieser Seminararbeit bedeutet Visualisierung insbesondere die grafische Darstellung von multidimensionalen Datenmengen. Multidimensionale Daten: Dies bedeutet, dass es sich um Daten mit vielen Attributwerten handelt, die sich zu orthogonalen Dimensionen zusammenfassen lassen und als Ausgangsbasis für Analyseanwendungen dienen. 8.2 Visualisierung imperfekter Informationen im Straßenverkehr 1 Im Straßenverkehr treten imperfekte Informationen z.b. bei unsicheren Angaben von Staulängen, bei ungenauen Baustellenlängenangaben oder auch bei Berechnungen von Radiosendern, die den erwarteten Zeitverlust angeben. All diesen Beispielen ist gemein, dass sie dem Benutzer aber immerhin das ungefähre Ausmaß der zu erwartenden Verspätung aufzeigen. In diesem Kapitel werden zunächst die Benutzergruppen im Straßenverkehrsbereich identifiziert. Danach werden drei Visualisierungstechniken eingeführt und eine Einschätzung gegeben, wie gut diese für die Benutzergruppen geeignet sind. Anchließend werden diese Verfahren um Imperfektion erweitert und schließlich wird das Visualisierungswerkzeug aus der Studienarbeit [For05] skizziert Benutzergruppen im Straßenverkehrsbereich Verkehrsteilnehmer On-Trip: Für den Verkehrsteilnehmer On-Trip sind seine aktuelle Position und Geschwindigkeit sowie Informationen zum Verkehrsfluss besonders wichtig. Wird z. B. eine Straße gesperrt, benötigt er zwei Nachrichten: Eine beim Inkrafttreten der Sperrung und eine bei deren Aufhebung. Des Weiteren sind das Wetter sowie Baustellen ebenfalls von Interesse für diesen Verkehrsteilnehmer, 1 Die Ausführungen dieses Kapitels basieren auf der Studienarbeit [For05] von Oliver Forster 2

9 8.2 Visualisierung imperfekter Informationen im Straßenverkehr insbesondere wenn sie Einfluss auf den Verkehrsfluss haben (Eis, Nebel, nur einspurig befahrbare Baustellen etc.). Verkehrsteilnehmer Pre-Trip: Dieser Benutzertyp plant seine Route im Vorfeld und braucht dazu Informationen zum Verkehrsnetz. Im Vorfeld bekannte Störgrößen für den Verkehrsfluss, etwa Langzeitbaustellen oder auch gesperrte Straßen, sind für ihn wichtig. Auch das zu erwartende Verkehrsaufkommen (z. B. ein hohes Aufkommen zur Urlaubszeit) ist ein wichtiger Faktor bei seiner Planung. Das Wetter spielt, insbesondere bei früher Routenplanung, eine ungeordnete Rolle, da z.b. über eine Woche hinausgehende Wettervorhersagen zu unsicher sind, als dass sie als Entscheidungskriterium herhalten könnten. Verkehrsingenieur: Der Ingenieur benötigt alle Arten von Informationen zum Verkehrsnetz, damit er einen Überblick hat, wenn z.b. Umleitungen empfohlen werden sollen. Zudem ist der aktuelle Verkehrsfluss auf seinem Zuständigkeitsgebiet (und nicht etwa nur auf einer geplanten Route) von großer Bedeutung, da er auf Störfaktoren z. B. mit Umleitungen und Temporegulierungen reagieren kann und somit möglichst frühzeitig informiert werden sollte. Verkehrswissenschaftler: Für den Wissenschaftler sind vor allem aggregierte und statistisch nutzbare Daten interessant statt Einzeldaten wie ein Unfall. Je nach Art der Untersuchung, die er anstellt, können für ihn bestimmte Daten wichtig und andere irrelevant sein (das gesamte Verkehrsnetz spielt keine Rolle, wenn nur eine Strecke untersucht wird). Zusammenfassend lässt sich feststellen, dass verschiedene Informationen für die besprochenen Benutzergruppen von Bedeutung sind und jede Gruppe daher andere Anforderungen an die Visualisierung stellt Visualisierungstechniken (noch ohne Imperfektion) Nach der Identifikation der beteiligten Benutzergruppen und deren Anforderungen werden in diesem Abschnitt drei Visualisierungstechniken vorgestellt. Bewertungskriterien für Visualisierungstechniken im Hinblick auf die Benutzergruppen Um die drei vorzustellenden Visualisierungstechniken bewerten zu können, werden in diesem Abschnitt zunächst vier Bewertungskriterien eingeführt, welche eine qualitative Einordnung der Techniken ermöglichen und Aufschluss darüber geben, inwieweit sie für die zuvor vorgestellten Benutzergruppen geeignet sind. Übersichtlichkeit Dieses Kriterium bringt zum Ausdruck, wie schnell sich der Betrachter einer visualisierten Datenmenge die für ihn interessanten Informationen herauslesen kann und wie deutlich es erkennbar ist (z. B. auch ohne Exper- 3

10 8 Visualisierung der Imperfektion in multidimensionalen Daten tenwissen, denn deutlich erkennbar ist natürlich subjektiv). Negativ auf die Übersichtlichkeit wirkt sich eine zu große Detailtreue aus - insofern besteht hier Konfliktpotential bezüglich des Kriteriums der Vollständigkeit. Insbesondere für den Verkehrsteilnehmer ist dieses Kriterium hoch zu bewerten, die anderen Gruppen arbeiten beruflich damit, weshalb ihr Blick geschulter ist beim Erkennen wichtiger Informationen. Vollständigkeit Um die Vollständigkeit zu erfüllen, muss eine Visualisierungstechnik alle vorhandenen Daten mit in die Darstellung einbeziehen. Fehlen wichtige Informationen, etwa hohe Windgeschwindigkeiten bei in die Darstellung mit einbezogenem Glatteis, so ist die Darstellung nicht mehr vollständig zu nennen. Vor allem der Verkehrsingenieur und der Verkehrswissenschaftler fordern die Erfüllung dieses Kriteriums. Möglichkeit zur Interaktion Da der Benutzer nur eine begrenzte Zahl von Daten verarbeiten kann, sollte ihm die Möglichkeit gegeben werden, die Darstellung interaktiv zu verändern, z.b. durch das Weglassen von Informationen, deren andere Gewichtung oder auch durch die Navigation in Hierarchien. In [Spe01] wird als Beispiel für sog. Fokus + Kontext-Techniken der Fisheyeview genannt, der das Hauptaugenmerk auf einen Ausschnitt der Informationen lenkt und den Rest unscharf erscheinen lässt. Prinzipiell ist die Interaktionsmöglichkeit für alle Benutzergruppen von Interesse. Anwendbarkeit auf ein Verkehrsszenario Dieses nur auf den Verkehr bezogene Kriterium spielt in der Studienarbeit von Oliver Forster eine besondere Rolle, tritt hier aber in den Hintergrund. Dieses Kriterium bewertet, wie gut eine Technik sich im Verkehr einsetzen lässt unabhängig von den anderen drei Kriterien. Kategorien und Verfahren In Oliver Forsters Studienarbeit werden 18 Verfahren vorgestellt (siehe Abbildung 8.1) und sieben davon um Imperfektion erweitert. An dieser Stelle werde ich drei dieser Verfahren beschreiben, und zwar ThemeRiver aus der Kategorie Dokumente und Table Lens und Parallele Koordinaten aus der Kategorie Hochdimensionale Daten. Die restlichen Visualisierungsarten finden sich in Abbildung 8.2, und zwar jeweils mit Bewertung. Da diese Techniken in [For05] näher vorgestellt werden, verzichte ich hier auf die genaue Beschreibung aller 18 Verfahren. ThemeRiver Der ThemeRiver ist eine Visualisierungstechnik für Dokumente, die Veränderungen des thematischen Schwerpunkts innerhalb einer Menge Dokumente visualisiert. Der Themenfluss wird über die Zeitachse dargestellt, die Themenschwerpunkte werden farblich voneinander abgegrenzt, wobei die Dicke einer 4

11 8.2 Visualisierung imperfekter Informationen im Straßenverkehr Abbildung 8.1: Übersicht der Visualisierungstechniken [For05] Schicht proportional zur Bedeutung des Themas ist. Von einem Fluss spricht man, da zwischen diskreten Zeitpunkten z.b. mittels Splines interpoliert wird. Beim ThemeRiver sind Interaktion und das Zoomen auf der Zeitachse möglich. Diese relativ einfache und leicht verständliche Darstellung ermöglicht auch Laien einen einfachen Zugang. Der Verkehrsteilnehmer On-Trip und Pre-Trip sollte die Schaubilder daher gut verstehen können. In Abbildung 8.3 ist die Häufigkeit von Texten Fidel Castros im Zeitraum von November 1959 bis Juni 1961 dargestellt. Parallele Koordinaten Mittels paralleler Koordinaten lässt sich eine Vielzahl von Dimensionen auf zweidimensionalen Medien wie Papier oder Monitor ausgeben. Dazu werden alle Achsen (bzw. Variablen oder Attribute) des multidimensionalen Raums nebeneinander parallel angeordnet. Die Länge der parallelen Strecken spiegelt dabei den Wertebereich jedes Attributs wider, wobei die eingezeichneten Attributwerte als Punkte eingezeichnet und schließlich mit einer Linie verbunden werden (siehe Abbildung 8.4. Eine solche zur besseren Erkennbarkeit oft eingefärbte Linie stellt bei n Attributen ein einzelnes n-tupel dar. Ein großer Vorteil der parallelen Koordinaten ist, dass die beliebig vielen Attribute alle gleich behandelt werden. Interaktion ist dadurch gegeben, dass der Benutzer die Achsen anders anordnen kann, was dem besseren Verständnis der Beziehung zwischen zwei Attributen dienen kann. Zudem können Attribute (bzw. deren Achsen) auch ausgeblendet werden, was für eine gefilterte Darstellung sorgt und dieses Verfahren flexibel macht. Auch Vollständigkeit wird gewährleistet, da alle Attributwerte durch die Verwendung einer eigenen Achse visualisiert werden. Allerdings wird die Darstellung bei Einbeziehung aller Attribute schnell unübersichtlich, insbesondere wenn viele Tupel vorliegen und sich die Verbindungslinien der Tupel oft überkreuzen oder nah beieinander liegen. Experten der Interpretation von parallelen Koordinaten können dieser Visualisierung viele Informationen entnehmen, gerade auch durch die flexible Anordnung 5

12 8 Visualisierung der Imperfektion in multidimensionalen Daten Abbildung 8.2: Bewertungstabelle Visualisierungstechniken [For05] der Achsen. Während dem Verkehrsingenieur durch die aggregierte Darstellung der Blick auf einzelne Teilstrecken erschwert wird, eignet sich diese Technik sehr gut für den Verkehrswissenschaftler. Für den Pre-Trip Verkehrsteilnehmer erfordert diese Technik zu viel Einarbeitungszeit auf Grund der ungewohnten Darstellung mehrerer Achsen nebeneinander und überfordert den On-Trip Verkehrsteilnehmer völlig. Table Lens Die Table Lens Technik dient der Daten-Analyse durch den Benutzer, der diese interaktiv steuern kann. Wie in Abbildung 8.5 zu sehen ist, ist die Ausgabe tabellarisch aufgebaut. Interessante Bereiche werden mittels der Fokus + Kontext-Technik in den Vordergrund gerückt (ähnlich der Fisheye-Sicht), wodurch man auch in großen Datenmengen gezielt Informationen hervorheben kann. Für On-Trip Verkehrsteilnehmer eignet sich diese Darstellung auf Grund ihrer Komplexität nicht, ebenso wenig für den Pre-Trip. Für die beiden anderen Gruppen, Wissenschaftler und Ingenieur, ist die Technik hingegen gut geeignet eben durch ihre vollständige Darstellung mit Fokussierungsmöglichkeit Erweiterung der Verfahren um Imperfektion 2 Die Visualisierung der drei Aspekte der Imperfektion (Unsicherheit, Unschärfe, Ungenauigkeit) ist unterschiedlich einfach zu realisieren. Zudem lassen sich die drei vorgestellten Techniken nicht immer um alle Aspekte sinnvoll erweitern. Der ThemeRiver eignet sich für eine Erweiterung um Unschärfe, indem Linienstärke proportional zu einer linguistischen Variablen eingezeichnet wird (z.b. 2 Vgl. [For05]. 6

13 8.2 Visualisierung imperfekter Informationen im Straßenverkehr Abbildung 8.3: Beispiel ThemeRiver [SHW02] Abbildung 8.4: Prinzip der parallelen Koordinaten [Spe01] kein, wenig, viel beim Niederschlag in Abbildung 8.6). Unsicherheit lässt sich z.b. durch Musterungen wie im rechten Bild in Abbildung 8.6 darstellen, wobei der schraffierte Bereich ein Ungenauigkeitsintervall darstellt, in dem keine eindeutige Aussage darüber möglich ist, ob die Strecke z.b. frei ist oder ob Staugefahr herrscht. Ich denke, dass man die schraffierten Bereiche auch einfach durch eine weitere Farbe visualisieren könnte und dieser dann eine neue linguistische Variable zuweisen könnte, z.b. könnte man Frei/Staugefahr braun einfärben und Staugefahr/Stau orange, wodurch dann fünf statt drei Variablen vorhanden wären. Die in der Abbildung verwendete Schraffur verdeutlicht aber besser den Zusammenhang zwischen sicherer und unsicherer Information, da die voll ausgefüllten Linien einen sicheren Mindestwert darstellen und die Unsicherheit durch die Schraffur schnell als solche erkennbar ist. Bei den parallelen Koordinaten in Abbildung 8.7 ist die Unsicherheit im linken Bild durch den Graustufenwert visualisiert, wobei eine Linie einem Streckabschnitt der A5 entspricht und die Graustufe der Sicherheit des Datensatzes gemäß gewählt ist. An dieser Stelle möchte ich anmerken, dass man durch diese Darstellung etwas eingeschränkt ist, da man zum Beispiel nicht visualisieren kann, dass auf einem Streckenabschnitt ganz sicher kein Nebel vorhanden ist, man aber gleichzeitig über die Rutschgefahr keine Aussage treffen kann. Um unterschiedlichen Attributen wie Nebel und Rutschgefahr verschiedene Sicherheitsgrade zuzuweisen, würde ich hier eine kleine Erweiterung vorschlagen, und zwar wäre ein Wechsel der Graustufe innerhalb des Streckenzuges sinnvoll, sodass eine Linie beim Übergang von einem Attribut zum anderen in der Graustufe (und damit der Sicherheit der Information) veränderbar ist. Die Ungenauigkeit wird dadurch visualisiert, dass eine Linie vor 7

14 8 Visualisierung der Imperfektion in multidimensionalen Daten Abbildung 8.5: Inxight Table Lens [IS] einem mit Ungenauigkeit behafteten Attribut aufgespaltet und danach wieder zusammengeführt wird. Dies ist im Beispiel beim Attribut Niederschlag in der Mitte von Abbildung 8.7 zu sehen. Unschärfe lässt sich bei dieser Visualisierungstechnik schwieriger visualisieren. Im rechten Bild von Abbildung 8.7 sind die Werte der Zugehörigkeitsfunktion zu den linguistischen Variablen des Niederschlags, nämlich kein, schwach und stark um 90 gedreht zur Zeichenebene angetragen. Die Linie, die den Streckenabschnitt A5/73 repräsentiert, bedeutet nun, dass die Zugehörigkeitsfunktion viele Werte der linguistischen Variable kein zuordnet, wohingegen schwach und stark nur wenige Werte auf sich vereinen können, d.h. insgesamt kann man wohl zu Recht von keinem Niederschlag auf diesem Streckenabschnitt sprechen. Bei der Table Lens Technik lässt sich die Unsicherheit wie in Abbildung 8.8 auf der linken Seite zu sehen mittels Graustufen visualisieren, wobei dunklere Graustufen eine größere Sicherheit darstellen. Die Unschärfe wird durch einen für jede linguistische Variable jeweils anders gefärbten Balken dargestellt, dessen Länge proportional zu den Werten der Terme eingezeichnet wird. Die rechte Seite von Abbildung 8.8 kombiniert schließlich Unsicherheit und Ungenaugikeit, indem zur Graustufen-Färbung der Balken noch ein gepunktetes Segment ans Ende der Balken angehängt wird, welches das Ungenauigkeitsintervall darstellt, d.h. der Anfang dieses Segments markiert die untere Intervallgrenze, während das Ende des gesamten Balkens die obere Intervallgrenze markiert. 8

15 8.2 Visualisierung imperfekter Informationen im Straßenverkehr Abbildung 8.6: ThemeRiver ohne (li.) und mit (re.) Ergänzung um Ungenauigkeit - auf beiden Seiten ist die Unschärfe durch linguistische Variablen visualisiert. [For05] Abbildung 8.7: Parallele Koordinaten, erweitert um Imperfektion. [For05] Bewertungskriterien bei der Erweiterung einer Technik um Imperfektion Bei der Erweiterung von Verfahren um Imperfektion sollten nach [For05] folgende vier Punkte beachtet werden: 1. Verhältnismäßigkeit: Die Imperfektion sollte keinen größeren Stellenwert in der Visualisierung bekommen als die eigentliche Information, d.h. die Imperfektion soll die Hauptinformation nur ergänzen. 2. Imperfektionsabgrenzung: Imperfekte Informationen sollten in der Visualsierung klar von perfekten Informationen unterschieden werden können. 3. Unterscheidbarkeit: Mehrere dargestellte Imperfektionsarten sollten innerhalb einer Visualisierung voneinander unterscheidbar sein. 9

16 8 Visualisierung der Imperfektion in multidimensionalen Daten Abbildung 8.8: Table Lens, erweitert um Imperfektion. [For05] 4. Mächtigkeitserhaltung: Die Möglichkeiten einer Visualisierungstechnik sollten durch die Erweiterung um Imperfektion nicht beschnitten werden, insbesondere sollte die erweiterte Technik nicht unübersichtlicher werden. Bewertung der erweiterten Verfahren In der Tabelle in Abbildung 8.9 sind alle in der Studienarbeit [For05] um Imperfektion erweiterten Visualisierungstechniken an Hand der vier eingeführten Kriterien bewertet. Die beiden Techniken für hochdimensionale Daten, Table Lens und Parallele Koordinaten, schneiden in dieser Bewertung in allen Kategorien gut bis sehr gut ab, womit sie sich für die Imperfektionserweiterung sehr gut eignen. Abbildung 8.9: Bewertung der um Imperfektion erweiterten Visualisierungstechniken. [For05] 10

17 8.3 Datenvisualisierung und Visual Data Mining (VDM) Skizzierung des Visualisierungswerkzeugs Das von Oliver Forster mit Java-Swing implementierte Visualisierungswerkzeug Visualizerlässt den Benutzer den Typ der zu visualisierenden Information mit verschiedenen Visualisierungstechniken darstellen. Er implementierte exemplarisch zwei Techniken, nämlich die erweiterten Balkendiagramme (Teil der Table Lens Technik) und ThemeRiver. Das Paket Visualizer enthält vier Hauptklassen Abbildung 8.10: Paketstruktur im Visualisierungswerkzeug [For05] (siehe Abbildung 8.10 und jeweils in einem gesonderten Paket Klassen, die das Laden von Information bzw. das Layout betreffen. Die Kopplung des Werkzeuges mit den Visualisierungstechniken erfolgt über die Pakete fuzzythemeriver und impchart2d, welche jeweils die Erweiterung einer bereits vorhandenen Software und deren Anbindung an den Visualizer übernehmen. Vorhandene Informationen müssen zur Darstellung im Visualizer zunächst über den DataLoader in ein festgelegtes zentrales Format gebracht werden und werden danach vom TechniqueLoader in das technikspezifische Format für eine Visualisierung umgewandelt. Für neue Informationsarten reicht es aus, eine Klasse zur Erzeugung des festgelegten zentralen Formats zu erstellen; es muss also nicht für jede Technik eine neue Klasse zur Umwandlung in deren Format geschrieben werden beim Hinzufügen neuer Informationsarten, wodurch eine einfache Erweiterbarkeit sichergestellt ist. Das Visualisierungswerkzeug eignet sich für den Verkehrsteilnehmer Pre-Trip und für Teilaufgaben des Verkehrsingenieurs/-wissenschaftlers. Nähere Details zum Visualizer finden sich in [For05]. 8.3 Datenvisualisierung und Visual Data Mining (VDM) Nachdem im letzten Kapitel die Erweiterung von Visualisierungstechniken um Imperfektion auf dem Sektor Straßenverkehr behandelt wurden, beschäftigt sich 11

18 8 Visualisierung der Imperfektion in multidimensionalen Daten dieses Kapitel mit dem in der Literatur beim Thema Visualisierung auftauchenden Begriff des Visual Data Mining (VDM), einem mit der Visualisierung von multidimensionalen Daten in Beziehung stehenden Teilbereich des Data Mining. Zunächst gebe ich eine Einführung in verschiedene VDM-Ansätze, danach werden das automatisierte Data Mining und seine Schwächen behandelt, die zum Ansatz der Visuellen Datenexploration geführt haben. Anschließend werden Beispiel- Einsatzgebiete des Kooperativen Data Mining vorgestellt, nämlich die Kooperative Klassifikation und das Interaktive Temporale Data Mining. Bei jeder vorgestellten Technik werde ich darauf eingehen, in wie weit bereits Imperfektion in der Technik bereits vorhanden ist und wie sie dargestellt wird, sofern sie überhaupt berücksichtigt wurde. Schließlich wird noch eine Klassifikationsmöglichkeit vorgestellt, an Hand derer VDM-Techniken entlang orthogonaler Achsen eingeordnet werden können Einordnung des VDM Wie in Abbildung 8.11 zu sehen, befindet sich das Visual Data Mining (VDM) in der Schnittmenge von Data Mining und Information Visualization, d.h. dass im VDM Algorithmen aus dem Mining-Bereich eingesetzt werden und Visualisierungstechniken aus dem Bereich des Informationsvisualisierung. Eine Definition Abbildung 8.11: Einordnung des VDM zwischen Data Mining und Informationsvisualisierung [Fay96] des VDM gibt Mihael Ankerst in seiner Dissertation: Visuelles Data Mining ist ein Teil des KDD-Prozesses, der Visualisierung als Kommunikationsmittel zwischen Mensch und Computer nutzt, um neue und interpretierbare Muster zu erkennen und Wissen zu generieren. [Ank01] Ein Überblick darüber, in welchem Bereich das VDM im KDD-Prozess (Knowledge Discovery in Databases) angesiedelt ist, wird im Schema in Abbildung 8.12 gegeben. Das Schema basiert auf der allgemein anerkannten Definition des KDD- Begriffs von Fayyad: Wissensentdeckung in Datenbanken ist der nichttriviale Prozess der Identifizierung gültiger, neuartiger, potentiell nützlicher und verständlicher Muster in (großen) Datenbeständen. [Fay96] Im Grunde geht es beim VDM darum, den Data Mining Schritt und den Interpretationsschritt im ständigen Wechsel durchzuführen und den Menschen bei der Klassifikation oder Mustersuche zu unterstützen bzw. seine Intuition miteinzubeziehen, um schneller zu Ergebnissen zu kommen und redundante Muster zu entfer- 12

19 8.3 Datenvisualisierung und Visual Data Mining (VDM) nen. Damit kombiniert das VDM die letzten beiden Schritte des KDD-Prozesses zu einer neuen Einheit. Abbildung 8.12: VDM im KDD-Prozess [Fay96] Im VDM lassen sich mehrere Ansätze unterscheiden (siehe Abbildung 8.13). Ansatz a) setzt auf klassischen Data Mining Algorithmen auf, deren Ergebnisse (z.b. erkannte Muster) visualisiert werden. Nachdem die Ergebnisse der Visualisierung vorliegen, entscheidet der Benutzer, ob der Data Mining-Prozess erfolgreich war oder ob der Prozess rekursiv beginnend beim Algorithmus mit geänderten Parametern neu gestartet wird. In der Literatur werden auf diesem Ansatz aufbauende Visualisierungsmethoden auch als Visual Data Mining Tools bezeichnet. Ansatz b) visualisiert die Zwischenergebnisse; dadurch wird der Benutzer stärker in den DM-Prozess einbezogen. Es werden Algorithmen verwendet, die nur präprozessierte Zwischenergebnisse liefern, in denen der Benutzer durch Einsatz von Visualisierungstechniken nach aussagekräftigen Mustern sucht. Der Hauptvorteil dieses Ansatzes ist, dass DM-Algorithmen losgelöst von der Problemstellung verwendet werden (zur Berechnung der Zwischenergebnisse). Allerdings ist hier im Gegensatz zu Ansatz a) keinerlei Rekursion integriert, was für mich die Frage aufwirft, wie mit unzufrieden stellenden Ergebnissen umgegangen wird. Schließlich ist nicht jeder Versuch, Wissen aus Daten zu gewinnen, von Erfolg gekrönt. Ansatz c) schließlich visualisiert Rohdaten und verwendet keine klassischen DM- Algorithmen. Es findet eine Rekursion zwischen den Benutzereingaben und der Visualisierung statt, wodurch die Interaktionsmöglichkeit hier am größten ist, was auch durch die sofortige Aktualisierung der Darstellung (durch interaktive Werkzeuge wie z.b. dynamische Abfragetechniken) unterstrichen wird. Bei diesem Ansatz sprechen Soukup und Davidson in [TS03] auch von Data Visualization - Techniken. Besonders Ansatz c) kommt dem Online Analytical Processing (OLAP) sehr nahe, denn einige der zwölf von Edgar F. Codd in [Cod93] aufgestellten Regeln bzw. Anforderungen an ein OLAP-System werden auch von Ansatz c) erfüllt, darunter vor allem die zehnte Regel (Intuitive Datenanalyse), aber auch die elfte Regel (Flexibles Berichtswesen, Ergebnisse im Report frei anordbar) und die zwölfte (Unbegrenzte Anzahl von Dimensionen und Konsolidierungsebenen) können von Ansatz c) erfüllt werden. Andere Regeln von Codd, wie etwa Regel fünf (Client- Server Archtitektur) oder acht (Mehrbenutzerunterstützung) sind hingegen nicht 13

20 8 Visualisierung der Imperfektion in multidimensionalen Daten Abbildung 8.13: Ansätze des visuellen Data Mining in dem VDM-Ansatz c) festgeschrieben, wodurch aus meiner Sicht auch ein OLAP- System mit diesem Ansatz beschrieben könnte, allerdings mit der Einschränkung, dass in Ansatz c) keine so präzisen Regeln wie die von Codd formuliert sind (d.h. Ansatz c) ist etwas abstrakter gehalten als OLAP) Automatisiertes Data Mining und seine Schwächen Data Mining ist ein iterativer Prozess, dessen Ergebnisse im Rahmen der Datenanalyse die Voraussetzung für eine spätere Evaluierung sind. Beim Data Mining, das auf vorverarbeiteten Daten operiert, soll mittels effizienter Verfahren potentiell nützliches Wissen in großen Datenmengen aufgefunden werden [Ank04] d.h. es sollen Informationen aus Datenmengen gewonnen werden. Heutzutage sind das Data Mining sowie die gesamte Datenanalyse weitgehend automatisiert, was dazu führt, dass einige Probleme auftreten, die durch die Automatisierung nur unzureichend gelöst werden. Erstens fließt vorhandenes Wissen in den Köpfen der Menschen nur schwer oder gar nicht in die Datenanalyse mit ein. Zweitens lassen sich die Erkenntnisse einer Iteration oft nur schwer in eine verbesserte weitere Iteration transferieren, sodass letztlich weiter zurückgegangen wird zum Vorverarbeitungsschritt und eine andere Vorverarbeitung der Daten erfolgt, die bessere Ergebnisse verspricht. Drittens wenden sich heutige Produkte an Experten auf dem Gebiet des Data Mining, weshalb die Fähigkeit dieser Experten, die gewonnenen Ergebnisse zu kommunizieren, von zentraler Bedeutung ist - mit anderen Worten ist es denkbar, dass ein Data Mining Projekt auf Grund der (Un-)Fähigkeit des Experten scheitert, gewonnene Informationen an den oder die Auftraggeber zu vermitteln. 14

Datenvisualisierung und Data Mining

Datenvisualisierung und Data Mining B 26 Datenvisualisierung und Data Mining 1 B 26 Datenvisualisierung und Data Mining B 26.1 Einleitung Die rasante technologische Entwicklung der letzten zwei Jahrzehnte ermöglicht heute die persistente

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Visual Data Mining im Überblick

Visual Data Mining im Überblick I Visual Data Mining im Überblick Lehrveranstaltung: Seminar Softwaretechnik Dozenten: Stefan Jähnichen, Susanne Jucknath Semester: WS 02 /03 Verfasser: Konrad Kellermann TU Berlin Matrikelnummer: 190213

Mehr

Visualisierung großer Datenbanken

Visualisierung großer Datenbanken Business Intelligence 1 Visualisierung großer Datenbanken Prof. Dr. Hans-Peter Kriegel, Institut für Informatik, Universität München und Prof. Dr. Daniel A. Keim, Institut für Informatik, Universität Halle-Wittenberg

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Data Mining (ehem. Entscheidungsunterstützungssysteme)

Data Mining (ehem. Entscheidungsunterstützungssysteme) Data Mining (ehem. Entscheidungsunterstützungssysteme) Melanie Pfoh Anja Tetzner Christian Schieder Übung WS 2014/15 AGENDA TEIL 1 Aufgabe 1 (Wiederholung OPAL / Vorlesungsinhalte) ENTSCHEIDUNG UND ENTSCHEIDUNGSTHEORIE

Mehr

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi Motivation Themenblock: Data Preprocessing We are drowning in information, but starving for knowledge! (John Naisbett) Was genau ist Datenanalyse? Praktikum: Data Warehousing und Data Mining Was ist Data

Mehr

Dominik Pretzsch TU Chemnitz 2011

Dominik Pretzsch TU Chemnitz 2011 Dominik Pretzsch TU Chemnitz 2011 Wir leben im Informationszeitalter und merken es daran, dass wir uns vor Information nicht mehr retten können. Nicht der überwältigende Nutzen der Information, sondern

Mehr

Projekt AGB-10 Fremdprojektanalyse

Projekt AGB-10 Fremdprojektanalyse Projekt AGB-10 Fremdprojektanalyse 17. Mai 2010 1 Inhaltsverzeichnis 1 Allgemeines 3 2 Produktübersicht 3 3 Grundsätzliche Struktur und Entwurfsprinzipien für das Gesamtsystem 3 3.1 Die Prefuse Library...............................

Mehr

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots Einleitung Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots von Irmela Herzog Im Rahmen der Herbsttagung der AG DANK (Datenanalyse und Numerische Klassifikation)

Mehr

Visual Business Analytics Visueller Zugang zu Big Data

Visual Business Analytics Visueller Zugang zu Big Data Visual Business Analytics Visueller Zugang zu Big Data Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax:

Mehr

9 Resümee. Resümee 216

9 Resümee. Resümee 216 Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

Einführung in die Wissensverarbeitung und Data Mining

Einführung in die Wissensverarbeitung und Data Mining Einführung in die Wissensverarbeitung und Data Mining Peter Becker FH Bonn-Rhein-Sieg Fachbereich Angewandte Informatik!" $# Vorlesung Wintersemester 2001/02 1. Einführung Vorbemerkungen 1 Einführung Vorbemerkungen

Mehr

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung

2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung 2. Microsoft Innovationstag Nord Integrierte Lösungen in der Öffentlichen Verwaltung Reporting, Analyse und Data Mining André Henkel, initions AG 22. und 23. Oktober 2013 in Hamburg

Mehr

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY Data Cube On-line Analytical Processing (OLAP). Einführung Ziel: Auffinden interessanter Muster in großen Datenmengen 2. Aggregation in SQL, GROUP BY 3. Probleme mit GROUP BY 4. Der Cube-Operator! Formulierung

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

Visual Business Intelligence Eine Forschungsperspektive

Visual Business Intelligence Eine Forschungsperspektive Visual Business Intelligence Eine Forschungsperspektive Dr. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung IGD Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155 646 Fax.: +49

Mehr

Steuerungsverfahren und ihre Datenstrukturen 02 - Datenmanagement

Steuerungsverfahren und ihre Datenstrukturen 02 - Datenmanagement Steuerungsverfahren und ihre Datenstrukturen 02 - Datenmanagement 1 Übersicht - Datenmanagement 1 Übersicht - Datenmanagement...1 2 Übersicht: Datenbanken - Datawarehouse...2 3 Übersicht: Data Mining...11

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih Data Mining mit Rapidminer im Direktmarketing ein erster Versuch Hasan Tercan und Hans-Peter Weih Motivation und Ziele des Projekts Anwendung von Data Mining im Versicherungssektor Unternehmen: Standard

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

Data-Mining: Ausgewählte Verfahren und Werkzeuge

Data-Mining: Ausgewählte Verfahren und Werkzeuge Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den

Mehr

SiteAudit Knowledge Base. Move Add Change Tracking. Vorteile Übersicht. In diesem Artikel: Vorteile Übersicht Funktionsübersicht Berichte anpassen

SiteAudit Knowledge Base. Move Add Change Tracking. Vorteile Übersicht. In diesem Artikel: Vorteile Übersicht Funktionsübersicht Berichte anpassen SiteAudit Knowledge Base Move Add Change Tracking Dezember 2010 In diesem Artikel: Vorteile Übersicht Funktionsübersicht Berichte anpassen MAC Benachrichtigungen Vorteile Übersicht Heutzutage ändern sich

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

Datenqualität. Seminararbeit. Universität Karlsruhe (TH) Fakultät für Informatik Institut für Programmstrukturen und Datenorganisation (IPD)

Datenqualität. Seminararbeit. Universität Karlsruhe (TH) Fakultät für Informatik Institut für Programmstrukturen und Datenorganisation (IPD) Universität Karlsruhe (TH) Fakultät für Informatik Institut für Programmstrukturen und Datenorganisation (IPD) Hauptseminar Imperfektion und erweiterte Konzepte im Data Warehousing Datenqualität Seminararbeit

Mehr

Anwendung der Predictive Analytics

Anwendung der Predictive Analytics TDWI Konferenz mit BARC@TDWI Track 2014 München, 23. 25. Juni 2014 Anwendung der Predictive Analytics Prof. Dr. Carsten Felden Dipl. Wirt. Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Messdaten auswerten und visualisieren 5 Tipps, die passende Darstellungstechnik für ein Messsystem zu finden

Messdaten auswerten und visualisieren 5 Tipps, die passende Darstellungstechnik für ein Messsystem zu finden Messdaten auswerten und visualisieren 5 Tipps, die passende Darstellungstechnik für ein Messsystem zu finden 27.05.13 Autor / Redakteur: Nach Unterlagen von National Instruments / Hendrik Härter Messdaten

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1.

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik

Mehr

Data Mining. Data Warehousing und analytische Datenbanken. Naim Tamtam. Betreuer: K. Büchse. Seminar

Data Mining. Data Warehousing und analytische Datenbanken. Naim Tamtam. Betreuer: K. Büchse. Seminar Friedrisch Schiller Universität Jena Fakultät für Mathematik und Informatik Lehrstuhl für Datenbanksysteme und Informationssysteme Prof. Dr. Klaus Küspert Seminar Data Warehousing und analytische Datenbanken

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Klausur Kommunikation I. Sommersemester 2003. Dipl.-Ing. T. Kloepfer

Klausur Kommunikation I. Sommersemester 2003. Dipl.-Ing. T. Kloepfer Kommunikation I 1 Klausur Kommunikation I Sommersemester 2003 Dipl.-Ing. T. Kloepfer Bearbeitungsinformationen Aufbau der Klausur Die Klausur ist wie folgt aufgebaut: Die Klausur ist in 18 Aufgaben unterteilt.

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

Repeatable Benchmarking Mahout

Repeatable Benchmarking Mahout Studienarbeitsexposé Repeatable Benchmarking Mahout Entwicklung eines Lasttest-Rahmenwerkes für Apache Mahout von: Oliver Fischer Institut für Informatik Humbold-Universität zu Berlin Matrikelnummer: 19

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Wiki Wissensmanagement Die richtigen Informationen zur richtigen Zeit am richtigen Ort

Wiki Wissensmanagement Die richtigen Informationen zur richtigen Zeit am richtigen Ort Wiki Wissensmanagement Die richtigen Informationen zur richtigen Zeit am richtigen Ort Übersicht Was bedeutet Wiki? Was ist ein Wiki? Was kann ein Wiki? (C)2005-2008 2 Inhalt Grundlagen Informationen anzeigen

Mehr

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Andreas Ditze MID GmbH Kressengartenstraße 10 90402 Nürnberg a.ditze@mid.de Abstract: Data Lineage

Mehr

Exploration und Klassifikation von BigData

Exploration und Klassifikation von BigData Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)

Mehr

Effektive Analyse großer Datenmengen im Public Sector

Effektive Analyse großer Datenmengen im Public Sector Effektive Analyse großer Datenmengen im Public Sector Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax:

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Anleitung zur Online-Demo 2013

Anleitung zur Online-Demo 2013 Anleitung zur Online-Demo 2013 Inhaltsangabe Der Einstiegsbericht Intro I. Vordefinierte Berichte II. Berichts-Komponenten III. Download Hilfe-Dokument IV. In 5 Schritten zum ersten Bericht Logout I. Vordefinierte

Mehr

Automatische Gesprächsauswertung im Callcenter

Automatische Gesprächsauswertung im Callcenter Einleitung Forschungsbeitrag Automatische Gesprächsauswertung im Callcenter Projekt CoachOST Dipl.-Wirtsch.-Inf. Mathias Walther Prof. Dr. Taïeb Mellouli Lehrstuhl für Wirtschaftsinformatik und Operations

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden

Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden Qualitäts- und Kostenoptimierung von verfahrenstechnischen Prozessen mit Data-Mining-Methoden Dr. Thomas Bernard 6. Karlsruher Automations-Treff (KAT) Leit- und Automatisierungstechnik der Zukunft Karlsruhe,

Mehr

1.2.1 Gestaltpsychologie

1.2.1 Gestaltpsychologie 1.2 Gestaltgesetze 1.2.1 Gestaltpsychologie... 40 1.2.2 Gesetz von der einfachen Gestalt... 41 1.2.3 Gesetz der Nähe... 42 1.2.4 Gesetz der Gleichheit... 43 1.2.5 Gesetz der Geschlossenheit... 44 1.2.6

Mehr

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 MIS Glossar by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 Aggregat Data Cube Data Marts Data Mining Data Warehouse (DWH) Daten Decision Support Systeme (DSS)

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

Realisierung von OLAP Operatoren in einem visuellen Analysetool. Vortrag von Alexander Spachmann und Thomas Lindemeier

Realisierung von OLAP Operatoren in einem visuellen Analysetool. Vortrag von Alexander Spachmann und Thomas Lindemeier Realisierung von OLAP Operatoren in einem visuellen Analysetool Vortrag von Alexander Spachmann und Thomas Lindemeier Gliederung Ausgangssituation/Motivation Was ist OLAP? Anwendungen Was sind Operatoren?

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Business Intelligence mit Microsoft SQL Server 2005

Business Intelligence mit Microsoft SQL Server 2005 Business Intelligence mit Microsoft SQL Server 2005 Holger Schrödl ISBN 3-446-40463-5 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40463-5 sowie im Buchhandel 4.6

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Das Studiengangsinformationssystem (SGIS)

Das Studiengangsinformationssystem (SGIS) Das Studiengangsinformationssystem (SGIS) Manual für Typo3-Redakteure Version 1.a Mai 2015 Kontakt: Referat 1.4 - Allgemeine Studienberatung und Career Service Christian Birringer, christian.birringer@uni-rostock.de

Mehr

Datenvisualisierung und Data Mining

Datenvisualisierung und Data Mining Datenvisualisierung und Data Mining Daniel A. Keim Universität Konstanz und AT&T Shannon Research Labs 180 Park Ave, Florham Park, NJ, 07932, USA Telefon (+1) 973 360 8482, Fax (+1) 973 360 8077 keim@research.att.com

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

Interaktive Visualisierung und Visual Analytics

Interaktive Visualisierung und Visual Analytics Interaktive Visualisierung und Visual Analytics Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax: +49 6151

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen

Mehr

Internet Mapping: from Art to Sience Peer-to-Peer Seminar Ausarbeitung

Internet Mapping: from Art to Sience Peer-to-Peer Seminar Ausarbeitung Albert-Ludwigs-Universität Freiburg SS 2009 Institut für Informatik Lehrstuhl für Rechnernetze und Telematik Seminararbeit Internet Mapping: from Art to Sience Peer-to-Peer Seminar Ausarbeitung Patrick

Mehr

Visualisierung. Grid-Computing Seminar SS04 Prof. Dr. Fuhr, Universität Duisburg-Essen

Visualisierung. Grid-Computing Seminar SS04 Prof. Dr. Fuhr, Universität Duisburg-Essen Grid-Computing Seminar SS04 Prof. Dr. Fuhr, Universität Duisburg-Essen Visualisierung Basierend auf den Artikeln: GridMapper: A Tool for Visualizing the Behavior of Large-Scale Distributed Systems, von

Mehr

Maschinelles Lernen und Data Mining: Methoden und Anwendungen

Maschinelles Lernen und Data Mining: Methoden und Anwendungen Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Themenblock: Erstellung eines Cube

Themenblock: Erstellung eines Cube Themenblock: Erstellung eines Cube Praktikum: Data Warehousing und Data Mining Einführung relationale Datenbanken Problem Verwaltung großer Mengen von Daten Idee Speicherung der Daten in Form von Tabellen

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Business Intelligence. Business Intelligence Seminar, WS 2007/08

Business Intelligence. Business Intelligence Seminar, WS 2007/08 Business Intelligence Seminar, WS 2007/08 Prof. Dr. Knut Hinkelmann Fachhochschule Nordwestschweiz knut.hinkelmann@fhnw.ch Business Intelligence Entscheidungsorientierte Sammlung, Aufbereitung und Darstellung

Mehr

[DIA] Webinterface 2.4

[DIA] Webinterface 2.4 [DIA] Webinterface 2.4 2 Inhalt Inhalt... 2 1. Einleitung... 3 2. Konzept... 4 2.1 Vorteile und Anwendungen des... 4 2.2 Integration in bestehende Systeme und Strukturen... 4 2.3 Verfügbarkeit... 5 3.

Mehr

Highway Hierarchies. Kristian Dannowski, Matthias Hoeschel

Highway Hierarchies. Kristian Dannowski, Matthias Hoeschel Highway Hierarchies Kristian Dannowski, Matthias Hoeschel Gliederung Einleitung / Bidirektional Dijkstra Intuition / Naive Strategie Konstruktion der Highway Hierarchie Suche in der Highway Hierarchie

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Auswertung für Warenwirtschaft/ERP, Interbase und ODBC... 2

Auswertung für Warenwirtschaft/ERP, Interbase und ODBC... 2 Cubix O.L.A.P... 2 Auswertung für Warenwirtschaft/ERP, Interbase und ODBC... 2 Datenverbindung über ODBC... 4 Datenbereitstellung über SQL... 5 Festlegung der Dimensionen... 6 Festlegung der Summen...

Mehr

Die intelligente Sicht auf Ihre Kundendaten

Die intelligente Sicht auf Ihre Kundendaten Die intelligente Sicht auf Ihre Kundendaten Business Case Ein tiefgehendes Verständnis der Kunden, ihrer Bedürfnisse und Kaufgewohnheiten ist im heutigen wirtschaftlichen Umfeld - das durch intensive Anbieter-Konkurrenz,

Mehr

Merkblatt «Regeln in Mailprogrammen» für lokale Spam-Filterung und automatisierte Mailablage (Macintosh: Mail / Windows: Outlook 2013)

Merkblatt «Regeln in Mailprogrammen» für lokale Spam-Filterung und automatisierte Mailablage (Macintosh: Mail / Windows: Outlook 2013) 1. Spam-Filterung In erster Linie sollte immer die Spam-Filterung beim Provider aktiviert werden (siehe Merkblatt 68). Was aber, wenn trotzdem noch Spams im Postkorb landen? Dann muss die lokale Spam-Filterung

Mehr

SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN

SOZIALES BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN SOZIALES" BRANCHENGEFLÜSTER ANALYSIERT DER SOCIAL MEDIA-MONITOR FÜR BANKEN CHRISTIAN KÖNIG BUSINESS EXPERT COMPETENCE CENTER CUSTOMER INTELLIGENCE Copyr i g ht 2012, SAS Ins titut e Inc. All rights res

Mehr

Visual Analytics. Seminar. [Guo, 2006] [Wong, 2006] [Keim, 2006] [Proulx, 2006] [Chang, 2007] [Kosara, 2006]

Visual Analytics. Seminar. [Guo, 2006] [Wong, 2006] [Keim, 2006] [Proulx, 2006] [Chang, 2007] [Kosara, 2006] Seminar Visual Analytics [Guo, 2006] [Keim, 2006] [Wong, 2006] [Proulx, 2006] [Chang, 2007] [Kosara, 2006] Visual Analytics - Definitions Visual analytics is the science of analytical reasoning facilitated

Mehr

Towards Automated Analysis of Business Processes for Financial Audits

Towards Automated Analysis of Business Processes for Financial Audits Towards Automated Analysis of Business Processes for Financial Audits Michael Werner Universität Hamburg michael.werner@wiso.uni hamburg.de Max Brauer Allee 60 22765 Hamburg StB Prof. Dr. Nick Gehrke Nordakademie

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,

Mehr

Der Unified Process ist ein generischer Prozeß zur objektorientierten Software- Erstellung

Der Unified Process ist ein generischer Prozeß zur objektorientierten Software- Erstellung Unified Process Eine Einführung von Hannes Fischer Fischer Software Elfenstr. 64 70567 Stuttgart Deutschland Copyright 2000 Hannes Fischer Unified Process Wie wird heute gearbeitet? Der Unified Process

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Business and Data Understanding. Business und Data Understanding

Business and Data Understanding. Business und Data Understanding Business und Data Understanding Gliederung 1. Grundlagen 2. Von Data Warehouse zu Data Mining 3. Das CRISP-DM Referenzmodell 4. Die Phasen Business- und Data Understanding 5. Überblick der weiteren Phasen

Mehr

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation?

Data Mining - Marketing-Schlagwort oder ernstzunehmende Innovation? 1. Konferenz der A Benutzer KFE in Forschung und Entwicklung Data Mining - Marketing-chlagwort oder ernstzunehmende Innovation? Hans-Peter Höschel,, Heidelberg 1. Konferenz der A Benutzer KFE in Forschung

Mehr

Unlimited Controlling

Unlimited Controlling smcolap Unlimited Controlling Heute müssen beliebige Bereiche eines Unternehmens schnell und effizient analysiert werden. Dabei darf es keine Rolle spielen, wo die Daten liegen und in welcher Relation

Mehr

Über dieses Buch. Kapitel 1. 1.1 Einleitung

Über dieses Buch. Kapitel 1. 1.1 Einleitung Kapitel 1 Über dieses Buch 1.1 Einleitung Dieses Buch behandelt das Vorgehensmodell Kanban und seinen Einsatz in Softwareentwicklungsprojekten. Kanban ist ein Vorgehensmodell der schlanken Softwareentwicklung

Mehr

Seminar Komplexe Objekte in Datenbanken

Seminar Komplexe Objekte in Datenbanken Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de

Mehr

Einleitung. Was ist das Wesen von Scrum? Die Ursprünge dieses Buches

Einleitung. Was ist das Wesen von Scrum? Die Ursprünge dieses Buches Dieses Buch beschreibt das Wesen von Scrum die Dinge, die Sie wissen müssen, wenn Sie Scrum erfolgreich einsetzen wollen, um innovative Produkte und Dienstleistungen bereitzustellen. Was ist das Wesen

Mehr

Data Mining Bericht. Analyse der Lebenssituation der Studenten. der Hochschule Wismar. Zur Veranstaltung. Business Intelligence

Data Mining Bericht. Analyse der Lebenssituation der Studenten. der Hochschule Wismar. Zur Veranstaltung. Business Intelligence Data Mining Bericht Analyse der Lebenssituation der Studenten der Hochschule Wismar Zur Veranstaltung Business Intelligence Eingereicht von: Mohamed Oukettou 108 208 Maxim Beifert 118 231 Vorgelegt von:

Mehr

Data Mining für die industrielle Praxis

Data Mining für die industrielle Praxis Data Mining für die industrielle Praxis von Ralf Otte, Viktor Otte, Volker Kaiser 1. Auflage Hanser München 2004 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 22465 0 Zu Leseprobe schnell und

Mehr

6 Architektur-Mittel (WOMIT)

6 Architektur-Mittel (WOMIT) 6 Architektur-Mittel (WOMIT) Abb. 6-1: Positionierung des Kapitels im Ordnungsrahmen. Dieses Kapitel befasst sich mit der WOMIT-Dimension des architektonischen Ordnungsrahmens, indem es grundlegende Konzepte

Mehr

3 Anwendungsarchitektur und Entwicklungsumgebung

3 Anwendungsarchitektur und Entwicklungsumgebung 21 3 Anwendungsarchitektur und Bei den Entwicklern von Web-basierten Dialogsystemen hat sich im Laufe der Zeit eine Vorgehensweise im Design von Anwendungen entwickelt, dies es ermöglicht, flexible Web-Dialoge

Mehr

Effizientes Änderungsmanagement in Outsourcing- Projekten

Effizientes Änderungsmanagement in Outsourcing- Projekten Effizientes Änderungsmanagement in Outsourcing- Projekten Dr. Henning Sternkicker Rational Software IBM Deutschland GmbH Sittarder Straße 31 52078 Aachen henning.sternkicker@de.ibm.com Abstract: Es werden

Mehr

Visual Business Analytics Effektiver Zugang zu Daten und Informationen

Visual Business Analytics Effektiver Zugang zu Daten und Informationen Visual Business Analytics Effektiver Zugang zu Daten und Informationen Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151

Mehr