Web 2.0 Business Analytics

Größe: px
Ab Seite anzeigen:

Download "Web 2.0 Business Analytics"

Transkript

1 Web 2.0 Business Analytics Alexander Löser, Gregor Hackenbroich, Hong-Hai Do, Henrike Berthold SAP AG, SAP Research CEC Dresden Chemnitzer Strasse Dresden, Germany Der Artikel führt Business Intelligence Systeme mit dem Ziel der Analyse von Web 2.0 Daten ein. Anhand von Foren zu Softwareprodukten mit ca Nutzern zeigen wir auf, wieso die heutige Technologie zur Entwicklung von Business Analysen nicht ausreichend zur Erreichung dieses Ziels ist. Es wird ein kurzer Exkurs gegeben, wieso nur eine Integration von Datenbank-Technologien mit Ansätzen des Natural Language Processing und des Information Retrievals zielführend sein könnten. Der Artikel soll zur Diskussion anregen. Einführung Unternehmen suchen intensiv nach neuen Möglichkeiten, um die stark anwachsende Flut von geschäftsrelevanten Informationen zu verwalten und nutzbar zu machen. Der Großteil dieser Informationen ist unstrukturiert, d.h. nicht repräsentiert in traditioneller, relationaler Form, sondern als Text, Audio oder Video. Beispiele für unstrukturierte unternehmensrelevante Informationen sind s, Web-Seiten, Office- Dokumente, Wartungsberichte, oder Kundenfeedback. In jüngster Zeit wird verstärkt diskutiert [Immon, Nesavich 2007], ob und wie man den textuellen Anteil dieser Informationen extrahieren, analysieren und Business Intelligence (BI) Systemen zugänglich machen kann, die sowohl über strukturierten als auch über unstrukturierten Inhalten operieren. Es ist das Ziel dieses Beitrags, wichtige technische und wirtschaftliche Herausforderungen aufzuzeigen, die auf dem Weg hin zu den angestrebten neuartigen BI-Lösungen adressiert werden müssen. Wir entwickeln unsere Konzepte anhand zweier spezifischer Szenarien. Diese fokussieren auf nutzergenerierte Foren-, Blog- und Wiki-Beiträge rund um Produkte und Dienstleistungen eines Softwareherstellers. Die Interessen an diesen Beiträgen sind äußerst vielfältig und relevant für verschiedene Nutzergruppen: Software-Anbieter sind nach der Markteinführung neuer Produktes interessiert, welche Features besonders häufig von bestimmten Kundengruppen diskutiert werden und welche Verbesserungswünsche sich daraus ableiten lassen. Software-Dienstleister wollen feststellen, welche Probleme bestimmte Lösungen aufwerfen und welche Problemlösungen von der Community entwickelt werden. Account Manager können aus Beiträgen Ihrer Kunden weitere Marketing-Maßnahmen für die von ihnen betreuten Kunden ableiten. Nutzer von Software erwarten konkrete Hilfestellungen zu Produkten und Lösungen, ohne teure Berater oder Hotlines in Anspruch nehmen zu müssen. Hilfestellungen durch die Community sind insbesondere für den Software-Volumenmarkt relevant, im Bereich von Enterprise-Software sind dies Lösungen für kleine und mittlere Unternehmen.

2 Unser Hauptinteresse in diesem Beitrag gilt BI-Anwendungen über Web 2.0 Communities, die von Unternehmen selbst moderiert oder verwaltet werden. Die Struktur und Semantik solcher Community-Beiträge kann vom Unternehmen festgelegt werden und ist analytischen Softwareanwendungen deshalb leichter zugänglich. Wir leiten relevante Anfragen über den Community- und Unternehmensdaten ab, die mit klassischen Suchmaschinen wie Google, Yahoo oder MSN, aber auch von state-of-the-art BI-Systemen wie SAP Business Intelligence oder BusinessObjects Enterprise XI nicht beantwortet werden können. Künftige BI-Lösungen zur Beantwortung dieser und ähnlicher Anfragen müssen in der Lage sein, Entitäten und Beziehungen zwischen Entitäten aus unstrukturierten Daten zu extrahieren und mit Fakten aus strukturierten Daten in Bezug zu setzen. Die Herausforderung liegt darin, die Kosten der Extraktion möglichst gering zu halten und trotzdem die für Unternehmensanwendungen erforderliche Qualität und Vollständigkeit der Ergebnisse zu gewährleisten. In [Gluchowski, Kemper 2006] wird die Entwicklung der ersten kommerziellen Datenverarbeitungs- und Decision Support Systems hin zu den heute verfügbaren BI- Systemen nachgezeichnet. Aktuelle Trends wie Corporate Performance Management oder Real Time Analytics betonen den unternehmensübergreifenden Systemansatz bzw. die Aktualität der zu verarbeiteten Daten. Die Ausweitung des BI-Prozesses auf die verschiedenen Ausprägungen von unstrukturierten Daten, wie in diesem Papier diskutiert, ist nach unserem Dafürhalten ein Schritt hin zur Konvergenz der Disziplinen Datenmanagement und Information Retrieval [Weikum 2007]. Dieser Artikel formuliert Prognosen für die technischen Anforderungen an künftige BI-Systeme, basierend auf der Erwartung, dass diese Systeme strukturierte und unstrukturierte Daten integrieren. Diese Sicht impliziert neuartige Herausforderungen für die Erfassung und Bewertung von Datenqualität und Datenlineage. Durch unsere spezifische Sicht auf das Problem als industrielle Forschungsorganisation an der Schnittstelle zwischen akademischer Forschung und industrieller Entwicklung, wollen wir zur Lösung neuer (alter) Probleme in der Datenbank Community motivieren. Daher wird dieser Artikel keine Lösungen bereitstellen. Er dient vielmehr dazu, Erfahrungen und Marktschwingungen wiederzugeben und zu diskutieren. Wirtschaftliche und technische Trends Für Unternehmen spielt der unmittelbare Informationsaustausch mit weltweiten Kunden und Partnern eine bedeutende Rolle. Die SAP nutzt für Ihr Kunden- und Partnernetzwerk spezifische Kanäle, wie das Hilfeportal help.sap.com oder das SAP Developer Network (SDN) für den Web-basierten Informationsaustausch für Entwickler im eigenen Haus, für Partner und Systemintegratoren. Die Globalisierung und Individualisierung der Softwareproduktion haben zu neuen Produkten für das volumenorientierten Mittelstandssegment geführt, z.b. zu der neuen on-demand Lösung SAP Business ByDesign. Für dieses Segement, aber auch im Segment der on-premise Lösungen werden Communities zu einem zunehmend wichtigen Treiber von Innovation; dies spiegelt sich in aktuellen Trends: Zunahme Community-generierter Inhalte. Die Autoren von [Ramakrishnan,Tomkins 2007] beobachten in einer kürzlich durchgeführten Studie, dass viermal soviel Nutzer-erzeugte (8 GB/Tag) wie professionell-erstellte (2 GB/Tag) Inhalte weltweit im WWW in Wikis, Foren und Blogs veröffentlicht werden. Der Anteil der

3 weltweit generierten unstrukturierten Daten (z.b. in Word) wird auf 3TB pro Tag geschätzt. Die Daten liegen teilweise schon vorstrukturiert vor und beinhalten Metadaten. Datenextraktion und integration durch die Web-Community. Zur Überführung von unstrukturierten in strukturierte Daten sind Extraktionswerkzeuge und Spezialwissen erforderlich. Der Markt für Extraktionswerkzeuge und -Dienste ist unübersichtlich, die Entwickler von LingPipe 1 nennen mehr als 50 Mitbewerber für Technologien zur Extraktion von Basisentitäten. Einige der Extraktions- und Annotationsdienste können bereits über das Web genutzt werden. Prominente Beispiele dafür sind das Calais Tool von Reuters oder GAPSCORE als Spezialdienst für das Feld Life Science. Hinzu kommen mehrere hundert manuell oder automatisch erzeugte Wrapper zur Extraktion von Daten aus dynamisch generierten Webseiten. Diese Wrapper werden von einer wachsenden Community mit Werkzeugen wie Lixto [Baumgartner et al. 2001] und Kapow manuell oder semiautomatisch [Irmak, Suel 2006] erzeugt und ähnlich wie Mashups als Dienst oder RSS-Stream veröffentlicht. Dienste wie Yahoo Pipes erhöhen den Abstraktionsgrad der Komposition von Operatoren zur Datenintegration derart, das einfache Integrationspläne in kurzer Zeit erstellt, innerhalb der Community bewertet und wiederverwendet werden können. Beispiele dafür finden sich in der Integration von Nachrichtenmeldungen. Unterstützung von Information Workern. Information Worker müssen für ihre betrieblichen Aufgaben eine Vielzahl von Information aus unterschiedlichen Quellen sammeln, auswerten und austauschen. Dabei greifen sie sowohl auf BI-Systeme für OLAP-Anfragen über transaktionale Daten wie Payroll oder Accounting sowie auf traditionelle Suchmaschinen für die Dokumentensuche zurück. Neuartige BI-Systeme mit einheitlichem Zugriff auf strukturierte, unstrukturierte oder eventbasierte Daten haben das Potential, die Produktivität von Information Workern enorm zu erhöhen. In [Bitton et al. 2006] werden Enterprise Search Anwendungen mit direktem Bezug zu Compliance, Fraud Detection, Call Center Unterstützung und Self-Service sowie CRM diskutiert. Diese Anwendungen nutzen typischerweise Datenquellen wie E- mails, CMS für Kontakte und Reklamationen sowie Foren und Blogeinträge. Business Analytics für den Software Volumenmarkt Online-Zugänge der SAP, wie z.b. das Software Developer Network (SDN)-Forum 2 und das SAP Online Hilfesystem 3 sind Anlaufpunkt für mehrere Beiträge täglich, die von einem Kreis von über 1 Mio Anwendern stammen. Dieser Consumer Generated Content enthält wertvolle Informationen zu Problemen, Lösungen, und Themen rund um SAP-Lösungen für die Mitglieder der SDN Gemeinschaft, z.b. Kunden Berater. Eine Anwendung im Bereich des Self-Supports stellen wir im ersten Teil dieses Abschnitts vor. Zusätzlich ermöglicht die schiere Menge der tagtäglich durch die Kunden generierten Beiträge enormes Geschäftspotential für die Ableitung von Businessentscheidungen für das SAP Management, insbesondere in den Fachabteilungen Vertrieb, Produktmanagement und Kundenbeziehungsmanagement. Dazu

4 müssen ad-hoc Analysen durch die Fachabteilungen durchgeführt werden. Im zweiten Teil dieses Abschnitts geben wir Beispiele für diese Form der Business Analytics über Consumer Generated Content. Self-Service-Support Die Motivation für dieses Szenario liegt im Bereich des technischen Kundensupports für den Software-Volumenmarkt. Um eine große Anzahl von Support-Anfragen der Kunden im Volumenmarkt zu adressieren, sind skalierbare und preisgünstige Methoden notwendig. Wir sehen großes Potential für das Self-Service-basierte Support- Modell, in dem der Kunde sofort und automatisch Hilfeleistungen vom Support- System bekommt. Existierende Quellen mit Produkt- und Support-Wissen, z.b. Support-Foren wie SAP SDN oder Software-Dokumentation wie SAP Help ermöglichen systematische Indexierung und Suche von Informationen zu Problemen und deren Lösungen, die dem Kunden bei einer Anfrage als automatische Empfehlungen bereitgestellt werden können. Im folgenden Szenario nutzt ein Kunde ein Support-Forum, um die Lösung für ein technisches Problem zu finden. Anstatt wie bisher seine Anfrage mit der Problembeschreibung sofort im Forum zu veröffentlichen, bekommt der Kunde eine automatisch generierte Empfehlung vom System. Wie in Abbildung 1 illustriert, werden charakteristische Begriffe und Produktnamen aus der Problembeschreibung automatisch erkannt. Mit diesem Wissen können Lösungshinweise für den Kunden automatisch generiert werden, wie Beiträge (Similar threads), die dieselben bzw. ähnlichen Probleme diskutieren, Dokumente (Quick actions), die die Vorgehensweisen bei solchen Problemen beschreiben, oder Experten (Experts), an die sich der Kunde direkt wenden kann. Er kann nun den Empfehlungen nachgehen, um sein Problem zunächst selbst zu lösen. Bei erfolgreicher Problemlösung zieht er seine Anfrage zurück, so dass kein weiterer Aufwand für die anderen Mitglieder des Forums entsteht. Expert Problembeschreibung 1. Problemerkennung durch Begriffe und Produkte Expert Bob Star - Business Card Company: BCC SAP Michael Exchange Ford Infrastructure - Business Card (XI) Company: Wipro Technologies SAP Exchange Infrastructure (XI), SAP NetWeaver Platform 3. Identifikation und Empfehlung von Experten 2. Verweise zu ähnlichen Problemen und Lösungen Similar threads XI configuration RFC Sender Adapter XI Quick scenarios actions using Sender RFC Adapter Trouble shooting RFC and SOAP RFC Configuring the RFC Scenario Step by Step Abbildung 1. Self-Service-Support mit automatisch generierten Empfehlungen Um dieses Szenario zu realisieren, sind u.a. folgende Funktionalitäten notwendig: Interpretieren und Verstehen des Sachverhalts: Aus dem Text sollen relevante Informationen extrahiert werden, die den Sachverhalt (z.b. die technischen

5 Aspekte des Problems) sowie den Kontext des Sachverhalts (Nutzerinformation, Absicht des Nutzers, etc.) charakterisieren. Identifikation ähnlicher Sachverhalte: Das Interpretieren und Verstehen der Sachverhalte soll auf dem gesamten Datenbestand, hier den existierenden Forenbeiträgen, durchgeführt werden, so dass Dokumente mit ähnlichen/selben Problemen identifiziert werden können. Expertensuche: Aus den eigens verfassten Beiträgen der Mitglieder in der Community, z.b. den Nutzern des Forums, sollen Experten für einzelne Gebiete identifiziert werden. Die Gebiete der Expertise müssen modelliert und deren Beziehungen zu den Nutzern aus den vorhandenen Daten extrahiert und gewichtet werden. Analyse von Support-Community Daten Die Nutzerbeiträge aus Support-Foren enthalten implizit wertvolles Produktwissen, das für die Identifikation und Analyse von Marktrends, Kundenanforderungen und Kundenwünschen verwendet werden kann. Aus Forenbeiträgen können Metadaten und Entitäten wie die Erstellungszeit des Beitrags, der Autor, Organisationen oder das diskutierte Produkt extrahiert werden, und anschließend wie in wie in traditionellen BI-Systemen multidimensional analysiert werden. Wie in Fehler! Verweisquelle konnte nicht gefunden werden. illustriert wird, geben einfache Aggregationen über diese extrahierten Informationen bereits wertvollen Aufschluss darüber, welche Organisation wie viele Anfragen zu welchem Produkt veröffentlicht hat. SilverStar als Organisation mit allen Abteilungen zur Auswahl SilverStar Taiwan Ltd SilverStar, Divisjon Automasjon Silverstar Automation SilverStar Automation Inc. SilverStar Products Inc SilverStar Systems GmbH SilverStar Technologies AB SilverStar b.v. SilverStar Business Services IMS SilverStar Mittelspannung SilverStar Business Services SilverStar Electrical Industries Co. SilverStar Service SilverStar Grain Ltd SilverStar Group Service Center SilverStar Group Services Center SilverStar AG SilverStar USA Inc. SilverStar Industry Pte Ltd SilverStar Information Systems Ltd SilverStar Communikations SilverStar Limited SilverStar Global Services. Company SilverStar* Von SilverStar Products Inc. stammten 90 Anfragen über die Produktkomponente CRM Customer Return Processing (AP-CRP) Product AP-* AP-BP AP-CAS AP-CAT AP-CI AP-CME AP-CMP AP-COS AP-CQP AP-CR AP-CRP AP-DFP AP-DP AP-DUE AP als Produkt mit allen Komponenten zur Auswahl Abbildung 2. Drill-down und Aggregation über extrahierten Daten Aus automatisch oder von Kunden generierten Annotationen, Verweisen, oder Beziehungen zwischen Software-Produkten lassen sich weitere interessante Informationen gewinnen. Mit diesen Informationen ist die Beantwortung folgender komplexer Anfragen, möglich, die über einfache Aggregationen hinausgehen:

6 1. Welche Produkte, Produktkomponenten, bzw. funktionen haben die meisten Anfragen erzeugt? : Häufig angefragte Produkte/Komponenten/Funktionen sind offensichtlich besonders relevant und/oder verursachen häufig Probleme. Hier sollten Entscheidungen über die Verbesserung problematischer Funktionen bzw. über die Entwicklung neuer Produktfunktionen getroffen werden. 2. Mit welchen Produkten, Produktkomponenten, bzw. funktionen, haben Organizationen in Bereich EMEA im letzten halben Jahr am häufigsten ein Problem? Gruppiere nach indvidiuellen Organizationen und Produkten. : Das Wissen über die gehäuften Anfragen von einer bestimmten Kunden zu einem bestimmten Produkt oder einer bestimmten Produktfunktion hilft, individuelle Support-Angebote für den Kunden zu erstellen. Dabei müssen erkannte Entitäten wie Produkte oder Organisationen semantisch gruppiert werden können. 3. Welche Fragen haben Business-Analysten in einem vorgegebenen Zeitraum zu einem bestimmten Produkt gestellt? : Diese Frage zielt auf das Interesse einer bestimmten Nutzergruppe ab, um Trends zu identifizieren bzw. die Anforderungen der Nutzergruppe mit zusätzlichen Inhalten besser zu adressieren. 4. Welche Produkte/Komponenten/Funktionen wurden oft in Kombination mit den gegebenen Produkten/Komponenten/Funktionen in Anfragen erwähnt? : Das Wissen über häufig benutzte Produktkombinationen kann helfen, bessere Produktintegrationen zu realisieren und als Produkt-Pakete zu vermarkten. Prozess der Datenaufbereitung und Nutzung Kollaborativer, iterativer Extraktionsprozess. Um die ebenen besprochenen BI- Funktionalitäten zu unterstützen ist ein System notwendig, das kontinuierlich die Beiträge analysiert, interpretiert, die relevanten Daten extrahiert und in ein BI-System überführt. Das notwendige Spezialwissen ist häufig über mehrere Akteure verteilt und erfordert deren Kollaboration in einem gemeinsamen Prozess. Die einzelnen Prozessschritte fokussieren auf die Kernkompetenzen der jeweiligen Akteure, z.b. die Modellierung der Domäne und die Formulierung von Anfragen. Dabei können Teilprozesse ausgelagert bzw. existierende Komponenten wiederverwendet werden. Dies erhöht die Qualität des Gesamtsystems und reduziert die Kosten für den Anwender.

7 Datenanbieter Dokumente Dokumente Dokumente RSS-Feeds RSS-Feeds RSS-Feeds Strukt. Daten Strukt. Daten Datenbereitstellung Sprachexperte/ Domänenexperte Integrator BI-Modellierer BI-Nutzer Basis- Extraktion Plattform Quellenabh. Extraktion Domänenabh. Extraktion Transformation (Datenbereinigung, ) Daten- Integration Extrahierte Daten und Metadaten (Datenmodell für extrahierte Daten) ETL-Prozess und Rekonfiguration des Prozesses Datenmodellierung Benutzt Datenverwaltung Entity-Datenmodellierung Warehouse- Datenmodellierung Abbildung 3. Prozess der Datenaufbereitung und Nutzung Konfiguration/Rekonfiguration Monitoring (Data quality, ) Online-Analysen Laden der Daten/ Optimieren des DW für Anfragen Offline- Analysen Business Warehouse (Multidim. Datenmodell) Abbildung 3. zeigt den gesamten Prozess, die beteiligten Akteure und Komponenten. Der iterative Prozess gliedert sich in folgende Schritte: 1. Datenbereitstellung. Unstrukturierte Daten, wie Dokumente oder RSS-Feeds, werden im Web bereitgestellt. Wrapper-Systeme für Web Seiten, wie LIXTO [Baumgartner et al. 2001] können aus stark vorstrukturierten Text-Daten ebenfalls geeignete RSS-Streams extrahieren. 2. Entwicklung und Deployment von Basisextraktoren. Spezialisierte Anbieter erstellen Komponenten für die Basisextraktion wie Personen, Orten, Produkten, Organisationen usw. Ein Beispiel ist das System INXIGHT. 3. Wiederverwendung und Anpassung von Basisextraktoren. Domänenexperten passen Extraktoren auf die Domäne an. Idealerweise erfordert diese Wiederverwendung der Extraktoren nur eine Konfiguration von Schnittstellen. Höherer Aufwand entsteht, wenn Extraktoren erst für eine Domäne trainiert oder mit zusätzlichen regulären Ausdrücken konfiguriert werden müssen. 4. Komposition. Integratoren erzeugen Pläne zur Erkennung komplexer Entitäten und Beziehungen zwischen Entitäten sowie zur Erkennung von Duplikaten. Die Bereinigung der extrahierten Daten kann durch die Verwendung der strukturierten Daten verbessert werden. Die bereinigten extrahierten Daten und die strukturierten Daten werden anschließend integriert. Ein Beispiel für die Komposition von extrahierten Daten sind Yahoo Pipes. 5. Anpassung des BI-Schemas. BI-Modellierer erstellen eine auf die geforderten Analysen zugeschnittene flexible und dehnbare Sicht auf die extrahierten Daten und eine statische Sicht auf die multidimensionalen Daten im Business Warehouse. Sie ermöglichen so eine bestimmte Menge von BI-Anfragen. 6. ETL in ein Business Warehouse. Der BI-Nutzer konfiguriert den gewünschten ETL-Prozess. Idealerweise kann er dabei auf existierende Komponenten zurückgreifen. Andernfalls initiiert er die Entwicklung der benötigten Komponenten.

8 Automatisch extrahierte Daten sind immer mit einer Unsicherheit behaftet. Daher analysiert der BI-Nutzer zunächst eine kleine Menge an Daten, um die Datenqualität zu bestimmen (Monitoring-Komponente). Bei unzureichender Qualität werden andere Extraktoren ausgewählt, müssen zusätzliche Regeln definiert und der Extraktionsplan angepasst werden. Erst wenn ein ETL-Prozess auch über die unstrukturierten Daten gute Ergebnisse liefert, wird das Business Warehouse aufgebaut und für die Anfragen optimiert. Anforderungen an die BI-Infrastruktur Der Prozess der Datenaufbereitung und Nutzung zeigt, welche Funktionalitäten und Akteure es in einem BI-System für Community-Daten gibt. In diesem Abschnitt werden Anforderungen an eine BI-Infrastruktur beschrieben, die den Aufbau eines solchen Systems erlaubt. Die Liste der Anforderungen unvollständig, da das Problem derzeit nur in Ansätzen überblickt werden kann. Dehnbare Data Schemata. Extrahierte Entitäten und deren Beziehungen müssen flexibel auf existierende Datenschemas abbildbar sein. Für einen Text ist häufig nicht bekannt, welche Datenstrukturen durch Extraktion gewonnen werden können. Daher muss das Datenmodell dehnbar (engl. malleable) sein. Erforderlich sind zusätzliche interne Datenstrukturen, die BI-Anfragen über strukturierte und extrahierte Daten unterstützen [Benjelloun et al. 2008, Dong et.al. 2005]. Physisches Daten Modell für dehnbare Schemata. Das Schema verändert sich während der Extraktion und Exploration der unstrukturierten Daten kontinuierlich. Das erfordert ein physisches Datenmodell, bei dem eine Zeile eine beliebige Anzahl von Spalten beinhalten kann, die nur dünn (engl. sparse) mit Daten besetzt ist. Spalten müssen neben den Typ-Informationen der extrahierten Daten zusätzliche Metainformationen (Beziehungen zu strukturierten Daten, Lineage etc,) speichern können [Beckmann et al. 2006]. Vielversprechende Ansätze basieren auf dem BIGTable Ansatz [Chang et.al. 06], wie HBase 4 oder CouchDB 5. Aktuelle Prototypen von Anfragesprachen für derartige Datenstrukturen sind beispielsweise PIG 6 oder JAQL 7. Die Datenhaltungsschicht muss es zudem ermöglichen, kontinuierlich Schema- und Lineage Informationen aus den extrahierten Daten abzuleiten. Suche und Anbindung von Extraktoren. Die Entwicklung von Extraktoren ist aufwendig und teuer. Es gibt aber schon eine ganze Reihe von Extraktoren. Eine Suche über existierenden Extraktoren soll es Domänenexperten gestatten, für die Kombination von Datenquelle, Extraktor, Extraktionsplan und BI- Anfrage Extraktoren mit der geforderten Präzision und dem geforderten Recall zu finden und zu integrieren. Unsicherheit der Daten. Durch die automatische Extraktion aus unstrukturierten Dokumenten werden unsichere extrahierte Entitäten und Beziehungen gewonnen. Diese Unsicherheit muss sowohl im Datenmodell als auch couchdb.org/ 6 7

9 beim Ausführen der Anfragen reflektiert werden, z.b. durch das Hinzufügen einer Wahrscheinlichkeit zu jeder Entität und Beziehung [Chaudhuri et al. 2005, Fuhr,Rölleke 1997]. Data Cleansing. Unstrukturierte Daten müssen vor der Verwendung in einem BI-System möglichst nahe an die Qualität von Master-Daten gebracht werden. Für Foren gehört dazu z.b. die Identifikation von Duplikaten von Postings, deren Gruppierung und die Zuordnung extrahierter Produkte bzw. Komponenten zu existierenden strukturierten Produktdaten [Bhide et al. 2007, Thor et.al. 2007]. Lineage und dessen Darstellung. Unsicherheit muss dem Anfragenden auf einfach erfassbare Weise zusammen mit dem Ergebnis der BI-Anfrage dargestellt werden. Das beinhaltet z.b. die Angabe oder Visualisierung der Datenherkunft, der verwendeten Extraktoren und der durchlaufenen Datenaufbereitungsprozesse [Dong et al. 2007]. Für die Anbieter von Extraktionsplänen und Extraktoren muss zusätzlich ein Zurückverfolgen der Nutzer dieser Dienstleistungen möglich sein. Integration mit strukturierten Daten. Strukturierte Daten müssen extrahierten Daten zugeordnet werden können. Das betrifft sowohl die Zuordnung eindeutiger Daten wie s oder Produktnummern als auch von komplexen extrahierten Entitäten, Strukturierte Daten, z.b. aus einem ERP System, müssen außerdem helfen, die Extraktion zu verbessern. Dazu müssen Zusatzinformationen wie die Struktur, der Datentyp und auch Fremdschlüsselbeziehungen zu anderen strukturierten Daten verwendet werden können. Anfragen über extrahierten und strukturierten Daten. Anfragen müssen sowohl extrahierte als auch existierende strukturierte Daten einbeziehen können. Das bedeutet insbesondere, dass das Anfrageverarbeitungssystem mit mallebale Datenschemata umgehen kann [Zhou et al. 2007]. Die meisten der im letzten Abschnitt aufgeführten Anforderungen sind leicht nachvollziehbar. Die folgenden Nicht-Anforderungen wurden bewusst weggelassen; sie zielen weniger auf neue, sondern vielmehr auf die Optimierung existierender Funktionalitäten ab. Aktualität der Daten. Da Anwender und Datenanbieter entkoppelt sind, ist es notwendig, einen geeigneten Aktualisierungsprozess festzulegen. Analog zu klassischen Data Warehouse-Systemen kann der Datenanbieter eine reguläre inkrementelle Datenänderung anbieten. Alternativ könnte vergleichbar zu News-Tickern jede Datenänderung sofort propagiert werden. Multidimensionale Optimierung der Kosten für Extraktion. Die realen Kosten, der Zeitaufwand und die damit erreichte Qualität der Ergebnisse bezüglich Integrität, Vollständigkeit und Genauigkeit müssen akzeptabel und beeinflussbar sein. Das gilt insbesondere für den Extraktionsaufwand, der die Daten eines Datenanbieters teuer machen kann. Forschungsfragen Die Anforderungen an ein künftiges BI-System für unstrukturierte und strukturierte Daten sowie die Funktionsbausteine eines solchen Systems lassen sich noch nicht vollständig abschätzen. Für den im letzten Abschnitt genannten Prozessschritt eins, Datenbereitstellung, stehen bereits ausgereifte Technologien, wie der INXIGHT

10 Extraktion Server zum Wrapping von Office Dokumenten, s etc. zur Verfügung. Auch für den Prozessschritt Entwicklung und das Deployment von Basisextraktoren, bieten Extraktionstechnologien wie SAP INXIGHT Thingfinder elementare NLP Funktionalitäten (z.b. Part of Speech Tagging oder Sentence Detection) für zahlreiche Sprachen an. State-of-the-Art Technologien erlauben die Extraktion von Basisentitäten wie z.b. Personen, Organisationen, Produkte, die Erkennung einfacher Ereignisse auf der Basis von Cascading Grammars [Appelt, Onyshkevych 1998], (Synonym-) Wörterbüchern und regulären Ausdrücken. Prozessschritt sechs, ETL in ein Business Warehouse, beinhaltet den ETL Load der extrahierten und verarbeiteten Daten, wie er bereits mit existierenden Werkzeugen SAP BW und BO XI 3.0 durchgeführt werden kann. Die weiteren Prozessschritte drei, vier und fünf erfordern die Wiederverwendung oder Anpassung der Extraktion und die domänenspezifischen Komposition der Extraktionsergebnisse über eine gemeinsame Plattform. Wir sind der Meinung, dass die dazu notwendigen Bausteine ein hohes Forschungspotential besitzen. Die hier notwendigen Technologien kommen aus verschiedenen Gebieten der Informatik und werden in den folgenden Abschnitten beschrieben: Generische Architektur. In diesem Artikel liegt der Fokus auf den Self-Service- Systemen und BI-Anwendungen über Self Service Daten. Anforderungen und Anfragen in anderen Szenarien, z.b. dem Personal Information Management, Enterprise Search, Management oder Customer Relationship Management unterscheiden sich von den hier vorgestellten Szenarien. Zu erforschen ist, wie Architekturen für andere Szenarien gestalten werden, bzw. ob eine generische Architektur oder generische Komponenten die für unterschiedliche Architekturen genutzt werden können. Erlernendes Schema, physisches Datenmodell: Row vrs. Column? Benötigt wird eine zentrale Datenverwaltungskomponente sowohl für Domänenmodelle, extrahierte Daten und Metadaten. Das Domänenmodel umfasst Typen von Entitäten, deren Attribute und Beziehungen, die für die betrachteten BI-Anwendungen relevant sind und dafür gezielt extrahiert wurden. Die Datenverwaltung erfordert eine generische Repräsentation des Domänenwissens, die flexibel erweitert bzw. angepasst werden kann. Für die erkannten Entitäten, Attribute und Beziehungen müssen zusätzliche Metadaten, wie Konfidenzwerte, Informationen über Extraktoren, den Extraktionsplan und die Datenquelle erfasst werden. Forschungsrelevant sind flexible Datenmodelle und Indexstrukturen, die iterativ mit neue Entitäten und Beziehungen erweitert werden können und Anfragesprachen, die sich für derartige Datenmodelle eignen. Bewertung von Extraktoren. Prozessschritt drei erfordert die Auswahl leistungsfähiger Extraktoren für eine bestimme Konstellation Datenquellen-Extraktoren-BI Schema. Für die Auswahl und Bewertung geeigneter Extraktionsverfahren ist die Entwicklung eines Evaluationsverfahrens notwendig. In der Information Retrieval Community haben sich seit langem die TREC-Workshops 8 bewährt. Das National Institute of Standards and Technology (NIST) gibt Testdaten und Anfragen für einen Workshop vor, bewertet die eingesandten Ergebnisse und erstellt das Referenzergebnis. 8

11 Die Evaluierung einer großen Zahl von Extraktoren für bestimmte Datenquellen erfordert signifikanten menschlichen Aufwand. Wie kann dieser Prozess auf eine deutlich größere Anzahl von Extraktoren und Datenquellen für unterschiedliche Domänen ausgeweitet werden? Beispiele, wie das ESP Game 9 und Mechanical Turk 10 zeigen, dass die Community spielerisch derartige Aufgaben wahrnimmt. Hier stellt sich die Frage welches Design ein geeignetes Spiel zur Annotation und Bewertung von Extraktoren hat bzw. wie implizit Metadaten für die Auswahl passender Extraktoren zu einem BI-Schema ausgewählt werden können. Algebraische Komposition von Extraktoren. Extraktoren müssen von Domänenexperten zu einem konsistenten Ablaufplan kombiniert werden. Die Autoren von [Reiss et. al. 2008, Shen et al. 2007] schlagen, ähnlich einer SQL Algebra, eine deklarative Sprache bzw. eine geschlossene Algebra vor und geben erste Vorschläge für Operatoren für die Domänen Intranetsuche [Zhu et al. 2007] und suche [Kailing et al. 2006]. Mit dem algebraischen Ansatz können zudem nur bereits extrahierte Daten aus den Dokumenten verarbeitet werden. Diese Daten sind jedoch nur ein kleiner Anteil der Informationen, die konkret in den Dokumenten zu finden ist. [Jain et al. 2008] adressieren das Problem und kombinieren Suchoperatoren mit Extraktionsoperatoren. Eine Algebra ermöglicht einheitliche Semantiken zur Formulierung komplexer Extraktionspläne. Auf der Basis eines Extraktionsplanes lassen sich weitere Informationen bezüglich der Lineage und der Datenqualität ableiten. Forschungsfragen umfassen die Klassifikation und Definition von algebraischen Extraktionsoperatoren, deren Formalisierung zu einem komplexen Extraktionsprozess und die Unterstützung des Nutzers bei der Modellierung der Extraktionspläne. Semiautomatischer Abgleich zwischen Extraktion und BI-Domänenschema. Die Modellierung des BI-Schemas sollte sowohl extraktions- als auch anfragegetrieben sein. Im ersten Fall erzeugen unterschiedlich konfigurierte Extraktoren extrahierte Daten. Abhängig von der Extraktionslogik können die Daten können teilweise oder vollständig überlappen.. Das Schema wird auf Basis extrahierten Daten iterativ erweitert. Bei der anfragegetrieben Modellierung wird das Schema durch die Anfragen vorgegeben und die entsprechenden Extraktoren werden ausgewählt und konfiguriert. Zu bearbeiten ist wie Extraktoren so annotiert werden können, dass für ein vorgegebenes BI-Schema Extraktionspläne semi-automatisch erzeugt werden. Ebenfalls ist das Problem zu lösen, wie Prozesswissen der Extraktion in einem Plan formalisiert werden kann. Extraktionspläne sollten zudem kollaborativ erweiterbar sein, Effiziente Extraktion: a priori vs. on-the-fly. Ein wesentliches Kriterium für die Nutzung eines BI-Systems ist die Effizienz. Die Analyse der Dokumente durch die Extraktoren erfolgt in der Regel für große Dokumentenmengen a priori. Bei diesem Prozess steht die Güte in Vordergrund. Während der Modellierung werden Domänenexperten Stichproben on-the-fly benötigen. Welche internen Datenstrukturen ermöglichen die effiziente Ausführung von Anfragen über Text? Wie können existierende extrahierte Daten berücksichtigt werden?

12 Qualität und Lineage: Die aus Dokumenten extrahierten strukturierten Daten sind mit einer Unsicherheit behaftet. Diese Unsicherheit kann für jedes einzelne Datenobjekt als die Wahrscheinlichkeit des Zutreffens modelliert und in den Anfrageverarbeitungsprozess einbezogen werden. Notwendig ist eine eingehende Propagierung der Unsicherheiten über die Analyseoperatoren und den Analyseprozess. Aspekte der Datenqualität, wie Vollständigkeit und Vertrauenswürdigkeit, müssen einfach und verständlich verbalisiert und visualisiert werden. Fazit Die komplexe Anwendung Business Intelligence über unstrukturierten Daten erfordert eine Zusammenarbeit der bisher häufig isoliert agierenden Web-, IR- und Datenbank-Communities. Ein System zur Realisierung dieser Anwendung erfordert Technologien für die Modellierung, Extraktion, Komposition, Konsolidierung und Analyse von Entitäten aus unstrukturierten Dokumenten. Ein Abgleich mit strukturierten Daten aus Geschäftsanwendungen ist zwingend erforderlich, um die Qualität der extrahierten Information zu garantieren. In diesem Artikel haben wir relevante Forschungsfragen für die wissenschaftliche Community formuliert. Für die künftige kommerzielle Nutzung müssen folgenden Aspekte adressiert werden: Extrahierte Daten werden nur dann relevant für BI-Anwendungen, wenn eine hohe Genauigkeit und Qualität der Extraktion garantiert und auf einfache Weise dem Nutzer der BI-Reporte verbalisiert werden kann. Reports müssen mit einem geringem Einarbeitungsaufwand und geringe Kosten in hoher Qualität erstellt werden. Dazu können Teilprozesse, wie das Entwickeln und Bewerten von Basisextraktoren für bestimmte Quellen, in die Community ausgelagert werden. Die Arbeit der Domänenexperten muss deutlich von der technischen Realisierung der Extraktion abgegrenzt und mehr auf das Abbilden der Domäne fokussiert werden. Einfache Werkzeuge zur Definition komplexer Extraktionspläne müssen entwickelt und für die breite Masse der Information Worker über eine Community-Plattform anwendbar werden. Anbieter von Extraktionstechnologien müssen sich für bestimmte Domänen auf gemeinsame Typen einigen. Uns ist bewusst, dass in der Vergangenheit derartige Einigungsprozesse häufig an zu unterschiedlichen Interessen scheiterten. Es ist abzuwarten, ob der Markt die Hersteller von Extraktionstechnologien in Zukunft zu einer Konsolidierung eines gemeinsamen und erweiterbaren Typ-Systems auffordert. Dieser Artikel stellt zwei Anwendungsfälle im Bereich Self-Support vor. Eine Aufgabe der Industrie ist die Entwicklung weiterer klar definiter Anwendungsfälle. Die Bereitstellung von anwendungsnahen Daten durch die Industrie für die akademische Gemeinschaft und offene Verfahren für die Bewertung von benötigten Technologien sind wünschenswert. Den Autoren ist bewusst, dass viele Aussagen kontrovers und natürlich nur ansatzweise betrachtet wurden. Unser Ziel war die Analyse von Architekturen und Technologien für die Integration und Analyse unstrukturierter Web 2.0 Daten in Business In-

13 tellgence Anwendungen anhand von zwei relevanten Geschäftsszenarien. Wir freuen uns auf Feedback. Literatur [Appelt, Onyshkevych 1998] Appelt, D.E.; Onyshkevych, B.: The common patter specification language.annual Meeting of the ACL, Baltimore, Maryland, October [Baumgartner et al. 2001] Baumgartner, R.; Flesca, S.; Gottlob, G.: Visual Web Information Extraction with Lixto. Proc. of VLDB Conference, 2001, S [Bitton et al. 2006] Bitton, D.; Färber, F.; Haas, L.; Shanmugasundaram, J.: One Plattform for Mining Structured and unstructured Data: Dream or Reality? (Panel). Proc. of VLDB Conference, 2006, S [Bhide et al. 2007] Bhide, M.; Gupta, A.; Gupta, R.; Roy, P.; Mohania, M.K.; Ichhaporia, Z.: LIPTUS: associating structured and unstructured information in a banking environment. Proc. of ACM SIGMOD Conference, 2007, S [Beckmann et al. 2006] Beckmann, J.L.; Halverson, A.; Krishnamurthy, R., Naughton, J.F.: Extending RDBMSs To Support Sparse Datasets Using An Interpreted Attribute Storage Format. Proc. of ICDE Conference, 2006, S. 58. [Benjelloun et al. 2008] Benjelloun, O.; Das Sarma, A.; Halevy, A.Y.; Theobald, M.; Widom, J.: Databases with uncertainty and lineage. VLDB Journal 17(2), 2008, S [Chang et.al. 06] Chang, F.;, Dean, J.;Ghemawat, S.; Hsieh, W.; Wallach, D.; Burrows, M.; Chandra, T.; Fikes, A.; Gruber. R.: Bigtable: A Distributed Storage System for Structured Data. OSDI 2006: [Chaudhuri et al. 2005] Chaudhuri, S.; Ramakrishnan, R.; Weikum, G.: Integrating DB and IR Technologies: What is the Sound of One Hand Clapping? Proc. of CIDR Conference, 2005, S [Dong, Halevy 2005] Dong, X.; Halevy, A.Y.: Malleable Schemas: A Preliminary Report. Proc. of WebDB, 2005, S [Dong, Halevy 2007] Dong, X.; Halevy, A.Y.: Indexing dataspaces. Proc. of ACM SIGMOD Conference. 2007, S [Dong et al. 2007] Dong, X.; Halevy, A.Y.; Yu, C.: Data Integration with Uncertainty. Proc. of VLDB Conference, 2007, S [Fuhr, Rölleke 1997] Fuhr, N.; Rölleke, T.: A Probabilistic Relational Algebra for the Integration of Information Retrieval and Database Systems. ACM Trans. Inf. Syst. 15(1), 1997, S [Gluchowski, Kemper 2007] Gluchowski, P.; Kemper, H.-G.: Quo Vadis Business Intelligence? BI-Spektrum 1, 2006, S [Immon, Nesavich 2007] Inmon, W.H.; Nesavich, A.: Tapping into Unstructured Data: Integrating Unstructured Data and Textual Analytics into Business Intelligence. Prentice Hall, [Irmak, Suel 2006] Irmak, U.; Suel, T.: Interactive wrapper generation with minimal user effort. Proc. of the 15th International Conference on World Wide Web, [Jain et al. 2008] Jain, A.; Doan, A.; Gravano, L.: Optimizing SQL Queries over Text Databases. In Proc. of ICDE Conference, 2008.

14 [Kailing et al. 2006] Kailing, K.; Löser, A.; Markl, V.: Challenges and Trends in Information Management, 'Database Technologies for the next Decade'. Datenbank-Spektrum, 19(6), [Markl 2008] Markl, V.: VLDB 08 Experiments and Analyses Session (https://www.cs.auckland.ac.nz/research/conferences/vldb08/index.php/calls). [Ramakrishnan,Tomkins 2007] Ramakrishnan, R.; Tomkins, A.: Toward a PeopleWeb. Computer 40(8), 2007, S [Reiss et al. 2008] Reiss, F.; Vaithyanathan, S.; Raghavan, S.; Krishnamurthy, S.; Zhu, H.: An Algebraic Approach to Rule-Based Information Extraction. Proc. of ICDE Conference, [Shen et al. 2007] Shen, W.; Doan, A.; Naughton, J.F.; Ramakrishnan, R.: Declarative information extraction using datalog with embedded extraction predicates. Proc. of VLDB Conference, 2007, S [Thor et.al. 2007] Thor A., Rahm E.: MOMA - A Mapping-based Object Matching System. CIDR 2007: [Weikum 2007] Weikum, G.: DB&IR: both sides now. Proc. of SIGMOD Conference, 2007, S [Zhou et al. 2007] Zhou, X.; Gaugaz, J.; Balke, W.; Nejdl, W.: Query relaxation using malleable schemas. Proc. of SIGMOD Conference, 2007, S [Zhu et al. 2007] Zhu, H.; Löser, A.; Raghavan, S.; Vaithyanathan, S.: Navigating the intranet with high precision. Proc. of International World Wide Web Conference, Alexander Löser promovierte als Stipendiat am DFG Graduiertenkolleg Verteilte Informationssysteme an der TU Berlin sowie als Gastwissenschaftler an den HP Labs Bristol auf dem Gebiet der semantischen Suche. Seit 2006 arbeit er an Methoden für die semantische Analyse von s, Foren und Intranets, zunächst als PostDoc am IBM Almaden Research Center und seit 2007 als Projektmanager im Bereich SAP Research für die SAP AG. Seine Arbeit am Avatar Semantic Search System wurde in den Computer World Horizon Awards 2006 gewürdigt. Hong-Hai Do studierte bis 1999 Informatik und Germanistik an der Universität Leipzig. In 2006 schloss er erfolgreich seine Dissertation mit dem Thema Schema Matching and Mapping-based Data Integration im Fachgebiet Informatik ebenfalls an der Universität Leipzig ab. Seit 2005 arbeitet er als Forscher und Projektleiter bei SAP Research CEC Dresden. Dort koordiniert er interne und öffentliche Forschungsprojekte der SAP AG auf den Gebieten der Datenintegration und Smart Items-Middleware.

15 Henrike Berthold studierte Informatik an der TU Dresden. Danach forschte sie als Doktorandin und später als PostDoc in der Datenbankgruppe der TU Dresden und als Gastwissenschaftlerin an der University of Lancaster, UK und der University of Alberta, Canada. Seit 2008 arbeitet sie bei SAP Research im Bereich Datamanagement & Analytics. Ihre Forschungsschwerpunkte sind effiziente Analyseverfahren für Geschäftsobjekte und die Integration von Datenbank-Technologien in serviceoriente Architekturen. Gregor Hackenbroich ist Research Program Manager bei SAP Research. Er leitet das Forschungsprogramm Data Management & Analytics mit den Schwerpunkten Unstructured Information Management, Datenintegration und Business Analytics.

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

m2n Intelligence Management Semantic Technologies Knowledge Discovery Modelbased Development Technologies

m2n Intelligence Management Semantic Technologies Knowledge Discovery Modelbased Development Technologies Semantic Technologies Knowledge Discovery Modelbased Development Technologies Application Layer Application Semantic Mapping Configuration Rules Model Layer User Data Data Mapping Structured Data Data

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011 Roundtable Dashboards und Management Information Rüdiger Felke / Christian Baumgarten 29.11.2011 Agenda Behind the Dashboards Was ist ein Dashboard und was ist es nicht? SAP BusinessObjects Dashboards

Mehr

REAL-TIME DATA WAREHOUSING

REAL-TIME DATA WAREHOUSING REAL-TIME DATA WAREHOUSING Lisa Wenige Seminarvortrag Data Warehousing und Analytische Datenbanken Friedrich-Schiller-Universität Jena - 19.01.12 Lisa Wenige 19.01.2012 2 Agenda 1. Motivation 2. Begriffsbestimmung

Mehr

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO innovation@work Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO thinkbetter AG Florian Moosmann 8. Mai 2013 1 Agenda Prädiktive Analyse Begriffsdefinition Herausforderungen Schwerpunktbereiche

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Information Workbench Linked Data-Anwendungen im Unternehmen. Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations

Information Workbench Linked Data-Anwendungen im Unternehmen. Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations Information Workbench Linked Data-Anwendungen im Unternehmen Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations Agenda Linked Data im Unternehmen Herausforderungen Die Information Workbench

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Problemstellung. Keine Chance! Ich brauche eine genaue Spezifikation und dann vielleicht in 3-4 Wochen können Sie einen erstes Beispiel haben!

Problemstellung. Keine Chance! Ich brauche eine genaue Spezifikation und dann vielleicht in 3-4 Wochen können Sie einen erstes Beispiel haben! Take aways Mit Power BI wird Excel zum zentralen Tool für Self- Service BI End-End Self-Service Lösungsszenarien werden erstmals möglich Der Information Worker erhält ein flexibles Toolset aus bekannten

Mehr

Institut für angewandte Informationstechnologie (InIT)

Institut für angewandte Informationstechnologie (InIT) School of Engineering Institut für angewandte Informationstechnologie (InIT) We ride the information wave Zürcher Fachhochschule www.init.zhaw.ch Forschung & Entwicklung Institut für angewandte Informationstechnologie

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration Actum + MIOsoft Ihr SAP Partner Prozessoptimierung Applikationsmanagement Systemintegration Daten verstehen Daten managen Business Analytics und IT Plattformanbieter Daten- u. Prozessmodellierung Applikationsentwicklung

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Mehrwerte schaffen durch den Einsatz von Business Intelligence

Mehrwerte schaffen durch den Einsatz von Business Intelligence Mehrwerte schaffen durch den Einsatz von Business Intelligence 1 Menschen beraten Menschen beraten BTC zeigt Wege auf - Sie entscheiden BTC zeigt Wege auf - Sie entscheiden Martin Donauer BTC Business

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

Data Warehouse. für den Microsoft SQL SERVER 2000/2005

Data Warehouse. für den Microsoft SQL SERVER 2000/2005 Warehouse für den Microsoft SQL SERVER 2000/2005 Begriffe 1 DWH ( Warehouse) ist eine fachübergreifende Zusammenfassung von Datentabellen. Mart ist die Gesamtheit aller Datentabellen für einen fachlich

Mehr

Datenbanktechnologie für Data-Warehouse-Systeme

Datenbanktechnologie für Data-Warehouse-Systeme Wolfgang Lehner Datenbanktechnologie für Data-Warehouse-Systeme Konzepte und Methoden dpunkt.verlag 1 1.1 1.2 1.3 1.4 1. 5 2 2.1 2.2 2.3 Einleitung 1 Betriebswirtschaftlicher Ursprung des Data Warehousing...

Mehr

Digitale Transformation - Ihre Innovationsroadmap

Digitale Transformation - Ihre Innovationsroadmap Digitale Transformation - Ihre Innovationsroadmap Anja Schneider Head of Big Data / HANA Enterprise Cloud Platform Solutions Group, Middle & Eastern Europe, SAP User Experience Design Thinking New Devices

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

Microsoft Office SharePoint Server 2007

Microsoft Office SharePoint Server 2007 Microsoft Office SharePoint Server 2007 Personen, Prozesse und Informationen verbinden Präsentation Version 1.0 Datum 03-07-2008 1 Agenda Das Duet Ernie und Bert Portale Wieso? Weshalb? Warum? Die Lösung

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin HP Autonomy Information Governance Strategie: Die Kontrolle über die Informationsflut Petra Berneaud - Account Manager Autonomy Status in vielen

Mehr

Kapitel 1 Überblick Content Management und Digitale Bibliotheken

Kapitel 1 Überblick Content Management und Digitale Bibliotheken Kapitel 1 Überblick Content Management und Digitale Bibliotheken Prof. Dr.-Ing. Stefan Deßloch Geb. 36, Raum 329 Tel. 0631/205 3275 dessloch@informatik.uni-kl.de 1 Überblick Was ist Content? Daten, Dokumente,

Mehr

FRT Consulting GmbH. Projekt KATEGO Komfortable SAP-Datenanalyse. Gustav Sperat FRT Consulting GmbH. www.frt.at. Wir machen aus Daten Wissen.

FRT Consulting GmbH. Projekt KATEGO Komfortable SAP-Datenanalyse. Gustav Sperat FRT Consulting GmbH. www.frt.at. Wir machen aus Daten Wissen. FRT Consulting GmbH Projekt KATEGO Komfortable SAP-Datenanalyse Gustav Sperat FRT Consulting GmbH 1 FRT Consulting das Unternehmen Spin off der TU Graz von langjährigen IT Experten Hauptsitz Graz, Büro

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Data Discovery mit Qlik

Data Discovery mit Qlik Data Discovery mit Qlik Performante Datenanalyse, Visualisierung, Storytelling und Data Governance für alle Anforderungen Dr. Stefan Jensen, Director PreSales Qlik Rechtlicher Hinweis Diese Präsentation

Mehr

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

BPM ohne Grenzen: Werkzeug und organisationsübergreifende Kollaboration. BPM in Practice, Hamburg, 10.10.2014

BPM ohne Grenzen: Werkzeug und organisationsübergreifende Kollaboration. BPM in Practice, Hamburg, 10.10.2014 BPM ohne Grenzen: Werkzeug und organisationsübergreifende Kollaboration BPM in Practice, Hamburg, 10.10.2014 Seit über 30 Jahren bietet MID Lösungen zur modellbasierten Entwicklung auf höchstem technischem

Mehr

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery Kapitel II Datenbereitstellung 2004 AIFB / FZI 1 II. Datenbereitstellung 2004 AIFB / FZI 2 II. Datenbereitstellung Collect Initial Data identify relevant attributes identify inconsistencies between sources

Mehr

Macht Knowledge- Management Unternehmen effizienter?

Macht Knowledge- Management Unternehmen effizienter? Macht Knowledge- Management Unternehmen effizienter? Karl-Heinz Plünnecke Geschäftsführer H.U.T GmbH 1 Software Performance Entwicklung Performance Was dann? ecommerce ERP SCM CRM Zeit 2 1 Noch Potential?

Mehr

Andreas Emhart Geschäftsführer Alegri International Group

Andreas Emhart Geschäftsführer Alegri International Group Andreas Emhart Geschäftsführer Alegri International Group Agenda Vorstellung Alegri International Überblick Microsoft Business Intelligence Sharepoint Standard Business Intelligence Tool Excel Service

Mehr

Social Monitoring. HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014

Social Monitoring. HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014 HAW Hamburg Hochschule für Angewandte Wissenschaften University of Applied Sciences Master Informatik - Anwendungen 1 WS 2013/2014 Abdul-Wahed Haiderzadah abdul-wahed.haiderzadah@haw-hamburg.de Betreuer:

Mehr

Social Media trifft Business

Social Media trifft Business Social Media trifft Business Intelligence Social Media Analysis als Teil der Unternehmenssteuerung Tiemo Winterkamp, VP Global Marketing Agenda Social Media trifft Business Intelligence Business Intelligence

Mehr

SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management. Anke Noßmann Syncwork AG

SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management. Anke Noßmann Syncwork AG SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management Anke Noßmann Syncwork AG SAP HERUG Partnertag, Berlin 06. November 2009 Inhalt 1. Ausgangssituation 2. Alternative

Mehr

Rolle des Stammdatenmanagements in einer SOA

Rolle des Stammdatenmanagements in einer SOA Rolle des Stammdatenmanagements in einer SOA Forum Stammdatenmanagement, November 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich. Herzlich Willkommen!

MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich. Herzlich Willkommen! MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich Herzlich Willkommen! Sharepoint 2010 Voraussetzung: 2 SharePoint 2010 Gesellschaft für Informatik Eike Fiedrich Bechtle GmbH Solingen

Mehr

SQL PASS Treffen RG KA. Überblick Microsoft Power BI Tools. Stefan Kirner Karlsruhe, 27.05.2014

SQL PASS Treffen RG KA. Überblick Microsoft Power BI Tools. Stefan Kirner Karlsruhe, 27.05.2014 SQL PASS Treffen RG KA Überblick Microsoft Power BI Tools Stefan Kirner Karlsruhe, 27.05.2014 Agenda Die wichtigsten Neuerungen in SQL 2012 und Power BI http://office.microsoft.com/en-us/office365-sharepoint-online-enterprise-help/power-bi-for-office-365-overview-andlearning-ha104103581.aspx

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com WhitePaper BIA Business Intelligence Accelerator Mai 2012 Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com BIA Business Intelligence Accelerator GmbH Softwarepark 26 A-4232 Hagenberg Mail:

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Neue Strategien und Innovationen im Umfeld von Kundenprozessen

Neue Strategien und Innovationen im Umfeld von Kundenprozessen Neue Strategien und Innovationen im Umfeld von Kundenprozessen BPM Forum 2011 Daniel Liebhart, Dozent für Informatik an der Hochschule für Technik Zürich, Solution Manager, Trivadis AG Agenda Einleitung:

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum

Mehr

Self-Service Business Intelligence (SSBI) Nutzenpotenziale für einen verbesserten Austausch von Informationen im Unternehmen

Self-Service Business Intelligence (SSBI) Nutzenpotenziale für einen verbesserten Austausch von Informationen im Unternehmen Fabian Geist, B.Sc. Dipl.-Wirtsch.-Ing. Torsten Kluin Prof. Dr. Harald Ritz Self-Service Business Intelligence (SSBI) Nutzenpotenziale für einen verbesserten Austausch von Informationen im Unternehmen

Mehr

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects Besseres Investitionscontrolling mit Der Investitionsprozess Singuläres Projekt Idee, Planung Bewertung Genehmigung Realisierung Kontrolle 0 Zeit Monate, Jahre Perioden Der Investitionsprozess Singuläres

Mehr

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich THEOBALD XTRACT PPS IXTO GMBH Mathias Slawik, Linda Kallinich Projekt BWA: Analytische Anwendungen, WS 2010/2011 Agenda 2/14 Projektaufgabe Technologien / Xtract PPS Projektablauf Dashboard-Prototyp Bewertung

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Durchblick im Self-Service-Dschungel. Hannover, 16.03.2015 Patrick Keller, Senior Analyst

Durchblick im Self-Service-Dschungel. Hannover, 16.03.2015 Patrick Keller, Senior Analyst Durchblick im Self-Service-Dschungel Hannover, 16.03.2015 Patrick Keller, Senior Analyst Business Application Research Center (BARC) B Europas führendes IT-Analysten- und -Beratungshaus für Business Software

Mehr

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

BI ist tot, lang lebe BI!

BI ist tot, lang lebe BI! BI ist tot, lang lebe BI! SAP HANA Live vs. SAP BW powered by HANA Glaubt man der ein oder anderen aus Walldorf stammenden Marketingfolie, so sind die Tage von herkömmlichen Business Intelligence Systemen

Mehr

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI Hanau, 25.02.2015 1 Titel der Präsentation, Name, Abteilung, Ort, xx. Monat 2014 Der Aufbau der Group BI Plattform

Mehr

Strategie und Self Service BI im Unternehmen. Gegensätze miteinander kombinieren

Strategie und Self Service BI im Unternehmen. Gegensätze miteinander kombinieren Strategie und Self Service BI im Unternehmen Gegensätze miteinander kombinieren Claas Planitzer Düsseldorf Juni 2015 Agenda 5. Herausforderungen 1. Idealbild 2. Realität 3. Self Service 4. BI. Was ist

Mehr

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Text Mining und CRM Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Was ist Textmining Unstrukturierte Daten (Text) anreichern mit Strukturinformation: Metadaten hinzufügen Struktur (Segmentinformation)

Mehr

Logo MIA. Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web

Logo MIA. Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web Logo MIA Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web MIA Konsortium Ausgangslage Das deutschsprachige Web mit derzeit mehr als sechs Milliarden Webseiten

Mehr

Self-Service Business Intelligence. Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart

Self-Service Business Intelligence. Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart Self-Service Business Intelligence Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart Agenda Einleitung Self-Service Business Intelligence Definition(en) und Grundlage(n)

Mehr

CONNECT YOUR CALCULATION KNOWLEDGE

CONNECT YOUR CALCULATION KNOWLEDGE CONNECT YOUR CALCULATION KNOWLEDGE Aus Ihrem Fachwissen Entwicklungssoftware machen & produktiver arbeiten. Do it yourself. Mit Ihren Systemen. Kosteneffizient im ganzen Unternehmen nutzen. Bob s Matlab-Skript

Mehr

Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop

Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop In Zusammenarbeit mit der Seite 1 Um eine SharePoint Informationslogistik aufzubauen sind unterschiedliche Faktoren des Unternehmens

Mehr

QUICK-START EVALUIERUNG

QUICK-START EVALUIERUNG Pentaho 30 für 30 Webinar QUICK-START EVALUIERUNG Ressourcen & Tipps Leo Cardinaals Sales Engineer 1 Mit Pentaho Business Analytics haben Sie eine moderne und umfassende Plattform für Datenintegration

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger. BTC Network Forum Energie 2013

Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger. BTC Network Forum Energie 2013 Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger BTC Network Forum Energie 2013 Starke Kunden fordern den Markt heraus Sozial vernetzt Digital verbunden

Mehr

ShopBot, ein Software-Agent für das Internet

ShopBot, ein Software-Agent für das Internet Software-Agenten p.1/20 ShopBot, ein Software-Agent für das Internet Eine Einführung in (Software-)Agenten Madeleine Theile Software-Agenten p.2/20 Aufbau des Vortrags grundlegende Theorie Definition Autonomy,

Mehr

19.11.2009. Business Intelligence und Web 2.0. Business Application Research Center

19.11.2009. Business Intelligence und Web 2.0. Business Application Research Center Business Application Research Center BARC ist Marktanalyst und Berater spezialisiert auf Business Intelligence, Daten- und Dokumentenmanagement. Business Intelligence und Web 2.0 Dr. Carsten Bange Gründer

Mehr

Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 3. Aufgabenstellung

Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 3. Aufgabenstellung Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 3 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 18.12.2013 1. Kurzbeschreibung Dieses Praktikum

Mehr

DW2004. XML-Datenimport in das SAP Business Information Warehouse bei Bayer Material Science. 3. November 2004. Dr. Michael Hahne, cundus AG

DW2004. XML-Datenimport in das SAP Business Information Warehouse bei Bayer Material Science. 3. November 2004. Dr. Michael Hahne, cundus AG DW2004 XML-Datenimport in das SAP Business Information Warehouse bei Bayer Material Science Dr. Michael Hahne, cundus AG 3. November 2004 cundus AG 2004 Gliederung Motivation SAP Business Information Warehouse

Mehr

Sichere Digitale Soziale Netzwerke

Sichere Digitale Soziale Netzwerke Sichere Digitale Soziale Netzwerke Eine Chance für E-Learning? LifeSocial - www.lifesocial.org E-Learning QuaP2P Improving the Quality of P2P Systems DFG research group 733 Dr.Ing. Kalman Graffi Kalman.Graffi@KOM.tu-darmstadt.de

Mehr

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de Configuration Management mit Verbosy 17.04.2013 OSDC 2013 Eric Lippmann Kurzvorstellung NETWAYS Expertise OPEN SOURCE SYSTEMS MANAGEMENT OPEN SOURCE DATA CENTER Monitoring & Reporting Configuration Management

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

Wiki-basierte Dokumentation von Software-Entwicklungsprozessen

Wiki-basierte Dokumentation von Software-Entwicklungsprozessen Wiki-basierte Dokumentation von Software-Entwicklungsprozessen Erfahrungen aus der industriellen Praxis Fraunhofer IESE Kaiserslautern Inhalt Wiki-basierte Dokumentation von Software-Entwicklungsprozessen

Mehr

Ontologiebasierte domänenspezifische Datenbereinigung in Data Warehouse Systemen

Ontologiebasierte domänenspezifische Datenbereinigung in Data Warehouse Systemen Ontologiebasierte domänenspezifische Datenbereinigung in Data Warehouse Systemen Stefan Brüggemann Institut OFFIS, 26121 Oldenburg, Germany, email: brueggemann@offis.de, WWW home page: http://www.offis.de

Mehr

Data Warehousing. Kapitel 1: Data-Warehousing-Architektur. Folien teilweise übernommen von Matthias Gimbel

Data Warehousing. Kapitel 1: Data-Warehousing-Architektur. Folien teilweise übernommen von Matthias Gimbel Data Warehousing Kapitel 1: Data-Warehousing-Architektur Folien teilweise übernommen von Matthias Gimbel 2 Analyse von Geschäftsprozessen Mögliche Fragestellungen Wie entwickelt sich unser Umsatz im Vergleich

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge Self Service BI - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge 04. Juli 2013 Cubeware GmbH zu Gast im Hause der Raber+Märcker GmbH Referent: Uwe van Laak Presales Consultant

Mehr

Microsoft Office SharePoint Server 2007 Überblick. Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.

Microsoft Office SharePoint Server 2007 Überblick. Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft. Microsoft Office SharePoint Server 2007 Überblick Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.com 30. Juli 2006 Munich, Germany 2007 Microsoft Office System Investitionen

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

Multimedia-Metadaten und ihre Anwendung

Multimedia-Metadaten und ihre Anwendung Multimedia-Metadaten und ihre Anwendung 14.02.2006 Video Retrieval und Video Summarization Maria Wagner Aspekte des Video Retrieval 2/14 Videoanalyse Analyse nötig, um Struktur und Metadaten zu erkennen

Mehr

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner.

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner. Enterprise Query //einfach und mittelstandsgerecht aruba //Enterprise Query Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner aruba //Enterprise Query einfach Daten abfragen und veröffentlichen

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Big Data und Social Media Analyse. Baden, 11.06.2013 Arne Weitzel, Senior Solution Architect Samuel Rentsch, CEO Julian Götz, Head of Sales

Big Data und Social Media Analyse. Baden, 11.06.2013 Arne Weitzel, Senior Solution Architect Samuel Rentsch, CEO Julian Götz, Head of Sales Big Data und Social Media Analyse Baden, 11.06.2013 Arne Weitzel, Senior Solution Architect Samuel Rentsch, CEO Julian Götz, Head of Sales Big Data & Social Media Analyse werden in Zukunft zentrale Business

Mehr

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 OSC Smart Integration GmbH SAP Business One GOLD-Partner in Norddeutschland GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 SAP Business One v.9.0 Heiko Szendeleit AGENDA OSC-SI 2013 / SAP Business One

Mehr

Predictive Analysis für eine intelligente Produktionsplanung Dr. Andreas Cardeneo, SAP Data Science 20. Mai 2014

Predictive Analysis für eine intelligente Produktionsplanung Dr. Andreas Cardeneo, SAP Data Science 20. Mai 2014 Predictive Analysis für eine intelligente Produktionsplanung Dr. Andreas Cardeneo, SAP Data Science 20. Mai 2014 Agenda Vorstellung Kundenbeispiel Absatzprognose SAP Predictive Analysis Anwendung SAP Predictive

Mehr

DOKUMENT- ERZEUGUNG FÜR MICROSOFT SHAREPOINT

DOKUMENT- ERZEUGUNG FÜR MICROSOFT SHAREPOINT DOKUMENT- ERZEUGUNG FÜR MICROSOFT SHAREPOINT Leon Pillich Geschäftsführer MEHR PRODUKTIVITÄT FÜR IHREN DOKUMENTEN-WORKFLOW Ihre Anwender bei der Erstellung von Korrespondenz unterstützt Vorlageverwaltung

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

Christian Kurze BI-Praktikum IBM WS 2008/09

Christian Kurze BI-Praktikum IBM WS 2008/09 Einführung in die multidimensionale Datenmodellierung e mit ADAPT BI-Praktikum IBM WS 2008/09 1 Gliederung Einführung multidimensionale Datenmodellierung 1. Multidimensionales Modell BI-Praktikum IBM WS

Mehr