Web 2.0 Business Analytics

Größe: px
Ab Seite anzeigen:

Download "Web 2.0 Business Analytics"

Transkript

1 Web 2.0 Business Analytics Alexander Löser, Gregor Hackenbroich, Hong-Hai Do, Henrike Berthold SAP AG, SAP Research CEC Dresden Chemnitzer Strasse Dresden, Germany Der Artikel führt Business Intelligence Systeme mit dem Ziel der Analyse von Web 2.0 Daten ein. Anhand von Foren zu Softwareprodukten mit ca Nutzern zeigen wir auf, wieso die heutige Technologie zur Entwicklung von Business Analysen nicht ausreichend zur Erreichung dieses Ziels ist. Es wird ein kurzer Exkurs gegeben, wieso nur eine Integration von Datenbank-Technologien mit Ansätzen des Natural Language Processing und des Information Retrievals zielführend sein könnten. Der Artikel soll zur Diskussion anregen. Einführung Unternehmen suchen intensiv nach neuen Möglichkeiten, um die stark anwachsende Flut von geschäftsrelevanten Informationen zu verwalten und nutzbar zu machen. Der Großteil dieser Informationen ist unstrukturiert, d.h. nicht repräsentiert in traditioneller, relationaler Form, sondern als Text, Audio oder Video. Beispiele für unstrukturierte unternehmensrelevante Informationen sind s, Web-Seiten, Office- Dokumente, Wartungsberichte, oder Kundenfeedback. In jüngster Zeit wird verstärkt diskutiert [Immon, Nesavich 2007], ob und wie man den textuellen Anteil dieser Informationen extrahieren, analysieren und Business Intelligence (BI) Systemen zugänglich machen kann, die sowohl über strukturierten als auch über unstrukturierten Inhalten operieren. Es ist das Ziel dieses Beitrags, wichtige technische und wirtschaftliche Herausforderungen aufzuzeigen, die auf dem Weg hin zu den angestrebten neuartigen BI-Lösungen adressiert werden müssen. Wir entwickeln unsere Konzepte anhand zweier spezifischer Szenarien. Diese fokussieren auf nutzergenerierte Foren-, Blog- und Wiki-Beiträge rund um Produkte und Dienstleistungen eines Softwareherstellers. Die Interessen an diesen Beiträgen sind äußerst vielfältig und relevant für verschiedene Nutzergruppen: Software-Anbieter sind nach der Markteinführung neuer Produktes interessiert, welche Features besonders häufig von bestimmten Kundengruppen diskutiert werden und welche Verbesserungswünsche sich daraus ableiten lassen. Software-Dienstleister wollen feststellen, welche Probleme bestimmte Lösungen aufwerfen und welche Problemlösungen von der Community entwickelt werden. Account Manager können aus Beiträgen Ihrer Kunden weitere Marketing-Maßnahmen für die von ihnen betreuten Kunden ableiten. Nutzer von Software erwarten konkrete Hilfestellungen zu Produkten und Lösungen, ohne teure Berater oder Hotlines in Anspruch nehmen zu müssen. Hilfestellungen durch die Community sind insbesondere für den Software-Volumenmarkt relevant, im Bereich von Enterprise-Software sind dies Lösungen für kleine und mittlere Unternehmen.

2 Unser Hauptinteresse in diesem Beitrag gilt BI-Anwendungen über Web 2.0 Communities, die von Unternehmen selbst moderiert oder verwaltet werden. Die Struktur und Semantik solcher Community-Beiträge kann vom Unternehmen festgelegt werden und ist analytischen Softwareanwendungen deshalb leichter zugänglich. Wir leiten relevante Anfragen über den Community- und Unternehmensdaten ab, die mit klassischen Suchmaschinen wie Google, Yahoo oder MSN, aber auch von state-of-the-art BI-Systemen wie SAP Business Intelligence oder BusinessObjects Enterprise XI nicht beantwortet werden können. Künftige BI-Lösungen zur Beantwortung dieser und ähnlicher Anfragen müssen in der Lage sein, Entitäten und Beziehungen zwischen Entitäten aus unstrukturierten Daten zu extrahieren und mit Fakten aus strukturierten Daten in Bezug zu setzen. Die Herausforderung liegt darin, die Kosten der Extraktion möglichst gering zu halten und trotzdem die für Unternehmensanwendungen erforderliche Qualität und Vollständigkeit der Ergebnisse zu gewährleisten. In [Gluchowski, Kemper 2006] wird die Entwicklung der ersten kommerziellen Datenverarbeitungs- und Decision Support Systems hin zu den heute verfügbaren BI- Systemen nachgezeichnet. Aktuelle Trends wie Corporate Performance Management oder Real Time Analytics betonen den unternehmensübergreifenden Systemansatz bzw. die Aktualität der zu verarbeiteten Daten. Die Ausweitung des BI-Prozesses auf die verschiedenen Ausprägungen von unstrukturierten Daten, wie in diesem Papier diskutiert, ist nach unserem Dafürhalten ein Schritt hin zur Konvergenz der Disziplinen Datenmanagement und Information Retrieval [Weikum 2007]. Dieser Artikel formuliert Prognosen für die technischen Anforderungen an künftige BI-Systeme, basierend auf der Erwartung, dass diese Systeme strukturierte und unstrukturierte Daten integrieren. Diese Sicht impliziert neuartige Herausforderungen für die Erfassung und Bewertung von Datenqualität und Datenlineage. Durch unsere spezifische Sicht auf das Problem als industrielle Forschungsorganisation an der Schnittstelle zwischen akademischer Forschung und industrieller Entwicklung, wollen wir zur Lösung neuer (alter) Probleme in der Datenbank Community motivieren. Daher wird dieser Artikel keine Lösungen bereitstellen. Er dient vielmehr dazu, Erfahrungen und Marktschwingungen wiederzugeben und zu diskutieren. Wirtschaftliche und technische Trends Für Unternehmen spielt der unmittelbare Informationsaustausch mit weltweiten Kunden und Partnern eine bedeutende Rolle. Die SAP nutzt für Ihr Kunden- und Partnernetzwerk spezifische Kanäle, wie das Hilfeportal help.sap.com oder das SAP Developer Network (SDN) für den Web-basierten Informationsaustausch für Entwickler im eigenen Haus, für Partner und Systemintegratoren. Die Globalisierung und Individualisierung der Softwareproduktion haben zu neuen Produkten für das volumenorientierten Mittelstandssegment geführt, z.b. zu der neuen on-demand Lösung SAP Business ByDesign. Für dieses Segement, aber auch im Segment der on-premise Lösungen werden Communities zu einem zunehmend wichtigen Treiber von Innovation; dies spiegelt sich in aktuellen Trends: Zunahme Community-generierter Inhalte. Die Autoren von [Ramakrishnan,Tomkins 2007] beobachten in einer kürzlich durchgeführten Studie, dass viermal soviel Nutzer-erzeugte (8 GB/Tag) wie professionell-erstellte (2 GB/Tag) Inhalte weltweit im WWW in Wikis, Foren und Blogs veröffentlicht werden. Der Anteil der

3 weltweit generierten unstrukturierten Daten (z.b. in Word) wird auf 3TB pro Tag geschätzt. Die Daten liegen teilweise schon vorstrukturiert vor und beinhalten Metadaten. Datenextraktion und integration durch die Web-Community. Zur Überführung von unstrukturierten in strukturierte Daten sind Extraktionswerkzeuge und Spezialwissen erforderlich. Der Markt für Extraktionswerkzeuge und -Dienste ist unübersichtlich, die Entwickler von LingPipe 1 nennen mehr als 50 Mitbewerber für Technologien zur Extraktion von Basisentitäten. Einige der Extraktions- und Annotationsdienste können bereits über das Web genutzt werden. Prominente Beispiele dafür sind das Calais Tool von Reuters oder GAPSCORE als Spezialdienst für das Feld Life Science. Hinzu kommen mehrere hundert manuell oder automatisch erzeugte Wrapper zur Extraktion von Daten aus dynamisch generierten Webseiten. Diese Wrapper werden von einer wachsenden Community mit Werkzeugen wie Lixto [Baumgartner et al. 2001] und Kapow manuell oder semiautomatisch [Irmak, Suel 2006] erzeugt und ähnlich wie Mashups als Dienst oder RSS-Stream veröffentlicht. Dienste wie Yahoo Pipes erhöhen den Abstraktionsgrad der Komposition von Operatoren zur Datenintegration derart, das einfache Integrationspläne in kurzer Zeit erstellt, innerhalb der Community bewertet und wiederverwendet werden können. Beispiele dafür finden sich in der Integration von Nachrichtenmeldungen. Unterstützung von Information Workern. Information Worker müssen für ihre betrieblichen Aufgaben eine Vielzahl von Information aus unterschiedlichen Quellen sammeln, auswerten und austauschen. Dabei greifen sie sowohl auf BI-Systeme für OLAP-Anfragen über transaktionale Daten wie Payroll oder Accounting sowie auf traditionelle Suchmaschinen für die Dokumentensuche zurück. Neuartige BI-Systeme mit einheitlichem Zugriff auf strukturierte, unstrukturierte oder eventbasierte Daten haben das Potential, die Produktivität von Information Workern enorm zu erhöhen. In [Bitton et al. 2006] werden Enterprise Search Anwendungen mit direktem Bezug zu Compliance, Fraud Detection, Call Center Unterstützung und Self-Service sowie CRM diskutiert. Diese Anwendungen nutzen typischerweise Datenquellen wie E- mails, CMS für Kontakte und Reklamationen sowie Foren und Blogeinträge. Business Analytics für den Software Volumenmarkt Online-Zugänge der SAP, wie z.b. das Software Developer Network (SDN)-Forum 2 und das SAP Online Hilfesystem 3 sind Anlaufpunkt für mehrere Beiträge täglich, die von einem Kreis von über 1 Mio Anwendern stammen. Dieser Consumer Generated Content enthält wertvolle Informationen zu Problemen, Lösungen, und Themen rund um SAP-Lösungen für die Mitglieder der SDN Gemeinschaft, z.b. Kunden Berater. Eine Anwendung im Bereich des Self-Supports stellen wir im ersten Teil dieses Abschnitts vor. Zusätzlich ermöglicht die schiere Menge der tagtäglich durch die Kunden generierten Beiträge enormes Geschäftspotential für die Ableitung von Businessentscheidungen für das SAP Management, insbesondere in den Fachabteilungen Vertrieb, Produktmanagement und Kundenbeziehungsmanagement. Dazu

4 müssen ad-hoc Analysen durch die Fachabteilungen durchgeführt werden. Im zweiten Teil dieses Abschnitts geben wir Beispiele für diese Form der Business Analytics über Consumer Generated Content. Self-Service-Support Die Motivation für dieses Szenario liegt im Bereich des technischen Kundensupports für den Software-Volumenmarkt. Um eine große Anzahl von Support-Anfragen der Kunden im Volumenmarkt zu adressieren, sind skalierbare und preisgünstige Methoden notwendig. Wir sehen großes Potential für das Self-Service-basierte Support- Modell, in dem der Kunde sofort und automatisch Hilfeleistungen vom Support- System bekommt. Existierende Quellen mit Produkt- und Support-Wissen, z.b. Support-Foren wie SAP SDN oder Software-Dokumentation wie SAP Help ermöglichen systematische Indexierung und Suche von Informationen zu Problemen und deren Lösungen, die dem Kunden bei einer Anfrage als automatische Empfehlungen bereitgestellt werden können. Im folgenden Szenario nutzt ein Kunde ein Support-Forum, um die Lösung für ein technisches Problem zu finden. Anstatt wie bisher seine Anfrage mit der Problembeschreibung sofort im Forum zu veröffentlichen, bekommt der Kunde eine automatisch generierte Empfehlung vom System. Wie in Abbildung 1 illustriert, werden charakteristische Begriffe und Produktnamen aus der Problembeschreibung automatisch erkannt. Mit diesem Wissen können Lösungshinweise für den Kunden automatisch generiert werden, wie Beiträge (Similar threads), die dieselben bzw. ähnlichen Probleme diskutieren, Dokumente (Quick actions), die die Vorgehensweisen bei solchen Problemen beschreiben, oder Experten (Experts), an die sich der Kunde direkt wenden kann. Er kann nun den Empfehlungen nachgehen, um sein Problem zunächst selbst zu lösen. Bei erfolgreicher Problemlösung zieht er seine Anfrage zurück, so dass kein weiterer Aufwand für die anderen Mitglieder des Forums entsteht. Expert Problembeschreibung 1. Problemerkennung durch Begriffe und Produkte Expert Bob Star - Business Card Company: BCC SAP Michael Exchange Ford Infrastructure - Business Card (XI) Company: Wipro Technologies SAP Exchange Infrastructure (XI), SAP NetWeaver Platform 3. Identifikation und Empfehlung von Experten 2. Verweise zu ähnlichen Problemen und Lösungen Similar threads XI configuration RFC Sender Adapter XI Quick scenarios actions using Sender RFC Adapter Trouble shooting RFC and SOAP RFC Configuring the RFC Scenario Step by Step Abbildung 1. Self-Service-Support mit automatisch generierten Empfehlungen Um dieses Szenario zu realisieren, sind u.a. folgende Funktionalitäten notwendig: Interpretieren und Verstehen des Sachverhalts: Aus dem Text sollen relevante Informationen extrahiert werden, die den Sachverhalt (z.b. die technischen

5 Aspekte des Problems) sowie den Kontext des Sachverhalts (Nutzerinformation, Absicht des Nutzers, etc.) charakterisieren. Identifikation ähnlicher Sachverhalte: Das Interpretieren und Verstehen der Sachverhalte soll auf dem gesamten Datenbestand, hier den existierenden Forenbeiträgen, durchgeführt werden, so dass Dokumente mit ähnlichen/selben Problemen identifiziert werden können. Expertensuche: Aus den eigens verfassten Beiträgen der Mitglieder in der Community, z.b. den Nutzern des Forums, sollen Experten für einzelne Gebiete identifiziert werden. Die Gebiete der Expertise müssen modelliert und deren Beziehungen zu den Nutzern aus den vorhandenen Daten extrahiert und gewichtet werden. Analyse von Support-Community Daten Die Nutzerbeiträge aus Support-Foren enthalten implizit wertvolles Produktwissen, das für die Identifikation und Analyse von Marktrends, Kundenanforderungen und Kundenwünschen verwendet werden kann. Aus Forenbeiträgen können Metadaten und Entitäten wie die Erstellungszeit des Beitrags, der Autor, Organisationen oder das diskutierte Produkt extrahiert werden, und anschließend wie in wie in traditionellen BI-Systemen multidimensional analysiert werden. Wie in Fehler! Verweisquelle konnte nicht gefunden werden. illustriert wird, geben einfache Aggregationen über diese extrahierten Informationen bereits wertvollen Aufschluss darüber, welche Organisation wie viele Anfragen zu welchem Produkt veröffentlicht hat. SilverStar als Organisation mit allen Abteilungen zur Auswahl SilverStar Taiwan Ltd SilverStar, Divisjon Automasjon Silverstar Automation SilverStar Automation Inc. SilverStar Products Inc SilverStar Systems GmbH SilverStar Technologies AB SilverStar b.v. SilverStar Business Services IMS SilverStar Mittelspannung SilverStar Business Services SilverStar Electrical Industries Co. SilverStar Service SilverStar Grain Ltd SilverStar Group Service Center SilverStar Group Services Center SilverStar AG SilverStar USA Inc. SilverStar Industry Pte Ltd SilverStar Information Systems Ltd SilverStar Communikations SilverStar Limited SilverStar Global Services. Company SilverStar* Von SilverStar Products Inc. stammten 90 Anfragen über die Produktkomponente CRM Customer Return Processing (AP-CRP) Product AP-* AP-BP AP-CAS AP-CAT AP-CI AP-CME AP-CMP AP-COS AP-CQP AP-CR AP-CRP AP-DFP AP-DP AP-DUE AP als Produkt mit allen Komponenten zur Auswahl Abbildung 2. Drill-down und Aggregation über extrahierten Daten Aus automatisch oder von Kunden generierten Annotationen, Verweisen, oder Beziehungen zwischen Software-Produkten lassen sich weitere interessante Informationen gewinnen. Mit diesen Informationen ist die Beantwortung folgender komplexer Anfragen, möglich, die über einfache Aggregationen hinausgehen:

6 1. Welche Produkte, Produktkomponenten, bzw. funktionen haben die meisten Anfragen erzeugt? : Häufig angefragte Produkte/Komponenten/Funktionen sind offensichtlich besonders relevant und/oder verursachen häufig Probleme. Hier sollten Entscheidungen über die Verbesserung problematischer Funktionen bzw. über die Entwicklung neuer Produktfunktionen getroffen werden. 2. Mit welchen Produkten, Produktkomponenten, bzw. funktionen, haben Organizationen in Bereich EMEA im letzten halben Jahr am häufigsten ein Problem? Gruppiere nach indvidiuellen Organizationen und Produkten. : Das Wissen über die gehäuften Anfragen von einer bestimmten Kunden zu einem bestimmten Produkt oder einer bestimmten Produktfunktion hilft, individuelle Support-Angebote für den Kunden zu erstellen. Dabei müssen erkannte Entitäten wie Produkte oder Organisationen semantisch gruppiert werden können. 3. Welche Fragen haben Business-Analysten in einem vorgegebenen Zeitraum zu einem bestimmten Produkt gestellt? : Diese Frage zielt auf das Interesse einer bestimmten Nutzergruppe ab, um Trends zu identifizieren bzw. die Anforderungen der Nutzergruppe mit zusätzlichen Inhalten besser zu adressieren. 4. Welche Produkte/Komponenten/Funktionen wurden oft in Kombination mit den gegebenen Produkten/Komponenten/Funktionen in Anfragen erwähnt? : Das Wissen über häufig benutzte Produktkombinationen kann helfen, bessere Produktintegrationen zu realisieren und als Produkt-Pakete zu vermarkten. Prozess der Datenaufbereitung und Nutzung Kollaborativer, iterativer Extraktionsprozess. Um die ebenen besprochenen BI- Funktionalitäten zu unterstützen ist ein System notwendig, das kontinuierlich die Beiträge analysiert, interpretiert, die relevanten Daten extrahiert und in ein BI-System überführt. Das notwendige Spezialwissen ist häufig über mehrere Akteure verteilt und erfordert deren Kollaboration in einem gemeinsamen Prozess. Die einzelnen Prozessschritte fokussieren auf die Kernkompetenzen der jeweiligen Akteure, z.b. die Modellierung der Domäne und die Formulierung von Anfragen. Dabei können Teilprozesse ausgelagert bzw. existierende Komponenten wiederverwendet werden. Dies erhöht die Qualität des Gesamtsystems und reduziert die Kosten für den Anwender.

7 Datenanbieter Dokumente Dokumente Dokumente RSS-Feeds RSS-Feeds RSS-Feeds Strukt. Daten Strukt. Daten Datenbereitstellung Sprachexperte/ Domänenexperte Integrator BI-Modellierer BI-Nutzer Basis- Extraktion Plattform Quellenabh. Extraktion Domänenabh. Extraktion Transformation (Datenbereinigung, ) Daten- Integration Extrahierte Daten und Metadaten (Datenmodell für extrahierte Daten) ETL-Prozess und Rekonfiguration des Prozesses Datenmodellierung Benutzt Datenverwaltung Entity-Datenmodellierung Warehouse- Datenmodellierung Abbildung 3. Prozess der Datenaufbereitung und Nutzung Konfiguration/Rekonfiguration Monitoring (Data quality, ) Online-Analysen Laden der Daten/ Optimieren des DW für Anfragen Offline- Analysen Business Warehouse (Multidim. Datenmodell) Abbildung 3. zeigt den gesamten Prozess, die beteiligten Akteure und Komponenten. Der iterative Prozess gliedert sich in folgende Schritte: 1. Datenbereitstellung. Unstrukturierte Daten, wie Dokumente oder RSS-Feeds, werden im Web bereitgestellt. Wrapper-Systeme für Web Seiten, wie LIXTO [Baumgartner et al. 2001] können aus stark vorstrukturierten Text-Daten ebenfalls geeignete RSS-Streams extrahieren. 2. Entwicklung und Deployment von Basisextraktoren. Spezialisierte Anbieter erstellen Komponenten für die Basisextraktion wie Personen, Orten, Produkten, Organisationen usw. Ein Beispiel ist das System INXIGHT. 3. Wiederverwendung und Anpassung von Basisextraktoren. Domänenexperten passen Extraktoren auf die Domäne an. Idealerweise erfordert diese Wiederverwendung der Extraktoren nur eine Konfiguration von Schnittstellen. Höherer Aufwand entsteht, wenn Extraktoren erst für eine Domäne trainiert oder mit zusätzlichen regulären Ausdrücken konfiguriert werden müssen. 4. Komposition. Integratoren erzeugen Pläne zur Erkennung komplexer Entitäten und Beziehungen zwischen Entitäten sowie zur Erkennung von Duplikaten. Die Bereinigung der extrahierten Daten kann durch die Verwendung der strukturierten Daten verbessert werden. Die bereinigten extrahierten Daten und die strukturierten Daten werden anschließend integriert. Ein Beispiel für die Komposition von extrahierten Daten sind Yahoo Pipes. 5. Anpassung des BI-Schemas. BI-Modellierer erstellen eine auf die geforderten Analysen zugeschnittene flexible und dehnbare Sicht auf die extrahierten Daten und eine statische Sicht auf die multidimensionalen Daten im Business Warehouse. Sie ermöglichen so eine bestimmte Menge von BI-Anfragen. 6. ETL in ein Business Warehouse. Der BI-Nutzer konfiguriert den gewünschten ETL-Prozess. Idealerweise kann er dabei auf existierende Komponenten zurückgreifen. Andernfalls initiiert er die Entwicklung der benötigten Komponenten.

8 Automatisch extrahierte Daten sind immer mit einer Unsicherheit behaftet. Daher analysiert der BI-Nutzer zunächst eine kleine Menge an Daten, um die Datenqualität zu bestimmen (Monitoring-Komponente). Bei unzureichender Qualität werden andere Extraktoren ausgewählt, müssen zusätzliche Regeln definiert und der Extraktionsplan angepasst werden. Erst wenn ein ETL-Prozess auch über die unstrukturierten Daten gute Ergebnisse liefert, wird das Business Warehouse aufgebaut und für die Anfragen optimiert. Anforderungen an die BI-Infrastruktur Der Prozess der Datenaufbereitung und Nutzung zeigt, welche Funktionalitäten und Akteure es in einem BI-System für Community-Daten gibt. In diesem Abschnitt werden Anforderungen an eine BI-Infrastruktur beschrieben, die den Aufbau eines solchen Systems erlaubt. Die Liste der Anforderungen unvollständig, da das Problem derzeit nur in Ansätzen überblickt werden kann. Dehnbare Data Schemata. Extrahierte Entitäten und deren Beziehungen müssen flexibel auf existierende Datenschemas abbildbar sein. Für einen Text ist häufig nicht bekannt, welche Datenstrukturen durch Extraktion gewonnen werden können. Daher muss das Datenmodell dehnbar (engl. malleable) sein. Erforderlich sind zusätzliche interne Datenstrukturen, die BI-Anfragen über strukturierte und extrahierte Daten unterstützen [Benjelloun et al. 2008, Dong et.al. 2005]. Physisches Daten Modell für dehnbare Schemata. Das Schema verändert sich während der Extraktion und Exploration der unstrukturierten Daten kontinuierlich. Das erfordert ein physisches Datenmodell, bei dem eine Zeile eine beliebige Anzahl von Spalten beinhalten kann, die nur dünn (engl. sparse) mit Daten besetzt ist. Spalten müssen neben den Typ-Informationen der extrahierten Daten zusätzliche Metainformationen (Beziehungen zu strukturierten Daten, Lineage etc,) speichern können [Beckmann et al. 2006]. Vielversprechende Ansätze basieren auf dem BIGTable Ansatz [Chang et.al. 06], wie HBase 4 oder CouchDB 5. Aktuelle Prototypen von Anfragesprachen für derartige Datenstrukturen sind beispielsweise PIG 6 oder JAQL 7. Die Datenhaltungsschicht muss es zudem ermöglichen, kontinuierlich Schema- und Lineage Informationen aus den extrahierten Daten abzuleiten. Suche und Anbindung von Extraktoren. Die Entwicklung von Extraktoren ist aufwendig und teuer. Es gibt aber schon eine ganze Reihe von Extraktoren. Eine Suche über existierenden Extraktoren soll es Domänenexperten gestatten, für die Kombination von Datenquelle, Extraktor, Extraktionsplan und BI- Anfrage Extraktoren mit der geforderten Präzision und dem geforderten Recall zu finden und zu integrieren. Unsicherheit der Daten. Durch die automatische Extraktion aus unstrukturierten Dokumenten werden unsichere extrahierte Entitäten und Beziehungen gewonnen. Diese Unsicherheit muss sowohl im Datenmodell als auch couchdb.org/ 6 7

9 beim Ausführen der Anfragen reflektiert werden, z.b. durch das Hinzufügen einer Wahrscheinlichkeit zu jeder Entität und Beziehung [Chaudhuri et al. 2005, Fuhr,Rölleke 1997]. Data Cleansing. Unstrukturierte Daten müssen vor der Verwendung in einem BI-System möglichst nahe an die Qualität von Master-Daten gebracht werden. Für Foren gehört dazu z.b. die Identifikation von Duplikaten von Postings, deren Gruppierung und die Zuordnung extrahierter Produkte bzw. Komponenten zu existierenden strukturierten Produktdaten [Bhide et al. 2007, Thor et.al. 2007]. Lineage und dessen Darstellung. Unsicherheit muss dem Anfragenden auf einfach erfassbare Weise zusammen mit dem Ergebnis der BI-Anfrage dargestellt werden. Das beinhaltet z.b. die Angabe oder Visualisierung der Datenherkunft, der verwendeten Extraktoren und der durchlaufenen Datenaufbereitungsprozesse [Dong et al. 2007]. Für die Anbieter von Extraktionsplänen und Extraktoren muss zusätzlich ein Zurückverfolgen der Nutzer dieser Dienstleistungen möglich sein. Integration mit strukturierten Daten. Strukturierte Daten müssen extrahierten Daten zugeordnet werden können. Das betrifft sowohl die Zuordnung eindeutiger Daten wie s oder Produktnummern als auch von komplexen extrahierten Entitäten, Strukturierte Daten, z.b. aus einem ERP System, müssen außerdem helfen, die Extraktion zu verbessern. Dazu müssen Zusatzinformationen wie die Struktur, der Datentyp und auch Fremdschlüsselbeziehungen zu anderen strukturierten Daten verwendet werden können. Anfragen über extrahierten und strukturierten Daten. Anfragen müssen sowohl extrahierte als auch existierende strukturierte Daten einbeziehen können. Das bedeutet insbesondere, dass das Anfrageverarbeitungssystem mit mallebale Datenschemata umgehen kann [Zhou et al. 2007]. Die meisten der im letzten Abschnitt aufgeführten Anforderungen sind leicht nachvollziehbar. Die folgenden Nicht-Anforderungen wurden bewusst weggelassen; sie zielen weniger auf neue, sondern vielmehr auf die Optimierung existierender Funktionalitäten ab. Aktualität der Daten. Da Anwender und Datenanbieter entkoppelt sind, ist es notwendig, einen geeigneten Aktualisierungsprozess festzulegen. Analog zu klassischen Data Warehouse-Systemen kann der Datenanbieter eine reguläre inkrementelle Datenänderung anbieten. Alternativ könnte vergleichbar zu News-Tickern jede Datenänderung sofort propagiert werden. Multidimensionale Optimierung der Kosten für Extraktion. Die realen Kosten, der Zeitaufwand und die damit erreichte Qualität der Ergebnisse bezüglich Integrität, Vollständigkeit und Genauigkeit müssen akzeptabel und beeinflussbar sein. Das gilt insbesondere für den Extraktionsaufwand, der die Daten eines Datenanbieters teuer machen kann. Forschungsfragen Die Anforderungen an ein künftiges BI-System für unstrukturierte und strukturierte Daten sowie die Funktionsbausteine eines solchen Systems lassen sich noch nicht vollständig abschätzen. Für den im letzten Abschnitt genannten Prozessschritt eins, Datenbereitstellung, stehen bereits ausgereifte Technologien, wie der INXIGHT

10 Extraktion Server zum Wrapping von Office Dokumenten, s etc. zur Verfügung. Auch für den Prozessschritt Entwicklung und das Deployment von Basisextraktoren, bieten Extraktionstechnologien wie SAP INXIGHT Thingfinder elementare NLP Funktionalitäten (z.b. Part of Speech Tagging oder Sentence Detection) für zahlreiche Sprachen an. State-of-the-Art Technologien erlauben die Extraktion von Basisentitäten wie z.b. Personen, Organisationen, Produkte, die Erkennung einfacher Ereignisse auf der Basis von Cascading Grammars [Appelt, Onyshkevych 1998], (Synonym-) Wörterbüchern und regulären Ausdrücken. Prozessschritt sechs, ETL in ein Business Warehouse, beinhaltet den ETL Load der extrahierten und verarbeiteten Daten, wie er bereits mit existierenden Werkzeugen SAP BW und BO XI 3.0 durchgeführt werden kann. Die weiteren Prozessschritte drei, vier und fünf erfordern die Wiederverwendung oder Anpassung der Extraktion und die domänenspezifischen Komposition der Extraktionsergebnisse über eine gemeinsame Plattform. Wir sind der Meinung, dass die dazu notwendigen Bausteine ein hohes Forschungspotential besitzen. Die hier notwendigen Technologien kommen aus verschiedenen Gebieten der Informatik und werden in den folgenden Abschnitten beschrieben: Generische Architektur. In diesem Artikel liegt der Fokus auf den Self-Service- Systemen und BI-Anwendungen über Self Service Daten. Anforderungen und Anfragen in anderen Szenarien, z.b. dem Personal Information Management, Enterprise Search, Management oder Customer Relationship Management unterscheiden sich von den hier vorgestellten Szenarien. Zu erforschen ist, wie Architekturen für andere Szenarien gestalten werden, bzw. ob eine generische Architektur oder generische Komponenten die für unterschiedliche Architekturen genutzt werden können. Erlernendes Schema, physisches Datenmodell: Row vrs. Column? Benötigt wird eine zentrale Datenverwaltungskomponente sowohl für Domänenmodelle, extrahierte Daten und Metadaten. Das Domänenmodel umfasst Typen von Entitäten, deren Attribute und Beziehungen, die für die betrachteten BI-Anwendungen relevant sind und dafür gezielt extrahiert wurden. Die Datenverwaltung erfordert eine generische Repräsentation des Domänenwissens, die flexibel erweitert bzw. angepasst werden kann. Für die erkannten Entitäten, Attribute und Beziehungen müssen zusätzliche Metadaten, wie Konfidenzwerte, Informationen über Extraktoren, den Extraktionsplan und die Datenquelle erfasst werden. Forschungsrelevant sind flexible Datenmodelle und Indexstrukturen, die iterativ mit neue Entitäten und Beziehungen erweitert werden können und Anfragesprachen, die sich für derartige Datenmodelle eignen. Bewertung von Extraktoren. Prozessschritt drei erfordert die Auswahl leistungsfähiger Extraktoren für eine bestimme Konstellation Datenquellen-Extraktoren-BI Schema. Für die Auswahl und Bewertung geeigneter Extraktionsverfahren ist die Entwicklung eines Evaluationsverfahrens notwendig. In der Information Retrieval Community haben sich seit langem die TREC-Workshops 8 bewährt. Das National Institute of Standards and Technology (NIST) gibt Testdaten und Anfragen für einen Workshop vor, bewertet die eingesandten Ergebnisse und erstellt das Referenzergebnis. 8

11 Die Evaluierung einer großen Zahl von Extraktoren für bestimmte Datenquellen erfordert signifikanten menschlichen Aufwand. Wie kann dieser Prozess auf eine deutlich größere Anzahl von Extraktoren und Datenquellen für unterschiedliche Domänen ausgeweitet werden? Beispiele, wie das ESP Game 9 und Mechanical Turk 10 zeigen, dass die Community spielerisch derartige Aufgaben wahrnimmt. Hier stellt sich die Frage welches Design ein geeignetes Spiel zur Annotation und Bewertung von Extraktoren hat bzw. wie implizit Metadaten für die Auswahl passender Extraktoren zu einem BI-Schema ausgewählt werden können. Algebraische Komposition von Extraktoren. Extraktoren müssen von Domänenexperten zu einem konsistenten Ablaufplan kombiniert werden. Die Autoren von [Reiss et. al. 2008, Shen et al. 2007] schlagen, ähnlich einer SQL Algebra, eine deklarative Sprache bzw. eine geschlossene Algebra vor und geben erste Vorschläge für Operatoren für die Domänen Intranetsuche [Zhu et al. 2007] und suche [Kailing et al. 2006]. Mit dem algebraischen Ansatz können zudem nur bereits extrahierte Daten aus den Dokumenten verarbeitet werden. Diese Daten sind jedoch nur ein kleiner Anteil der Informationen, die konkret in den Dokumenten zu finden ist. [Jain et al. 2008] adressieren das Problem und kombinieren Suchoperatoren mit Extraktionsoperatoren. Eine Algebra ermöglicht einheitliche Semantiken zur Formulierung komplexer Extraktionspläne. Auf der Basis eines Extraktionsplanes lassen sich weitere Informationen bezüglich der Lineage und der Datenqualität ableiten. Forschungsfragen umfassen die Klassifikation und Definition von algebraischen Extraktionsoperatoren, deren Formalisierung zu einem komplexen Extraktionsprozess und die Unterstützung des Nutzers bei der Modellierung der Extraktionspläne. Semiautomatischer Abgleich zwischen Extraktion und BI-Domänenschema. Die Modellierung des BI-Schemas sollte sowohl extraktions- als auch anfragegetrieben sein. Im ersten Fall erzeugen unterschiedlich konfigurierte Extraktoren extrahierte Daten. Abhängig von der Extraktionslogik können die Daten können teilweise oder vollständig überlappen.. Das Schema wird auf Basis extrahierten Daten iterativ erweitert. Bei der anfragegetrieben Modellierung wird das Schema durch die Anfragen vorgegeben und die entsprechenden Extraktoren werden ausgewählt und konfiguriert. Zu bearbeiten ist wie Extraktoren so annotiert werden können, dass für ein vorgegebenes BI-Schema Extraktionspläne semi-automatisch erzeugt werden. Ebenfalls ist das Problem zu lösen, wie Prozesswissen der Extraktion in einem Plan formalisiert werden kann. Extraktionspläne sollten zudem kollaborativ erweiterbar sein, Effiziente Extraktion: a priori vs. on-the-fly. Ein wesentliches Kriterium für die Nutzung eines BI-Systems ist die Effizienz. Die Analyse der Dokumente durch die Extraktoren erfolgt in der Regel für große Dokumentenmengen a priori. Bei diesem Prozess steht die Güte in Vordergrund. Während der Modellierung werden Domänenexperten Stichproben on-the-fly benötigen. Welche internen Datenstrukturen ermöglichen die effiziente Ausführung von Anfragen über Text? Wie können existierende extrahierte Daten berücksichtigt werden?

12 Qualität und Lineage: Die aus Dokumenten extrahierten strukturierten Daten sind mit einer Unsicherheit behaftet. Diese Unsicherheit kann für jedes einzelne Datenobjekt als die Wahrscheinlichkeit des Zutreffens modelliert und in den Anfrageverarbeitungsprozess einbezogen werden. Notwendig ist eine eingehende Propagierung der Unsicherheiten über die Analyseoperatoren und den Analyseprozess. Aspekte der Datenqualität, wie Vollständigkeit und Vertrauenswürdigkeit, müssen einfach und verständlich verbalisiert und visualisiert werden. Fazit Die komplexe Anwendung Business Intelligence über unstrukturierten Daten erfordert eine Zusammenarbeit der bisher häufig isoliert agierenden Web-, IR- und Datenbank-Communities. Ein System zur Realisierung dieser Anwendung erfordert Technologien für die Modellierung, Extraktion, Komposition, Konsolidierung und Analyse von Entitäten aus unstrukturierten Dokumenten. Ein Abgleich mit strukturierten Daten aus Geschäftsanwendungen ist zwingend erforderlich, um die Qualität der extrahierten Information zu garantieren. In diesem Artikel haben wir relevante Forschungsfragen für die wissenschaftliche Community formuliert. Für die künftige kommerzielle Nutzung müssen folgenden Aspekte adressiert werden: Extrahierte Daten werden nur dann relevant für BI-Anwendungen, wenn eine hohe Genauigkeit und Qualität der Extraktion garantiert und auf einfache Weise dem Nutzer der BI-Reporte verbalisiert werden kann. Reports müssen mit einem geringem Einarbeitungsaufwand und geringe Kosten in hoher Qualität erstellt werden. Dazu können Teilprozesse, wie das Entwickeln und Bewerten von Basisextraktoren für bestimmte Quellen, in die Community ausgelagert werden. Die Arbeit der Domänenexperten muss deutlich von der technischen Realisierung der Extraktion abgegrenzt und mehr auf das Abbilden der Domäne fokussiert werden. Einfache Werkzeuge zur Definition komplexer Extraktionspläne müssen entwickelt und für die breite Masse der Information Worker über eine Community-Plattform anwendbar werden. Anbieter von Extraktionstechnologien müssen sich für bestimmte Domänen auf gemeinsame Typen einigen. Uns ist bewusst, dass in der Vergangenheit derartige Einigungsprozesse häufig an zu unterschiedlichen Interessen scheiterten. Es ist abzuwarten, ob der Markt die Hersteller von Extraktionstechnologien in Zukunft zu einer Konsolidierung eines gemeinsamen und erweiterbaren Typ-Systems auffordert. Dieser Artikel stellt zwei Anwendungsfälle im Bereich Self-Support vor. Eine Aufgabe der Industrie ist die Entwicklung weiterer klar definiter Anwendungsfälle. Die Bereitstellung von anwendungsnahen Daten durch die Industrie für die akademische Gemeinschaft und offene Verfahren für die Bewertung von benötigten Technologien sind wünschenswert. Den Autoren ist bewusst, dass viele Aussagen kontrovers und natürlich nur ansatzweise betrachtet wurden. Unser Ziel war die Analyse von Architekturen und Technologien für die Integration und Analyse unstrukturierter Web 2.0 Daten in Business In-

13 tellgence Anwendungen anhand von zwei relevanten Geschäftsszenarien. Wir freuen uns auf Feedback. Literatur [Appelt, Onyshkevych 1998] Appelt, D.E.; Onyshkevych, B.: The common patter specification language.annual Meeting of the ACL, Baltimore, Maryland, October [Baumgartner et al. 2001] Baumgartner, R.; Flesca, S.; Gottlob, G.: Visual Web Information Extraction with Lixto. Proc. of VLDB Conference, 2001, S [Bitton et al. 2006] Bitton, D.; Färber, F.; Haas, L.; Shanmugasundaram, J.: One Plattform for Mining Structured and unstructured Data: Dream or Reality? (Panel). Proc. of VLDB Conference, 2006, S [Bhide et al. 2007] Bhide, M.; Gupta, A.; Gupta, R.; Roy, P.; Mohania, M.K.; Ichhaporia, Z.: LIPTUS: associating structured and unstructured information in a banking environment. Proc. of ACM SIGMOD Conference, 2007, S [Beckmann et al. 2006] Beckmann, J.L.; Halverson, A.; Krishnamurthy, R., Naughton, J.F.: Extending RDBMSs To Support Sparse Datasets Using An Interpreted Attribute Storage Format. Proc. of ICDE Conference, 2006, S. 58. [Benjelloun et al. 2008] Benjelloun, O.; Das Sarma, A.; Halevy, A.Y.; Theobald, M.; Widom, J.: Databases with uncertainty and lineage. VLDB Journal 17(2), 2008, S [Chang et.al. 06] Chang, F.;, Dean, J.;Ghemawat, S.; Hsieh, W.; Wallach, D.; Burrows, M.; Chandra, T.; Fikes, A.; Gruber. R.: Bigtable: A Distributed Storage System for Structured Data. OSDI 2006: [Chaudhuri et al. 2005] Chaudhuri, S.; Ramakrishnan, R.; Weikum, G.: Integrating DB and IR Technologies: What is the Sound of One Hand Clapping? Proc. of CIDR Conference, 2005, S [Dong, Halevy 2005] Dong, X.; Halevy, A.Y.: Malleable Schemas: A Preliminary Report. Proc. of WebDB, 2005, S [Dong, Halevy 2007] Dong, X.; Halevy, A.Y.: Indexing dataspaces. Proc. of ACM SIGMOD Conference. 2007, S [Dong et al. 2007] Dong, X.; Halevy, A.Y.; Yu, C.: Data Integration with Uncertainty. Proc. of VLDB Conference, 2007, S [Fuhr, Rölleke 1997] Fuhr, N.; Rölleke, T.: A Probabilistic Relational Algebra for the Integration of Information Retrieval and Database Systems. ACM Trans. Inf. Syst. 15(1), 1997, S [Gluchowski, Kemper 2007] Gluchowski, P.; Kemper, H.-G.: Quo Vadis Business Intelligence? BI-Spektrum 1, 2006, S [Immon, Nesavich 2007] Inmon, W.H.; Nesavich, A.: Tapping into Unstructured Data: Integrating Unstructured Data and Textual Analytics into Business Intelligence. Prentice Hall, [Irmak, Suel 2006] Irmak, U.; Suel, T.: Interactive wrapper generation with minimal user effort. Proc. of the 15th International Conference on World Wide Web, [Jain et al. 2008] Jain, A.; Doan, A.; Gravano, L.: Optimizing SQL Queries over Text Databases. In Proc. of ICDE Conference, 2008.

14 [Kailing et al. 2006] Kailing, K.; Löser, A.; Markl, V.: Challenges and Trends in Information Management, 'Database Technologies for the next Decade'. Datenbank-Spektrum, 19(6), [Markl 2008] Markl, V.: VLDB 08 Experiments and Analyses Session (https://www.cs.auckland.ac.nz/research/conferences/vldb08/index.php/calls). [Ramakrishnan,Tomkins 2007] Ramakrishnan, R.; Tomkins, A.: Toward a PeopleWeb. Computer 40(8), 2007, S [Reiss et al. 2008] Reiss, F.; Vaithyanathan, S.; Raghavan, S.; Krishnamurthy, S.; Zhu, H.: An Algebraic Approach to Rule-Based Information Extraction. Proc. of ICDE Conference, [Shen et al. 2007] Shen, W.; Doan, A.; Naughton, J.F.; Ramakrishnan, R.: Declarative information extraction using datalog with embedded extraction predicates. Proc. of VLDB Conference, 2007, S [Thor et.al. 2007] Thor A., Rahm E.: MOMA - A Mapping-based Object Matching System. CIDR 2007: [Weikum 2007] Weikum, G.: DB&IR: both sides now. Proc. of SIGMOD Conference, 2007, S [Zhou et al. 2007] Zhou, X.; Gaugaz, J.; Balke, W.; Nejdl, W.: Query relaxation using malleable schemas. Proc. of SIGMOD Conference, 2007, S [Zhu et al. 2007] Zhu, H.; Löser, A.; Raghavan, S.; Vaithyanathan, S.: Navigating the intranet with high precision. Proc. of International World Wide Web Conference, Alexander Löser promovierte als Stipendiat am DFG Graduiertenkolleg Verteilte Informationssysteme an der TU Berlin sowie als Gastwissenschaftler an den HP Labs Bristol auf dem Gebiet der semantischen Suche. Seit 2006 arbeit er an Methoden für die semantische Analyse von s, Foren und Intranets, zunächst als PostDoc am IBM Almaden Research Center und seit 2007 als Projektmanager im Bereich SAP Research für die SAP AG. Seine Arbeit am Avatar Semantic Search System wurde in den Computer World Horizon Awards 2006 gewürdigt. Hong-Hai Do studierte bis 1999 Informatik und Germanistik an der Universität Leipzig. In 2006 schloss er erfolgreich seine Dissertation mit dem Thema Schema Matching and Mapping-based Data Integration im Fachgebiet Informatik ebenfalls an der Universität Leipzig ab. Seit 2005 arbeitet er als Forscher und Projektleiter bei SAP Research CEC Dresden. Dort koordiniert er interne und öffentliche Forschungsprojekte der SAP AG auf den Gebieten der Datenintegration und Smart Items-Middleware.

15 Henrike Berthold studierte Informatik an der TU Dresden. Danach forschte sie als Doktorandin und später als PostDoc in der Datenbankgruppe der TU Dresden und als Gastwissenschaftlerin an der University of Lancaster, UK und der University of Alberta, Canada. Seit 2008 arbeitet sie bei SAP Research im Bereich Datamanagement & Analytics. Ihre Forschungsschwerpunkte sind effiziente Analyseverfahren für Geschäftsobjekte und die Integration von Datenbank-Technologien in serviceoriente Architekturen. Gregor Hackenbroich ist Research Program Manager bei SAP Research. Er leitet das Forschungsprogramm Data Management & Analytics mit den Schwerpunkten Unstructured Information Management, Datenintegration und Business Analytics.

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management. Anke Noßmann Syncwork AG

SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management. Anke Noßmann Syncwork AG SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management Anke Noßmann Syncwork AG SAP HERUG Partnertag, Berlin 06. November 2009 Inhalt 1. Ausgangssituation 2. Alternative

Mehr

tdwi E U R D P E OPEN SOURCE BUSINESS INTELLIGENCE HANSER MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN

tdwi E U R D P E OPEN SOURCE BUSINESS INTELLIGENCE HANSER MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN OPEN SOURCE BUSINESS INTELLIGENCE MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN uwehaneke Stephan TRAHASCH tobias HAGEN tobias LAUER (Hrsg.)' tdwi E U R D P E HANSER Vorwort 9 Einführung

Mehr

RE.one. Self Service Information Management für die Fachabteilung

RE.one. Self Service Information Management für die Fachabteilung RE.one Self Service Information Management für die Fachabteilung Das Ziel Verwertbare Informationen aus Daten gewinnen Unsere Vision Daten Info Data Warehousing radikal vereinfachen in einem Tool Die Aufgabe

Mehr

Komplexität der Information - Ausgangslage

Komplexität der Information - Ausgangslage Intuition, verlässliche Information, intelligente Entscheidung ein Reisebericht Stephan Wietheger Sales InfoSphere/Information Management Komplexität der Information - Ausgangslage Liefern von verlässlicher

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration Actum + MIOsoft Ihr SAP Partner Prozessoptimierung Applikationsmanagement Systemintegration Daten verstehen Daten managen Business Analytics und IT Plattformanbieter Daten- u. Prozessmodellierung Applikationsentwicklung

Mehr

Einführung in Generatives Programmieren. Bastian Molkenthin

Einführung in Generatives Programmieren. Bastian Molkenthin Einführung in Generatives Programmieren Bastian Molkenthin Motivation Industrielle Entwicklung *!!*,(% % - #$% #!" + '( & )!* Softwareentwicklung Rückblick auf Objektorientierung Objektorientierte Softwareentwicklung

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich THEOBALD XTRACT PPS IXTO GMBH Mathias Slawik, Linda Kallinich Projekt BWA: Analytische Anwendungen, WS 2010/2011 Agenda 2/14 Projektaufgabe Technologien / Xtract PPS Projektablauf Dashboard-Prototyp Bewertung

Mehr

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Microsoft Office SharePoint Server 2007

Microsoft Office SharePoint Server 2007 Microsoft Office SharePoint Server 2007 Personen, Prozesse und Informationen verbinden Präsentation Version 1.0 Datum 03-07-2008 1 Agenda Das Duet Ernie und Bert Portale Wieso? Weshalb? Warum? Die Lösung

Mehr

Software EMEA Performance Tour 2013. Berlin, Germany 17-19 June

Software EMEA Performance Tour 2013. Berlin, Germany 17-19 June Software EMEA Performance Tour 2013 Berlin, Germany 17-19 June Change & Config Management in der Praxis Daniel Barbi, Solution Architect 18.06.2013 Einführung Einführung Wer bin ich? Daniel Barbi Seit

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

Microsoft SharePoint 2013 Designer

Microsoft SharePoint 2013 Designer Microsoft SharePoint 2013 Designer Was ist SharePoint? SharePoint Designer 2013 Vorteile SharePoint Designer Funktionen.Net 4.0 Workflow Infrastruktur Integration von Stages Visuelle Designer Copy & Paste

Mehr

Innovationslabor Semantische Integration von Webdaten

Innovationslabor Semantische Integration von Webdaten Innovationslabor Semantische Integration von Webdaten Workflow-basierte Datenintegration und Objekt-Matching Dr. Andreas Thor http://dbs.uni-leipzig.de/format Workflow-basierte Datenintegration Ausgangspunkt

Mehr

Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management

Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management Sprecher: Uwe Nadler, Senior Managing Consultant 1 Marketing braucht unterschiedliche Informationen, um entsprechende

Mehr

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung

Industrial Data Intelligence. Datenbasierte Produktionsoptimierung !DI Industrial Data Intelligence Datenbasierte Produktionsoptimierung Industrial Data Intelligence Sammeln Analysieren Mit dem Industrial Data Intelligence-Angebot ermöglicht Softing Industrial die datenbasierte

Mehr

Prozessorientierte Applikationsund Datenintegration mit SOA

Prozessorientierte Applikationsund Datenintegration mit SOA Prozessorientierte Applikationsund Datenintegration mit SOA Forum Business Integration 2008, Wiesbaden Dr. Wolfgang Martin unabhängiger Analyst und ibond Partner Business Integration 1998 2008 Agenda Business

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

Business Intelligence. Bereit für bessere Entscheidungen

Business Intelligence. Bereit für bessere Entscheidungen Business Intelligence Bereit für bessere Entscheidungen Business Intelligence Besserer Einblick in Geschäftsabläufe Business Intelligence ist die Integration von Strategien, Prozessen und Technologien,

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Andreas Ditze MID GmbH Kressengartenstraße 10 90402 Nürnberg a.ditze@mid.de Abstract: Data Lineage

Mehr

m2n Intelligence Management Semantic Technologies Knowledge Discovery Modelbased Development Technologies

m2n Intelligence Management Semantic Technologies Knowledge Discovery Modelbased Development Technologies Semantic Technologies Knowledge Discovery Modelbased Development Technologies Application Layer Application Semantic Mapping Configuration Rules Model Layer User Data Data Mapping Structured Data Data

Mehr

SAP BI Fokustage 2015

SAP BI Fokustage 2015 SAP BI Fokustage 2015 Agenda 13:30 Uhr Begrüßung 13:45 Uhr Quo vadis SAP BW? Die Backend-Strategie der SAP Windhoff Software Services GmbH 14:30 Uhr Projektvortrag: Mobile Dashboard-Anwendung mit SAP Design

Mehr

Was hier fehlt? Enterprise Search mit der Intelligenz von Google. Jetzt von Kapsch.

Was hier fehlt? Enterprise Search mit der Intelligenz von Google. Jetzt von Kapsch. Kapsch BusinessCom DE Was hier fehlt? Enterprise Search mit der Intelligenz von Google. Jetzt von Kapsch. always one step ahead Gesucht? Bilder, Dokumente, Links, Personen, Dateien, Mails, Webseiten. Irgendwo

Mehr

Linked Open Data (LOD) im Enterprise 2.0. Florian Kondert COO, Business Development

Linked Open Data (LOD) im Enterprise 2.0. Florian Kondert COO, Business Development Linked Open Data (LOD) im Enterprise 2.0 Florian Kondert COO, Business Development Über die SWC 21 Experten Semantische Technologien für Enterprise Systeme Thesaurus- & Metadaten Management Text Extraction

Mehr

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects Besseres Investitionscontrolling mit Der Investitionsprozess Singuläres Projekt Idee, Planung Bewertung Genehmigung Realisierung Kontrolle 0 Zeit Monate, Jahre Perioden Der Investitionsprozess Singuläres

Mehr

Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger. BTC Network Forum Energie 2013

Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger. BTC Network Forum Energie 2013 Herausforderung innovativer Kommunikation mit dem Kunden Multikanal Management für Energieversorger BTC Network Forum Energie 2013 Starke Kunden fordern den Markt heraus Sozial vernetzt Digital verbunden

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

Modellgetriebene Softwareentwicklung bei der IBYKUS AG

Modellgetriebene Softwareentwicklung bei der IBYKUS AG Modellgetriebene Softwareentwicklung bei der IBYKUS AG Dr. Steffen Skatulla, Detlef Hornbostel, Michael Hörseljau IBYKUS AG Sommersemester 2010, FSU Jena 1 2 Vorlesung Modellgetriebene Softwareentwicklung

Mehr

PRESSE-INFORMATION NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ

PRESSE-INFORMATION NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ PRESSE-INFORMATION BI-22-08-12 NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ Spezialisierte BI-Anbieter wachsen um 19,3 Prozent Datenintegration ist das Top-Thema Anbieter

Mehr

Relevante Kundenkommunikation: Checkliste für die Auswahl geeigneter Lösungen

Relevante Kundenkommunikation: Checkliste für die Auswahl geeigneter Lösungen Relevante Kundenkommunikation: Checkliste für die Auswahl geeigneter Lösungen Sven Körner Christian Rodrian Dusan Saric April 2010 Inhalt 1 Herausforderung Kundenkommunikation... 3 2 Hintergrund... 3 3

Mehr

QUICK-START EVALUIERUNG

QUICK-START EVALUIERUNG Pentaho 30 für 30 Webinar QUICK-START EVALUIERUNG Ressourcen & Tipps Leo Cardinaals Sales Engineer 1 Mit Pentaho Business Analytics haben Sie eine moderne und umfassende Plattform für Datenintegration

Mehr

Leistungssteuerung beim BASPO

Leistungssteuerung beim BASPO Leistungssteuerung beim BASPO Organisationsstruktur Advellence die Gruppe. Advellence Consulting Advellence Solutions Advellence Products Advellence Services HR-Migrator & albislex powered byadvellence

Mehr

Text-Mining: Einführung

Text-Mining: Einführung Text-Mining: Einführung Claes Neuefeind Fabian Steeg 22. April 2010 Organisatorisches Was ist Text-Mining? Definitionen Anwendungsbeispiele Textuelle Daten Aufgaben u. Teilbereiche Literatur Kontakt Sprechstunde:

Mehr

Informationsportal für internen und externen Berichtszugriff mit BW 7.0 / BI 4.0 @ BOUYGUES E&S

Informationsportal für internen und externen Berichtszugriff mit BW 7.0 / BI 4.0 @ BOUYGUES E&S Informationsportal für internen und externen Berichtszugriff mit BW 7.0 / BI 4.0 @ BOUYGUES E&S Markus Leroy Manuel Kesseler June 12, 2013 Bouygues Energy & Services FM Schweiz AG Business & Decision Agenda

Mehr

Semantische Infomationsintegration à la carte?

Semantische Infomationsintegration à la carte? Semantische Infomationsintegration à la carte? Ziele und Herausforderungen der Anwendung des CIDOC CRM. Historisch-Kulturwiss. Informationsverarbeitung, Universität Köln 1. Oktober 2010 1 Ein User Scenario

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

10. Vorlesung: Datenorganisation SS 2007

10. Vorlesung: Datenorganisation SS 2007 10. Vorlesung: Datenorganisation SS 2007 8 Parallele Transaktionen 9 9.1 Drei-Ebenen Ebenen-Architektur 9.2 Verteilte Datenbanken 9.3 Client-Server Server-Datenbanken 9.4 Föderierte Datenbanken 9.5 Das

Mehr

Wir befinden uns inmitten einer Zeit des Wandels.

Wir befinden uns inmitten einer Zeit des Wandels. Wir befinden uns inmitten einer Zeit des Wandels. Geräte Apps Ein Wandel, der von mehreren Trends getrieben wird Big Data Cloud Geräte Mitarbeiter in die Lage versetzen, von überall zu arbeiten Apps Modernisieren

Mehr

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de Configuration Management mit Verbosy 17.04.2013 OSDC 2013 Eric Lippmann Kurzvorstellung NETWAYS Expertise OPEN SOURCE SYSTEMS MANAGEMENT OPEN SOURCE DATA CENTER Monitoring & Reporting Configuration Management

Mehr

e-business - Patterns Stefan Brauch (sb058) -- Julian Stoltmann (js057)

e-business - Patterns Stefan Brauch (sb058) -- Julian Stoltmann (js057) e-business - Patterns Stefan Brauch (sb058) -- Julian Stoltmann (js057) 1 e-business Patterns??? e-business Patterns Architekturen, die sich über die Zeit bewährt haben. Pattern-Fundgrube web-basierte

Mehr

Kapitel 1 Überblick Content Management und Digitale Bibliotheken

Kapitel 1 Überblick Content Management und Digitale Bibliotheken Kapitel 1 Überblick Content Management und Digitale Bibliotheken Prof. Dr.-Ing. Stefan Deßloch Geb. 36, Raum 329 Tel. 0631/205 3275 dessloch@informatik.uni-kl.de 1 Überblick Was ist Content? Daten, Dokumente,

Mehr

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext Corporate Smart Process Content Wissensmanagement mittels Prozesskontext Agenda 1. Ziele des Teilvorhabens 2. Einführung in die Prozesswelt 3. SemTalk als Werkzeug für Prozessmodellierung und Wissensmanagement

Mehr

Problemstellung. Keine Chance! Ich brauche eine genaue Spezifikation und dann vielleicht in 3-4 Wochen können Sie einen erstes Beispiel haben!

Problemstellung. Keine Chance! Ich brauche eine genaue Spezifikation und dann vielleicht in 3-4 Wochen können Sie einen erstes Beispiel haben! Take aways Mit Power BI wird Excel zum zentralen Tool für Self- Service BI End-End Self-Service Lösungsszenarien werden erstmals möglich Der Information Worker erhält ein flexibles Toolset aus bekannten

Mehr

Self-Service Business Intelligence. Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart

Self-Service Business Intelligence. Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart Self-Service Business Intelligence Barthel, Björn, Key Account Manager Enterprise Information Management, Stuttgart Agenda Einleitung Self-Service Business Intelligence Definition(en) und Grundlage(n)

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Macht Knowledge- Management Unternehmen effizienter?

Macht Knowledge- Management Unternehmen effizienter? Macht Knowledge- Management Unternehmen effizienter? Karl-Heinz Plünnecke Geschäftsführer H.U.T GmbH 1 Software Performance Entwicklung Performance Was dann? ecommerce ERP SCM CRM Zeit 2 1 Noch Potential?

Mehr

Information-Design-Tool

Information-Design-Tool Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn

Mehr

REAL-TIME DATA WAREHOUSING

REAL-TIME DATA WAREHOUSING REAL-TIME DATA WAREHOUSING Lisa Wenige Seminarvortrag Data Warehousing und Analytische Datenbanken Friedrich-Schiller-Universität Jena - 19.01.12 Lisa Wenige 19.01.2012 2 Agenda 1. Motivation 2. Begriffsbestimmung

Mehr

ConWeaver Make Your Data Work

ConWeaver Make Your Data Work ConWeaver Make Your Data Work 2012 ConWeaver Know-how im Bereich Wissensvernetzung seit 1993 2007 Ausgründung aus der Fraunhofer-Gesellschaft (Mit-)Gewinner des Software-Clusters 2010 und des Innovationspreis-IT

Mehr

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO innovation@work Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO thinkbetter AG Florian Moosmann 8. Mai 2013 1 Agenda Prädiktive Analyse Begriffsdefinition Herausforderungen Schwerpunktbereiche

Mehr

Alle Kanäle Eine Plattform

Alle Kanäle Eine Plattform E-Mail Brief Fax Web Twitter Facebook Alle Kanäle Eine Plattform Geschäftsprozesse im Enterprise Content Management (ECM) und Customer Experience Management (CEM) erfolgreich automatisieren ITyX Gruppe

Mehr

19.11.2009. Business Intelligence und Web 2.0. Business Application Research Center

19.11.2009. Business Intelligence und Web 2.0. Business Application Research Center Business Application Research Center BARC ist Marktanalyst und Berater spezialisiert auf Business Intelligence, Daten- und Dokumentenmanagement. Business Intelligence und Web 2.0 Dr. Carsten Bange Gründer

Mehr

Dr. Nick Golovin Koch Media GmbH n.golovin@kochmedia.com. Einsatz von Data Federation für den schnellen Aufbau eines BI-Systems

Dr. Nick Golovin Koch Media GmbH n.golovin@kochmedia.com. Einsatz von Data Federation für den schnellen Aufbau eines BI-Systems Dr. Nick Golovin Koch Media GmbH n.golovin@kochmedia.com Einsatz von Data Federation für den schnellen Aufbau eines BI-Systems Inhalt 1. Unternehmensportrait 2. Ausgangssituation 3. Aufgabenstellung 4.

Mehr

Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop

Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop Aufbau und Konzeption einer SharePoint Informationslogistik Einstiegsworkshop In Zusammenarbeit mit der Seite 1 Um eine SharePoint Informationslogistik aufzubauen sind unterschiedliche Faktoren des Unternehmens

Mehr

Analytisches CRM in der Automobilindustrie

Analytisches CRM in der Automobilindustrie Analytisches CRM in der Automobilindustrie Dr. Frank Säuberlich Practice Manager European Customer Solutions Urban Science International GmbH Automobilhersteller müssen neue Wege gehen Anforderungen in

Mehr

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Der plixos Tender Manager reduziert drastisch den Aufwand bei der Durchführung

Mehr

SHAREPOINT 2010. Überblick für Anwender

SHAREPOINT 2010. Überblick für Anwender SHAREPOINT 2010 Überblick für Anwender SHAREPOINT 2010 AGENDA 01 Was ist SharePoint? Basisinfrastruktur Funktionsbereiche Versionen 02 Datenmanagement Listen Bibliotheken Workflows 2 05.06.2012 Helena

Mehr

SHAREPOINT SERVICES/SERVER. Einführung und Nutzung / Fokus Kollaboration

SHAREPOINT SERVICES/SERVER. Einführung und Nutzung / Fokus Kollaboration MICROSOFT OFFICE SHAREPOINT SERVICES/SERVER Einführung und Nutzung / Fokus Kollaboration Ihr Referent: Stefan Zaruba Support-Ingenieur für Microsoft Deutschland/Schweden im Bereich SharePoint/Office SharePoint-Anwender

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Seminar Informationsintegration und Informationsqualität. Dragan Sunjka. 30. Juni 2006

Seminar Informationsintegration und Informationsqualität. Dragan Sunjka. 30. Juni 2006 Seminar Informationsintegration und Informationsqualität TU Kaiserslautern 30. Juni 2006 Gliederung Autonomie Verteilung führt zu Autonomie... Intra-Organisation: historisch Inter-Organisation: Internet

Mehr

Institut für Unternehmensinformatik Konzeption eines Service Repository zur Beschreibung von Services in der Cloud

Institut für Unternehmensinformatik Konzeption eines Service Repository zur Beschreibung von Services in der Cloud Institut für Unternehmensinformatik Konzeption eines Service Repository zur Beschreibung von Services in der Cloud Commit Clusterworkshop Datenmanagement Thomas Specht Mannheim, 22.10.2012 Hochschule Mannheim

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Designing Business Intelligence Solutions with Microsoft SQL Server MOC 20467

Designing Business Intelligence Solutions with Microsoft SQL Server MOC 20467 Designing Business Intelligence Solutions with Microsoft SQL Server MOC 20467 In diesem 5-tägigen Microsoft-Kurs lernen Sie die Implementierung einer Self-Service Business Intelligence (BI) und Big Data

Mehr

Einführung. Information Retrieval. IR-Aufgaben. IR in Beispielen. Adhoc-Suche: Web. IR in Beispielen. Was ist IR? Norbert Fuhr

Einführung. Information Retrieval. IR-Aufgaben. IR in Beispielen. Adhoc-Suche: Web. IR in Beispielen. Was ist IR? Norbert Fuhr Einführung Information Retrieval Norbert Fuhr 13. Oktober 2011 IR in Beispielen Was ist IR? Daten Information Wissen Dimensionen des IR Rahmenarchitektur für IR-Systeme Adhoc-Suche: Web IR in Beispielen

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

SharePoint Portal für eine effiziente Zusammenarbeit

SharePoint Portal für eine effiziente Zusammenarbeit Portal für eine effiziente Zusammenarbeit SharePoint Zusammenarbeit im Unternehmen Die Informationstechnologie, die Mitarbeitern dabei hilft mit ihren Kollegen während der täglichen Arbeit leicht und schnell

Mehr

Web Data Management Systeme

Web Data Management Systeme Web Data Management Systeme Seminar: Web-Qualitätsmanagement Arne Frenkel Agenda Einführung Suchsysteme Suchmaschinen & Meta-Suchmaschinen W3QS WebSQL WebLog Information Integration Systems Ariadne TSIMMIS

Mehr

Was ist neu in Sage CRM 6.1

Was ist neu in Sage CRM 6.1 Was ist neu in Sage CRM 6.1 Was ist neu in Sage CRM 6.1 In dieser Präsentation werden wir Sie auf eine Entdeckungstour mitnehmen, auf der folgende neue und verbesserte Funktionen von Sage CRM 6.1 auf Basis

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele

Mehr

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011 Roundtable Dashboards und Management Information Rüdiger Felke / Christian Baumgarten 29.11.2011 Agenda Behind the Dashboards Was ist ein Dashboard und was ist es nicht? SAP BusinessObjects Dashboards

Mehr

Einsteigerhandbuch für Crystal Server 2011 Crystal Server 2011 Feature Pack 3

Einsteigerhandbuch für Crystal Server 2011 Crystal Server 2011 Feature Pack 3 Einsteigerhandbuch für Crystal Server 2011 Crystal Server 2011 Feature Pack 3 Copyright 2012 SAP AG. 2012 SAP AG. Alle Rechte vorbehalten. SAP, R/3, SAP NetWeaver, Duet, PartnerEdge, ByDesign, SAP BusinessObjects

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendungssysteme (BIAS) Lösung Aufgabe 1 Übung WS 2012/13 Business Intelligence Erläutern Sie den Begriff Business Intelligence. Gehen Sie bei der Definition von Business Intelligence

Mehr

ODI 12c - Flexible Datenintegration in komplexen BI/DWH-Umgebungen Dr.-Ing. Holger Friedrich

ODI 12c - Flexible Datenintegration in komplexen BI/DWH-Umgebungen Dr.-Ing. Holger Friedrich ODI 12c - Flexible Datenintegration in komplexen BI/DWH-Umgebungen Dr.-Ing. Holger Friedrich Agenda Einführung Key differentiators von ODI12c Effizienz Flexibilität Wartbarkeit & Beweglichkeit Schlussfolgerungen

Mehr

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse?

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Ein Beispiel Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Dipl.-Kfm. Claus Häberle WS 2015 /16 # 42 XML (vereinfacht) visa

Mehr

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter

Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung mit integrierter Korrekte Entscheidungen für Qualität und Produktivität effizient finden und treffen Die Schlüssel-Lösung zur Ertragssteigerung: Enterprise PROduction Management E PROMI datenbasierte Entscheidungsunterstützung

Mehr

FRT Consulting GmbH. Projekt KATEGO Komfortable SAP-Datenanalyse. Gustav Sperat FRT Consulting GmbH. www.frt.at. Wir machen aus Daten Wissen.

FRT Consulting GmbH. Projekt KATEGO Komfortable SAP-Datenanalyse. Gustav Sperat FRT Consulting GmbH. www.frt.at. Wir machen aus Daten Wissen. FRT Consulting GmbH Projekt KATEGO Komfortable SAP-Datenanalyse Gustav Sperat FRT Consulting GmbH 1 FRT Consulting das Unternehmen Spin off der TU Graz von langjährigen IT Experten Hauptsitz Graz, Büro

Mehr

Microsoft Office SharePoint Server 2007 Überblick. Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.

Microsoft Office SharePoint Server 2007 Überblick. Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft. Microsoft Office SharePoint Server 2007 Überblick Gernot Kühn Partner Technical Specialist Microsoft Deutschland Gmbh Gernotk@microsoft.com 30. Juli 2006 Munich, Germany 2007 Microsoft Office System Investitionen

Mehr

EFFIZIENTES ENTERPRISE SERVICE MANAGEMENT: FLEXIBEL, ITIL-KONFORM UND OUT OF THE BOX

EFFIZIENTES ENTERPRISE SERVICE MANAGEMENT: FLEXIBEL, ITIL-KONFORM UND OUT OF THE BOX THEGUARD! SERVICEDESK EFFIZIENTES ENTERPRISE SERVICE : FLEXIBEL, ITIL-KONFORM UND OUT OF THE BOX EFFIZIENTES ENTERPRISE SERVICE : FLEXIBEL, ITIL-KONFORM UND OUT OF THE BOX THEGUARD! SERVICEDESK Im Fokus

Mehr

INDIVIDUELLE SOFTWARELÖSUNGEN CUSTOMSOFT CS GMBH

INDIVIDUELLE SOFTWARELÖSUNGEN CUSTOMSOFT CS GMBH 01 INDIVIDUELLE SOFTWARELÖSUNGEN 02 05 02 GUMMERSBACH MEHRWERT DURCH KOMPETENZ ERIC BARTELS Softwarearchitekt/ Anwendungsentwickler M_+49 (0) 173-30 54 146 F _+49 (0) 22 61-96 96 91 E _eric.bartels@customsoft.de

Mehr

Datenbanktechnologie für Data-Warehouse-Systeme

Datenbanktechnologie für Data-Warehouse-Systeme Wolfgang Lehner Datenbanktechnologie für Data-Warehouse-Systeme Konzepte und Methoden dpunkt.verlag 1 1.1 1.2 1.3 1.4 1. 5 2 2.1 2.2 2.3 Einleitung 1 Betriebswirtschaftlicher Ursprung des Data Warehousing...

Mehr

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Name: Michael Welle Funktion/Bereich: Manager Business Intelligence Organisation: Windhoff Software Services Liebe Leserinnen

Mehr

MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich. Herzlich Willkommen!

MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich. Herzlich Willkommen! MICROSOFT SHAREPOINT 2010 Microsoft s neue Wunderwaffe!? Eike Fiedrich Herzlich Willkommen! Sharepoint 2010 Voraussetzung: 2 SharePoint 2010 Gesellschaft für Informatik Eike Fiedrich Bechtle GmbH Solingen

Mehr

Elisabeth Stettler. Business Consultant. Andreas Gerig. Consultant/Projekt Manager.

Elisabeth Stettler. Business Consultant. Andreas Gerig. Consultant/Projekt Manager. TopSoft. Business Software. Effizienzperlen beim Einsatz von SharePoint. Namics. Elisabeth Stettler. Business Consultant. Andreas Gerig. Consultant/Projekt Manager. 24. September 2009 TopSoft. Business

Mehr

Günter Kraemer. Adobe Acrobat Connect Die Plattform für Kollaboration und Rapid Training. Business Development Manager Adobe Systems

Günter Kraemer. Adobe Acrobat Connect Die Plattform für Kollaboration und Rapid Training. Business Development Manager Adobe Systems Adobe Acrobat Connect Die Plattform für Kollaboration und Rapid Training Günter Kraemer Business Development Manager Adobe Systems 1 Austausch von hochwertigen Informationen Besprechungen 2D/3D Modelle

Mehr

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Paradigmenwechsel von Suche, zur Bereitstellung von Informationen für Ihren Arbeitskontext

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar. 24. September 2009

Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar. 24. September 2009 Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar 24. September 2009 Unternehmensdarstellung Burda Digital Systems ist eine eigenständige und

Mehr

Geschäftsprozesse und Entscheidungen automatisieren schnell, flexibel und transparent. Die BPM+ Edition im Überblick

Geschäftsprozesse und Entscheidungen automatisieren schnell, flexibel und transparent. Die BPM+ Edition im Überblick Geschäftsprozesse und Entscheidungen automatisieren schnell, flexibel und transparent. Die BPM+ Edition im Überblick Software Innovations BPM BRM Die Software-Suite von Bosch Alles drin für besseres Business!

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr