Web 2.0 Business Analytics
|
|
- Heiko Möller
- vor 8 Jahren
- Abrufe
Transkript
1 Web 2.0 Business Analytics Alexander Löser, Gregor Hackenbroich, Hong-Hai Do, Henrike Berthold SAP AG, SAP Research CEC Dresden Chemnitzer Strasse Dresden, Germany Der Artikel führt Business Intelligence Systeme mit dem Ziel der Analyse von Web 2.0 Daten ein. Anhand von Foren zu Softwareprodukten mit ca Nutzern zeigen wir auf, wieso die heutige Technologie zur Entwicklung von Business Analysen nicht ausreichend zur Erreichung dieses Ziels ist. Es wird ein kurzer Exkurs gegeben, wieso nur eine Integration von Datenbank-Technologien mit Ansätzen des Natural Language Processing und des Information Retrievals zielführend sein könnten. Der Artikel soll zur Diskussion anregen. Einführung Unternehmen suchen intensiv nach neuen Möglichkeiten, um die stark anwachsende Flut von geschäftsrelevanten Informationen zu verwalten und nutzbar zu machen. Der Großteil dieser Informationen ist unstrukturiert, d.h. nicht repräsentiert in traditioneller, relationaler Form, sondern als Text, Audio oder Video. Beispiele für unstrukturierte unternehmensrelevante Informationen sind s, Web-Seiten, Office- Dokumente, Wartungsberichte, oder Kundenfeedback. In jüngster Zeit wird verstärkt diskutiert [Immon, Nesavich 2007], ob und wie man den textuellen Anteil dieser Informationen extrahieren, analysieren und Business Intelligence (BI) Systemen zugänglich machen kann, die sowohl über strukturierten als auch über unstrukturierten Inhalten operieren. Es ist das Ziel dieses Beitrags, wichtige technische und wirtschaftliche Herausforderungen aufzuzeigen, die auf dem Weg hin zu den angestrebten neuartigen BI-Lösungen adressiert werden müssen. Wir entwickeln unsere Konzepte anhand zweier spezifischer Szenarien. Diese fokussieren auf nutzergenerierte Foren-, Blog- und Wiki-Beiträge rund um Produkte und Dienstleistungen eines Softwareherstellers. Die Interessen an diesen Beiträgen sind äußerst vielfältig und relevant für verschiedene Nutzergruppen: Software-Anbieter sind nach der Markteinführung neuer Produktes interessiert, welche Features besonders häufig von bestimmten Kundengruppen diskutiert werden und welche Verbesserungswünsche sich daraus ableiten lassen. Software-Dienstleister wollen feststellen, welche Probleme bestimmte Lösungen aufwerfen und welche Problemlösungen von der Community entwickelt werden. Account Manager können aus Beiträgen Ihrer Kunden weitere Marketing-Maßnahmen für die von ihnen betreuten Kunden ableiten. Nutzer von Software erwarten konkrete Hilfestellungen zu Produkten und Lösungen, ohne teure Berater oder Hotlines in Anspruch nehmen zu müssen. Hilfestellungen durch die Community sind insbesondere für den Software-Volumenmarkt relevant, im Bereich von Enterprise-Software sind dies Lösungen für kleine und mittlere Unternehmen.
2 Unser Hauptinteresse in diesem Beitrag gilt BI-Anwendungen über Web 2.0 Communities, die von Unternehmen selbst moderiert oder verwaltet werden. Die Struktur und Semantik solcher Community-Beiträge kann vom Unternehmen festgelegt werden und ist analytischen Softwareanwendungen deshalb leichter zugänglich. Wir leiten relevante Anfragen über den Community- und Unternehmensdaten ab, die mit klassischen Suchmaschinen wie Google, Yahoo oder MSN, aber auch von state-of-the-art BI-Systemen wie SAP Business Intelligence oder BusinessObjects Enterprise XI nicht beantwortet werden können. Künftige BI-Lösungen zur Beantwortung dieser und ähnlicher Anfragen müssen in der Lage sein, Entitäten und Beziehungen zwischen Entitäten aus unstrukturierten Daten zu extrahieren und mit Fakten aus strukturierten Daten in Bezug zu setzen. Die Herausforderung liegt darin, die Kosten der Extraktion möglichst gering zu halten und trotzdem die für Unternehmensanwendungen erforderliche Qualität und Vollständigkeit der Ergebnisse zu gewährleisten. In [Gluchowski, Kemper 2006] wird die Entwicklung der ersten kommerziellen Datenverarbeitungs- und Decision Support Systems hin zu den heute verfügbaren BI- Systemen nachgezeichnet. Aktuelle Trends wie Corporate Performance Management oder Real Time Analytics betonen den unternehmensübergreifenden Systemansatz bzw. die Aktualität der zu verarbeiteten Daten. Die Ausweitung des BI-Prozesses auf die verschiedenen Ausprägungen von unstrukturierten Daten, wie in diesem Papier diskutiert, ist nach unserem Dafürhalten ein Schritt hin zur Konvergenz der Disziplinen Datenmanagement und Information Retrieval [Weikum 2007]. Dieser Artikel formuliert Prognosen für die technischen Anforderungen an künftige BI-Systeme, basierend auf der Erwartung, dass diese Systeme strukturierte und unstrukturierte Daten integrieren. Diese Sicht impliziert neuartige Herausforderungen für die Erfassung und Bewertung von Datenqualität und Datenlineage. Durch unsere spezifische Sicht auf das Problem als industrielle Forschungsorganisation an der Schnittstelle zwischen akademischer Forschung und industrieller Entwicklung, wollen wir zur Lösung neuer (alter) Probleme in der Datenbank Community motivieren. Daher wird dieser Artikel keine Lösungen bereitstellen. Er dient vielmehr dazu, Erfahrungen und Marktschwingungen wiederzugeben und zu diskutieren. Wirtschaftliche und technische Trends Für Unternehmen spielt der unmittelbare Informationsaustausch mit weltweiten Kunden und Partnern eine bedeutende Rolle. Die SAP nutzt für Ihr Kunden- und Partnernetzwerk spezifische Kanäle, wie das Hilfeportal help.sap.com oder das SAP Developer Network (SDN) für den Web-basierten Informationsaustausch für Entwickler im eigenen Haus, für Partner und Systemintegratoren. Die Globalisierung und Individualisierung der Softwareproduktion haben zu neuen Produkten für das volumenorientierten Mittelstandssegment geführt, z.b. zu der neuen on-demand Lösung SAP Business ByDesign. Für dieses Segement, aber auch im Segment der on-premise Lösungen werden Communities zu einem zunehmend wichtigen Treiber von Innovation; dies spiegelt sich in aktuellen Trends: Zunahme Community-generierter Inhalte. Die Autoren von [Ramakrishnan,Tomkins 2007] beobachten in einer kürzlich durchgeführten Studie, dass viermal soviel Nutzer-erzeugte (8 GB/Tag) wie professionell-erstellte (2 GB/Tag) Inhalte weltweit im WWW in Wikis, Foren und Blogs veröffentlicht werden. Der Anteil der
3 weltweit generierten unstrukturierten Daten (z.b. in Word) wird auf 3TB pro Tag geschätzt. Die Daten liegen teilweise schon vorstrukturiert vor und beinhalten Metadaten. Datenextraktion und integration durch die Web-Community. Zur Überführung von unstrukturierten in strukturierte Daten sind Extraktionswerkzeuge und Spezialwissen erforderlich. Der Markt für Extraktionswerkzeuge und -Dienste ist unübersichtlich, die Entwickler von LingPipe 1 nennen mehr als 50 Mitbewerber für Technologien zur Extraktion von Basisentitäten. Einige der Extraktions- und Annotationsdienste können bereits über das Web genutzt werden. Prominente Beispiele dafür sind das Calais Tool von Reuters oder GAPSCORE als Spezialdienst für das Feld Life Science. Hinzu kommen mehrere hundert manuell oder automatisch erzeugte Wrapper zur Extraktion von Daten aus dynamisch generierten Webseiten. Diese Wrapper werden von einer wachsenden Community mit Werkzeugen wie Lixto [Baumgartner et al. 2001] und Kapow manuell oder semiautomatisch [Irmak, Suel 2006] erzeugt und ähnlich wie Mashups als Dienst oder RSS-Stream veröffentlicht. Dienste wie Yahoo Pipes erhöhen den Abstraktionsgrad der Komposition von Operatoren zur Datenintegration derart, das einfache Integrationspläne in kurzer Zeit erstellt, innerhalb der Community bewertet und wiederverwendet werden können. Beispiele dafür finden sich in der Integration von Nachrichtenmeldungen. Unterstützung von Information Workern. Information Worker müssen für ihre betrieblichen Aufgaben eine Vielzahl von Information aus unterschiedlichen Quellen sammeln, auswerten und austauschen. Dabei greifen sie sowohl auf BI-Systeme für OLAP-Anfragen über transaktionale Daten wie Payroll oder Accounting sowie auf traditionelle Suchmaschinen für die Dokumentensuche zurück. Neuartige BI-Systeme mit einheitlichem Zugriff auf strukturierte, unstrukturierte oder eventbasierte Daten haben das Potential, die Produktivität von Information Workern enorm zu erhöhen. In [Bitton et al. 2006] werden Enterprise Search Anwendungen mit direktem Bezug zu Compliance, Fraud Detection, Call Center Unterstützung und Self-Service sowie CRM diskutiert. Diese Anwendungen nutzen typischerweise Datenquellen wie E- mails, CMS für Kontakte und Reklamationen sowie Foren und Blogeinträge. Business Analytics für den Software Volumenmarkt Online-Zugänge der SAP, wie z.b. das Software Developer Network (SDN)-Forum 2 und das SAP Online Hilfesystem 3 sind Anlaufpunkt für mehrere Beiträge täglich, die von einem Kreis von über 1 Mio Anwendern stammen. Dieser Consumer Generated Content enthält wertvolle Informationen zu Problemen, Lösungen, und Themen rund um SAP-Lösungen für die Mitglieder der SDN Gemeinschaft, z.b. Kunden Berater. Eine Anwendung im Bereich des Self-Supports stellen wir im ersten Teil dieses Abschnitts vor. Zusätzlich ermöglicht die schiere Menge der tagtäglich durch die Kunden generierten Beiträge enormes Geschäftspotential für die Ableitung von Businessentscheidungen für das SAP Management, insbesondere in den Fachabteilungen Vertrieb, Produktmanagement und Kundenbeziehungsmanagement. Dazu
4 müssen ad-hoc Analysen durch die Fachabteilungen durchgeführt werden. Im zweiten Teil dieses Abschnitts geben wir Beispiele für diese Form der Business Analytics über Consumer Generated Content. Self-Service-Support Die Motivation für dieses Szenario liegt im Bereich des technischen Kundensupports für den Software-Volumenmarkt. Um eine große Anzahl von Support-Anfragen der Kunden im Volumenmarkt zu adressieren, sind skalierbare und preisgünstige Methoden notwendig. Wir sehen großes Potential für das Self-Service-basierte Support- Modell, in dem der Kunde sofort und automatisch Hilfeleistungen vom Support- System bekommt. Existierende Quellen mit Produkt- und Support-Wissen, z.b. Support-Foren wie SAP SDN oder Software-Dokumentation wie SAP Help ermöglichen systematische Indexierung und Suche von Informationen zu Problemen und deren Lösungen, die dem Kunden bei einer Anfrage als automatische Empfehlungen bereitgestellt werden können. Im folgenden Szenario nutzt ein Kunde ein Support-Forum, um die Lösung für ein technisches Problem zu finden. Anstatt wie bisher seine Anfrage mit der Problembeschreibung sofort im Forum zu veröffentlichen, bekommt der Kunde eine automatisch generierte Empfehlung vom System. Wie in Abbildung 1 illustriert, werden charakteristische Begriffe und Produktnamen aus der Problembeschreibung automatisch erkannt. Mit diesem Wissen können Lösungshinweise für den Kunden automatisch generiert werden, wie Beiträge (Similar threads), die dieselben bzw. ähnlichen Probleme diskutieren, Dokumente (Quick actions), die die Vorgehensweisen bei solchen Problemen beschreiben, oder Experten (Experts), an die sich der Kunde direkt wenden kann. Er kann nun den Empfehlungen nachgehen, um sein Problem zunächst selbst zu lösen. Bei erfolgreicher Problemlösung zieht er seine Anfrage zurück, so dass kein weiterer Aufwand für die anderen Mitglieder des Forums entsteht. Expert Problembeschreibung 1. Problemerkennung durch Begriffe und Produkte Expert Bob Star - Business Card Company: BCC SAP Michael Exchange Ford Infrastructure - Business Card (XI) Company: Wipro Technologies SAP Exchange Infrastructure (XI), SAP NetWeaver Platform 3. Identifikation und Empfehlung von Experten 2. Verweise zu ähnlichen Problemen und Lösungen Similar threads XI configuration RFC Sender Adapter XI Quick scenarios actions using Sender RFC Adapter Trouble shooting RFC and SOAP RFC Configuring the RFC Scenario Step by Step Abbildung 1. Self-Service-Support mit automatisch generierten Empfehlungen Um dieses Szenario zu realisieren, sind u.a. folgende Funktionalitäten notwendig: Interpretieren und Verstehen des Sachverhalts: Aus dem Text sollen relevante Informationen extrahiert werden, die den Sachverhalt (z.b. die technischen
5 Aspekte des Problems) sowie den Kontext des Sachverhalts (Nutzerinformation, Absicht des Nutzers, etc.) charakterisieren. Identifikation ähnlicher Sachverhalte: Das Interpretieren und Verstehen der Sachverhalte soll auf dem gesamten Datenbestand, hier den existierenden Forenbeiträgen, durchgeführt werden, so dass Dokumente mit ähnlichen/selben Problemen identifiziert werden können. Expertensuche: Aus den eigens verfassten Beiträgen der Mitglieder in der Community, z.b. den Nutzern des Forums, sollen Experten für einzelne Gebiete identifiziert werden. Die Gebiete der Expertise müssen modelliert und deren Beziehungen zu den Nutzern aus den vorhandenen Daten extrahiert und gewichtet werden. Analyse von Support-Community Daten Die Nutzerbeiträge aus Support-Foren enthalten implizit wertvolles Produktwissen, das für die Identifikation und Analyse von Marktrends, Kundenanforderungen und Kundenwünschen verwendet werden kann. Aus Forenbeiträgen können Metadaten und Entitäten wie die Erstellungszeit des Beitrags, der Autor, Organisationen oder das diskutierte Produkt extrahiert werden, und anschließend wie in wie in traditionellen BI-Systemen multidimensional analysiert werden. Wie in Fehler! Verweisquelle konnte nicht gefunden werden. illustriert wird, geben einfache Aggregationen über diese extrahierten Informationen bereits wertvollen Aufschluss darüber, welche Organisation wie viele Anfragen zu welchem Produkt veröffentlicht hat. SilverStar als Organisation mit allen Abteilungen zur Auswahl SilverStar Taiwan Ltd SilverStar, Divisjon Automasjon Silverstar Automation SilverStar Automation Inc. SilverStar Products Inc SilverStar Systems GmbH SilverStar Technologies AB SilverStar b.v. SilverStar Business Services IMS SilverStar Mittelspannung SilverStar Business Services SilverStar Electrical Industries Co. SilverStar Service SilverStar Grain Ltd SilverStar Group Service Center SilverStar Group Services Center SilverStar AG SilverStar USA Inc. SilverStar Industry Pte Ltd SilverStar Information Systems Ltd SilverStar Communikations SilverStar Limited SilverStar Global Services. Company SilverStar* Von SilverStar Products Inc. stammten 90 Anfragen über die Produktkomponente CRM Customer Return Processing (AP-CRP) Product AP-* AP-BP AP-CAS AP-CAT AP-CI AP-CME AP-CMP AP-COS AP-CQP AP-CR AP-CRP AP-DFP AP-DP AP-DUE AP als Produkt mit allen Komponenten zur Auswahl Abbildung 2. Drill-down und Aggregation über extrahierten Daten Aus automatisch oder von Kunden generierten Annotationen, Verweisen, oder Beziehungen zwischen Software-Produkten lassen sich weitere interessante Informationen gewinnen. Mit diesen Informationen ist die Beantwortung folgender komplexer Anfragen, möglich, die über einfache Aggregationen hinausgehen:
6 1. Welche Produkte, Produktkomponenten, bzw. funktionen haben die meisten Anfragen erzeugt? : Häufig angefragte Produkte/Komponenten/Funktionen sind offensichtlich besonders relevant und/oder verursachen häufig Probleme. Hier sollten Entscheidungen über die Verbesserung problematischer Funktionen bzw. über die Entwicklung neuer Produktfunktionen getroffen werden. 2. Mit welchen Produkten, Produktkomponenten, bzw. funktionen, haben Organizationen in Bereich EMEA im letzten halben Jahr am häufigsten ein Problem? Gruppiere nach indvidiuellen Organizationen und Produkten. : Das Wissen über die gehäuften Anfragen von einer bestimmten Kunden zu einem bestimmten Produkt oder einer bestimmten Produktfunktion hilft, individuelle Support-Angebote für den Kunden zu erstellen. Dabei müssen erkannte Entitäten wie Produkte oder Organisationen semantisch gruppiert werden können. 3. Welche Fragen haben Business-Analysten in einem vorgegebenen Zeitraum zu einem bestimmten Produkt gestellt? : Diese Frage zielt auf das Interesse einer bestimmten Nutzergruppe ab, um Trends zu identifizieren bzw. die Anforderungen der Nutzergruppe mit zusätzlichen Inhalten besser zu adressieren. 4. Welche Produkte/Komponenten/Funktionen wurden oft in Kombination mit den gegebenen Produkten/Komponenten/Funktionen in Anfragen erwähnt? : Das Wissen über häufig benutzte Produktkombinationen kann helfen, bessere Produktintegrationen zu realisieren und als Produkt-Pakete zu vermarkten. Prozess der Datenaufbereitung und Nutzung Kollaborativer, iterativer Extraktionsprozess. Um die ebenen besprochenen BI- Funktionalitäten zu unterstützen ist ein System notwendig, das kontinuierlich die Beiträge analysiert, interpretiert, die relevanten Daten extrahiert und in ein BI-System überführt. Das notwendige Spezialwissen ist häufig über mehrere Akteure verteilt und erfordert deren Kollaboration in einem gemeinsamen Prozess. Die einzelnen Prozessschritte fokussieren auf die Kernkompetenzen der jeweiligen Akteure, z.b. die Modellierung der Domäne und die Formulierung von Anfragen. Dabei können Teilprozesse ausgelagert bzw. existierende Komponenten wiederverwendet werden. Dies erhöht die Qualität des Gesamtsystems und reduziert die Kosten für den Anwender.
7 Datenanbieter Dokumente Dokumente Dokumente RSS-Feeds RSS-Feeds RSS-Feeds Strukt. Daten Strukt. Daten Datenbereitstellung Sprachexperte/ Domänenexperte Integrator BI-Modellierer BI-Nutzer Basis- Extraktion Plattform Quellenabh. Extraktion Domänenabh. Extraktion Transformation (Datenbereinigung, ) Daten- Integration Extrahierte Daten und Metadaten (Datenmodell für extrahierte Daten) ETL-Prozess und Rekonfiguration des Prozesses Datenmodellierung Benutzt Datenverwaltung Entity-Datenmodellierung Warehouse- Datenmodellierung Abbildung 3. Prozess der Datenaufbereitung und Nutzung Konfiguration/Rekonfiguration Monitoring (Data quality, ) Online-Analysen Laden der Daten/ Optimieren des DW für Anfragen Offline- Analysen Business Warehouse (Multidim. Datenmodell) Abbildung 3. zeigt den gesamten Prozess, die beteiligten Akteure und Komponenten. Der iterative Prozess gliedert sich in folgende Schritte: 1. Datenbereitstellung. Unstrukturierte Daten, wie Dokumente oder RSS-Feeds, werden im Web bereitgestellt. Wrapper-Systeme für Web Seiten, wie LIXTO [Baumgartner et al. 2001] können aus stark vorstrukturierten Text-Daten ebenfalls geeignete RSS-Streams extrahieren. 2. Entwicklung und Deployment von Basisextraktoren. Spezialisierte Anbieter erstellen Komponenten für die Basisextraktion wie Personen, Orten, Produkten, Organisationen usw. Ein Beispiel ist das System INXIGHT. 3. Wiederverwendung und Anpassung von Basisextraktoren. Domänenexperten passen Extraktoren auf die Domäne an. Idealerweise erfordert diese Wiederverwendung der Extraktoren nur eine Konfiguration von Schnittstellen. Höherer Aufwand entsteht, wenn Extraktoren erst für eine Domäne trainiert oder mit zusätzlichen regulären Ausdrücken konfiguriert werden müssen. 4. Komposition. Integratoren erzeugen Pläne zur Erkennung komplexer Entitäten und Beziehungen zwischen Entitäten sowie zur Erkennung von Duplikaten. Die Bereinigung der extrahierten Daten kann durch die Verwendung der strukturierten Daten verbessert werden. Die bereinigten extrahierten Daten und die strukturierten Daten werden anschließend integriert. Ein Beispiel für die Komposition von extrahierten Daten sind Yahoo Pipes. 5. Anpassung des BI-Schemas. BI-Modellierer erstellen eine auf die geforderten Analysen zugeschnittene flexible und dehnbare Sicht auf die extrahierten Daten und eine statische Sicht auf die multidimensionalen Daten im Business Warehouse. Sie ermöglichen so eine bestimmte Menge von BI-Anfragen. 6. ETL in ein Business Warehouse. Der BI-Nutzer konfiguriert den gewünschten ETL-Prozess. Idealerweise kann er dabei auf existierende Komponenten zurückgreifen. Andernfalls initiiert er die Entwicklung der benötigten Komponenten.
8 Automatisch extrahierte Daten sind immer mit einer Unsicherheit behaftet. Daher analysiert der BI-Nutzer zunächst eine kleine Menge an Daten, um die Datenqualität zu bestimmen (Monitoring-Komponente). Bei unzureichender Qualität werden andere Extraktoren ausgewählt, müssen zusätzliche Regeln definiert und der Extraktionsplan angepasst werden. Erst wenn ein ETL-Prozess auch über die unstrukturierten Daten gute Ergebnisse liefert, wird das Business Warehouse aufgebaut und für die Anfragen optimiert. Anforderungen an die BI-Infrastruktur Der Prozess der Datenaufbereitung und Nutzung zeigt, welche Funktionalitäten und Akteure es in einem BI-System für Community-Daten gibt. In diesem Abschnitt werden Anforderungen an eine BI-Infrastruktur beschrieben, die den Aufbau eines solchen Systems erlaubt. Die Liste der Anforderungen unvollständig, da das Problem derzeit nur in Ansätzen überblickt werden kann. Dehnbare Data Schemata. Extrahierte Entitäten und deren Beziehungen müssen flexibel auf existierende Datenschemas abbildbar sein. Für einen Text ist häufig nicht bekannt, welche Datenstrukturen durch Extraktion gewonnen werden können. Daher muss das Datenmodell dehnbar (engl. malleable) sein. Erforderlich sind zusätzliche interne Datenstrukturen, die BI-Anfragen über strukturierte und extrahierte Daten unterstützen [Benjelloun et al. 2008, Dong et.al. 2005]. Physisches Daten Modell für dehnbare Schemata. Das Schema verändert sich während der Extraktion und Exploration der unstrukturierten Daten kontinuierlich. Das erfordert ein physisches Datenmodell, bei dem eine Zeile eine beliebige Anzahl von Spalten beinhalten kann, die nur dünn (engl. sparse) mit Daten besetzt ist. Spalten müssen neben den Typ-Informationen der extrahierten Daten zusätzliche Metainformationen (Beziehungen zu strukturierten Daten, Lineage etc,) speichern können [Beckmann et al. 2006]. Vielversprechende Ansätze basieren auf dem BIGTable Ansatz [Chang et.al. 06], wie HBase 4 oder CouchDB 5. Aktuelle Prototypen von Anfragesprachen für derartige Datenstrukturen sind beispielsweise PIG 6 oder JAQL 7. Die Datenhaltungsschicht muss es zudem ermöglichen, kontinuierlich Schema- und Lineage Informationen aus den extrahierten Daten abzuleiten. Suche und Anbindung von Extraktoren. Die Entwicklung von Extraktoren ist aufwendig und teuer. Es gibt aber schon eine ganze Reihe von Extraktoren. Eine Suche über existierenden Extraktoren soll es Domänenexperten gestatten, für die Kombination von Datenquelle, Extraktor, Extraktionsplan und BI- Anfrage Extraktoren mit der geforderten Präzision und dem geforderten Recall zu finden und zu integrieren. Unsicherheit der Daten. Durch die automatische Extraktion aus unstrukturierten Dokumenten werden unsichere extrahierte Entitäten und Beziehungen gewonnen. Diese Unsicherheit muss sowohl im Datenmodell als auch couchdb.org/
9 beim Ausführen der Anfragen reflektiert werden, z.b. durch das Hinzufügen einer Wahrscheinlichkeit zu jeder Entität und Beziehung [Chaudhuri et al. 2005, Fuhr,Rölleke 1997]. Data Cleansing. Unstrukturierte Daten müssen vor der Verwendung in einem BI-System möglichst nahe an die Qualität von Master-Daten gebracht werden. Für Foren gehört dazu z.b. die Identifikation von Duplikaten von Postings, deren Gruppierung und die Zuordnung extrahierter Produkte bzw. Komponenten zu existierenden strukturierten Produktdaten [Bhide et al. 2007, Thor et.al. 2007]. Lineage und dessen Darstellung. Unsicherheit muss dem Anfragenden auf einfach erfassbare Weise zusammen mit dem Ergebnis der BI-Anfrage dargestellt werden. Das beinhaltet z.b. die Angabe oder Visualisierung der Datenherkunft, der verwendeten Extraktoren und der durchlaufenen Datenaufbereitungsprozesse [Dong et al. 2007]. Für die Anbieter von Extraktionsplänen und Extraktoren muss zusätzlich ein Zurückverfolgen der Nutzer dieser Dienstleistungen möglich sein. Integration mit strukturierten Daten. Strukturierte Daten müssen extrahierten Daten zugeordnet werden können. Das betrifft sowohl die Zuordnung eindeutiger Daten wie s oder Produktnummern als auch von komplexen extrahierten Entitäten, Strukturierte Daten, z.b. aus einem ERP System, müssen außerdem helfen, die Extraktion zu verbessern. Dazu müssen Zusatzinformationen wie die Struktur, der Datentyp und auch Fremdschlüsselbeziehungen zu anderen strukturierten Daten verwendet werden können. Anfragen über extrahierten und strukturierten Daten. Anfragen müssen sowohl extrahierte als auch existierende strukturierte Daten einbeziehen können. Das bedeutet insbesondere, dass das Anfrageverarbeitungssystem mit mallebale Datenschemata umgehen kann [Zhou et al. 2007]. Die meisten der im letzten Abschnitt aufgeführten Anforderungen sind leicht nachvollziehbar. Die folgenden Nicht-Anforderungen wurden bewusst weggelassen; sie zielen weniger auf neue, sondern vielmehr auf die Optimierung existierender Funktionalitäten ab. Aktualität der Daten. Da Anwender und Datenanbieter entkoppelt sind, ist es notwendig, einen geeigneten Aktualisierungsprozess festzulegen. Analog zu klassischen Data Warehouse-Systemen kann der Datenanbieter eine reguläre inkrementelle Datenänderung anbieten. Alternativ könnte vergleichbar zu News-Tickern jede Datenänderung sofort propagiert werden. Multidimensionale Optimierung der Kosten für Extraktion. Die realen Kosten, der Zeitaufwand und die damit erreichte Qualität der Ergebnisse bezüglich Integrität, Vollständigkeit und Genauigkeit müssen akzeptabel und beeinflussbar sein. Das gilt insbesondere für den Extraktionsaufwand, der die Daten eines Datenanbieters teuer machen kann. Forschungsfragen Die Anforderungen an ein künftiges BI-System für unstrukturierte und strukturierte Daten sowie die Funktionsbausteine eines solchen Systems lassen sich noch nicht vollständig abschätzen. Für den im letzten Abschnitt genannten Prozessschritt eins, Datenbereitstellung, stehen bereits ausgereifte Technologien, wie der INXIGHT
10 Extraktion Server zum Wrapping von Office Dokumenten, s etc. zur Verfügung. Auch für den Prozessschritt Entwicklung und das Deployment von Basisextraktoren, bieten Extraktionstechnologien wie SAP INXIGHT Thingfinder elementare NLP Funktionalitäten (z.b. Part of Speech Tagging oder Sentence Detection) für zahlreiche Sprachen an. State-of-the-Art Technologien erlauben die Extraktion von Basisentitäten wie z.b. Personen, Organisationen, Produkte, die Erkennung einfacher Ereignisse auf der Basis von Cascading Grammars [Appelt, Onyshkevych 1998], (Synonym-) Wörterbüchern und regulären Ausdrücken. Prozessschritt sechs, ETL in ein Business Warehouse, beinhaltet den ETL Load der extrahierten und verarbeiteten Daten, wie er bereits mit existierenden Werkzeugen SAP BW und BO XI 3.0 durchgeführt werden kann. Die weiteren Prozessschritte drei, vier und fünf erfordern die Wiederverwendung oder Anpassung der Extraktion und die domänenspezifischen Komposition der Extraktionsergebnisse über eine gemeinsame Plattform. Wir sind der Meinung, dass die dazu notwendigen Bausteine ein hohes Forschungspotential besitzen. Die hier notwendigen Technologien kommen aus verschiedenen Gebieten der Informatik und werden in den folgenden Abschnitten beschrieben: Generische Architektur. In diesem Artikel liegt der Fokus auf den Self-Service- Systemen und BI-Anwendungen über Self Service Daten. Anforderungen und Anfragen in anderen Szenarien, z.b. dem Personal Information Management, Enterprise Search, Management oder Customer Relationship Management unterscheiden sich von den hier vorgestellten Szenarien. Zu erforschen ist, wie Architekturen für andere Szenarien gestalten werden, bzw. ob eine generische Architektur oder generische Komponenten die für unterschiedliche Architekturen genutzt werden können. Erlernendes Schema, physisches Datenmodell: Row vrs. Column? Benötigt wird eine zentrale Datenverwaltungskomponente sowohl für Domänenmodelle, extrahierte Daten und Metadaten. Das Domänenmodel umfasst Typen von Entitäten, deren Attribute und Beziehungen, die für die betrachteten BI-Anwendungen relevant sind und dafür gezielt extrahiert wurden. Die Datenverwaltung erfordert eine generische Repräsentation des Domänenwissens, die flexibel erweitert bzw. angepasst werden kann. Für die erkannten Entitäten, Attribute und Beziehungen müssen zusätzliche Metadaten, wie Konfidenzwerte, Informationen über Extraktoren, den Extraktionsplan und die Datenquelle erfasst werden. Forschungsrelevant sind flexible Datenmodelle und Indexstrukturen, die iterativ mit neue Entitäten und Beziehungen erweitert werden können und Anfragesprachen, die sich für derartige Datenmodelle eignen. Bewertung von Extraktoren. Prozessschritt drei erfordert die Auswahl leistungsfähiger Extraktoren für eine bestimme Konstellation Datenquellen-Extraktoren-BI Schema. Für die Auswahl und Bewertung geeigneter Extraktionsverfahren ist die Entwicklung eines Evaluationsverfahrens notwendig. In der Information Retrieval Community haben sich seit langem die TREC-Workshops 8 bewährt. Das National Institute of Standards and Technology (NIST) gibt Testdaten und Anfragen für einen Workshop vor, bewertet die eingesandten Ergebnisse und erstellt das Referenzergebnis. 8
11 Die Evaluierung einer großen Zahl von Extraktoren für bestimmte Datenquellen erfordert signifikanten menschlichen Aufwand. Wie kann dieser Prozess auf eine deutlich größere Anzahl von Extraktoren und Datenquellen für unterschiedliche Domänen ausgeweitet werden? Beispiele, wie das ESP Game 9 und Mechanical Turk 10 zeigen, dass die Community spielerisch derartige Aufgaben wahrnimmt. Hier stellt sich die Frage welches Design ein geeignetes Spiel zur Annotation und Bewertung von Extraktoren hat bzw. wie implizit Metadaten für die Auswahl passender Extraktoren zu einem BI-Schema ausgewählt werden können. Algebraische Komposition von Extraktoren. Extraktoren müssen von Domänenexperten zu einem konsistenten Ablaufplan kombiniert werden. Die Autoren von [Reiss et. al. 2008, Shen et al. 2007] schlagen, ähnlich einer SQL Algebra, eine deklarative Sprache bzw. eine geschlossene Algebra vor und geben erste Vorschläge für Operatoren für die Domänen Intranetsuche [Zhu et al. 2007] und suche [Kailing et al. 2006]. Mit dem algebraischen Ansatz können zudem nur bereits extrahierte Daten aus den Dokumenten verarbeitet werden. Diese Daten sind jedoch nur ein kleiner Anteil der Informationen, die konkret in den Dokumenten zu finden ist. [Jain et al. 2008] adressieren das Problem und kombinieren Suchoperatoren mit Extraktionsoperatoren. Eine Algebra ermöglicht einheitliche Semantiken zur Formulierung komplexer Extraktionspläne. Auf der Basis eines Extraktionsplanes lassen sich weitere Informationen bezüglich der Lineage und der Datenqualität ableiten. Forschungsfragen umfassen die Klassifikation und Definition von algebraischen Extraktionsoperatoren, deren Formalisierung zu einem komplexen Extraktionsprozess und die Unterstützung des Nutzers bei der Modellierung der Extraktionspläne. Semiautomatischer Abgleich zwischen Extraktion und BI-Domänenschema. Die Modellierung des BI-Schemas sollte sowohl extraktions- als auch anfragegetrieben sein. Im ersten Fall erzeugen unterschiedlich konfigurierte Extraktoren extrahierte Daten. Abhängig von der Extraktionslogik können die Daten können teilweise oder vollständig überlappen.. Das Schema wird auf Basis extrahierten Daten iterativ erweitert. Bei der anfragegetrieben Modellierung wird das Schema durch die Anfragen vorgegeben und die entsprechenden Extraktoren werden ausgewählt und konfiguriert. Zu bearbeiten ist wie Extraktoren so annotiert werden können, dass für ein vorgegebenes BI-Schema Extraktionspläne semi-automatisch erzeugt werden. Ebenfalls ist das Problem zu lösen, wie Prozesswissen der Extraktion in einem Plan formalisiert werden kann. Extraktionspläne sollten zudem kollaborativ erweiterbar sein, Effiziente Extraktion: a priori vs. on-the-fly. Ein wesentliches Kriterium für die Nutzung eines BI-Systems ist die Effizienz. Die Analyse der Dokumente durch die Extraktoren erfolgt in der Regel für große Dokumentenmengen a priori. Bei diesem Prozess steht die Güte in Vordergrund. Während der Modellierung werden Domänenexperten Stichproben on-the-fly benötigen. Welche internen Datenstrukturen ermöglichen die effiziente Ausführung von Anfragen über Text? Wie können existierende extrahierte Daten berücksichtigt werden?
12 Qualität und Lineage: Die aus Dokumenten extrahierten strukturierten Daten sind mit einer Unsicherheit behaftet. Diese Unsicherheit kann für jedes einzelne Datenobjekt als die Wahrscheinlichkeit des Zutreffens modelliert und in den Anfrageverarbeitungsprozess einbezogen werden. Notwendig ist eine eingehende Propagierung der Unsicherheiten über die Analyseoperatoren und den Analyseprozess. Aspekte der Datenqualität, wie Vollständigkeit und Vertrauenswürdigkeit, müssen einfach und verständlich verbalisiert und visualisiert werden. Fazit Die komplexe Anwendung Business Intelligence über unstrukturierten Daten erfordert eine Zusammenarbeit der bisher häufig isoliert agierenden Web-, IR- und Datenbank-Communities. Ein System zur Realisierung dieser Anwendung erfordert Technologien für die Modellierung, Extraktion, Komposition, Konsolidierung und Analyse von Entitäten aus unstrukturierten Dokumenten. Ein Abgleich mit strukturierten Daten aus Geschäftsanwendungen ist zwingend erforderlich, um die Qualität der extrahierten Information zu garantieren. In diesem Artikel haben wir relevante Forschungsfragen für die wissenschaftliche Community formuliert. Für die künftige kommerzielle Nutzung müssen folgenden Aspekte adressiert werden: Extrahierte Daten werden nur dann relevant für BI-Anwendungen, wenn eine hohe Genauigkeit und Qualität der Extraktion garantiert und auf einfache Weise dem Nutzer der BI-Reporte verbalisiert werden kann. Reports müssen mit einem geringem Einarbeitungsaufwand und geringe Kosten in hoher Qualität erstellt werden. Dazu können Teilprozesse, wie das Entwickeln und Bewerten von Basisextraktoren für bestimmte Quellen, in die Community ausgelagert werden. Die Arbeit der Domänenexperten muss deutlich von der technischen Realisierung der Extraktion abgegrenzt und mehr auf das Abbilden der Domäne fokussiert werden. Einfache Werkzeuge zur Definition komplexer Extraktionspläne müssen entwickelt und für die breite Masse der Information Worker über eine Community-Plattform anwendbar werden. Anbieter von Extraktionstechnologien müssen sich für bestimmte Domänen auf gemeinsame Typen einigen. Uns ist bewusst, dass in der Vergangenheit derartige Einigungsprozesse häufig an zu unterschiedlichen Interessen scheiterten. Es ist abzuwarten, ob der Markt die Hersteller von Extraktionstechnologien in Zukunft zu einer Konsolidierung eines gemeinsamen und erweiterbaren Typ-Systems auffordert. Dieser Artikel stellt zwei Anwendungsfälle im Bereich Self-Support vor. Eine Aufgabe der Industrie ist die Entwicklung weiterer klar definiter Anwendungsfälle. Die Bereitstellung von anwendungsnahen Daten durch die Industrie für die akademische Gemeinschaft und offene Verfahren für die Bewertung von benötigten Technologien sind wünschenswert. Den Autoren ist bewusst, dass viele Aussagen kontrovers und natürlich nur ansatzweise betrachtet wurden. Unser Ziel war die Analyse von Architekturen und Technologien für die Integration und Analyse unstrukturierter Web 2.0 Daten in Business In-
13 tellgence Anwendungen anhand von zwei relevanten Geschäftsszenarien. Wir freuen uns auf Feedback. Literatur [Appelt, Onyshkevych 1998] Appelt, D.E.; Onyshkevych, B.: The common patter specification language.annual Meeting of the ACL, Baltimore, Maryland, October [Baumgartner et al. 2001] Baumgartner, R.; Flesca, S.; Gottlob, G.: Visual Web Information Extraction with Lixto. Proc. of VLDB Conference, 2001, S [Bitton et al. 2006] Bitton, D.; Färber, F.; Haas, L.; Shanmugasundaram, J.: One Plattform for Mining Structured and unstructured Data: Dream or Reality? (Panel). Proc. of VLDB Conference, 2006, S [Bhide et al. 2007] Bhide, M.; Gupta, A.; Gupta, R.; Roy, P.; Mohania, M.K.; Ichhaporia, Z.: LIPTUS: associating structured and unstructured information in a banking environment. Proc. of ACM SIGMOD Conference, 2007, S [Beckmann et al. 2006] Beckmann, J.L.; Halverson, A.; Krishnamurthy, R., Naughton, J.F.: Extending RDBMSs To Support Sparse Datasets Using An Interpreted Attribute Storage Format. Proc. of ICDE Conference, 2006, S. 58. [Benjelloun et al. 2008] Benjelloun, O.; Das Sarma, A.; Halevy, A.Y.; Theobald, M.; Widom, J.: Databases with uncertainty and lineage. VLDB Journal 17(2), 2008, S [Chang et.al. 06] Chang, F.;, Dean, J.;Ghemawat, S.; Hsieh, W.; Wallach, D.; Burrows, M.; Chandra, T.; Fikes, A.; Gruber. R.: Bigtable: A Distributed Storage System for Structured Data. OSDI 2006: [Chaudhuri et al. 2005] Chaudhuri, S.; Ramakrishnan, R.; Weikum, G.: Integrating DB and IR Technologies: What is the Sound of One Hand Clapping? Proc. of CIDR Conference, 2005, S [Dong, Halevy 2005] Dong, X.; Halevy, A.Y.: Malleable Schemas: A Preliminary Report. Proc. of WebDB, 2005, S [Dong, Halevy 2007] Dong, X.; Halevy, A.Y.: Indexing dataspaces. Proc. of ACM SIGMOD Conference. 2007, S [Dong et al. 2007] Dong, X.; Halevy, A.Y.; Yu, C.: Data Integration with Uncertainty. Proc. of VLDB Conference, 2007, S [Fuhr, Rölleke 1997] Fuhr, N.; Rölleke, T.: A Probabilistic Relational Algebra for the Integration of Information Retrieval and Database Systems. ACM Trans. Inf. Syst. 15(1), 1997, S [Gluchowski, Kemper 2007] Gluchowski, P.; Kemper, H.-G.: Quo Vadis Business Intelligence? BI-Spektrum 1, 2006, S [Immon, Nesavich 2007] Inmon, W.H.; Nesavich, A.: Tapping into Unstructured Data: Integrating Unstructured Data and Textual Analytics into Business Intelligence. Prentice Hall, [Irmak, Suel 2006] Irmak, U.; Suel, T.: Interactive wrapper generation with minimal user effort. Proc. of the 15th International Conference on World Wide Web, [Jain et al. 2008] Jain, A.; Doan, A.; Gravano, L.: Optimizing SQL Queries over Text Databases. In Proc. of ICDE Conference, 2008.
14 [Kailing et al. 2006] Kailing, K.; Löser, A.; Markl, V.: Challenges and Trends in Information Management, 'Database Technologies for the next Decade'. Datenbank-Spektrum, 19(6), [Markl 2008] Markl, V.: VLDB 08 Experiments and Analyses Session ( [Ramakrishnan,Tomkins 2007] Ramakrishnan, R.; Tomkins, A.: Toward a PeopleWeb. Computer 40(8), 2007, S [Reiss et al. 2008] Reiss, F.; Vaithyanathan, S.; Raghavan, S.; Krishnamurthy, S.; Zhu, H.: An Algebraic Approach to Rule-Based Information Extraction. Proc. of ICDE Conference, [Shen et al. 2007] Shen, W.; Doan, A.; Naughton, J.F.; Ramakrishnan, R.: Declarative information extraction using datalog with embedded extraction predicates. Proc. of VLDB Conference, 2007, S [Thor et.al. 2007] Thor A., Rahm E.: MOMA - A Mapping-based Object Matching System. CIDR 2007: [Weikum 2007] Weikum, G.: DB&IR: both sides now. Proc. of SIGMOD Conference, 2007, S [Zhou et al. 2007] Zhou, X.; Gaugaz, J.; Balke, W.; Nejdl, W.: Query relaxation using malleable schemas. Proc. of SIGMOD Conference, 2007, S [Zhu et al. 2007] Zhu, H.; Löser, A.; Raghavan, S.; Vaithyanathan, S.: Navigating the intranet with high precision. Proc. of International World Wide Web Conference, Alexander Löser promovierte als Stipendiat am DFG Graduiertenkolleg Verteilte Informationssysteme an der TU Berlin sowie als Gastwissenschaftler an den HP Labs Bristol auf dem Gebiet der semantischen Suche. Seit 2006 arbeit er an Methoden für die semantische Analyse von s, Foren und Intranets, zunächst als PostDoc am IBM Almaden Research Center und seit 2007 als Projektmanager im Bereich SAP Research für die SAP AG. Seine Arbeit am Avatar Semantic Search System wurde in den Computer World Horizon Awards 2006 gewürdigt. Hong-Hai Do studierte bis 1999 Informatik und Germanistik an der Universität Leipzig. In 2006 schloss er erfolgreich seine Dissertation mit dem Thema Schema Matching and Mapping-based Data Integration im Fachgebiet Informatik ebenfalls an der Universität Leipzig ab. Seit 2005 arbeitet er als Forscher und Projektleiter bei SAP Research CEC Dresden. Dort koordiniert er interne und öffentliche Forschungsprojekte der SAP AG auf den Gebieten der Datenintegration und Smart Items-Middleware.
15 Henrike Berthold studierte Informatik an der TU Dresden. Danach forschte sie als Doktorandin und später als PostDoc in der Datenbankgruppe der TU Dresden und als Gastwissenschaftlerin an der University of Lancaster, UK und der University of Alberta, Canada. Seit 2008 arbeitet sie bei SAP Research im Bereich Datamanagement & Analytics. Ihre Forschungsschwerpunkte sind effiziente Analyseverfahren für Geschäftsobjekte und die Integration von Datenbank-Technologien in serviceoriente Architekturen. Gregor Hackenbroich ist Research Program Manager bei SAP Research. Er leitet das Forschungsprogramm Data Management & Analytics mit den Schwerpunkten Unstructured Information Management, Datenintegration und Business Analytics.
Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.
Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung
MehrMicrosoft SharePoint 2013 Designer
Microsoft SharePoint 2013 Designer Was ist SharePoint? SharePoint Designer 2013 Vorteile SharePoint Designer Funktionen.Net 4.0 Workflow Infrastruktur Integration von Stages Visuelle Designer Copy & Paste
MehrWas ist neu in Sage CRM 6.1
Was ist neu in Sage CRM 6.1 Was ist neu in Sage CRM 6.1 In dieser Präsentation werden wir Sie auf eine Entdeckungstour mitnehmen, auf der folgende neue und verbesserte Funktionen von Sage CRM 6.1 auf Basis
MehrINDIVIDUELLE SOFTWARELÖSUNGEN CUSTOMSOFT CS GMBH
01 INDIVIDUELLE SOFTWARELÖSUNGEN 02 05 02 GUMMERSBACH MEHRWERT DURCH KOMPETENZ ERIC BARTELS Softwarearchitekt/ Anwendungsentwickler M_+49 (0) 173-30 54 146 F _+49 (0) 22 61-96 96 91 E _eric.bartels@customsoft.de
MehrAlbert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen
Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.
MehrSharePoint Portal für eine effiziente Zusammenarbeit
Portal für eine effiziente Zusammenarbeit SharePoint Zusammenarbeit im Unternehmen Die Informationstechnologie, die Mitarbeitern dabei hilft mit ihren Kollegen während der täglichen Arbeit leicht und schnell
MehrContent Management System mit INTREXX 2002.
Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,
MehrHandbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken
Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen
MehrWas ist Analyse? Hannover, CeBIT 2014 Patrick Keller
Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität
MehrSuche schlecht beschriftete Bilder mit Eigenen Abfragen
Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere
Mehr360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf
360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf Von der Entstehung bis heute 1996 als EDV Beratung Saller gegründet, seit 2010 BI4U GmbH Firmensitz ist Unterschleißheim (bei München)
MehrWeb Services stellen eine Integrationsarchitektur dar, die die Kommunikation zwischen verschiedenen Anwendungen
9 3 Web Services 3.1 Überblick Web Services stellen eine Integrationsarchitektur dar, die die Kommunikation zwischen verschiedenen Anwendungen mit Hilfe von XML über das Internet ermöglicht (siehe Abb.
MehrTech-Clarity Perspective: Best Practices für die Konstruktionsdatenverwaltung
Tech-Clarity Perspective: Best Practices für die Konstruktionsdatenverwaltung Wie effektive Datenmanagement- Grundlagen die Entwicklung erstklassiger Produkte ermöglichen Tech-Clarity, Inc. 2012 Inhalt
MehrIDV Assessment- und Migration Factory für Banken und Versicherungen
IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein
MehrDie Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie
Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Executive Summary Zukunftsforschung und ihre Methoden erfahren in der jüngsten Vergangenheit ein zunehmendes Interesse. So
MehrTender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen
Tender Manager Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Der plixos Tender Manager reduziert drastisch den Aufwand bei der Durchführung
MehrBig, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen
Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung
MehrLizenzierung von System Center 2012
Lizenzierung von System Center 2012 Mit den Microsoft System Center-Produkten lassen sich Endgeräte wie Server, Clients und mobile Geräte mit unterschiedlichen Betriebssystemen verwalten. Verwalten im
MehrVirtual Roundtable: Business Intelligence - Trends
Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,
MehrC09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl
C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl
Mehre-business - Patterns Stefan Brauch (sb058) -- Julian Stoltmann (js057)
e-business - Patterns Stefan Brauch (sb058) -- Julian Stoltmann (js057) 1 e-business Patterns??? e-business Patterns Architekturen, die sich über die Zeit bewährt haben. Pattern-Fundgrube web-basierte
MehrBusiness Intelligence Praktikum 1
Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum
MehrBERECHTIGUNGEN IM ÜBERBLICK. www.protected-networks.com. protecting companies from the inside out
BERECHTIGUNGEN IM ÜBERBLICK www.protectednetworks.com www.protectednetworks.com Klarheit im Berechtigungsdschungel Sicherheit von innen Große Datenmengen mit den unterschiedlichsten Inhalten und Formaten
MehrKampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht
Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Thomas Kreuzer ec4u expert consulting ag Karlsruhe Schlüsselworte: Kampagnenmanagement Praxisbericht Siebel Marketing Oracle BI - ec4u
MehrIn die Cloud kann jeder. In Ihre nicht. TGA Systems. Spezialisiert in Private Cloud Communication
In die Cloud kann jeder. In Ihre nicht. TGA Systems. Spezialisiert in Private Cloud Communication Qualität ist kein Zufall! Sie ist das Ergebnis sorgfältiger Planung, innovativer Technologie und Kompetenz.
MehrVerkaufen Sie doch wo Sie wollen. Ihr einfacher Weg zu mehr Umsatz und dauerhaft steigendem Erfolg im E-Business
Der Handel über das Internet hat sich gesellschaftlich längst etabliert und ist zu einer bedeutenden Größe der weltweiten Volkswirtschaften geworden. Millionen Produkte und Dienstleistungen werden täglich
MehrCorporate Smart Process Content. Wissensmanagement mittels Prozesskontext
Corporate Smart Process Content Wissensmanagement mittels Prozesskontext Agenda 1. Ziele des Teilvorhabens 2. Einführung in die Prozesswelt 3. SemTalk als Werkzeug für Prozessmodellierung und Wissensmanagement
MehrSeminar C16 - Datenmodellierung für SAP BW
C16: Datenmodellierung für SAP BW Ein Seminar der DWH academy Seminar C16 - Datenmodellierung für SAP BW Dieses Seminar soll einen umfassenden Einblick in die Datenmodellierung beim Einsatz von SAP BW
MehrData Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik
Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte
MehrTask: Nmap Skripte ausführen
Task: Nmap Skripte ausführen Inhalt Einfache Netzwerkscans mit NSE Ausführen des Scans Anpassung der Parameter Einleitung Copyright 2009-2015 Greenbone Networks GmbH Herkunft und aktuellste Version dieses
MehrTest zur Bereitschaft für die Cloud
Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich
MehrInformation-Design-Tool
Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn
MehrGIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit
GIN WEAVER Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Paradigmenwechsel von Suche, zur Bereitstellung von Informationen für Ihren Arbeitskontext
MehrAgile Vorgehensmodelle in der Softwareentwicklung: Scrum
C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was
MehrSystemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5
Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat
MehrInterview zum Thema Management Reporting &Business Intelligence
Interview zum Thema Management Reporting &Business Intelligence Das ist ja interessant. Können Sie etwas näher beschreiben, wie ich mir das vorstellen kann? Jens Gräf: In einem Technologieunternehmen mit
MehrWas leistet ein Content Management System?
Produkte Oliver SUCKER 13.10.2002 18:45 Inhaltsverzeichnis I Was leistet ein Content Management System? 1 1 Trennung von Layout, Programmierung und Inhalten 2 2 Rechtevergabe, Personalisierung 2 2.1 Abbildung
MehrCorporate Design leicht gemacht. officeatwork für Microsoft Dynamics AX und Microsoft Dynamics CRM
Corporate Design leicht gemacht officeatwork für Microsoft Dynamics AX und Microsoft Dynamics CRM officeatwork Dynamics Connector Corporate Design leicht gemacht officeatwork ist die Business-Lösung für
MehrCopyright 2014 Delta Software Technology GmbH. All Rights reserved.
Karlsruhe, 21. Mai 2014 Softwareentwicklung - Modellgetrieben und trotzdem agil Daniela Schilling Delta Software Technology GmbH The Perfect Way to Better Software Modellgetriebene Entwicklung Garant für
MehrUpToNet Workflow Workflow-Designer und WebClient Anwendung
UpToNet Workflow Workflow-Designer und WebClient Anwendung Grafische Erstellung im Workflow-Designer 1 Grafische Erstellung im Workflow-Designer Bilden Sie Ihre Arbeitsvorgänge im Workflow-Designer von
MehrGrundlagen für den erfolgreichen Einstieg in das Business Process Management SHD Professional Service
Grundlagen für den erfolgreichen Einstieg in das Business Process Management SHD Professional Service Der BPM-Regelkreis Im Mittelpunkt dieser Übersicht steht die konkrete Vorgehensweise bei der Einführung
MehrAll for One Steeb. Das SAP Haus. ALL FOR ONE STEEB DAS SAP HAUS
All for One Steeb. Das SAP Haus. ALL FOR ONE STEEB DAS SAP HAUS DAS SAP HAUS FÜHREND IM MITTELSTAND All for One Steeb ist die Nummer 1 unter den SAP-Partnern im deutschsprachigen Mittelstandsmarkt. 900
MehrVersion smarter mobile(zu finden unter Einstellungen, Siehe Bild) : Gerät/Typ(z.B. Panasonic Toughbook, Ipad Air, Handy Samsung S1):
Supportanfrage ESN Bitte füllen Sie zu jeder Supportanfrage diese Vorlage aus. Sie helfen uns damit, Ihre Anfrage kompetent und schnell beantworten zu können. Verwenden Sie für jedes einzelne Thema jeweils
Mehr.. für Ihre Business-Lösung
.. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,
Mehr(1) Mit dem Administrator Modul werden die Datenbank, Gruppen, Benutzer, Projekte und sonstige Aufgaben verwaltet.
1 TimeTrack! TimeTrack! Ist ein Softwareprodukt von The Project Group, welches der Erfassung von Ist- Aufwänden von Projekten dient. Voraussetzung hierfür ist allerdings, dass das Projekt vorher mit Microsoft
MehrWir organisieren Ihre Sicherheit
Wir organisieren Ihre Sicherheit Wir organisieren Ihre Sicherheit Unternehmen Die VICCON GmbH versteht sich seit 1999 als eigentümergeführtes und neutrales Unternehmen für Management- und Sicherheitsberatung.
MehrIst Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers
Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Einleitung Wenn in einem Unternehmen FMEA eingeführt wird, fangen die meisten sofort damit an,
MehrZeichen bei Zahlen entschlüsseln
Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren
MehrOUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten
Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist
MehrLeitfaden #1a. "zanox Publisher-Statistik" (next generation)
Leitfaden #1a "zanox Publisher-Statistik" (next generation) Thema: Sortieren von Leads und Sales nach dem Bearbeitungsdatum (inklusive Abschnitt "Filterung nach Transaktionsstatus") 1/8 Leitfaden "Sortieren
MehrMehrwerte aus SAM-Projekte generieren AVISPADOR
Mehrwerte aus SAM-Projekte generieren AVISPADOR SAMVANTAGE ist ein integriertes und modulares Beratungsmodel, das Entscheidern in Anwenderunternehmen die Möglichkeit bietet, vom Hersteller avisierte SAM-Projekte
MehrTHEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich
THEOBALD XTRACT PPS IXTO GMBH Mathias Slawik, Linda Kallinich Projekt BWA: Analytische Anwendungen, WS 2010/2011 Agenda 2/14 Projektaufgabe Technologien / Xtract PPS Projektablauf Dashboard-Prototyp Bewertung
MehrInhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.
Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence
MehrSAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management. Anke Noßmann Syncwork AG
SAP Integration von Business Objects am Beispiel von SAP Student Lifecycle Management Anke Noßmann Syncwork AG SAP HERUG Partnertag, Berlin 06. November 2009 Inhalt 1. Ausgangssituation 2. Alternative
MehrPersönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.
Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. IT Managers Lounge präsentiert: Top-Trend Cloud Computing. Flexibilität, Dynamik und eine schnelle Reaktionsfähigkeit
MehrSkills-Management Investieren in Kompetenz
-Management Investieren in Kompetenz data assessment solutions Potenziale nutzen, Zukunftsfähigkeit sichern Seite 3 -Management erfolgreich einführen Seite 4 Fähigkeiten definieren und messen Seite 5 -Management
MehrUrlaubsregel in David
Urlaubsregel in David Inhaltsverzeichnis KlickDown Beitrag von Tobit...3 Präambel...3 Benachrichtigung externer Absender...3 Erstellen oder Anpassen des Anworttextes...3 Erstellen oder Anpassen der Auto-Reply-Regel...5
MehrCRM 2.0-Barometer: Kundenmanagement- Lösungen sollen optimale Vernetzung bieten
CRM 2.0-Barometer: Kundenmanagement- Lösungen sollen optimale Vernetzung bieten Sabine Kirchem ec4u expert consulting ag CRM 2.0-Barometer Immer mehr Unternehmen erwarten stärkere Integration in alle digitalen
MehrTraditionelle Suchmaschinenoptimierung (SEO)
Traditionelle Suchmaschinenoptimierung (SEO) Mit der stetig voranschreitenden Veränderung des World Wide Web haben sich vor allem auch das Surfverhalten der User und deren Einfluss stark verändert. Täglich
MehrTHE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05
THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data
MehrDie Zukunft der Arbeit ist dabei. Your time, our technologies
Die Zukunft der Arbeit ist dabei Your time, our technologies ÜBER UNS Arca24 ist ein IT-Unternehmen, das sich auf Anwendungen im Human Resources Bereich spezialisiert hat. Dank der HR-Erfahrung seiner
MehrLars Priebe Senior Systemberater. ORACLE Deutschland GmbH
Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele
MehrPQ Explorer. Netzübergreifende Power Quality Analyse. Copyright by Enetech 2000-2010 www.enetech.de Alle Rechte vorbehalten. ros@enetech.
1 PQ Explorer Netzübergreifende Power Quality Analyse 2 Ortsunabhängige Analyse: so einfach, wie noch nie PQ-Explorer ist ein Instrument, das die Kontrolle und Überwachung von Energieversorgungsnetzen
MehrSchritt 1: Verwenden von Excel zum Erstellen von Verbindungen mit SQL Server-Daten
1 von 5 12.01.2013 17:59 SharePoint 2013 Veröffentlicht: 16.10.12 Zusammenfassung: Informationen zur Verwendung von Excel zum Erstellen und Freigeben von Verbindungen mit SQL Server-Daten, mit deren Hilfe
MehrFachbericht zum Thema: Anforderungen an ein Datenbanksystem
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank
MehrKundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse
Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse Vieles wurde bereits geschrieben, über die Definition und/oder Neugestaltung
MehrAnforderungen an die HIS
Anforderungen an die HIS Zusammengefasst aus den auf IBM Software basierenden Identity Management Projekten in NRW Michael Uebel uebel@de.ibm.com Anforderung 1 IBM Software Group / Tivoli Ein Feld zum
Mehr! " # $ " % & Nicki Wruck worldwidewruck 08.02.2006
!"# $ " %& Nicki Wruck worldwidewruck 08.02.2006 Wer kennt die Problematik nicht? Die.pst Datei von Outlook wird unübersichtlich groß, das Starten und Beenden dauert immer länger. Hat man dann noch die.pst
MehrLook Inside: desite. modellorientiertes Arbeiten im Bauwesen. B.I.M.
Building Information Modeling Look Inside: desite modellorientiertes Arbeiten im Bauwesen. B.I.M. desite MD unterstützt Sie bei der täg lichen Arbeit mit Gebäudemodellen und ermöglicht den Zugang zu den
MehrTOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013
0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte
MehrWas macht Layer2 eigentlich? Erfahren Sie hier ein wenig mehr über uns.
Was macht Layer2 eigentlich? Erfahren Sie hier ein wenig mehr über uns. Seit über 24 Jahren... unterstützen und beraten wir unsere Kunden und Partner erfolgreich bei ihren IT-Projekten. Unsere Kernkompetenz
MehrYouTube: Video-Untertitel übersetzen
Der Easytrans24.com-Ratgeber YouTube: Video-Untertitel übersetzen Wie Sie mit Hilfe von Easytrans24.com in wenigen Schritten Untertitel für Ihre YouTube- Videos in mehrere Sprachen übersetzen lassen können.
MehrDiese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.
Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,
MehrIntegration verteilter Datenquellen in GIS-Datenbanken
Integration verteilter Datenquellen in GIS-Datenbanken Seminar Verteilung und Integration von Verkehrsdaten Am IPD Lehrstuhl für Systeme der Informationsverwaltung Sommersemester 2004 Christian Hennings
Mehr5.3 Das vrealize-automation-rollenkonzept
5.3 Das vrealize-automation-nkonzept 87 5.3 Das vrealize-automation-nkonzept Nachdem wir in diesem Kapitel bereits die wichtigsten logischen Konzepte von vrealize Automation erläutert haben, werfen wir
MehrRMeasy das SAP IS U Add On für Versorgungsunternehmen. Optimieren Sie Ihre Prozesse in Kundengewinnung und Kundenbindung.
Beschreibung Wenn Sie: mit ECC 6.0 und IS-U auf die integrierte Systemlösung der SAP setzen und zur Gewinnung neuer und Bindung vorhandener Kunden eine gleichfalls integrierte Lösung suchen und eine Produkt
MehrUnsere Produkte. Wir automatisieren Ihren Waren- und Informationsfluss. Wir unterstützen Ihren Verkaufsaußendienst.
Die clevere Auftragserfassung Unsere Produkte Das smarte Lagerverwaltungssystem Die Warenwirtschaft für den Handel Wir unterstützen Ihren Verkaufsaußendienst. Wir automatisieren Ihren Waren- und Informationsfluss.
Mehr[Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL
[Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL Was bedeutet Customer Service by KCS.net? Mit der Einführung von Microsoft Dynamics AX ist der erste wichtige Schritt für viele Unternehmen abgeschlossen.
MehrFragen und Antworten
Fragen und Antworten im Umgang mit dem elektronischen Abfallnachweisverfahren eanv in Bezug auf die ZKS-Abfall -Allgemeine Fragen- www.zks-abfall.de Stand: 19.05.2010 Einleitung Auf den folgenden Seiten
Mehr----------------------------------------------------------------------------------------------------------------------------------------
0 Seite 0 von 20 03.02.2015 1 Ergebnisse der BSO Studie: Trends und Innovationen im Business Performance Management (BPM) bessere Steuerung des Geschäfts durch BPM. Bei dieser BSO Studie wurden 175 CEOs,
MehrFeedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA
MEDIENBEOBACHTUNG MEDIENANALYSE PRESSESPIEGELLÖSUNGEN Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA Risiken kennen, Chancen nutzen. So profitiert Ihr Unternehmen von
MehrMHP Auditmanagement Ihre Lösung für Ihr Mobile Device- Management zur Performancesteigerung!
MHP Auditmanagement Ihre Lösung für Ihr Mobile Device- Management zur Performancesteigerung! 2015 Mieschke Hofmann und Partner Gesellschaft für Management- und IT-Beratung mbh Agenda Motivation MHP Lösung
MehrBusiness Model Canvas
Business Model Canvas Business Model Canvas ist ein strategisches Management Tool, mit dem sich neue und bestehende Geschäftsmodelle visualisieren lassen. Demnach setzt sich ein Geschäftsmodell aus neun
MehrOutsourcing und Offshoring. Comelio und Offshoring/Outsourcing
Outsourcing und Offshoring Comelio und Offshoring/Outsourcing INHALT Outsourcing und Offshoring... 3 Comelio und Offshoring/Outsourcing... 4 Beauftragungsmodelle... 4 Projektleitung vor Ort und Software-Entwicklung
MehrINFORMATION LIFECYCLE AKTUELLE TRENDS IM INPUT MANAGEMENT CENIT EIM IT-TAG 13. JUNI 2013 IN STUTTGART LARS LAMPE
INFORMATION LIFECYCLE AKTUELLE TRENDS IM INPUT MANAGEMENT CENIT EIM IT-TAG 13. JUNI 2013 IN STUTTGART LARS LAMPE AM ANFANG WAR DAS PAPIER Der Papyrus Westcar(Altes Museum, Berlin) aus der 13. Dynastie
MehrBeschreibung des MAP-Tools
1. Funktionen des MAP-Tool 2. Aufbau des MAP-Tools 3. Arbeiten mit dem MAP-Tool Beschreibung MAP-Tool.doc Erstellt von Thomas Paral 1 Funktionen des MAP-Tool Die Hauptfunktion des MAP-Tools besteht darin,
MehrNetStream Helpdesk-Online. Verwalten und erstellen Sie Ihre eigenen Tickets
Verwalten und erstellen Sie Ihre eigenen Tickets NetStream GmbH 2014 Was ist NetStream Helpdesk-Online? NetStream Helpdesk-Online ist ein professionelles Support-Tool, mit dem Sie alle Ihre Support-Anfragen
MehrICS-Addin. Benutzerhandbuch. Version: 1.0
ICS-Addin Benutzerhandbuch Version: 1.0 SecureGUARD GmbH, 2011 Inhalt: 1. Was ist ICS?... 3 2. ICS-Addin im Dashboard... 3 3. ICS einrichten... 4 4. ICS deaktivieren... 5 5. Adapter-Details am Server speichern...
MehrSeminar Informationsintegration und Informationsqualität. Dragan Sunjka. 30. Juni 2006
Seminar Informationsintegration und Informationsqualität TU Kaiserslautern 30. Juni 2006 Gliederung Autonomie Verteilung führt zu Autonomie... Intra-Organisation: historisch Inter-Organisation: Internet
MehrAnalyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS
Analyse zum Thema: Laufzeit von Support-Leistungen für Axel Oppermann Advisor phone: +49 561 506975-24 mobile: +49 151 223 223 00 axel.oppermann@experton-group.com Januar 2010 Inhalt Summary und Key Findings
MehrLizenzen auschecken. Was ist zu tun?
Use case Lizenzen auschecken Ihr Unternehmen hat eine Netzwerk-Commuterlizenz mit beispielsweise 4 Lizenzen. Am Freitag wollen Sie Ihren Laptop mit nach Hause nehmen, um dort am Wochenende weiter zu arbeiten.
Mehrteischl.com Software Design & Services e.u. office@teischl.com www.teischl.com/booknkeep www.facebook.com/booknkeep
teischl.com Software Design & Services e.u. office@teischl.com www.teischl.com/booknkeep www.facebook.com/booknkeep 1. Erstellen Sie ein neues Rechnungsformular Mit book n keep können Sie nun Ihre eigenen
MehrPRESSE-INFORMATION NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ
PRESSE-INFORMATION BI-22-08-12 NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ Spezialisierte BI-Anbieter wachsen um 19,3 Prozent Datenintegration ist das Top-Thema Anbieter
MehrZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management:
KVP und Lean Management: Damit machen wir Ihre Prozesse robuster, schneller und kostengünstiger. ZIELE erreichen WERTSTROM optimieren IDEEN entwickeln KULTUR leben 1 Lean Management Teil 1: Das Geheimnis
MehrBUSINESS SOFTWARE. www. sage.at
Unbegrenzt tiefe Explosionszeichnungen Internationale Features ITc Shop Der neue Webshop mit brillanter Anbindung an die Sage Office Line und enormem Leistungsumfang. Integriertes CMS Online-Payment Schnittstellen
MehrVon BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor
Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung
MehrAcht Gute Gründe für Integration und einen Content Backbone
Acht Gute Gründe für Integration und einen Content Backbone COMYAN Whitepaper Autor Peter Resele Datum 9. März 2009 Status Public =GmbH Karolingerstrasse 34a 82205 Gilching Germany t + 49 810 5779390 peter.resele@comyan.com
MehrDer Cloud Point of Purchase. EuroCloud Conference, 18. Mai 2011 (Christoph Streit, CTO & Co-Founder ScaleUp)"
Der Cloud Point of Purchase EuroCloud Conference, 18. Mai 2011 (Christoph Streit, CTO & Co-Founder ScaleUp)" Wer ist ScaleUp Hintergrund Cloud Provider ScaleUp ist ein Spin-Out des 12- Jahre alten MSPs
MehrInside. IT-Informatik. Die besseren IT-Lösungen.
Inside IT-Informatik Die Informationstechnologie unterstützt die kompletten Geschäftsprozesse. Geht in Ihrem Unternehmen beides Hand in Hand? Nutzen Sie Ihre Chancen! Entdecken Sie Ihre Potenziale! Mit
Mehr