Journal of Applied Knowledge Management

Größe: px
Ab Seite anzeigen:

Download "Journal of Applied Knowledge Management"

Transkript

1 Journal of Applied Knowledge Management Ausgabe 3: Technologien zur Unterstützung von Wissensmanagement Herausgeber: Felix Mödritscher 13. Februar 2007

2 2

3 Vorwort Die nunmehr dritte Ausgabe des Journal of Applied Knowledge Management (JAKM) widmet sich vermehrt den technologischen Aspekten des Wissensmanagements, die bereits in der letzten Ausgabe angedeutet wurden. Mit solchen sind die Studierenden des Studiengangs Informationstechnologien und IT- Marketing am CAMPUS02 nicht nur durch den alltäglichen Umgang bestens vertraut, viel mehr beeinflussen sie teilweise auch deren Entwicklung, indem sie an Projekten im Kontext dieser technologischen Bereiche mitwirken. Dem entsprechend beinhaltet die vorliegende Ausgabe des JAKM auch Erfahrungen und Ansichten aus der Praxis der Autoren. Im Speziellen werden in diesem Werk folgende technologische Meta-Trends adressiert: Erstens beleuchten die ersten vier Papers Aspekte der Modellierung und Verwaltung von explizitem Wissen. Hier zeigt sich, dass neben den klassischen Bereichen Hypermedia und Information Retrieval vermehrt auf die teilweise automatisierte semantische Anreicherung von Informationsbeständen und die Verwertung dieser Semantik durch entsprechende Applikationen gesetzt wird. Speziell wird den Bereichen des Semantic Webs bzw. des Data Mining Beachtung geschenkt. Zweitens wird in zwei Papers angedeutet, dass die Ideen des Web 2.0 auch auf kollaborative Technologien wie Groupware Computing bzw. Workflow Management Einfluss zu nehmen scheinen. Im Besonderen fließen neue Konzepte wie das Skypen immer stärker in unseren Alltag ein und werden auf lange Sicht wohl auch auch das Arbeitsumfeld von uns allen beeinflußen. Drittens wird auch das technologie-basierte Lernen und Lehren im Rahmen dieses Herausgeberwerks thematisiert, wobei die Schwerpunkte bei der Beurteilung des Lernprozesses sowie bei Trends für die Lehrinhaltserstellung angesiedelt sind. Wie auch in den letzten Jahren bin ich davon überzeugt, dass die vorliegende Ausgabe des JAKM interessante Aspekte aus Theorie und Praxis beinhaltet, und wünsche den Lesern dieses Journals viele neue und spannende Erkenntnisse aus der Welt des technologischen Wissensmanagements. Felix Mödritscher Februar

4 4

5 Inhaltsverzeichnis 1 Einleitung Motivation Bekannte technologieorientierte Modelle Aktuelle technologische Trends im Wissensmanagement Aufbau des Journals Literaturverzeichnis Hypermedia und Hypertext Motivation Geschichte von Hypermedia und Hypertext Objekte in Hypermedia Links Einsatz von Hypertext Zukunft von Hypermedia und Hypertext Fazit Literaturverzeichnis Information Retrieval Einleitung Information Retrieval Historische Entwicklung Komponenten eines IR System Funktionsweise von Information Search and Retrieval PageRank Verfahren bei Google Fazit Literaturverzeichnis

6 6 INHALTSVERZEICHNIS 4 Semantic Web Einleitung Begriffsdefinitionen Nutzen des semantischen Netzes für Wissensmanagement W3C Empfehlung RDF Anwendungen in der Praxis, Beispiele Fazit Literaturverzeichnis Data Mining und Data Warehousing Einleitung Data Mining Technische Aspekte Praxisbeispiele Fazit Literaturverzeichnis Groupware Computing Motivation Definitionen und Grundlagen Der Mitbewerb Fallstudien aus der Wissensmanagement-Praxis Schlußfolgerungen für das Wissensmanagement Zusammenfassung Literaturverzeichnis Workflow Management Motivation Begriffsdefinitionen Grundlagen Beschreibung Prozess Dienstreiseantrag Fazit Literaturverzeichnis Learning Management Motivation

7 INHALTSVERZEICHNIS Definitionen und Grundlagen Nutzen von e-assessments für Wissensmanagement Zusammenfassung Literaturverzeichnis Learning Content Management Einleitung Überblick über LCMS Standards e-management Systeme Moodle Zusammenfassung Literaturverzeichnis

8 8 INHALTSVERZEICHNIS

9 Abbildungsverzeichnis 1.1 Allgemeine Architektur eines Wissensnetzwerkes nach [Roßbach 2001] Seitenlinks für die Vorherige Seite und die Nächste Seite [Hentrich 1998, S. 44] Hierarchisch strukturierte Hilfe von TeXnicCenter Seite mit Suchlinks bei der Suche nach dem Begriff Hypermedia bei Google Ein einfaches IR System; Quelle: [van Rijsbergen 1979] Klassifikation von IR Modellen, Quelle: [Kuropka 2004] Darstellung eines Dokuments mit seinen In-Links und Out-Links Der Ablauf beim Data Mining Der Prozess des Data Warehousings Zielsetzungen von WfMS Basiskomponenten eines Workflowmanagementsystems [Hollingsworth 1995] Ursprünglicher Prozess Reiseantrag Verbesserterer Prozess Reiseantrag Bausteine des Wissensmanagements nach [Probst et al. 1999, S. 58] Komponenten eines LCMS Kooperationsnetzwerk der Standardisierungsgremien nach [Baumgartner et al. 2002b] Schematische Darstellung eines LMS nach [Maier-Häfele & Häfele 2002] Schematische Darstellung eines CMS nach [Maier-Häfele & Häfele 2002] Schematische Darstellung eines LCMS nach [Maier-Häfele & Häfele 2002]

10 10 ABBILDUNGSVERZEICHNIS

11 Kapitel 1 Einleitung Traditionelle und neue Trends im technologieorientiertem Wissensmanagement Felix Mödritscher Institute for Information Systems and Computer Media (IICM), Graz University of Technology, and CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 1.1 Motivation Im Bereich von Wissensmanagement wird oft vor einer stark technologischen Strategie gewarnt. So berichten [Borghoff & Pareschi 1997], dass IT-getriebenes Knowledge Management dazu führen kann, dass Wissen in statische und träge Information gewandelt wird. Auch [Rollett 2003, S. 18] kommt zum Schluss, dass die Nutzung des vorhandenen Wissens von zentraler Bedeutung ist und der Mensch im Mittelpunkt stehen muss. Vor allem [Borghoff & Pareschi 1997] heben die Gefahr der More IT, less people! Strategie mehrfach hervor. Dennoch kann nach [Roßbach 2001] die Informationstechnologie als eine wichtige Säule für ein effektives Wissensmanagement gesehen werden. In einzelnen Wissensprozessen wie etwa der Wissensverteilung oder der Wissensbewahrung (siehe [Probst et al. 1997]) wird Technologie als wichtiger Enabler für Knowledge Management gesehen. Speziell in großen und geographisch verteilten Unternehmen erweist sich der Einsatz von IT für viele Problembereiche als vorteilhaft, wie in [Mödritscher 2002, S. 99 ff.] nachzulesen ist. 1.2 Bekannte technologieorientierte Modelle In den letzten 10 Jahren wurden viele Erfolge, aber auch Misserfolge im Rahmen von Wissensmanagement- Ansätzen und Fallstudien dokumentiert. Im Überblick sind diese Erfahrungsberichte aus der Unternehmen- 11

12 12 KAPITEL 1. EINLEITUNG spraxis in bekannten Modellen wie etwa den Bausteinen des Wissensmanagements nach [Probst et al. 1997], den unternehmenszentrierten Betrachtungen von [North 1999], dem fernöstlichen Ansatz nach [Nonaka & Takeuchi 1995] oder dem prozessorientierten MaPuPu-Modell nach [Mödritscher 2006, S. 13 ff.] zusammengefasst. Daneben existieren es noch unzählige Einzelberichte, wie beispielsweise über die Communities of Practice der Siemens AG [Ramhorst 2001], die WM-Tools für die Projektabwicklung nach [Schindler & Gassmann 2000], den thesaurus-basierten KnowledgeScope gemäß [Davenport 1998], diverse IT-Werkzeuge des Grazer Kompetenzzentrums für Wissensmanagements [Know-Center 2006], usw. Dem entsprechend finden sich sehr viele und unterschiedliche Zugangsweisen zu Wissensmanagement- Technologien. So identifizieren beispielsweise [Becerra-Fernandez et al. 2004] die Ebenen KM-Infrastruktur, KM-Mechanismen, KM-Technologien sowie KM-Systeme und inkludieren nebst diversen Systemtypen auch Konzepte der Künstlichen Intelligenz in ihr Modell. Des Weiteren erarbeitet [Rollett 2003, S. 104 ff.] Wissensmanagement-bezogene Aspekte von Kommunikation, Kollaboration, Inhaltserzeugung, Content Management, Adaption, e-learning, persönliche Tools, Künstliche Intelligenz, Netzwerke, Standardisierung und Hardware. Abbildung 1.1: Allgemeine Architektur eines Wissensnetzwerkes nach [Roßbach 2001] Schließlich beschreibt [Roßbach 2001] eine allgemeine Architektur eines Wissensnetzwerkes. Diese in Abbildung 1.1 dargestellte Klassifizierung von technologischen WM-Bausteinen berücksichtigt nebst Modellierungswerkzeugen, der Administration oder daten- bzw. text-basierten Systemen auch höherwertige Konzepte wie gruppen- bzw. prozessorientierte Technologien. Zudem sieht dieses Modell auch die Systemplattform, also beispielsweise das unternehmensinterne Netzwerk, als technologische Basis und eine Benutzeroberfläche wie zum Beispiel einen Web-Browser als Schnittstelle zum Benutzer vor. 1.3 Aktuelle technologische Trends im Wissensmanagement Neben diesen bekannten Ansätzen für technologieorientiertes Wissensmanagement wird, im Rahmen weltweiter Forschungsaktivitäten und Produktentwicklung, an neuen theoretischen Konzepten und praktischen Lösungen gearbeitet. Im Wesentlichen lassen sich dabei neben der technologischen Weiterentwicklung

13 1.4. AUFBAU DES JOURNALS 13 bzw. anderen nicht für Wissensmanagement relevanten Aspekten zwei Forschungsströmungen identifizieren: Zum einen wird versucht, durch die Integration neuer Tools Organisationen aus Wissensmanagement- Sicht zu verbessern. Hier werden unterschiedliche Fachbereiche etwa Mensch-Maschine-Kommunikation (Usability), Psychologie (Lernkultur), Soziologie (Unternehmenskultur), Prozessmanagement (Prozessunterstützung und -automatisierung), und viele mehr adressiert. Typischerweise zielen entsprechende Ansätze darauf ab, den Wissensarbeiter in unterschiedlichen Bereichen seiner Tätigkeiten zu unterstützen und dadurch die Effizienz oder Kreativität solcher Mitarbeiter zu erhöhen. Beispiele hierfür finden sich sowohl in großen Konzernen wie auch in KMUs und reichen von komplexen IT-Systemen, die eingeführt werden, bis hin zu kleinen Tools oder Projekten, die eine Verbesserung der Wissensarbeit erwirken. So berichten unter anderem [Kaiser 2004, S. 31 ff. und 49 ff.] vom IT-unterstützten Wissenstransfer in der Projektlandschaft der Norske Skog, [Dämon 2004, S. 69 ff.] von der Prozessmodellierung und -automatisierung in den steirischen Krankenanstalten, [Stoni 2004, S. 45 ff.] über die Konzeption und Einführung eines Corporate Memory in ein KMU, [Sattler 2005, S. 88 ff.] eines Enterprise Content Management Systems für die steirische Landwirtschaftskammer, [Pfleger 2005, S. 43 ff.] über ein telefonisches Expertenvermittlungssystem für die Kundenberatung, [Slapar 2006, S. 46 ff.] von WM-Technologien für die Stadtverwaltung Graz oder [Gygax 2006, S. 52 ff.] über ein Tool zur Wissenserfassung in Prozessen. Auf der anderen Seite ergeben sich aus der Beschäftigung mit diversen Fachbereichen von Unternehmen neue Anforderungen an WM-Technologien, wodurch wiederum neue Features oder Systemtypen entstehen können. Beispielhaft seien hier neue Lehr- und Lernmethoden [Sindler 2004] oder neue Lernparadigma [Moodle 2006] für Unternehmen, zusätzliche wissenszentrierte Prozesse [Gygax 2006, S. 46 ff.], ergänzende Funktionen für CRM-Systeme [Foufas 2006, S. 60 ff.] zu nennen. Im Besonderen ist zu erkennen, dass der Einsatz von IT-Werkzeugen nicht nur auf der organisationalen Ebene, sondern auch im persönlichen Wissensmanagement Einzug hält [Slapar 2006, S. 49 ff.]. Außerdem zeichnet sich nach [Gartner 2006] derzeit der Trend ab, dass Paradigmen des Web 2.0 vermehrt für das unternehmenszentrierte Wissensmanagement entdeckt werden. Auch hier kann man erwarten, dass neue Features wie etwa Social Software Ansätze oder Aspekte der Collective Intelligence in bestehende ERP-Lösungen, sprich Wissensmanagement-Produkte, einfließen werden. 1.4 Aufbau des Journals Unabhängig von den hier erwähnten technologischen Modellen und Trends zielt eine ganzheitliche Wissensmanagementstrategie nun darauf ab, die verschiedenen Systemtypen und Techniken innerhalb des Unternehmens so einzusetzen, dass die Wissensarbeiter effizienter arbeiten. Dem entsprechend untersucht die vorliegende Ausgabe des Journals technologische Aspekte, die für Wissensmanagement im unternehmerischen Umfeld von Relevanz sein könnten: So beschäftigt sich Kapitel 2 mit Hypertext und Hypermedia und deren Einsatzmöglichkeiten, um explizites Wissen im Unternehmen im Sinne des Community-Paradigmas des Web 2.0 zu verwalten.

14 14 KAPITEL 1. EINLEITUNG In Kapitel 3 werden technologische Aspekte des Information Retrieval beleuchtet. Am Beispiel von Google wird gezeigt, wie Informationen im Unternehmen auffindbar gemacht werden können. Kapitel 4 erarbeitet den jungen Begriff des Semantic Web, wobei die Notwendigkeit und die Möglichkeiten von Strukturierung durch semantische Anreicherung von Informationsbeständen aufgezeigt werden. In Kapitel 5 werden die Themen Data Mining und Data Warehousing vorgestellt und im Kontext der Unternehmenspraxis beschrieben. Kapitel 6 behandelt Groupware Technologien, welche Arbeitsgruppen unterstützen sollen. Es wird dabei am Beispiel von Skype demonstriert, wie Instant Messaging in der Praxis eingesetzt werden kann, um Mitarbeiter zu vernetzen. In Hinblick auf Geschäftsprozesse untersucht Kapitel 7 den Bereich Workflow Management, der auf die Analyse, Verbesserung und Automatisierung von unternehmensinternen Prozessen abzielt. Kapitel 8 beschäftigt sich mit Aspekten von unternehmensinternen Schulungen. Dieses Mal wird jedoch die Seite der Lernenden anhand von so genannten Learning Management Systemen beleuchtet. Schließlich wird im Kapitel 9 sodann geklärt, was Learning Content Management ist und wie diese in die Unternehmenspraxis reinspielen.

15 Literaturverzeichnis [Becerra-Fernandez et al. 2004] Becerra-Fernandez, I.; Gonzalez, A.J.; Sabherwal, R.: Knowledge Management: Challenges, Solutions, and Technologies, Pearson, [Borghoff & Pareschi 1997] Borghoff, U.M.; Pareschi, R.: Information Technology for Knowledge Management, in: Journal of Universal Computer Science, 3(8), pp , /information technology for knowledge ( ) [Dämon 2004] Dämon, H.: Einführung und Betrieb eines übergeordneten Krankenhaus Informationssystems für Krankenanstalten und Verbünde, Diplomarbeit, Campus02, [Davenport 1998] Davenport, T.H.: Teltech: The Business of Knowledge Management Case Study, University of Texas, ( ) [Foufas 2006] Foufas, A.: Wissensorientiertes Customer Relationship Management, Diplomarbeit, Campus02, [Gartner 2006] Gartner: Gartner s 2006 Emerging Technologies Hype Cycle Highlights Key Technology Themes, ( ) [Gygax 2006] Gygax, P.: Prozessorientiertes Wissensmanagement, Diplomarbeit, Campus02, [Kaiser 2004] Kaiser, A.: Strategien für den Wissenstransfer aus Projekten, Diplomarbeit, Campus02, [Know-Center 2006] Know-Center Graz: IT-basierte Lösungen, ( ) [Moodle 2006] Moodle: Philosophy, ( ) [Mödritscher 2002] Mödritscher, F.: Wissensmanagement in großen und verteilten Technologie- Unternehmen, Diplomarbeit, Technische Universität Graz, ( ) 15

16 16 LITERATURVERZEICHNIS [Mödritscher 2006] Mödritscher, F.: Journal of Applied Knowledge Management, Ausgabe 2: Wissensprozesse in der Praxis, Campus02, moedritscher jakm vol2. pdf ( ) [Nonaka & Takeuchi 1995] Nonaka, I.; Takeuchi, H.: The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation, Oxford University Press, [North 1999] North, K.: Wissensorientierte Unternehmensführung: Wertschöpfung durch Wissen, 2. Auflage, Gabler Verlag, [Pfleger 2005] Pfleger, G.: Angewandtes Wissensmanagement, Diplomarbeit, Campus02, [Probst et al. 1997] Probst, G.; Raub, S.; Romhardt, K.: Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen, Gabler Verlag, [Ramhorst 2001] Ramhorst, R.: A Guided Tour through the Siemens Business Service Knowledge Management Framework, in: Journal of Universal Computer Science, 7(7), pp , 2001,. 7 7/a guided tour through ( ) [Rollett 2003] Rollett, H.: Knowledge Management: Processes and Technologies, Springer Verlag, [Roßbach 2001] Roßbach, P.: IT-Werkzeuge zur Unterstützung von Wissensmanagementprozessen, in: Management der Ressource Wissen in Banken, Bankakademie-Verlag, pp , [Sattler 2005] Sattler, M.: Wissensorientierte Unternehmensführung von Dienstleistungsunternehmen, Diplomarbeit, Campus02, [Schindler & Gassmann 2000] Roßbach, P.: IT-Werkzeuge zur Unterstützung von Wissensmanagementprozessen, in: Wissensmanagement, 1, pp , [Sindler 2004] Sindler, A.: Etablierung einer neuen Lernkultur: Modelle medienbasierter Lernarrangements zur Förderung selbstregulierten Lernens im Kontext der Organisation, Dissertation, Karl- Franzens-Universität Graz, [Slapar 2006] Slapar, R.: Wissensmanagement in kommunalen Verwaltungsprozessen, Diplomarbeit, Campus02, [Stoni 2004] Stoni, G.: Konzeption und Einführung eines Corporate Memory für ein transnationales Unternehmen, Diplomarbeit, Campus02, 2004.

17 Kapitel 2 Hypermedia und Hypertext Die Vergangenheit, die Gegenwart und die Zukunft von Hypermedia am Beispiel von Wikipedia Thomas Hirndler CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Alfred Leithold CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Peter Novak CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Christian Schmid CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 2.1 Motivation Die meisten Menschen kennen den Begriff Hypertext durch das World Wide Web, eine Hypertextplattform im Internet. Die Hypertextidee existiert schon wesentlich länger. So erkannte schon vor über 60 Jahren Vannevar Bush, dass lineare und hierarchische Strukturen zu wenig sind, um die Fülle an Informationen darzustellen. Seine Lösung waren vernetzte Strukturen, welche heutzutage in sehr vielen Bereichen Anwendung finden. Lange vor dem World Wide Web wurden Hypertextsysteme entworfen und, wenn auch nur in kleinen Kreisen, genutzt. Beispielhaft sei hier HES (Hypertext Editing System) erwähnt, welches von Andries van Dam mit der Unterstützung von Ted Nelson implementiert wurde und an der Brown University für den universitären Unterricht in englischer Literatur und Zellbiologie erfolgreich eingesetzt wurde. 17

18 18 KAPITEL 2. HYPERMEDIA UND HYPERTEXT Das Kapitel beginnt mit einer kurzen Einführung in die Geschichte von Hypermedia und Hypertext, wo auch der Unterschied der beiden Begriffe erläutert wird. Der darauf folgende Abschnitt beschäftigt sich mit der Verknüpfung von Informationen, für welche man Objekte benötigt. Dabei wird auf das wichtigste Element den Hyperlink näher eingegangen und die verschiedenen Anwendungsmöglichkeiten dargestellt. Nach der theoretischen Erarbeitung des Begriffes Hyperlink wird dessen Verwendung anhand des praktischen Beispiels Wikipedia dargestellt. Der abschließende Abschnitt dieses Kapitel widmet sich der Zukunft von Hypermedia und Hypertext, welcher sich vor allem mit Thesen beschäftigt, welche für den Bereich Hypertext und Hypermedia von Relevanz sind. 2.2 Geschichte von Hypermedia und Hypertext Als einer der Visionäre von Hypertext und Hypermedia gilt Ted Nelson. Auch die Bezeichnungen Hypertext und Hypermedia gehen auf ihn zurück. Das Ergebnis seiner Arbeit ist Xanadu, eine Informationsdatenbank. Sein unerreichbar scheinendes Ziel, das gesamte Weltwissen über ein einziges, riesiges, computerunterstütztes Netzwerk abzubilden, verfolgte er ständig. Ted Nelson hat die Technologie des WWW (World Wide Web) also schon 25 Jahre vor dessen Entstehung vorweggenommen. Allerdings sind seine Konzepte, wie z.b. das Tantiemensystem, zum Teil ausgereifter. Lange vor Ted Nelson erschien im Jahre 1945 ein Artikel von einem gewissen Vannevar Bush. Der Artikel As We May Think im Journal The Atlantic Monthly gilt bis heute als einer der faszinierendsten Artikel über Hypertext, vor allem wenn man berücksichtigt, wann dieser Artikel verfasst wurde. Darin schreibt Nelson darüber, wie man Wissen eines bestimmten Gebietes elektronisch aufbereiten und leicht zugänglich machen kann. Die Kernidee dieses Konzepts ist das Verfolgen von elektronischen Verweisen, um die Suche vor allem in umfangreicheren Werken zu erleichtern. Viele verstehen unter Hypertext und Hypermedia ein und das selbe. Hypermedia besteht aus den Teilen Hypertext und Multimedia. Hypertext behandelt nur den textuellen Anteil, als eines der bekanntesten Beispiele gilt Wikipedia. Hypermedia hingegen beinhaltet zusätzlich multimediale Inhalte, d.h. die Einbindung von Video, Audio, Bildern und Animationen. 2.3 Objekte in Hypermedia Um eine Verknotung von Informationen visuell für den Benutzer darstellen zu können, benötigt es Objekte. Mit diesen Objekten können Informationen von unterschiedlichen Medien wie Ton, Video und Grafik miteinander verknotet werden. Es existieren eine Vielzahl solcher Objekte. In nachfolgender Liste werden eine Auswahl an (HTML)-Objekten aufgelistet: a: Definiert einen Hyperlink oder Anker. Zum Verbinden von Objekten. textarea: Definiert ein mehrzeiliges Eingabefeld. Zur Eingabe von Text. select: Zur Erstellung einer Auswahlbox.

19 2.4. LINKS 19 table: Zur Erstellung einer Tabelle. Eine vollständige Auflistung aller Objekte können bei [Münz 2005] entnommen werden. Auf Grund des Umfanges all dieser Objekte, wird im nachfolgenden Abschnitt nur auf ein einzelnes Objekt näher eingegangen. 2.4 Links Wie bereits erwähnt, ermöglichen Hypermedia-Systeme, unterschiedliche Teile dieses Systems zu verbinden. Hierzu bieten Links eine ausgezeichnete Möglichkeit. Genauer genommen kann man sagen, dass Links das Herzstück eines Hypermedia-Systems sind, da diese das System im Innersten zusammen haltet. Links können zwar dynamisch erzeugt werden, jedoch werden sie überwiegend von Hand gesetzt. Nachfolgend eine Auflistung, welche Arten von Links man unterscheidet: Seitenlinks Hierarchische Links Ähnlichkeitslinks Suchlinks Referenzlinks Leider ist die Unterscheidung der Linkarten nicht unproblematisch, denn ein Benutzer erkennt visuell nicht, um welche Art es sich handelt. Es besteht jedoch die Möglichkeit, dem Link-Objekt in seinem Attribut Title eine zusätzliche Information hinzuzufügen, welche der Benutzer erhält, wenn dieser mit dem Mauszeiger über den Link fährt Seitenlinks Um eine beabsichtigte Lesereihenfolge von Online-Dokumenten festzulegen, verwendet ein Autor Seitenlinks (siehe Abbildung 2.1). Durch die Verwendung von Seitenlinks werden das vorherige und nachfolgende Online-Dokument miteinander verknüpft. Abbildung 2.1: Seitenlinks für die Vorherige Seite und die Nächste Seite [Hentrich 1998, S. 44]

20 20 KAPITEL 2. HYPERMEDIA UND HYPERTEXT Hierarchische Links Gilt es große Mengen an Informationen darzustellen, kommen Hierarchische-Links (siehe Abbildung 2.2) zum Einsatz. Denkt man an die Bekanntheit von der Explorerfunktion bei Microsoft Windows, bieten Hierarchische-Links die Möglichkeit, für den Benutzer wichtige Informationen mit gewohnten Browsen auffindbar zu machen. Abbildung 2.2: Hierarchisch strukturierte Hilfe von TeXnicCenter Wichtig bei Hierarchischen-Links ist es, ein ausgewogenes Verhältnis zwischen Breite und Tiefe der Hierarchie zu finden Ähnlichkeitslinks Um ein typisches Hypertextsystem aufbauen zu können, ist es notwendig, auch nichtlineare Strukturen aufbauen zu können. Diese ad hoc Links verbinden Online-Dokumente, welche von ihrem Inhalt her ähnlich (schemantisch) sind. In der Praxis finden Ähnlichkeitslinks immer dann ihren Einsatz, wenn ein Benutzer aus dem Kontext, wo der Link platziert ist, erkennen kann, ob er zu seiner gewünschten Information gelangt. Leider ist dies nur selten der Fall und aus diesem Grund sollte man den Einsatz von Ähnlichkeitslinks mit vorsicht genießen.

21 2.4. LINKS Suchlinks Wenn ein Benutzer zum Beispiel in einer Volltextsuche nach einem bestimmten Wort sucht, werden ihm eventulle Treffer in einer Liste angezeigt. Der Inhalt dieser Ergebnisliste besteht aus Online-Dokumenten, welche mit einem Suchlink auf das vom Benutzer eingegebene Wort verlinkt (siehe Abbildung 2.3). Abbildung 2.3: Seite mit Suchlinks bei der Suche nach dem Begriff Hypermedia bei Google Referenzlinks Mit Fußnoten in Büchern oder Zeitschriften sind Referenzlinks vergleichbar. Diese kommen in Online- Dokumenten zum Einsatz. Um den Benutzer nicht zu stören, gilt für Referenzlinks das selbe wie für Ähnlichkeitslinks, sie sollten mit Vorsicht genossen werden Die richtige Verwendung von Links Es wurde schon ein paar mal erwähnt, dass der Einsatz von Links nicht unproblematisch ist. Nachfolgend werden einige Regeln für das Setzen von Links angeführt: Wichtigste Regel: Links sollen den Benutzer niemals stören! Immer nur jene Links einfügen, die für den Benutzer auch von Bedeutung sind. Links sollen immer dort platziert werden, wo der Benutzer aufhören möchte zu lesen, um an einer anderen Stelle weiter zu lesen. (Testen!)

22 22 KAPITEL 2. HYPERMEDIA UND HYPERTEXT Durch testen soll überprüft werden, ob die durch den Link zur Verfügung stehenden Informationen auch benötigt. Links sollen immer so gesetzt werden, dass sie konsistent erscheinen. Also zum Beispiel die gleiche Art von Links etc. Für Links sollen immer aussagekräftige Wörter verwendet werden. Der Benutzer soll darauf hingewiesen werden, wenn der Link zu einem völlig anderem Kontext führt. Auf eine detaillierte Ausführung von Links wird verzichtet, da dies den Rahmen der Arbeit übersteigen würde. Sämtliche hier verarbeitete Informationen können [Hentrich 1998] nachgelesen werden. 2.5 Einsatz von Hypertext Ergänzend zum theoretischen Teil, der die in Hypermedia realisierten und zur Verfügung stehenden Objekte in Hypermedia beschreibt, befasst sich dieser Abschnitt mit einer beispielhaft ausgearbeiteten Verwendung eines dieser Objekte, dem Hyperlink. Der Einsatz von Hypertext und insbesondere die Verwendung von Hyperlinks, wird in diesem Abschnitt anhand der wohl bekanntesten freien Online-Enzyklopädie Wikipedia erklärt. In den folgenden Abschnitten wird einerseits die Idee von Wikipedia erläutert und im Anschluss die Verwendung der Hyperlinks in Wikipedia behandelt Kurzer Überblick über Wikipedia Die Idee von Wikipedia ist, es eine freie web-basierte Enzyklopädie zu Verfügung zu stellen, an der jeder seinen Teil beitragen kann. Das bedeutet, dass die Enzyklopädie nicht von einer bezahlten Redaktion, sondern einem dynamischen Prozess folgend von den bei Wikipedia angemeldeten Nutzern mit Inhalten gefüllt wird. Ein Benutzerkonto bei Wikipedia ist kostenlos und soll vor Artikeln schützen, die etwa aus politischen oder ethnischen Gründen nicht veröffentlicht werden dürfen. Durch die Anmeldung kann jederzeit nachverfolgt werden, welcher Nutzer den Artikel verfasst oder einen Artikel geändert hat. [Wikipedia 2001] Die wohl größte Herausforderung und mit unter ein Grund dafür, dass es immer wieder Artikel gibt, die in Wikipedia veröffentlicht werden, obwohl diese rechtliche Folgen haben könnten, ist, dass es zu wenige so genannte Reviewer gibt, die die zahllosen Artikel in der Enzyklopädie prüfen. Hierbei sei angemerkt, dass angemeldete Nutzer nicht nur eigene, sondern auch Artikel anderer Nutzer editieren können, um etwa so Fehler zu korrigieren oder ein Thema zu vervollständigen. Der wohl größte Vorteil von Wikipedia ist die ständig wachsende Zahl an Autoren, die die Plattform mit Inhalten versorgen. So gibt es in der deutschsprachigen Version Artikel (Stand: ) und in der englischsprachigen Version von Wikipedia sogar über Artikel (Stand: ). Ein weiterer Pluspunkt von Online-Enzyklopädien gegenüber den klassischen Enzyklopädien, die über mehrere Bände verfügen, ist die Möglichkeit, einzelne Artikel zu vernetzen und so die Suche nach Infor-

23 2.6. ZUKUNFT VON HYPERMEDIA UND HYPERTEXT 23 mation für den Nutzer erheblich zu erleichtern. Was früher durch Suchen der richtigen Textstelle in einem dicken Buch voller Information geschehen ist, funktioniert nun über einen Mausklick auf ein bestimmtes und als solches markiertes Wort innerhalb eines bestimmten Textes. Der nächste Unterabschnitt erklärt die Vernetzung von Artikeln in der Realisierung von Wikipedia. Das zentrale Objekt aus dem Bereich Hypermedia, bildet dabei der so genannte Hyperlink Beispiel von Hyperlinks in Wikipedia In diesem Abschnitt wird anhand eines Artikels die Verwendung des Hypermedia Objektes namens Hyperlink und dessen Ausprägung innerhalb Wikipedia erläutert. Ein Blick auf die Wikipedia Plattform über einen Web-Browser genügt, um den praktischen Einsatz des Hyperlinks zu erklären. Jene Wörter die im Web-Browser in blauen Buchstaben dargestellt werden, sind mit einem Hyperlink also einem Verweis auf etwa einen anderen Artikel hinterlegt und können daher mit der Maus angeklickt werden. Dabei ist zu beachten, dass Wikipedia alle Wörter, die in der Plattform beschrieben sind, automatisch mit diesem Verweis versieht. Das hat zur Folge, dass ein Autor eines bestimmten Artikels nicht die Plattform nach schon vorhandenen Begriffen untersuchen muss, um diesen dann in der Folge zu verlinken. Der Nutzen für den Leser besteht darin, dass er genauere Informationen zu einem Begriff, der in einem Artikel erwähnt wird, über einen einzigen Klick erhält. Die Tiefe der Vernetzung ist dabei unbegrenzt. 2.6 Zukunft von Hypermedia und Hypertext Dieser Abschnitt gibt einen Überblick über die mögliche Zukunft von Hypermedia bzw. Hypertext. In den Prognosen und Thesen von Professor Maurer [Maurer 2000] findet sich eine gute These zu diesem Thema von Niels Bohr: Vorhersagen sind immer schwierig vor allem über die Zukunft. Somit stützt sich der folgende Teil auf Thesen, Mythen und Hoffungen aus der Informatikwelt Prognosen und Thesen... nicht immer nur zum Schmunzeln Im Jahr 1999 hat Prof. Maurer eine Zusammenstellung von 60 Thesen für die damalige Zukunft veröffentlicht, nachfolgend sind einige davon für den Bereich Hypertext/Hypermedia relevanten aufgelistet. Die Zukunft gehört dem wiederverwendbaren Papier von (Maurer 1992) ist eine These, die den Übergang von gedruckter Information zu elecronic ink vorhersieht. Einige Jahre später gibt es eine noch konkretere Theorie diesbezüglich: Wir werden in der Zukunft ein Buch haben mit schön bedruckten Seiten und sogar bewegten Bildern, das sich auf Knopfdruck in ein anderes Buch verwandelt. (Kurzweil 1998) Während diese beiden Thesen aus heutiger Sicht schon bestätigt scheinen, gibt es auch andere, die im Moment noch sehr futuristisch klingen, wie z.b. Die Schrift wird im Jahre 2050 noch so viel Bedeutung haben wie im Jahre 1992 das Morsealphabet für die Kommunikation oder das manuelle Stricken für die Bekleidungsindustrie. (Maurer 1992)

24 24 KAPITEL 2. HYPERMEDIA UND HYPERTEXT Wie man sieht, wird dem Thema Hypermedia für die Zukunft ein großer Beitrag an der Evolution der Menschheit zugeschrieben. Was davon wie schnell realisiert werden kann, werden die nächsten Jahre zeigen. Zum Abschluss noch eine eher amüsante These, nicht speziell aus dem Bereich Hypermedia: Programming today is a race between software engineers striving to build bigger and better idiot-proof programs, and the Universe trying to produce bigger and better idiots. So far, the Universe is winning. (Rick Cook) [Maurer 2001] beschäftigt sich mit der Informatik-Welt in 100 Jahren von 2001 gerechner. Auch wenn es schier unmöglich scheint, die Entwicklungen der nächsten 100 Jahre vorherzusehen, enthält der Artikel einige Ansätze, die wohl mit ziemlicher Sicherheit zutreffen werden. Prof. Maurer geht davon aus, dass lange vor dem Jahr 2100 bereits alle Menschen an jedem Ort zu jeder Zeit auf alles Wissen der Menschheit zugreifen können. Eines der Hauptprobleme ist allerdings, die unkontrollierbare Informationsflut in sinnvolle und auf die Person maßgeschneiderte Wissenseinheiten zu strukturieren. Ein wichtiger Beginn dafür ist der Einsatz von Hypertext und Hypermedia Mythen des Hypermedia-Zeitalters Nachfolgend werden einige Mythen der Auswirkungen des Hypermedia-Zeitalters [Dillon 1996] angeführt und auf ihren Bezug zu Realität geprüft. Assoziatives Verbinden von Informationen ist natürlich, da es die Arbeitsweise des menschlichen Geistes nachbildet Bei der Erstellung von Hypertexten beziehen sich die wenigsten auf assoziative Theorien menschlicher Kognition. Weiters sind die meisten Versuche zu zeigen, dass assoziative verlinkte Texte zu besserem Lernen als lineare führen, gescheitert. Papier ist linear und daher ein beschränkendes Medium Papier ist keineswegs linear, z.b. beim Zeitungslesen, denn es wird zwischen Text, Bildern, Bildunterschriften, Überschriften anderen Artikel, der Werbung hin und her gesprungen, sodass eigentlich die eigene Arbeit das Gelesene strukturiert und linearisiert. Schneller Zugriff auf eine große Informationsmenge führt zu besserem Lernen und Arbeiten Gutes Lernen hat nicht direkt etwas mit der Verfügbarkeit großer Informationsmengen zu tun, denn ein Lexikon im Regal zu haben und dessen Inhalte zu kennen sind zwei absolut verschiedene Dinge. Die bloße Möglichkeit des schnelleren Hin-und-her-Blätterns in Hypermediasystemen verbessert allein noch nicht die Verarbeitung der Inhalte.

25 2.7. FAZIT 25 Der technologische Fortschritt wird die gegenwärtigen Probleme lösen Alle neuen Technologien bringen in der Regel auch neue Probleme mit sich, ohne die alten restlos zu lösen. Hypertext bzw. Hypermedia wird daher die derzeitigen Probleme des computerunterstützten Lernens von sich aus nicht nicht besser lösen als bisherige Technologien. 2.7 Fazit Hypermedia erfreut sich zunehmends an Beliebtheit auf der ganzen Welt. Die Möglichkeiten, die sich durch den Einsatz von Hypermedia ergeben haben und noch ergeben werden, führen mit Sicherheit zu weiteren Anwendungsgebieten in der Zukunft. Beispielhaft für den Einsatz von Hypermedia seien an dieser Stelle e-learning Plattformen genannt, die sich immer stärkerer Verbreitung in Schulen, Universitäten und anderen Bildungsstätten erfreuen. Durch die Möglichkeit, an diversen Kurse über das Internet teilzunehmen und dabei auch aktiv mitwirken zu können, wurde der Zugang zu solchen Bildungsstätten erheblich erleichtert. Man denke hier vor allem an eventuell vorhandene lange Wegstrecken zwischen dem eigenen Wohnort und der Bildungsstätte. Die während der Fahrt benötigte Zeit kann durch den Einsatz dieses Neuen Mediums sinnvoller und auch ertragreicher gestaltet werden. Natürlich darf auch bei dem Thema Hypermedia nicht ausser Acht gelassen werden, dass die Nutzung, Verbreitung und Weiterentwicklung vom Menschen selbst abhängt und daher dieser ganz alleine verantwortlich dafür ist, wie schnell diese Thematik von anderen wahrgenommen, aufgegriffen und umgesetzt wird. Zusammenfassend kann gesagt werden, dass Hypermedia viele Vorteile gebracht hat und in vielen Bereichen weitere Vorteile bringen wird. Ob und in welcher Zeit Hypermedia vom Titel Neues Medium auf die Stufe eines Revolutionären Mediums gehoben wird, das werden die Fortschritte und der künftige Einsatz von Hypermedia in der Praxis zeigen.

26 26 KAPITEL 2. HYPERMEDIA UND HYPERTEXT

27 Literaturverzeichnis [Dillon 1996] Dillon, A.: Myths, misconceptions, and an alternative perspective on information usage and the electronic medium, in Rouet, J.-F.; Levonen, J.J.; Dillon. A.; Spiro, R.J.: Hypertext and Cognition, Lawrence Erlbaum, 1996, pp [Hentrich 1998] Hentrich, J.: Hypermedia Design: Gestaltung von Hypermedia-Systemen, Verlag der Haessler Information GmbH, [Maurer 2000] Maurer, H.: Prognosen und Thesen... nicht nur zum Schmunzeln, in: Informatik Spektrum, 23, 2000, pp [Maurer 2001] Maurer, H.: Die (Informatik)Welt in 100 Jahren, in: Informatik Spektrum, 24, 2001, pp [Münz 2005] Münz, S.: SELFHTML, Tutorial, ( ) [Wikipedia 2001] Wikipedia: Die freie Enzyklopädie, ( ) 27

28 28 LITERATURVERZEICHNIS

29 Kapitel 3 Information Retrieval Informationsgewinnung anhand des Beispiels Websuchdienste Manuel Gombocz CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Sharif Ibrahim CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Dietmar Zach CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Christoph Ziegner CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 3.1 Einleitung Das rasche Auffinden von Informationen ist heute, aufgrund der Entwicklung der Gesellschaft hin zu einer Informationsgesellschaft, wichtiger denn je. Zur Auffindung jeglicher Art von Information in elektronischer Form werden entsprechende so genannte Information Retrieval Systeme benötigt. Diese Arbeit soll einen Überblick über den Begriff Information Retrieval verschaffen und anhand zweier vorgestellter Technologien deren Verwendung in der Praxis zeigen. Die nachfolgenden Abschnitte geben eine Definition des Begriffs Information Retrieval sowie einen Überblick über dessen historische Entwicklung. 3.2 Information Retrieval Information Retrieval (IR) bezeichnet ein Fachgebiet der Informatik sowie der Informationswissenschaften und befasst sich mit computergestützer, inhaltsorientierter Suche und Informationsbeschaffung. Aufgrund 29

30 30 KAPITEL 3. INFORMATION RETRIEVAL des heutigen Informationsaufkommens, welches sich nach [Gütl 2002] auf ein jährliches Wachstum von ein bis zwei ExaByte (Millionen Terrabyte) beläuft, besteht ein erhöhter Bedarf an relevanten Informationen. Der Begriff retrieval (zu Deutsch Wiedergewinnung, Auffindung) impliziert bereits, dass Informationen in solch großen Datenbeständen zunächst verloren sind. [Wikipedia 2006] Erst durch Anwendung entsprechender Mechanismen können diese wieder gewonnen werden. Dabei sind vor allem zwei Aspekte zu beachten, die IR von gängigen Datenbanksystemen unterscheiden: Vagheit: Benutzer können ihre Anfragen nicht in präziser und formal korrekter Form stellen. Die daraus resultierenden Kriterien werden als vage bezeichnet. Unsicherheit: Dem ausführenden System fehlen Informationen über den Inhalt der Daten, die ihrerseits Texte sowie audiovisuelle Inhalte enthalten können. Hervorzuheben ist das Problem der Mehrdeutigkeit von enthaltenen Wörtern. Die Dokumente innerhalb eines IR-Systems werden grundsätzlich auf zwei unterschiedliche Arten generiert. Zum einen können diese Inhalte von Verfassern aktiv im IR hinterlegt werden, zum anderen werden diese durch Suchmaschinen bereitgestellt. Die Dokumente selbst werden in Form von Dokumentenrepräsentationen hinterlegt. Anwender verfolgen bei der Suche nach Informationen individuelle Ziele, abhängig von der jeweiligen Aufgabe für die sie diese benötigen. Sie haben die Möglichkeit nach solchen Inhalten zu suchen, indem sie Anfragen in einer spezifischen Form an das IR stellen. Die Anfragen werden vom IR mit den Dokumentrepräsentationen verglichen und, analog zum formulierten Informationsbedarf, in Form einer Liste von Dokumenten zurückgeliefert. Das resultierende Suchergebnis kann im Bedarfsfall noch weiter eingeschränkt werden, indem die Suchanfrage verfeinert wird. 3.3 Historische Entwicklung Informationen werden aus historischer Sicht schon seit Jahrtausenden in Form von Büchern, Dokumenten und Schriftstücken gesammelt. Um die so gesammelten Informationen wieder zu finden, wurden verschiedene Formen von Indizes manuell erstellt und verwendet. Diese Systeme sind im Wesentlichen mit jenen vergleichbar, wie sie von Bibliothekaren verwendet wurden. Dazu werden dem Dokument zusätzliche Informationen, sogenannte Metadaten wie Themengebiet, Autor oder Schlüsselwörter, zugeordnet. Mit der Wartung solcher Indizes oder Thesauren ist ein erheblicher Aufwand verbunden. [Gütl 2002] Mit dem 2. Weltkrieg und dem Aufkommen erster Computersysteme wurden erste Versuche unternommen, Informationen automatisch zu verwalten. Aus dieser Zeit werden Vannevar Bush und Warren Weaver als Eltern modernen IRs bezeichnet. In ihren Schriften nehmen Sie moderne Methoden wie Hypertext und das WWW vorweg und beschäftigen sich mit Möglichkeiten zur Verwaltung und dem Retrieval von Informationen.

31 3.4. KOMPONENTEN EINES IR SYSTEM 31 In den 50er Jahren des vorigen Jahrhunderts wurden schließlich, begünstigt durch erste Kommunikations- Netzwerke und entsprechende elektronische Verarbeitungsmaschinen, erste IR-Systeme entwickelt. So konnten bereits mit Hilfe von Suchbegriffen, so genannten Descriptors, und Boolśchen Operatoren Suchanfragen durchgeführt werden. Mit zunehmender Daten- und Dokumentenmenge, Maschinen-lesbarer Volltextindexierung und der weiteren Verbreitung von Computersystemen hat sich letztendlich auch IR weiterentwickelt. Die heute weit verbreiteten Suchmaschinen im Internet bzw. WWW wurden von den Forschungen zu IR beeinflusst oder direkt davon abgeleitet. 3.4 Komponenten eines IR System Ein IR System unterstützt einen Informationssuchenden beim Auffinden von Informationen aus einem bestimmten Datenbestand. Im wesentlichen lässt sich ein IR System in die folgenden Hauptkomponenten unterteilen: Eingabe (Input), Prozessor (Processor), Suche mit einer Abfragesprache(Query) und Ausgabe (Output). In Abbildung 3.1 ist ein solches einfaches System illustriert, anhand dieser werden die verschiedenen Komponenten sowie die Interaktion beschrieben. Abbildung 3.1: Ein einfaches IR System; Quelle: [van Rijsbergen 1979] Wie bereits in der Einleitung dargestellt, stellt ein Datenbestand die Grundlage für ein IR System dar. In der Regel handelt es sich dabei um eine unbestimmte Menge an Dokumenten. Diese Menge an Dokumenten sind der Originalinhalt, der zumeist in verschiedenen Formaten vorliegt (Text, Bilder,...). Das IR System verwendet einen Prozessor (in der Mitte der Abbildung 3.1), der zum Einen für die Suche selbst verwendet wird und mit dem das vorliegende Datenmaterial analysiert wird. Dadurch entsteht eine interne Repräsentation der Informationen. Die interne Representätion beinhaltet nicht nur den Informationsgehalt des ursprünglichen Datenmaterials, sondern auch sämtliche verfügbare Metadaten wie zum Beispiel Erstellungsdatum, Ersteller, Dateiformat und ähnliches. Auf die verschiedenen Arten, wie diese interne Repräsentation erstellt werden kann, wird in der Folge noch eingegangen. Diese interne Repräsentaion des Datenbestandes kann dann mit Hilfe einer Suchfunktion nach den gewünschten Informationen durchsucht werden. Für die Suchfunktion wird in der Regel eine bestimmte Abfragesprache zur Verfügung gestellt, die zumindest logische Verknüpfungen der Suchbegriffe ( und, oder,..) unterstützt. In der Abfragesprache beziehungsweise in der Auswertung dieser Sprache zeigt sich ein wesentlicher Unterschied zwischen Data Retrieval und Information Retrieval. Beim Data Retrieval geht

32 32 KAPITEL 3. INFORMATION RETRIEVAL es in erster Linie darum, exakt den gewünschten Datenssatz zu finden, wohingegen es beim Information Retrieval darum geht, eine Information zu finden. Die gesuchte Information kann sich aber in den verschiedensten Dokumenten des Datenbestandes befinden, weshalb die Suche nach Informationen immer von einer Unschärfe umgeben ist, wie bereits in der Einleitung erwähnt. Der letzte Bestandteil ist schließlich die Ausgabe der Suchergebnisse. Je nach Ausprägung des IR Systems werden die Suchergebnisse nach Relevanz oder Häufigkeit des gesuchten Begriffes sortiert. Im Idealfall ist die Ausgabe mit einer Feedback Möglichkeit erweitert, wie zum Beispiel durch die Frage: Waren die Informationen auf dieser Seite hilfreich?, in Kombination mit einer mehrstufigen Skala. Durch das Feedback der Benutzer sammelt das IR System weitere Informationen, um die Ergebnisse der Suche besser auf die Bedürfnisse der Benutzer abzustimmen. Abbildung 3.2: Klassifikation von IR Modellen, Quelle: [Kuropka 2004] Wie bereits erwähnt, gibt es verschiedene Ansätze für die Erstellung der internen Repräsentation des Datenbestandes. Diese Modelle lassen sich nach verschiedenen Kriterien klassifizieren. In Abbildung 3.2 erfolgt die Klassifikation in einem zwei-dimensionalen Raum. Die eine Dimension ist das dahinter liegende mathematische Modell (in der Abbildung die Spalte) und die andere Dimension sind die Eigenschaften des Modells selbst (die Zeile). Zuerst zu den mathematischen Modellen: hier stehen drei verschiedene Ansätze zur Auswahl, nämlich ein mengentheoretischer (set-theoretic), ein algebraischer (algebraic) und ein probabilistischer Ansatz (probabilistic). Alle Modelle haben die Gemeinsamkeit, dass sie versuchen, Ähnlichkeiten zwischen den Daten des Datenbestandes und der Abfrage zu ermitteln, um dadurch die gewünschte Informationen aufzufinden. Wie der Name schon sagt, wird beim mengentheoretischen Modellen der Datenbestand in Form von Mengen gesehen und die Ähnlichkeit von Dokumenten und Daten wird anhand von Mengenoperationen bestimmt. Das klassische Beispiel für dafür sind die Booleschen Operationen. Bei den algebraischen Modellen wird der Datenbestand als Vektor, Matrizen oder Tupel dargestellt. Aus dieser Darstellung werden mit Hilfe von algebraischen Rechenoperationen Ähnlichkeiten zwischen der Abfrage und den Dokumenten berechnet. Ein Beispiel für ein algebraisches Modell ist das Vektorraum Retrieval (Vector Space Model). Der probabilistische Ansatz verwendet Wahrscheinlichkeiten und probabilistische Theoreme, um die Ähnlichkeit zwischen Abfrage und Datenbestand festzustellen. Dies passiert unter anderem mit Hilfe des Satzes von Bayes, durch den sich bedingte Wahrscheinlichkeiten berechnen lassen. Der Satz von Bayes

33 3.5. FUNKTIONSWEISE VON INFORMATION SEARCH AND RETRIEVAL 33 wird in diesem Kontext dazu verwendet, Rückschlüsse zu ziehen, ob und wo die gesuchte Information im Datenbestand vorhanden ist. Das zweite Klassifizierungsmerkmal sind bestimmte Eigenschaften des Modells. Die Eigenschaft des Modells kann grob in zwei Bereiche unterteilt werden, in Modelle ohne Terminterdependenz und Modelle mit Terminterdependenz, wobei man es bei den Modellen mit Terminterdependenz wieder zwei verschiedene Möglichkeiten gibt. Der Begriff Terminterdependenz bezeichnet die Abhängigkeit zweier Terme voneinander, wobei ein Term in diesem Kontext eine bestimmte Zeichenkette, ein Wort, aber auch ein Bild sein kann. Bei Modellen ohne Terminterdependenz wird davon ausgegangen, das es zwischen den einzelnen Termen des Datenbestandes keinen Zusammenhang bzw. keine Form der Abhängigkeit gibt. Diese Sichtweise führt dazu, das jeder Term gesondert betrachtet wird und dementsprechend auch unabhängig von den anderen Termen in der internen Repräsentation dargestellt wird. Modelle mit Terminterdependenz lassen sich in zwei Gruppen unterscheiden, zum einen die Modelle mit immanenter Terminterdependenz und zum anderen Modelle mit transzendenter Terminterdependenz. Bei beiden wird davon ausgegangen, dass zwischen den Termen innerhalb eines Dokumentes eine Abhängigkeit besteht, beide Ansätze versuchen diese Abhängigkeit bei der Erstellung der internen Repräsentation zu berücksichtigen. Der Unterschied zwischen den immanenten und transzendeten Ansätzen liegt in der Sichtweise, wodurch diese Abhängigkeiten der Terme zustande kommen und wie sie genutzt werden. Bei den immanenten Terminterdependezen gilt die Annahme, das die Abhängigkeiten im Modell selbst vorhanden sind. Die Abhängigkeit von Termen zueinander wird direkt oder indirekt aus der Häufigkeit des gemeinsamen Auftretens abgeleitet, je häufiger Begriffe gemeinsam auftreten, desto höher ist die immanente Interdependenz. Im Gegensatz dazu steht die transzendente Terminterdependez, bei diesen Modellen wird zwar auch davon ausgegangen, das es zwischen den Termen eine Abhängigkeit gibt, allerdings gilt hier die Annahme, das man diese Abhängigkeiten nicht nur aus dem Datenbestand udn dem Modell selbst ableiten kann. Deshalb ist es in diesen Modellen die Terminterdependzen so, dass die Abhängigkeiten zwischen Termen direkt oder indirekt (zum Beispiel durch Modellierung) von aussen vorgegeben werden muss. Der nächsten Abschnitt behandelt die Möglichkeiten, wie ein Datenbestand durchforstet werden kann und behandelt im speziellen das Modell von Google. Basierend auf dem in diesem Abschnitt beschriebenen Klassifizierungssystem kann das Verfahren von Google als algebraisches Modell mit immanenter Terminterdependenz beschrieben werden. 3.5 Funktionsweise von Information Search and Retrieval Information Search und Retrieval beginnt bei der Formulierung von Abfragen. Diese Abfragen werden dann vom System verarbeitet. Das Ergebnis eines ISR wird wiederum dem Benutzer als Output präsentiert.

34 34 KAPITEL 3. INFORMATION RETRIEVAL Der Aufbau des Systems kann durch 2 Grundlegende Vorgehensweisen bzw. Technologien beschrieben werden. Diese Beschreibung der Indizierung und des Spiders/Crawler sowie die Google-Indizierung basieren auf den Quellen [Ziegler 2000], [Waldburger 2006], [At-Web 2007] und [Gütl 2002]. Auch Google ist ein Spider basierender Web-Suchindex. Der genaue Aufbau bzw. die Funktionsweise wurde bisher aber nicht herausgefunden. In den folgenden Abschnitten wird eine allgemeine Beschreibung der auch von Google verwendeten Funktionen, nämlich Spider und Indizierung, gegeben. Anschließend werden allgemein bekannte Details zur Indizierung von Webseiten bei Google erläutert Spider oder Crawler Spiders oder auch Crawler sind Suchroboter, welche das Internet rekursiv nach Content durchforsten. Crawler finden den Content für die Speicherung in einer Datenbank. Dieser Content ist wiederum die Grundlage für eine spätere Indizierung und somit Grundlage für eine erfolgreiche Suchanfrage. Die Vorgehensweise von Crawlern kann in 2 Kategorien unterteilt werden: 1. Breitensuche 2. Tiefensuche Die Breitensuche verfolgt das Ziel, möglichst viele Domains und die dazu gehörenden Unterbereiche zu durchsuchen. Diese Vorgehensweise ist eher ineffizient und belastet die Webserver der Provider. Die Tiefensuche verfolgt das Ziel, möglichst alle Seiten einer Domain zu durchsuchen. Das heißt, es wird solange ein Link einer Seite verfolgt, bis keine weiteren mehr vorhanden sind. Anschließend hantelt sich der Crawler wieder auf die letzte Seite zurück, wo mehrere Links angeboten wurden, und verfolgt diese Richtung weiter. Optimierungen in der Tiefensuche können die Anzahl der Schritte in die Tiefe beschränken oder spezielle Domains bevorzugen. Dies speziellen Domains werden anhand von Pageranks (siehe Abschnitt 3.6) oder aber Backlink Count festgelegt Indizierung Die Indizierung von Content birgt den Vorteil schneller auf gewünschte Themen zugreifen zu können. Die prinzipielle Vorgehensweise bei der Indizierung ist der Aufbau eines eigenen Speicherbereiches, welcher nur einen Teil des Ausgangsinhaltes beinhaltet. Dieser aussortierte Teil beinhaltet beispielsweise keine Füllwörter, sprachliche Konstrukte (wie zum Beispiel: und oder ) oder Präpositionen. Hieraus entstehen Datensätze, die die einzelnen Inhalte beschreiben. Je nach Suchsystem können diese indizierten Inhalte einzelne Webseiten, Bilder, Grafiken, Objekte und dergleichen sein. Erfolgt nun eine Suchanfrage, so wird in der Datenbank nach diesem Eintrag gesucht und alle darauf verweisenden Indizes (natürlich Abhängig von einem bestimmten Pageranking Verfahren) dieses Themas verfolgt. Das Ergebnis wird anschließend in einer aufbereiteten Form dem Benutzer präsentiert.

35 3.6. PAGERANK VERFAHREN BEI GOOGLE Google - Indizierung Die bekannten Details zu Google s Indizierung belaufen sich auf die beiden Robots (Spiders) Freshbot und Deepbot. Freshbot besucht dabei neue ins Netz gestellte Seiten und beschränkt sich dabei auf Links, die von der aktuellen Seite ausgehen. Deepbot hingegen erfasst die Details der gesamten Webseite. Wie bereits erwähnt, erkundet Freshbot neue Seiten und prüft später, ob diese aktualisiert wurden. Wird eine Seite regelmäßig aktualisiert, kehrt der Freshbot an einem der nachfolgenden Tagen wieder. Wird eine Seite nicht regelmäßig aktualisiert, so wird immer die zuletzt ermittelte Position für das Ranking herangezogen. Im Gegensatz zum Deepbot erkundet er die Seiten eher oberflächlich. Er erfasst nur HTML und Textseiten. Deepbot hingegen erfasst viele andere Formate wie etwa Word - Dateien, PDFs, Excel - Dateien etc. Deepbot startet dazu eine monatliche Erkundungstour, deren wesentlicher Sinn in der Erfassung vieler Einzelseiten liegt. Dabei werden die einzelnen Seiten auf Aktualisierung überprüft und somit das Ranking für das Suchergebnis ermittelt. Dieses Ranking wird dann in Form eines Google-Dance der Öffentlichkeit präsentiert. 3.6 PageRank Verfahren bei Google Wie bereits erwähnt gehört Google zu den Spider-basierten Suchsystemen, das seine Popularität der verbesserten Informationsauffindung verdankt. Eine verbesserte Informationsauffindung wird im Allgemeinen durch Anwendung von Ranking Verfahren erreicht, die bezüglich den aus dem World Wide Web erhältlichen Informationen besondere Anforderungen erfüllen müssen. Im Allgemeinen wird das Ranking von Informationen bzw. Dokumenten durch Bewertung der Qualität ihres Inhaltes bestimmt. Für die Bewertung von Dokumenten aus dem Web müssen jedoch aufgrund der großen und stetig wachsenden Menge an vorhandenen Informationen automatisierte Verfahren zur Qualitätsbewertung gefunden werden. Diese Verfahren müssen darüberhinaus allgemein und unabhängig von den im Web vorliegenden unstrukturierten Inhalten und von benutzerabhängigen Qualitätseinstufungen sein. Diesen Anforderungen sollen linktopologische Rankingverfahren gerecht werden. Sie nutzen die Linkstruktur des Web und gehen davon aus, dass Verlinkungen für die Bewertung von Dokumenten herangezogen werden können, da Links nicht zufällig gesetzt werden und deswegen wie eine Wahlstimme für das Dokument, auf das der Link zeigt, betrachtet werden kann. Dabei wird zwischen In-Links und Out-Links unterschieden. In-Links verweisen auf ein bestimmtes Dokument, während Out-Links, die Links sind, die von diesem Dokument auf andere Dokumente verweist. [Lewandowski 2005, Kap. 8] Siehe dazu auch Abbildung 3.3. Der wissenschaftliche Zitationsindex (Science Citation Index [Thomson Scientific 2007]) gilt als Ideengrundlage von linktopologischen Verfahren. Man geht dabei davon aus, dass das Zitieren einer Quelle ein Ausdruck der Wertschätzung dieser Quelle ist [Lewandowski 2005, Kap. 8.1]. Die Anzahl der Referenzierungen wird als Bewertungseinheit herangezogen, wobei kein Gewichtungsverfahren angewandt wird.

36 36 KAPITEL 3. INFORMATION RETRIEVAL Abbildung 3.3: Darstellung eines Dokuments mit seinen In-Links und Out-Links Lawrence Page, einer der beiden Erfinder und Gründer von Google, erkannte die Analogie der Zitationen in wissenschaftlichen Arbeiten und der Verlinkung von Webseiten im Internet. Dabei legte er nicht Wert auf Links in einer Webseite, sondern auf Links, die auf die betrachtete Webseite verweisen und wiederum auf die Links, die auf die referenzierenden Webseiten zeigen usw. [Battelle 2005] Dieses Verfahren des Backlinkings bildete die Basis für das nach Page benannte PageRank Verfahren. Ein PageRank ist ein numerischer Wert, der die Wichtigkeit einer Webseite darstellt. Eine Webseite, die auf eine andere zeigt, gibt daher ein Stimme für diese ab. Je mehr Webseiten auf die betrachtete Webseite zeigen, desto wichtiger ist sie. Im PageRank Verfahren wird aber auch die Wichtigkeit der verweisenden Webseite berücksichtigt. Je wichtiger die verweisende Webseite ist, desto höherwertiger ist die abgegebene Stimme. Auch wenn es nicht alleinig zur Bewertung von Webseiten beiträgt, ist dieses Verfahren doch ein wichtiges bei Google. Alle eingehenden Links einer Webseite, interne wie externe, werden bei der Berechnung des PageRank berücksichtigt. Zu nachfolgendem Inhalt sei zur Vertiefung auf [Craven 2007] verwiesen. Die Gleichung lautet: P R(A) = (1 d) + d(p R(t1)/C(t1) P R(tn)/C(tn)) Die Parameter t1 bis tn stellen die Webseiten dar, die auf Webseite A verweisen. C ist die Anzahl der ausgehenden Verweise der Webseite. d ist ein Dämpfungsfaktor, der normalerweise auf den Wert 0,85 gesetzt wird. Vereinfacht ausgedrückt stellt sich obige Gleichung wie folgt dar: P agerank = ( PageRank-Anteil jeder auf sie verweisenden Webseite) Der PageRank-Anteil ist der PageRank der verweisenden Webseite geteilt durch die Anzahl der ausgehenden Verweise, die sich auf dieser Webseite befinden. Damit kann eine Webseite aufgrund des Dämpfungsfaktors von 0,85 immer nur einen kleineren Wert als ihren eigenen PageRank weitergeben, welcher gleichmäßig auf alle ihre ausgehenden Verweise aufgeteilt wird. Daraus könnte sich ergeben, dass eine Webseite mit einem PageRank=4 und 5 ausgehenden Verweisen höherwertig als eine Webseite mit einem PageRank=8 und 100 ausgehenden Verweisen ist.

37 3.7. FAZIT 37 Es wird jedoch vermutet, dass Google zwischen den Minimalwert 1 und dem Maximalwert 10 eine logarithmische Werteskala anwendet, so dass obige Annahme nicht zwingender weise richtig ist und der oben genannte PageRank = 8 trotz der höheren Anzahl an ausgehenden Verweisen einen höheren Stimmenwert an die verlinkte Webseite weitergibt. Der PageRank einer Webseite wird bei jedem Durchlauf neu berechnet. Wenn man zwei Webseiten betrachtet, die nur auf sich gegenseitig verweisen, stellt sich heraus, dass nach einem einzigen Durchlauf die PageRank Wert nicht korrekt sind. Dies liegt daran, dass der Wert der ersten Seite auf dem PageRank der zweiten basiert und umgekehrt. Es wird also von einem inakkuraten PageRank ausgegangen. Erst nach mehreren Iterationen nähert man sich an einen repräsentativen Wert an. Eine Simulation, die dieses Verhalten näherbringt, ist unter [WebWorkshop 2007] zu finden. Die Praxis zeigt, dass nach 40 bis 50 Iterationen ein annähernd korrekter Wert erzielt wird bzw. danach keine weiteren signifikanten Verbesserungen erreicht werden. Genau das Prinzip wird von Google angewandt, was aber auch entsprechend Zeit in Anspruch nimmt. Auch muss beim PageRank Verfahren beachtet werden, dass die errechneten Werte Verhältniszahlen sind und deren Gewichtung das Geheimnis von Google ist. Mit PageRank wurde der Grundstein zum Geschäftserfolg von Google gelegt, da die Sortierung der Suchergebnisse nach diesem System zu besseren Resultaten gegenüber damals gängigen Suchmaschinen wie Altavista oder Excite führte, welche nur eine Volltextsuche boten: der Marktwert von Google, Inc. übertraf im Oktober 2006 erstmals die 150 Milliarden Dollar Marke. [Spiegel Online 2006] 3.7 Fazit Wie in diesem Kapitel dargestellt wurde, ist Information Retrieval nicht zuletzt aufgrund des enormen Informationsaufkommens in den letzten Jahrzehnten ein mehr als notwendiges Konzept im Rahmen von Wissensmanagement. Obwohl die Grundidee hinter IR einfach zu verstehen ist, sind die technischen Umsetzungen vor allem jene, die auch Abhängigkeiten zwischen Begriffen berücksichtigen teilweise sehr mathematisch und kompliziert. In der Praxis findet man entsprechende Lösungen bei Suchmaschinen. Hier erweist sich vor allem Google als sehr innovativ, da neben dem klassischen IR-Prozess (mit Crawler, Indizierung, usw.) bereits weiterführende Konzepte wie der PageRank erfolgreich realisiert wurden. Schlußendlich muss man mit Verweis auf das folgende Kapitel, bei dem das Semantic Web thematisiert wird an dieser Stelle anmerken, dass reines Index-basiertes Information Retrieval schon bald nicht mehr ausreichen wird, sondern große Informationsbestände semantisch angereichert werden müssen, damit diese nachhaltig nutzbar werden bzw. bleiben.

38 38 KAPITEL 3. INFORMATION RETRIEVAL

39 Literaturverzeichnis [At-Web 2007] At-Web: Googlebots: FreshBot und Deepbot, ( ) [Battelle 2005] Battelle, J.: The Birth of Google, ( ) [Craven 2007] Craven, P.: Google s PageRank Explained and how to make the most of it, ( ) [Gütl 2002] Gütl, C.: Ansätze zur modernen Wissensauffindung im Internet, Dissertation, Technische Universität Graz, diss.pdf ( ) [Kuropka 2004] Kuropka, D.: Modelle zur Repräsentation natürlichsprachlicher Dokumente: Ontologiebasiertes Information-Filtering und -Retrieval mit relationalen Datenbanken, Advances in Information Systems and Management Science, Bd. 10, [Lewandowski 2005] Lewandowski, D.: Web Information Retrieval: Technologien zur Informationssuche im Internet, Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis, [Spiegel Online 2006] Spiegel Online: Rekord: Google-Marktwert steigt über 150 Milliarden Dollar, ( ) [Thomson Scientific 2007] Thomson Scientific: Science Citation Index, ( ) [van Rijsbergen 1979] van Rijsbergen, C.J.: Information Retrieval, ( ) [Waldburger 2006] Waldburger, M.: Information Retrieval und das Web: Grundlagen & Problematik, data-on-the-web/local/www ir.pdf, ( ) 39

40 40 LITERATURVERZEICHNIS [WebWorkshop 2007] WebWorkshop: Google s PageRank - Calculator, calculator.php?pgs=3 ( ) [Wikipedia 2006] Wikipedia, Information Retrieval, Retrieval&oldid= ( ) [Ziegler 2000] Ziegler, C.: Datenjäger, in: Internet World, funktionieren suchmaschinen.pdf ( )

41 Kapitel 4 Semantic Web Semantic Web: Fortschritt durch Struktur Wilhelm Grandl CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Gunther Grasberger CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Harald Leopold CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Robert Picher CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 4.1 Einleitung Webinhalte werden großteils durch keinerlei oder mangelhafte Metadaten ausgestattet, weshalb automatisierte Suchen bzw. Analysen nur sehr beschränkt möglich sind. Wenn Daten im Web durch für maschinelle Suche geeignete Metadaten versehen sind, fehlen meist Beschreibung und Standardisierung selbiger. Das Semantic Web beschäftigt sich mit dem Ausbau des WWW, um das Hinzufügen maschinell lesbarer und auswertbarer Daten und der formalen Definition der Semantik dieser Inhalte. Ohne Hilfe des Semantic Webs gehen die Informationen im Internet früher oder später in sich selbst unter, da diese ohne geeignete globale Semantik ihre Zielbestimmung verfehlen werden, frei nach dem Motto Man sieht vor lauter Bäumen den Wald nicht mehr. [Stumm 2006] [Palmer 2001] [Odermatt 2006] Als Tim Berners-Lee 1998 erstmals das Semantic Web [Berners-Lee 1998] vorgeschlagen hat, war das Internet bereits zu einer riesigen, unüberschaubaren Ansammlung an Informationen unterschiedlichster Arten in unterschiedlichsten Formen geworden. Suchmaschinen müssen seitdem eine immer schneller 41

42 42 KAPITEL 4. SEMANTIC WEB wachsende Anzahl von Internetseiten durchsuchen und indizieren. Das Verstehen swoie das Verknüpfen von Informationen ist für Maschinen in der Regel technisch nicht möglich. Um dieser Einschränkung entgegen wirken zu können, sollen Inhalte von Webseiten mit Metadaten versehen werden. Dies ersetzt nicht die Technologie des herkömmlichen Webs, im Gegenteil, es wird um eine Semantik-Schicht erweitert. Als technische Grundlage zum Bilden dieser Metainformationen dient die Extensible Markup Language (XML). Auf Grund des verwendeten, offenen Standards sind keine Lizenzgebühren zu entrichten. Um den Nutzern des Semantic Webs logische Schlussfolgerungen über den Inhalt der Webseiten zu ermöglichen, werden über das Resource Description Framework (RDF) und Ontologien entsprechende Regeln aufgestellt, welche definierten, wie Daten miteinander zu verknüpfen sind. Damit wurde eine Grundlage geschaffen, welche Computern grundsätzlich das Erkennen der Bedeutung von Daten ermöglicht. Mit Hyperlinks werden die Definitionen von Tags und den dazugehörenden logischen Schlussfolgerungen sowie Verwendungsregeln nachgeschlagen. 4.2 Begriffsdefinitionen Im Bereich des Semnatic Webs existieren noch einige für die vorliegende Arbeit relevanten Begriffe. Diese werden nun in aller Kürze definiert: URI Universal Resource Identifier: Generischer Ausdruck für alle Typen von eindeutigen Namen und Adressen welche sich auf Objekte im World Wide Web beziehen. Uniform Resource Locator (URLs) sind als Untermenge zu URIs zu verstehen. [RFC ] Metadaten Bezeichnung allgemein Daten, welche Informationen über andere Daten anbieten. Bei den beschriebenen Daten handelt es sich meist um größere Datensammlungen (Dokumente) wie Bücher, Datenbanken oder Dateien. Zum Beispiel werden Angaben von Eigenschaften eines Objektes als Metadaten bezeichnet. [RFC ] Schemata Bestimmt das strukturelle Layout von Datenstrukturen, Beziehungen und Zugriffsmechanismen. [Stumm 2006] Ontologien Aus der Philosophie entliehener und von der Informatik überladener Begriff, welcher im Allgemeinen für ein hierarchisch geordnetes, reglementiertes System aus Beziehungen steht. Die be- kannteste Definition von Ontologien stammt von Gruber [Gruber 1993] :. An Ontology is an explicit specification of a conceptualization. Ursprünglich stammt dieser Begriff aus der Philosophie. Innerhalb der Informationstechnologie wird mit einer Ontologie die Darstellung und Formalisierung von Wissen beschrieben. Durch eine Ontologien werden Teile einer realen Welt über teilweise abstrakte Konzepte und Relationen zwischen den Konzepten beschrieben. Ontologien entsprechen einem abstrakten Modell eines Welt-Ausschnittes, wobei hierbei der Umfang der Modellierung abhängig vom Verwendungszweck ist.

43 4.3. NUTZEN DES SEMANTISCHEN NETZES FÜR WISSENSMANAGEMENT 43 RDF Resource Description Framework, Formale Sprache zur Bereitstellung von Metadaten im WWW: Im Internet können mit RDF mehr Informationen, als die die auf der Website enthalten sind, zugänglich gemacht werden. Diese Metadaten können Informationen wie Titel, Name und Copyright enthalten. RDF besteht einerseits aus einem grafischen Modell, sowie auch einer XML-Syntax. Beide dienen zur Repräsentation der erzeugten Metadaten. [W3C 2000] [Wikipedia 2006] 4.3 Nutzen des semantischen Netzes für Wissensmanagement In vielen unternehmerischen Bereichen lässt sich eine starke Zunahme der Komplexität beobachten. Dies ist ein Resultat aus der zunehmenden Vernetzung der Wirtschaft und der stetig wachsenden Dynamik. Es ist aber auch die Folge der in den letzen Jahrzehnten stark gewachsenen Informationstechnologie, die es jedem ermöglicht, rasch und jederzeit Informationen zu Themen zu erhalten. Die erhaltenen Informationen können auf einfachste Art und Weise gespeichert, vervielfältigt und verteilt werden. Dies bringt zwar einen nicht unwesentlichen Kostenvorteil mit sich, die Qualität der Information nimmt dabei aber ab. Nicht selten sind Mitarbeiter mit der Flut an Informationen überfordert. Sehr oft werden Dokumente editiert, kopiert und an verschiedenen Plätzen abgelegt, ohne sich dabei an Regeln zu halten. Die Gültigkeit und die Qualität eines Dokuments muss daher von Mitarbeitern immer wieder in Frage gestellt werden. In s, auf File-Servern, in Dokumentenmanagementsystemen und im Internet, überall ist Information gespeichert und mit einfachem Mausklick abrufbar. Mitarbeiter und Manager leiden daher nicht an einem Mangel an Information, sondern an einem Überschuss. Es stellt sich immer öfter die Frage, welche Information in welcher Situation die passende ist. Die vorhandenen Informationsmengen werden zunehmend nutzlos, sollte es nicht gelingen die Kohärenz zwischen den Informationen zu erkennen. Diese Zusammenhänge gelten jedoch als Voraussetzung um die Qualität der Information zu verbessern und zielgerichtet zu verwenden. Nur dadurch gelingt es die Effektivität von Informationen innerhalb einer Organisation zu steigern. Die sinnhafte Vernetzung des Vorhandenen, nicht die Quantität der Information ist der Schlüssel zum Wissen. Semantische Technologien setzen genau bei diesem Punkt an und spielen daher für Wissensmanagement eine immer wichtigere Rolle. [Beier 2005] Die Einsatzmöglichkeiten von Semantik Web sind vielfältig. Andreas Blumauer und Tassilo Pellegrini von der Semantic Web School beschreiben die Anwendbarkeit von Semantic Web wie folgt [Blumauer & Pellegrini 2005]: Mithilfe von semantischen Technologien lassen sich Suchzeiten in Wissensdatenbanken und Dokumentenbeständen beträchtlich verkürzen und darüber hinaus Mehrwert aus der systematischen Vernetzung bestehender Informationsbestände generieren. Verwendet man bei der Klassifikation der semantischen Anwendungen die bekannten Wissensbausteine des Wissenskreislaufmodells von Probst, so wird ersichtlich, dass Methoden des semantischen Webs die technische Basis zur Unterstützung nahezu des gesamten Wissensflusses einer Organisation sein können. Semantische Technologien haben besonders bei E-Learning Systemen eine große Bedeutung, da der Erwerb, die Identifikation, die Entwicklung und die Verteilung von Wissen hierbei eine zentrale Rolle spielt.

44 44 KAPITEL 4. SEMANTIC WEB Durch vernetzte Wissensbestände und darauf aufbauende Visualisierung wird die Zeit zum Erwerb des neuen Wissens verringert und der Wert betriebsinternen Wissens erhöht. Eingehende s und Nachrichten lassen sich durch eine spezielle Software klassifizieren und gezielt weiterleiten. Der Fluss an Informationen wird effektiver und bekommt einen deutlich verbesserten Schub. Semantische Technologien können die Suche nach Wissensträgen unterstützen, einen großen Beitrag zur Steigerung der Interaktionsdichte leisten und infolge die Effizienz der Kommunikation innerhalb einer Organisation verbessern. Andreas Blumauer und Tassilo Pellegrini definieren das semantische Web wie folgt [Blumauer & Pellegrini 2005]: Das semantische Web ist letztlich die logische Weiterentwicklung des Internets(und firmeninterner Intranets) zu einem intelligenten und menschengerechten Kommunikations- und Informationssystem. Steffen Doberstein, Redakteur der Internetplattform ist sich der Zukunft des Semantic Webs sicher [Doberstein 2006]:... Es dürfte daher nur eine Frage der Zeit sein, bis semantische Technologien in allen Unternehmen Einzug halten, die mit größeren Informationsbeständen arbeiten. Je größer der Informationsbestand, um so größer die Kostenersparnis, die aus einer effizienten Suchmöglichkeit entsteht. 4.4 W3C Empfehlung RDF Grundlagen Das World Wide Web Consortium (W3C) spezifizierte in Kooperation mit der Web Ontology Language das Regelwerk RDF als Grundlage für das semantische Netz, der Standard wird als Candidate Recommendation kategorisiert. RDF ist frei öffentlich verfügbar. Die grundlegende Idee besteht in der Beschreibung von Eigenschaften der Ressourcen, welche im WWW verfügbar sind. Diese Beschreibung wird in einer maschinell lesbaren Form realisiert, um Such- Katalogisierungsvorgänge sinnvoll automatisieren zu können. Diese Beschreibungen können gemäß dem RDF-Modell als Graph oder nach der RDF-Syntax als im XML Format vorliegen. Das RDF-Schema wurde als Erweiterung von RDF geschaffen, um auch Beziehungen mit sehr großer Komplexität ausreichend beschreiben zu können. Dieses stellt kein Schema im klassischen Sinn dar, sondern erweitert RDF vielmehr um Konstruktion für die Herstellung vom Schemata. Die Besonderheit in RDF-Schemata liegt in der Aussagekraft über die Semantik von verwalteten Datenstrukturen, diese Bedeutung von Aussagen wird zum Beispiel mit Document Type Definitios) (DTDs) nicht festgehalten. [W3C 2000] RDF Modell Die Modellierung von semantischen Regelwerken mit RDF sieht grundsätzlich drei unterschiedliche Objekttypen vor:

45 4.5. ANWENDUNGEN IN DER PRAXIS, BEISPIELE 45 Ressourcen ( Resources ): Alle in RDF beschriebenen Dinge werden als Ressourcen bezeichnet. Eine Ressource wird durch ihre URI benannt und kann alles sein, eine einzelne Webseite, eine Sammlung von Webseiten oder auch eine nicht im Internet vorhandene Sache wie beispielsweise ein Buch. Eigenschaften ( Properties ): Eine Eigenschaft beschreibt Charakteristika, Relationen und Attribute von Ressourcen. Auch Eigenschaften sind Ressourcen und können somit wiederum beschrieben werden. Aussagen ( Statements, Assertions ): Eine Aussage besteht aus drei Teilen: Dem Subjekt, dem Prädikat und dem Objekt. Das Subjekt ist eine Ressource, über welche die Aussage gemacht wird, das Prädikat ist eine bestimmte Eigenschaft und das Objekt der Wert dieser Eigenschaft. Das Objekt einer Aussage kann eine Ressource sein oder ein Literal. 4.5 Anwendungen in der Praxis, Beispiele Swoogle Ein typisches Anwendungsbeispiel für den Einsatz der Grundsätze des Semantic Webs stellt die Suchmaschine Swoogle dar, welche ihre Dienste unter der Internetadresse anbietet. Diese Suchmaschine durchsucht den semantischen Teil des Internets indem sie semantische Dokumente wie zum Beispiel RDF, RDFS oder OWL indiziert, dadurch Metadaten sammelt und auswertet. Hierbei ordnet Swoogle die aufgespürten Metadaten in drei verschieden Kategorien ein, die Basic Metadata, die Relations und die Analytical Results. Basic Metadata identifiezieren hierbei zum Beispiel die benutze Sprache oder die Kodierung der Dateien. Mit den Relations hält Swoogle fest, wie Semantic Web -Dokumente mit anderen Ontologien verknüpft sind. Schlussendlich wird über die Analytical Results die Rangung der gefunden Dokumente vorgenommen. Daraus resultierend ergeben sich erhebliche Vorteile für alle informationsverarbeitenden Dienste und damit letztendlich auch für den Nutzer. Dieser Vorteil besteht in einem wesentlich verschärften und treffenderem Sucherergebnis. Ergänzend beschreibt Li Ding in seinem Paper Swoogle: A Semantic Web Search and Metadata Engine [Ding et al. 2004, S. 1 ff] Swoogle als einen Crawler-basierenden Indizierungsund Suchdienst für Semantic Web -Dokumente. Dieses Paper bietet einen umfassenden Einblick in die technische Realisierung und liefert ebenfalls dem Leser die dafür notwendigen Grundlagen SemanticMiner Kommerzielle Anwendung findet das Prinzip des Semantic Webs auch in der Software SemanticMiner von der Firma Ontoprise. Mit dem SemanticMiner sollen Anwender in einem Unternehmen schneller und einfacher die für sie relevanten Informationen auffinden, dadurch enorm Zeit sparen können und in weiterer Folge eine bessere Entscheidungsunterstützung zur Verfügung gestellt bekommen. Vor allen von Mitarbeitern in wissensintensiven Unternehmen wird sehr viel Zeit mit der Suche nach relevanten Infor-

46 46 KAPITEL 4. SEMANTIC WEB mationen verbracht. Entweder wird zu viel Information gefunden, die vielleicht gar nicht in adäquater Zeit verarbeitet werden kann, oder es wird zu wenig Information gefunden. Mit dem Produkt SemanticMiner wird versucht, mit Hilfe von Ontologien diesen Problemen entgegenzuwirken. Mit Ontologien sind hier Wissensmodelle gemeint, welche relevantes Wissen für ein Unternehmens abbilden sollen. Dies wird durch die Optimierung von Suchergebnissen und einen einheitlichen Blick auf beteiligten Quellen erreicht. Zum Einsatz kommt SemanticMiner zum Beispiel bei der deutschen Telekom, um vorhandenes aber verteiltes Wissen schnell und intuitiv zugänglich zu machen. [Ontoprise 2007] 4.6 Fazit Wie in diesem Paper angedeutet wurde, kann es für bestimmte Anwendungsbereiche nicht mehr ausreichen, einen Informationsbestand zu indizieren und so durchsuchbar zu machen. In solchen Fällen empfiehlt es sich, die Informationen mit Semantik anzureichern, welche dann von bestimmten Anwendungen, so genannten semantic applications, zum Nutzen des Users verwertet werden kann. Ebenfalls aufgezeigt wurde, dass für das Erstellen dieser Semantik XML-basierte Ansätze empfohlen werden. Schlußendlich muss man aber auch festhalten, dass eine semantische Beschreibung von Informationen immer mit einem Mehraufwand in der Informationserstellung und -wartung einhergeht, weshalb die Umsetzung des Semantic Webs sehr wohl hinsichtlich des Nutzens evaluiert werden muss.

47 Literaturverzeichnis [Beier 2005] Beier, H.: Semantisches Wissensmanagement = Qualitätsmanagement für Informationen, COMunity of knowledge, Semantik.pdf ( ) [Berners-Lee 1998] Berners-Lee, T.: Semantic Web Road map, WWW Consortium, ( ) [Blumauer & Pellegrini 2005] Blumauer, A.; Pellegrini, T.: Semantisches Web: Schon wieder eine Patentlösung für die Wissensgesellschaft?, Semantic Web School, upload/root tmpphpux0gmc.pdf ( ) [Doberstein 2006] Doberstein, S.: Semantic Web: Ein Schwerpunktthema auf der community of knowledge, COMunity of knowledge, artikel.htm?artikel id= 217 ( ) [Gruber 1993] Gruber, T.R.: A Translation Approach to Portable Ontology Specifications, in: Knowledge Acquisition, 5(2), pp , [Ding et al. 2004] Ding, L.; Finin, T.; Joshi, A.; Pan, R.; Cost, R.S.; Peng, Y.; Reddivari, P.; Doshi, V.; Sachs, J.: Swoogle: A search and metadata engine for the semantic web, in: Proceedings of ACM Conference on Information and Knowledge Management, Li Ding et al., University of Maryland Baltimore County, Baltimore MD 21250, USA - Department of Computer Science and Electronic Engineering, 2003 Swoogle: A Semantic Web Search and Metadata Engine goesmann thomas.pdf ( ) [Odermatt 2006] Odermatt, U.: Semantic Web, Seminararbeit, Universität Zürich, data-on-the-web/local/semanticweb.pdf ( ) 47

48 48 LITERATURVERZEICHNIS [Ontoprise 2007] Ontoprise: SemanticMiner: Die semantische Suchmaschine, ontoprise GmbH, ger.html ( ) [Palmer 2001] Palmer, S.B.: The Semantic Web: An Introduction, infomesh.net, infomesh.net/2001/swintro/ ( ) [RFC ] Request for Comments :Universal Resource Identifiers in WWW, Network Working Group, ftp://ftp.rfc-editor.org/in-notes/rfc1630.txt ( ) [RFC ] Request for Comments: Universal Resource Identifiers in WWW, Network Working Group, ( ) [Stumm 2006] Stumm, B.: Das Semantic Web - Ontologien, RFC, DAML und OLI, Seminararbeit, TU Kaiserslautern, ausarbeitung3.pdf ( ) [W3C 2000] WWW Consortium: Resource Description Framework (RDF) Schema Specification 1.0 W3C Candidate Recommendation, ( ) [Wikipedia 2006] Wikipedia, die freie Enzyklopädie: Resource Description Framework, Description Framework ( )

49 Kapitel 5 Data Mining und Data Warehousing Methoden und Techniken zur Erstellung von Data Warehouses Sigrid Fauland CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Thomas Gruber CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Mathias Schober CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Roland Tatzl CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 5.1 Einleitung In allen Lebensbereichen fallen Daten an. Strukturierte und unstrukturierte, relevante und wenigere relevante, sensible und öffentliche Daten. In vielen Bereichen, insbesondere in Unternehmungen besteht großes Interesse an der Speicherung und Weiterverarbeitung der anfallenden Daten. Data Mining befasst sich mit der Weiterverarbeitung und Strukturierung von Datenbeständen. Frank Bensberg versteht Data-Mining als integrierten Prozess, der durch Anwendung von Methoden auf einen Datenbestand Muster entdeckt. Im Hinblick auf die Aktualität der Thematik, haben sich die Verfasser in der vorliegenden Arbeit mit dem Thema Data Warehousing und Data Mining auseinandergesetzt. Diese Arbeit soll die zunehmende Wichtigkeit von Data Mining-Anwendungen und Data Warehouse-Implementierungen in zukunftsorientierten Unternehmungen aufzeigen. Ziel des Papers ist es, den Leser in einer Einführung mit den Grundbegriffen des Data Mining vertraut zu machen. Es wird auf Herkunft, Aufbereitung und Bereinigung der Daten und die in diesem Zusammen- 49

50 50 KAPITEL 5. DATA MINING UND DATA WAREHOUSING hang möglichen Fehlerquellen eingegangen. Im folgenden Kapitel werden die technischen Aspekte und die hohe Praxisrelevanz dieser Thematik aufgezeigt. Hierbei wird nach einer Prozessbeschreibung auch auf die wichtigsten Anwendungsbereiche eingegangen. Ein abschließender Praxisteil soll dem Leser helfen das theoretisch vermittelte Wissen anhand eines Praxisbeispiels näher zu verstehen. 5.2 Data Mining Data Mining ist eine der Methoden, Daten aus Data Warehouses aufzubereiten. Ergänzend dazu sind Abfrage- und Berichtssprachen wie SQL und OLAP-Werkzeuge als Datenlieferanten zu sehen. Sie können auch als Data Mining im weiteren Sinn verstanden werden. Data Mining im engeren Sinn ermöglicht vor allem die konventionelle Statistik, die Visualisierung, die Regelinduktion und neuronale Netze. Mit Data Mining sind komplexere Analysen möglich, während die beiden anderen Varianten eher abfragezentriert und in der Komplexität eingeschränkt sind. To mine bedeutet schürfen nach und beschreibt die automatische Suche nach Wissen in Massendaten. Mit den Methoden des Data Mining kann u.a. auch in medizinischen Massendaten effektiv nach neuen Zusammenhängen geforscht werden. Besondere Bedeutung hat Data Mining aber vor allem im Marketing, wo z.b. das Ergebnis einer Marktforschung mit diesen Methoden ausgewertet werden kann. In einzelnen Bereichen überlappen sich die Methoden des Text Mining mit denen des Data Mining. Es lohnt sich also einen vergleichenden Blick auf die beiden Bereiche zu werfen. [Lusti 2002] Grundlagen Data Mining beschäftigt sich mit dem Auffinden von Mustern in Datenquellen. Das ist eine elementare Technik, die jedes Lernen betrifft. Um die Datenbasis für das Data Mining festzulegen, müssen zuerst die interessanten Entitäten (vertikal) und die dazu gehörenden Eigenschaften (horizontal) festgelegt werden. Die Daten liegen eingangs üblicherweise unstrukturiert vor. In der Extraktionsphase werden die Daten so aufbereitet, dass sie weiterverarbeitet werden können. Idealerweise werden die Daten dann in einem Data Warehouse bereitgestellt. In Abbildung 5.1 wird beispielhaft der Prozess visualisiert. Die Information wie die Daten verknüpft werden sollen wird in Metadatenformaten abgelegt, um optimale Wiederverwertbarkeit zu gewährleisten. [Wikipedia 2006] In der Praxis haben Data Mining-Durchführungen immer eine Fragestellung, die den Ausgangspunkt definiert. Es werden dann Anwendungen und Methoden gesucht, die helfen sollen das Ziel zu erreichen. Wenn die Methoden gefunden sind, wird ein Werkzeug bestimmt, mit dem der Vorgang durchgeführt wird. Es gibt dabei auch durchaus freie Implementierungen wie WEKA (Waikato Environment for Knowledge Analysis). Diese bieten eine breite Palette von Werkzeugen für die Aufgaben des Data Mining. [Larose 2006]

51 5.2. DATA MINING 51 Abbildung 5.1: Der Ablauf beim Data Mining Herkunft der Daten Unstrukturierte Daten Häufig liegen Daten bereits in Datenbanken in unstrukturierter Form vor. Halbstrukturierte Daten Natürlich liegen auch Daten immer noch in Papierform halbstrukturiert vor (z.b. Listen), d.h. sie sind so leichter erfassbar (OCR). Freitext Freitext-Daten (nicht formatiert) müssen für die Weiterverarbeitung mit Textmining-Techniken aufbereitet werden. Nichtformatierbare Daten Inhalte, die nicht formatierbar sind, können mit Methoden des Wissensmanagements dargestellt werden. Externe Daten Daten aus äußeren Quellen z.b. aus dem Internet können ebenfalls integriert werden.

52 52 KAPITEL 5. DATA MINING UND DATA WAREHOUSING Bereinigung von Fehlerquellen Nach offiziellen Schätzungen der CABENA entfallen neunzig Prozent des Zeitaufwandes auf die Aufbereitung und Bereinigung der Daten, der Rest auf das Data Mining. Aufgrund der hohen Wahrscheinlichkeit von Fehlern in den Rohdaten ist die Bereinigung von großer Wichtigkeit. Es muss auch eine Vereinheitlichung von Struktur und Form vorgenommen werden um eine automatisierte Weiterverarbeitung zu ermöglichen. Unpassende Identifikationsschlüssel Man findet im Rohdatenmaterial häufig Entitäten mit nicht passenden eindeutigen Schlüsseln, die zusammengeführt werden sollen. Hier hilft nur die Einführung von künstlichen Primärschlüsseln mit mehreren Attributen. Semantische Abbildungsdefekte Ohne Metadaten oder entsprechendes Wissen zur Datenbasis können semantische Probleme nicht aufgelöst werden. Diese Probleme treten in Form von Synonymen, Homonymen und Eponymen auf. Es muss mit Hilfe von Metadaten oder Expertenwissen versucht werden, semantische Probleme individuell zu lösen. Syntaktische Abbildungsdefekte Verschiedene Schreibweisen ( Meier oder Maier ) sowie verschiedene Beschreibungen eines vergleichbaren Zustandes ( weiblich oder f ) führen zu syntaktischen Problemen. Durch eine Vereinheitlichung der Attribute oder mit Nachschlagewerken können solche Probleme gelöst werden. Zeitlogische Abbildungsdefekte Je weiter die letzte Aktualisierung eines Datensatzes vom Betrachtungszeitpunkt entfernt liegt, desto wahrscheinlicher ist er bereits verändert worden. Diese zeitliche Diskrepanz kann nur schwer behoben werden. Eventuell müssen diese Daten als Fehlwerte interpretiert werden. Redundanzen Redundanzen werden durch fehlende Namenskonventionen oder eine fehlende Normalisierung der zugrunde liegenden Datenbasis hervorgerufen. Diese doppelten Daten müssen bereinigt werden, andernfalls verfälschen sie das Ergebnis. Fehlwerte Fehlwerte können als echte Fehlwerte, d.h. nicht vorhandene Daten, und unechte Fehlwerte, d.h. nicht erhobene Daten, in Erscheinung treten. Die Bereinigung der unechten Fehlwerte ist nur mit aufwändigen Verfahren möglich. Das Fehlen von Daten kann in bestimmten Fällen auch eine durchaus wertvolle Information bedeuten.

53 5.2. DATA MINING 53 Falschwerte Daten, die objektiv falsch sind (wie z. B. ein Geburtsdatum in der Zukunft), müssen überarbeitet werden. Falls richtige Werte nicht ermittelbar sind, müssen die Daten gelöscht oder als Fehlwerte behandelt werden. Echte Falschwerte sind nicht vorhanden oder dürfen nicht erhoben werden. Unechte Falschwerte resultieren aus fehlerhaften Erfassungen, welche die erhobenen Daten verändert haben. Solche Ausreißer können mathematisch oder visuell eliminiert werden Aufbereitung der Daten Aggregation von Merkmalen Die große Zahl der erhobenen Daten zwingt aufgrund von Performanzproblemen zur Zusammenfassung im Rahmen der Hierarchie, also aufwärts gerichtet. Wenn aber im anderen Fall zu wenige Daten in einer Tabelle vorliegen, ist eine Aggregation ebenfalls angezeigt. In diesem Fall wird die Streuung reduziert, wodurch die Qualität der Daten verbessert. Bei der Aggregation werden unwichtige Informationen im Sinne Datenselektion ausgeblendet. Berechnung neuer Attribute Durch Summen, Abweichungs- oder Durchschnittswerte können Daten zusammengefasst werden. Dadurch entstehen neue Attribute, welche die Interpretation der Daten erleichtern. Die verlorenen Informationen durch Summierung werden durch die Varianz annähernd ausgeglichen. Zur Definition von solchen Kennzahlen ist Expertenwissen notwendig. Umgang mit stark korrelierten Attributen Neue Attribute können die Performanz der Analyse durch viele ähnliche Erkenntnisse verschlechtern. Die Reduktion von Attributen wird wieder von Experten durch Datenselektion vorgenommen. Dadurch werden die Dimensionen reduziert, der Informationsgehalt hingegen kaum. Die Ergebnisse dieser Reduktion sind naturgemäß für Laien schwerer durchschaubar, da der Zusammenhang zur Datenbasis verschleiert erscheint. Datenkodierung Das Ziel der Datencodierung ist die inhaltliche Vorbereitung der selektierten und aufbereiteten Daten. Dafür stehen folgenden Methoden zur Verfügung: Normierung: Bei der Normierung wird der Wertebereich eines Attributes verändert. Die Normierung mehrerer Attribute verbessert die Vergleichbarkeit. Ein Beispiel dafür ist die z-transformation. Hier wird der Mittelwert durch Mittelwertsubtraktion und Division durch die Standardabweichung auf Null und die Varianz auf Eins normiert. Normierungsfunktionen lassen sich nur für quantitative Merkmale aufstellen und sind eindeutig umkehrbar.

54 54 KAPITEL 5. DATA MINING UND DATA WAREHOUSING Skalentransformation: Die Skalentransformation führt ein Merkmal von einer Skala in eine andere über. Diese Umwandlungen führen aber häufig zu wenig sinnvollen Ergebnissen. Besser geeignet die Daten innerhalb der Methoden richtig zu behandeln. Strukturelle Transformation: In dieser Phase werden die Daten strukturell zur Analyse vorbereitet, es wird also der Zieldatenbestand erzeugt Mustererkennung Der Prozess der Mustererkennung lässt sich formal in drei Phasen unterteilen. Modellspezifikation Hier wird das geeignete Analyseverfahren gewählt. Komplexe Modelle haben den Nachteil schlechterer Verständlichkeit und Prognosefähigkeit. Weniger komplexe Modelle schränken oft die Freiheitsgrade ein. Modellevaluierung Die Modellevaluierung überprüft, in welchem Ausmaß ein entdecktes Muster bestimmte Anforderungskriterien erfüllt. Die Evaluation prüft die Prognosefähigkeit des Modells. Suche Die Parametersuche stellt das Ergebnis einer spezifischen Data-Mining-Technik für einen bestimmten Datenbestand dar. Die Modellsuche hingegen modifiziert im Rahmen einer iterativen Parametersuche die Modellspezifikation Kommunikation In der Phase der Kommunikation werden die Ergebnisse für den Empfänger aufbereitet. Als Empfänger können Computer oder Menschen fungieren. Dementsprechend sollte das Ausgabemedium angepasst sein. Üblicherweise werden Grafiken verwendet, welche die Aufnahme und Weiterverarbeitung beim Menschen beschleunigen können. 5.3 Technische Aspekte In den letzten Jahren ist es zu einer immer größeren Anzahl von Daten in den Unternehmen gekommen. Diese Datenflut zu beherrschen und noch sinnvolle Ergebnisse aus den gesammelten Daten zu erhalten, hat zur immer stärkeren Verbreitung von Data Warehouses geführt. Data Warehouses sammeln Daten aus unterschiedlichen Datenquellen (Datenbanken) und ermöglichen es, diese Daten zu analysieren und auszuwerten. Die meisten dieser Daten stammen aus relationalen Datenbanken, es kommen aber auch andere

55 5.3. TECHNISCHE ASPEKTE 55 Quellen in Frage wie z.b. Files oder Objekt Datenbanken. Data Warehouses unterstützen anspruchsvolle Anforderungen an die Daten. Abbildung 5.2: Der Prozess des Data Warehousings Es gibt mehrere Anwendungstypen wie DSS / EIS: Decision-Support Systems (DSS), die auch als Executive Information Systems (EIS) bezeichnet werden, unterstützen Entscheidungsträger durch Bereitstellung von komplexen Daten. OLAP: Online Analytical Processing (OLAP) ist ein Terminus, mit dem die Analyse komplexer Daten aus eine Data Warehouse beschrieben wird. Mit Hilfe von OLAP ist es möglich komplexe Analysevorhaben durchzuführen. Data Mining: Data Mining ist ein wichtiger Schritt in der Wissensgewinnung aus komplexen Daten. In Data Warehouses werden sehr große Mengen von Informationen gespeichert. Aus diesem Grund sind sie meistens wesentlich größer als die Quelldatenbanken, aus denen sie ihre Informationen beziehen. Daraus folgt das die Größe des Data Warehouses auch ein mögliches Differenzierungsmerkmal ist. Man unterscheidet zwischen unternehmensweiten Data Warehouses, die alle verfügbaren Daten im Unternehmen verarbeiten, virtuellen Data Warehouses und Data-Marts, die auf Teilmengen des Unternehmens (z.b. eine Abteilung) zielen. Als Vater des Data Warehouses gilt Bill Immon. Laut seiner Definiton ist ein Datawarehouse eine integrierte, Thema-orientierte, zeitlich veränderbare und nichtflüchtige Datenbank, die den Prozess der Entscheidungsfindung unterstützt. [Geisler 2006] Integriert: Eine Datawarehouse ist eine zentrale Datenbank im Unternehmen, die Daten aus vielen verschiedenen unternehmensinternen Quellen erhält. Dabei werden die Daten aus den unterschiedlichen Quellen nicht nur zusammengeführt, sondern auch konsolidiert. Das bedeutet, alle Daten werden in die richtige Struktur, die des Datawarehouses, gebracht. Diese Standardisierung kann sehr aufwendig und zeitintensive sein, ist aber unbedingt notwendig. Thema-orientiert: Ein Datawarehouse soll Antworten auf Fragen liefern, die von verschiedenen Bereichen des Unternehmens gestellt wurden. Aus diesem Grund sollten die Daten im Warehouse nach verschiedenen Themen geordnet sein.

56 56 KAPITEL 5. DATA MINING UND DATA WAREHOUSING Zeitlich veränderbar: Sowohl DSS als auch OLAP enthalten immer eine zeitliche Dimension. Operative Systeme haben hingegen meistens keinen zeitlichen Bezug. Diese Zeitkomponente ist deshalb so wichtig, da das Datawarehouse die Geschichte eines Unternehmens durch bestimmte Messwerte beschreibt. (z.b. Umsatz pro Monat oder pro Quartal) Nichtflüchtig: Es ist selbstverständlich, dass die im Datawarehouse gespeicherten Daten nichtflüchtig gespeichert werden müssen. Das bedeutet, dass nach dem aus- und wieder einschalten des Systems alle Daten wieder vorhanden sind. Im Folgenden werden zuerst DS Systeme und dann OLAP Systeme beschrieben. Im folgenden werden zuerst DS Systeme und dann OLAP Systeme beschrieben Decision Support Systeme (DSS) Ein Decsision Support System (DSS) [Elmasri & Navathe 2002] ist ein System, das dazu entwickelt wurde, Informationen aus Daten zu gewinnen und anhand dieser Informationen Entscheidungsprozesse zu unterstützen. Normalerweise werden DSS aus verschiedenen Einzelkomponenten aufgebaut, die die Daten bearbeiten und Informationen extrahieren. Meistens werden DSS Systeme auf ein enges Gebiet eines Unternehmens (z.b. Finanzen, Einkauf oder Verkauf) beschränkt. Außerdem arbeitet das DSS oft mit einem Benutzer zusammen, der Ad-Hoc-Abfragen erstellen kann. Zwei Beispiele für solche Abfragen sind: Relative Marktanteile verschiedener Produktlinien Beziehung zwischen Werbemaßnahmen und Verkaufszahlen Üblicherweise besteht ein DS System aus vier Hauptkomponenten. Diese vier Hauptkomponenten sind: Datenspeicher: Der Datenspeicher ist eine Datenbank die aus zwei Komponenten besteht. Auf der einen Seite werden Geschäftsdaten gespeichert, auf der anderen Seite Modelldaten. Die Geschäftsdaten werden aus externen operativen Datenbanken importiert. Die Modelldaten werden anhand von Algorithmen berechnet (z.b. lineare Regression) und helfen dabei, das Unternehmen zu modellieren. Die Modelldaten werden anhand von Algorithemen berechnet (z.b. linerare Regression) und helfen dabei das Unternehmen zu modellieren. Datenextraktion und Filterkomponente: Da oft Daten aus externen Systemen nicht direkt in das DS System passen, müssen diese umgewandelt und gefiltert werden. Diese Aufgabe übernimmt die Datenextraktions- und Filterkomponente. Abfragetool: Das Abfragetool wird vom Endanwender benutzt, um Abfragen an das DS System zu stellen. Reportingtool: Mit Hilfe des Reportingtools ist es für den Benutzer möglich, von ihm erstellte Abfragen in eine präsentationswürdige Form zu bringen.

57 5.3. TECHNISCHE ASPEKTE On Line Analytical Processing (OLAP) Nachdem die Nachfrage nach immer neuen DS Systemen sehr stark gestiegen ist, wurde eine neue Art von Programmen entwickelt. Diese neuen Programme werden als OLAP bezeichnet. Mit Hilfe dieser OLAP Programme wird die Entscheidungsfindung und Geschäftsmodellierung im Unternehmen erheblich vereinfacht. Die Haupteigenschaften von OLAP Systemen sind: Multidimensionale Datenanalyse: Die Multidimensionale Datenanalyse ist eines der augenfälligsten Eigenschaften eines OLAP Werkzeugs. Diese Multidimensionalität ergibt sich aus der Tatsache das Benutzer gerne Daten aus unterschiedlichen Blickwinkel betrachten. Auch ein Zusammenhang zu anderen geschäftsrelevanten Daten ist erwünscht. Multidimensionale Daten sind für diese Betrachtungen ideal. Unterstützung durch das Datenbanksystem: Um eine Entscheidungsfindung gut zu unterstützen muss das OLAP System einige Funktionen umfassen. Es muss möglich sein, auf DBMS, flache Dateien und externe Datenquellen zuzugreifen. Es sollten schnelle Antwortzeiten auf Abfragen möglich sein, und diese Abfragen sollten einfach vom Endanwender erstellt werden können. Außerdem sollte ein sehr großes Datenvolumen unterstützt werden, da Datawarehouses sehr schnell wachsen können. Einfach zu bedienende Oberfläche: Je einfacher es für den Endbenutzer ist, auf OLAP Systeme zuzugreifen, desto nützlicher und sinnvoller werden sie auch im Alltag eingesetzt. Wenn der Zugriff aber so kompliziert und schwierig ist, dass nur wenige Mitarbeiter im Unternehmen überhaupt mit dem OLAP System arbeiten können, wird das ganze System nie eine große Akzeptanz erfahren. Unterstützung der Client/Server Architektur: Wenn man sich die Funktionalität eines OLAP Systems ansieht, wird klar, dass es sehr stark von einer Client Server Architektur profitieren kann. Auf der Serverseite befindet sich ein OLAP Server, der Aggregationen und Berechnungen vorbereitet. Auf der Clientseite ist eine Anwendung, die auf die vom Server bereitgestellten Daten zugreift Relationales OLAP (ROLAP) Beim Relationalen OLAP (ROLAP) werden Multidimensionale OLAP Daten in relationalen Datenbanken gespeichert. Es ist dann möglich, die Daten mit relationalen Werkzeugen (z.b. SQL) zu bearbeiten. Da auf den gewohnten relationalen Ansatz aufgesetzt wird, handelt es sich um eine logische Erweiterung relationaler Datenbanken. ROLAP erweitert die traditionelle RDBMS-Technologien um folgende Funktionen: Unterstützung mehrdimensionalen Datenbanken im RDBMS Erweiterung der Abfragesprache (SQL) um mehrdimensionale Konstrukte Optimierung der Abfragegeschwindigkeit Unterstützung für sehr große Datenbanken

58 58 KAPITEL 5. DATA MINING UND DATA WAREHOUSING Multidimensionales OLAP (MOLAP) Multidimensionales OLAP (MOLAP) nutzt im Gegensatz zu ROLAP keiner relationalen Datenbanken, sondern spezielle multidimensionale Datenbanken, in denen die Daten in einem proprietären Format gespeichert. Es werden so genannte Multidimensionale Datenbankmanagement Systeme (MDBMS) verwendet. Die bei MDBMS verwendeten Technologien stammen aus dem CAD/CAM (Computer Aided Design/Manifacturing) bzw. dem GIS (Geographic Information System) Bereich. MDBMS-Daten werden als dreidimensionale Würfel visualisiert. Diese Würfel werden auch als Data Cubes bezeichnet. Jeder Wert diese Cubes kann durch die Angabe von drei Dimensionen erreicht werden. Es ist natürlich auch möglich, dass die Cubes mehr als drei Dimensionen abbilden. Dann spricht man von so genannten Hypercubes. Diese Data Cubes werden erzeugt, indem Daten aus operativen Systemen oder aus einem Data Warehouse importiert und dann in eine multidimensionale Form gebracht werden. Eine Besonderheit von Data Cubes ist, dass Sie statisch sind. Das bedeutet, die Daten werden aus dem Datawarehouse importiert, und der Cube wird erstellt. Wenn sich Daten im Datawarehouse ändern, spiegelt sich diese Äderung im Data Cube nicht wieder Das Sternschema Um zu verstehen, wie ein OLAP System funktioniert, ist es wichtig die dahinter liegenden Prinzipien zu verstehen. Ein grundlegendes Konzept, das in praktisch allen OLAP Systemen Verwendung findet, ist das Sternschema [Jacobson & Misner 2006]. Beim Sternschema handelt es sich um eine einfache Technik, mit der man multidimensionale Analysen auf Basis einer relationalen Struktur durchführen kann. Dabei basiert das Sternschema auf vier Komponenten. Fakten: Fakten sind numerische Werte für bestimmte Geschäftsaspekte. Diese Fakten werden üblicherweise in Stückzahlen, Kosten oder Preisen gemessen. All diese Fakten werden in Faktentabellen gespeichert, die eine zentrale Komponenten des Sternschemas sind. Diese Fakten werden mit den ihnen zugeordneten Dimensionen in Beziehung gebracht. Dimensionen: Dimensionen werden verwendet, um bestimmte Eigenschaften der Fakten herauszuheben und diese zu sortieren. Die Dimensionen werden in Dimensionstabellen verwaltet. Attribute: Jede Dimensionstabelle enthält bestimmte Attribute. Mit Hilfe dieser Attribute werden Fakten gesucht, gefiltert oder klassifiziert. Dimensionen liefern also durch Attribute beschriebene Charakteristika über bestimmte Fakten. Attribut-Hierachien: Attribute können innerhalb einer Dimension eine Attribut-Hierarchie bilden. Über diese Attribut-Hierarchie wird eine Ordnung innerhalb der Attribute der Dimension festgelegt. Diese Attribut-Hierachien könne dann z.b. für Aggregationen verwendet werden.

59 5.4. PRAXISBEISPIELE Praxisbeispiele Typische Anwendungen für Data Mining sind nach [Dürr 2003] und [Meury & Kindler 2006] in folgenden Bereichen zu finden: Marketing, CRM und Vertrieb Risikomanagement Banken und Versicherungen Einzelhandel Großhandel Verbrechensbekämpfung In der Praxis wird zwischen drei Bereichen unterschieden, die im Kontext der Business Intelligence zusammengefasst werden: 1. Data Warehousing 2. BI Reporting / Online Analytical Processing (OLAP) 3. Data Mining Eine Unterscheidung zwischen diesen Teilbereichen kann auf Basis der zeitlichen Ausrichtung als auch den untereinander gegebenen Abhängigkeiten getroffen werden. Zur Schaffung einer geeigneten Datenbasis, auf der sowohl das BI Reporting als auch das Data Mining aufsetzen, wird in der Regel ein Data Warehouse (DWH) aufgebaut, das historische und aktuelle Daten aus diversen Quellsystemen vereint. Aufbauend auf dem DWH wird zur Unterstützung betrieblicher Entscheidungsfindungsprozesse eine BI Plattform eingeführt. In dieser werden üblicherweise Berichte zur Darstellung von aktuellen und historischen Kennzahlen definiert und zur Verfügung gestellt. Im Folgenden wird auf Data Warehousing als Basis der sinnvollen Durchführung des Data Mining sowie Data Mining an sich eingegangen. Der Bereich des BI Reporting wird nur marginal gestreift. Der rein historischen Ausrichtung des BI Reporting wird durch das Data Mining Rechnung getragen. Dadurch wird versucht, über die Definition von geeigneten Algorithmen basierend auf historischen Daten treffende Vorhersagen zu spezifischen Fragen zu treffen. Die Qualität der durch das Data Mining getroffenen Vorhersagen hängt wesentlich von der Vollständigkeit und Korrektheit der im Data Warehouse gespeicherten Informationen und deren Aussagegehalt ab. Bevor also mit der Implementierung einer Data Mining Plattform begonnen werden kann, ist es notwendig, Anforderungen an die durchzuführenden Auswertungen und deren Inhalt zu definieren. Basierend auf diesen Vorgaben muss ein DWH modelliert und umgesetzt werden, das alle notwendigen Daten zur Durchführung der Abfragen beinhaltet. Bei einer mangelhaften Datenqualität im DWH, die aus unzulänglichen Daten in Quellsystemen ebenso wie aus einer misslungenen Modellierung und Umsetzung

60 60 KAPITEL 5. DATA MINING UND DATA WAREHOUSING resultieren kann, ist der Informationsgehalt der über Data Mining getroffenen Vorhersagen entsprechend eingeschränkt. Nun folgend wird die Möglichkeit der Unterstützung von Risikoanalysen durch das Data Mining näher ausgeführt Der Einsatz von Data Mining in der Risikoanalyse In der Risikoanalyse kann Data Mining vielfältig eingesetzt werden. Immer dann, wenn Wissen über potentielle zukünftige Entwicklungen eine Entscheidungshilfe leisten kann, um vielfältige Risiken zu minimieren, stellt Data Mining ein probates Mittel zur Abschätzung von Risiken zur Verfügung. Risikominimierung ist besonders dann angebracht, wenn im Falle des Eintretens eines falsch eingeschätzten Risikos Verluste entstehen können oder im Extremfall gar ein gesamtes Unternehmen gefährdet ist. Dies ist laut [Meury & Kindler 2006] der Fall bei der Betrugsverhinderung, bei Bonitätsprüfungen sowie bei AML (Anti-Geldwäsche) Kampagnen. Data Mining Verfahren bieten beispielsweise die Möglichkeit, bei entsprechend aufbereiteten Informationen zu Kunden und Transaktionen auf Basis von Erkennungsmustern die Verhinderung von illegalen Transaktionen zu unterstützen. Oder es werden automatisch Dokumente als vertraulich klassifiziert, deren Inhalt nach Überprüfung durch eine Text Mining Applikation als schützenswert erachtet wird. Dabei können z.b. automatisiert Zugriffsrechte für bestimmte Benutzergruppen eingeschränkt werden. Eine automatisierte Bonitätsprüfung auf Basis der Vorhersagbarkeit der finanziellen Entwicklung eines Bankkonto kann sowohl die kreditvergebende Bank vor einem Verlust, als auch den Kunden vor einer Überschuldung bewahren. 5.5 Fazit In [Kunz & Peter 2006] werden Data Warehousing und Data Mining als unerlässliche Technologien zum nutzenbringenden Einsatz von Wissen klassifiziert. Ein Data Warehouse für sich ist nicht ausreichend, wenn es darum geht, Einzelinformationen in einen Kontext zu bringen und aus diesen Informationen Wissen zu generieren, abzurufen und zu aktualisieren. Daher ist es notwendig, eine ausführliche Analyse der im Data Warehouse gesammelten Daten durchzuführen, um explizit Wissen daraus generieren zu können. Durch dieses Data Mining können basierend auf geeigneten Algorithmen beispielsweise außergewöhnliche Ereignisse erkannt werden, auf die danach angemessen reagiert werden kann. Ganz allgemein lässt sich feststellen, dass immer mehr Unternehmen Data Warehousing und Data Mining zur Wissensbewahrung und -generierung einsetzen, wodurch sich im Allgemeinen ein nicht zu unterschätzender Vorsprung auf stark umworbenen Märkten gewinnen lässt.

61 Literaturverzeichnis [Dürr 2003] Dürr, H.: Anwendungen des Data Mining in der Praxis, Seminararbeit, Universität Ulm, [Elmasri & Navathe 2002] Elmasri, R.; Navathe, S.B.: Grundlagen von Datenbanksystemen, Pearson Studium, [Geisler 2006] Geisler, F.: B-KIDE: Datenbanken, mitp, [Jacobson & Misner 2006] Jacobson, R.; Misner, S.: Microsoft SQL Server 2005 Analysis Services: Step by Step, Microsoft Press, [Kunz & Peter 2006] Kunz, B.; Peter, S.: Die goldene Nadel im Datenhaufen, ( ) [Larose 2006] Larose, D.T.: Data Mining Methods and Model, Wiley-Interscience, [Lusti 2002] Lusti, M.: Data Warehousing and Data Mining: Eine Einführung in entscheidungsunterstützende Systeme, Springer, [Meury & Kindler 2006] Meury, O.; Kindler, A.: Anwendungsbereiche des Data Mining im Unternehmen aus betriebswirtschaftlicher Sicht, Fachhochschule Nordwestschweiz, [Wikipedia 2006] Wikipedia: Data-Mining, ( ) 61

62 62 LITERATURVERZEICHNIS

63 Kapitel 6 Groupware Computing Wissensmanagement mit Instant Messaging: Beyond Skype Kurt Banfi CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Christian Hubmann CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Thomas Mikl CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Rudolf Pohorely CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 6.1 Motivation Skype wurde von den Erfindern der legendären Software Kazaa, Niklas Zennström und Janus Friis, gegründet. Es handelt sich bei Skype im Grunde um Peer-to-Peer Internet Telephonie (VoIP) Software und wird frei zur Verfügung gestellt. Im Jahr 2006 wurde Skype weltweit für mehr als 32 Milliarden Minuten Kommunikation genutzt. [SkypeJournal 2007] Die Innovation von Skype liegt aber keineswegs in der Erfindung einer bahnbrechenden Software sondern in dem Zusammenfügen der Features Telefonie, Voice over IP und Instant Messaging in einem leicht zu bedienenden Programm, welches für viele Plattformen zur Verfügung steht. Die Motivation, sich mit dem Thema zu beschäftigen, resultiert aus dem naheliegenden Interesse, diese Funktionalitäten mit weiteren Groupware Aspekten zu kombinieren und hinsichtlich von Wissensverteilung und Wissensnetzwerken auszunutzen. Desweiteren liegt es nahe neue Technologien wie Virtual Whiteboarding und Collaborative Editing mit den Groupware Features von Skype zu kombinieren. 63

64 64 KAPITEL 6. GROUPWARE COMPUTING 6.2 Definitionen und Grundlagen Dieser Abschnitt bietet eine grundlegende Einführung in die Thematik, ordnet die Technologie in das Wissensmanagement ein und gibt einen Ausblick in die Zukunft Groupware Computing Computergestützte Gruppenarbeit im Englischen wird hier von CSCW, also Computer Supported Cooperative Work oder auch Groupware gesprochen ist eine gebietsübergreifende Anwendung. Sie kann u.a. als eine Synergie zwischen den Gebieten verteilte Systeme, Kommunikationstechnologie, Multimedia, Informationswissenschaften, Soziologie und Organisationstheorie gesehen werden. [Schlichter 2002] Groupware soll die Teamarbeit unterstützen und erleichtern, und zwar in den Bereichen Kommunikation, Kooperation, Koordination, bei der Problemlösung oder bei Verhandlungen. Obwohl auch traditionelle Technologien wie z.b. das Telefon unter Groupware einzuordnen sind, so bezieht sich der Begriff im Allgemeinen doch auf Techniken wie Computernetzwerke, , Newsgroups, Videotelefonie oder Chat. [Usability First 2002] Instant Messaging Instant Messaging oder Nachrichtensofortversand ist ein Dienst, der es ermöglicht, mittels einer Software (Client), dem Instant-Messenger, in Echtzeit mit anderen Teilnehmern zu kommunizieren (chatten). Dabei werden kurze Text-Mitteilungen im Push-Verfahren über ein Netzwerk (Server) an den Empfänger geschickt (meist über das Internet), auf die dieser unmittelbar antworten kann. Auf diesem Weg lassen sich meist auch Dateien austauschen. Zusätzlich bieten zahlreiche Messaging-Programme Video- oder Telefonkonferenzen an. [Wikipedia 2007b] Die Verwendung von Instant Messaging vereinfacht in den meisten Fällen die Zusammenarbeit und sorgt für einen gesteigerte Kommunikationsfluss. Dies liegt vor allem an der Möglichkeit, jederzeit den Status (online oder offline) seines Partners zu sehen oder eine entsprechende Benachrichtigung bei Änderung zu erhalten. Andererseits ist es nicht notwendig, sofort auf eine eingehende Nachricht zu reagieren. Diese Art der Kommunikation ist wesentlich weniger störend als z.b. ein Telefon, weshalb die Verbreitung und Akzeptanz von Instant Messaging in Unternehmen beständig zunimmt. [Wikipedia 2007a] Einordnung von Instant Messaging ins Wissensmanagement Wissensmanagement beschäftigt sich mit der Organisation, Archivierung und Weitergabe von Wissen. Da sich die Informationsspirale immer schneller dreht, ist es wichtig. entsprechende Werkzeuge zur Hand zu haben, um mit dem Mitbewerb schritthalten zu können. Hier bieten sich Instand Messaging Tools an, um in Echtzeit Informationen auszutauschen bzw. das Wissen in einem Unternehmen effizient zu nutzen. Ziel ist es, die entsprechenden Informationen möglichst schnell und unverfälscht weiterzugeben. Dabei bedient sich

65 6.2. DEFINITIONEN UND GRUNDLAGEN 65 das Konzept des Instant Messaging bereits bewährter Medien wie Telefonie, Internetsprachübertragung, Internetvideoübertragung etc., indem es diese Medien zum Teil in Kombination miteinander verwendet Was ist Skype - Eine Beschreibung Skype ist ein Tool, mit dem man über das Internet telefonieren kann (Internettelefonie). Um einen anderen Skype-Nutzer anzurufen, sind lediglich die Kosten für die Internetverbindung zu tragen. Auch der Anruf zu einem normalen Telefon ist problemlos möglich. Und die Kosten dafür sind bereits um einiges günstiger als die herkömmlicher Anbieter. In der Funktionsweise lehnt sich Skype grundsätzlich an ICQ an und ist daher sehr schnell zu erlernen. Die Mindestvoraussetzungen sind eine ausreichende Bandbreite (mind. 64Kbit) und ein Headset. Die Möglichkeit, neben dem Gespräch zusätzlich Daten und Text austauschen zu können, ist ein weiterer Vorteil. [Heinrich-Heine-Universität Düsseldorf 2005] Beyond Skype - die Zukunft Die Entwicklung von Instant Messaging Tools zu echten Messagingplattformen steht im Mittelpunkt von zukünftigen Plattformen. Skype beinhaltet bereits sehr viele Übertragungstechnologien wie Dateiübertragung, Chat, Sprachübertragung, Konferenzschaltung von Chat und Sprachübertragung, Videoübertragung, etc. in einem Tool, jedoch keine Funktionen, welche die übertragenen Informationen speichern, archivieren und ein organisieren ermöglichen. Damit können diese Informationen nicht Personen zur Verfügung gestellt werden, welche nicht zeitgleich am Informationsaustausch teilnehmen. Bis heute hat Skype einen ständigen Aufwärtstrend mitgemacht und ist damit eines der Internetunternehmen mit den höchsten Wachstumsraten im Geschäftsjahr 2004/2005. Die Dienste von Skype werden mittlerweile in 225 Ländern und Gebieten genutzt und die Zahl der Mitglieder wächst täglich an. Dabei hat Skype nicht nur Anteil an der Internettelephonie, sondern in nahezu allen Ländern, in denen Skype genutzt werden kann, hat sich Skype auch schnell zum Marktführer entwickelt. Skype ist damit auf dem besten Weg der führende Anbieter im Bereich der Internettelephonie und damit im Bereich Kommunikation über das Internet überhaupt zu werden. Dass sich diese Entwicklung noch beschleunigen wird, dazu könnte eine der neusten Entwicklungen bei Skype beitragen. Anfang September 2005 wurde Skype nämlich durch seine Investoren an das Unternehmen ebay verkauft, und zwar für einen Spitzenpreis von 2,6 Milliarden Dollar und zusätzlich leistungsbezogene Zuzahlungen von etwa 1,5 Milliarden Dollar, die bis 2009 fällig werden. Dieser Zusammenschluss von ebay und Skype wird für beide Unternehmen weitere Vorteile bringen, die vor allem auch zu einer weiteren Verbreitung von Skype führen können. Skype soll für ebay ein leistungsfähiges Kommunikationsumfeld bereitstellen, und das bedeutet natürlich, dass Skype auch in Ländern und Gebieten verbreitet wird, in denen es bisher noch nicht bekannt ist. Skype soll die Kommunikation bei ebay zwischen Käufern und Verkäufern vereinfachen und verbilligen und so für einen noch reibungsloseren Ablauf sorgen. Mit Skype kann der Handel bei ebay natürlich auch beschleunigt werden, denn einer weltweiten kostenlosen Kommunikation wird jetzt ja nichts mehr im Wege stehen.

66 66 KAPITEL 6. GROUPWARE COMPUTING Außerdem können ebay und Skype durch ihren Zusammenschluss neben den herkömmlichen Angeboten auch noch andere Geschäftsideen verwirklichen. Dies ist in jedem Fall so geplant. EBay soll zum Beispiel darüber nachdenken, ob es Sinn macht, Transaktionen in Zukunft vielleicht auf Pay-per-call-Basis über Skype abzurechnen. Der E-Commerce von ebay könnte also durch Skype revolutioniert werden. Daneben haben die Geschäftsführer von ebay und Skype natürlich noch viele andere Pläne, die beide Unternehmen in eine erfolgreiche Zukunft führen sollen. An der Führung von Skype wird sich durch die Übernahme durch ebay aber zunächst nichts ändern, denn sowohl Friis als auch Zennsröm bleiben auf ihren bisherigen Posten. Außerdem wurde bereits mehrfach versichert, dass die kostenlosen Basisangebote von Skype weiterhin beibehalten werden und im Gegenteil die kostenlosen Angebote eher erweitert als beschnitten werden sollen. Premiumdienste wie SkypeIn und SkypeOut werden zwar höchstwahrscheinlich nicht kostenlos werden, doch geplante Dienste wie zum Beispiel die Videotelephonie werden mit einem starken Partner wie ebay sowohl schneller als auch günstiger angeboten werden können. [VOIP Information 2007] In Zukunft wird Skype seine Funktionen wesentlich ausbauen. Einige Features, die Skype in Zukunft anbieten wird, sind immer geriner werdende Raten für Skype Gespräche zu einem Standardtelefon (Skype Out). Zudem ist der SMS Versand über Skype teilweise bereits günstiger als ein SMS mit einem Mobiltelefon zu verfassen, vor allem wenn das SMS ins Ausland gesand wird. Ein weiterer Punkt ist die Kooperation von Skype mit SMC zur Herstellung sogenannter WiFi Telefone. Ein WiFi Telefon sucht sich automatisch den nächstgelegenen HotSpot für WiFi (Wireless LAN), und man kann sofort telefonieren und Nachtrichten schreiben. Zukünftige Telefone sollen auch Videophonie unterstützen, und die Gespräche zu einem anderen Skype Account sind nach wie vor kostenlos. Man benötigt auch keinen zusätzlichen Account, sondern kann vom Skype WiFi Phone direkt seinen Skype Account benutzen und Kontaktlisten etc. werden automatisch synchronisiert. Diese WiFi Phones sind sicher ein grosser Punkt in der Zukunft von Skype, vor allem für Business User, die dadurch bald keinen herkömmlichen Festnetzanschluss mehr benötigen werden und meist über HotSpots bereits in den Firmen verfügen. Eine zusätzliche Zukunftsperspektive für Skype ist die umfangreiche API. Zur Zeit nutzen nur wenige 3rd Party Hersteller diese API, und es handelt sich hauptsächlich um Recording Produkte wie SkypeRecorder. Die API würde jedoch sehr viel mehr ermöglichen, so ist es zu erwarten, dass das junge, innovative Unternehmen hier das eine oder andere Geschäftsfeld entwickeln wird. Durch die hohe Verbreitung ist Skype reif, um entsprechende Tools an Skype anzubinden. Die innovative Collaborative Editing Lösung SubEtha Edit auf dem Apple Mac System ist nur eine Idee auf diesem Sektor. Die neue Call Routing API lässt es zudem zu, Skype in Lösungen wie Least Cost Router und Gesprächstransfersysteme zu integrieren und so Skype noch attraktiver für Firmenkunden zu machen. Mit Skype for Business bietet Skype selbst schon ein umfangreiches Paket für Firmenkunden an und tritt damit in direkte Konkurrenz zu herkömmlichen Telefoniediesntanbietern. Es ist zu erwarten das dieser lukrative Geschäftsbereich immer weiter ausgebaut wird.

67 6.3. DER MITBEWERB Der Mitbewerb Natürlich versuchen viele, an einem immer größer werdenden Markt mitzuverdienen mit mehr oder weniger großem Erfolg Jajah-Testbericht Dies ist auch am nachfolgenden Testbericht eines Konkurrenzprodukts am deutschen Markt namens Jajah klar erkennbar: Jajah lässt sich zunächst problemlos installieren, das Programm startet aber nicht, obwohl es im Task- Manager angezeigt wird. Auch ein Neustart hilft nicht weiter. Danach lässt sich das Problem aber eingrenzen: Schuld ist ein Programm namens BOINC-Manager, das sich nicht mit Jajah verträgt. Starteten wir jedoch zuerst Jajah und dann den BOINC-Manager, verabschiedet sich nach kurzer Zeit zuerst der Firefox und dann das gesamte System. Es war nicht festzustellen, ob das Problem bei Jajah oder bei BOINC lag, mit anderen Programmen hatte BOINC aber bislang keine Probleme. Also starteten wir Jajah ganz alleine mit Skype. Zunächst verlangt Jajah Zugriff auf Skype. Denn Jajah selbst beherrscht keine Skype-Funktionen, sondern wird nur über eine Schnittstelle angebunden, sodass Gespräche mit Skype via Jahja möglich sind. Auch ankommende Skype-Gespräche werden an Jajah umgeleitet. Benutzen lässt sich Jajah aber längst noch nicht. Denn aus unbekannten Gründen kann es sich nicht auf dem Server einloggen. Also sind keine Gespräche möglich, und auch an die Bedienoberfläche ist nicht heranzukommen. Nach einer halben Stunde kann sich Jajah dann schließlich doch einloggen. Wir legen einen neuen Benutzer an, eine Bestätigungsmail oder ähnliches bekommen wir nicht. Gespräche zu anderen Jajah-Nutzern kommen nur holprig zustande: Zunächst klingelt es beim Gegenüber nicht. Als das Gespräch dann endlich steht, ist die Sprachqualität zwar gut, jedoch ist das Gespräch selbst viel zu leise, was aber weder an der Hardware oder an der Systemeinstellung liegt. Das können die Konkurrenten Skype oder Google Talk deutlich besser. Jajah verspricht Neukunden fünf Minuten Gesprächsguthaben ins Festnetz kostenlos. Davon können wir leider nichts entdecken, der Shop verlangt eine Mindestaufladung von fünf Euro. Gespräche kamen trotz einer Aufladung nicht zustande, Jajah war nicht in der Lage, eine Verbindung herzustellen. Die Tarife sind ohnehin nicht gerade vom feinsten: 1,4 Cent pro Minute ins Deutsche Festnetz sind zwar gut, Gespräche aufs Handy kosten aber mindestens 23 Cent pro Minute, teilweise aber sogar 28 Cent und sind damit kaum konkurrenzfähig. Immerhin lassen sich SMS an Deutsche Handys verschicken. Dazu klickt man einfach die Handynummer eines Kontaktes an. Die Nachrichten kamen im Test auch sofort an. Mit zehn Cent pro SMS ist Jajah sogar einigermaßen günstig. Problemlos funktioniert allerdings das Telefonieren mit Skype-Nutzern. Sowohl ausgehende als auch ankommende Gespräche übernimmt Jajah. Hier ist auch die Sprachqualität in Ordnung, allerdings ist es auch keine Kunst, über die Schnittstelle an Skype anzudocken. Leider beherrscht Jajah auch nur die Gesprächsfunktion von Skype. Außerdem blockiert Jajah Skype völlig; es lässt sich nicht mehr bedienen. Dazu muss Jajah erst beendet werden.

68 68 KAPITEL 6. GROUPWARE COMPUTING Jajah wirbt damit, dass sich auch SIP-Nummern kostenlos anrufen lassen. Dazu müsse man nur die SIP-Adresse eingeben. Doch auch das funktioniert im Test nicht: Jajah zeigt zwar eine ausgehende Verbindung an, ein Gespräch kommt aber nicht zustande. Dies passierte sowohl an einer 1&1- als auch an einer Sipgate-SIP-Adresse. Auch mit einem Softphone war der Jajah-Account nicht ans laufen zu bekommen. Zunächst galt es, den SIP-Server von Jajah ausfindig zu machen. Die Adresse sip.jajah.com fand sich irgendwo versteckt zwischen den FAQ. Doch auch mit einem Softphone war nichts zu machen - es gab nicht einmal ein Freizeichen. Einige Tage später funktionieren vereinzelte Anrufe auf Telefonnummern und SIP- Adressen. Dabei ist die Sprachqualität in Ordnung, besonders am Anfang der Gespräche kommt es häufiger zu Unterbrechungen. Warum Gespräche manchmal zustande kommen und manchmal nicht, erschließt sich aber nicht. Die Situationen waren nicht reproduzierbar. Zwar befindet sich Jajah noch in der Beta-Phase, das rechtfertigt jedoch nicht, dass es so schlecht funktioniert. Skype-Funktionen beherrscht das Skype selbst am besten, und umsonst telefonieren kann man mit Skype auch besser. Alle anderen Funktionen von Jajah außer SMS und internen Gesprächen funktionieren nur schlecht - glatt durchgefallen. Jajah selbst sieht das freilich anders: begeisterte User und eine positive Mundpropaganda hält Roman Scharf von Jajah gegen die Kritik. Den langsamen Download erklärt er mit der starken Nachfrage an Jajah: Wir müssen die Kapazitäten erweitern. Den Konflikt mit BOINC findet Scharf nicht so schlimm: Es gebe nur zwei weitere Fälle von Software-Konflikten, was im Vergleich zu anderen Anwendungen absolut OK sei und kein Anlass, uns dahingehend Kopfzerbrechen zu bereiten. Zu den weiteren Problemen äußerte er sich nicht. Die Beta-Phase soll jedoch im Oktober beendet sein. Fazit: Von einer Installation der Beta-Version von Jajah können wir nur abraten. Jajah verspricht alles und kann fast nichts halten - hier ist der Frust vorprogrammiert. Jajah verspricht ein Testguthaben, das es nicht gibt, und selbst nach einer Aufladung mit fünf Euro kann man nicht direkt telefonieren. Dafür gibt es keine Entschuldigung, ein Dienst, der so schlecht funktioniert, hat nichts auf dem Markt verloren und sollte bestenfalls als Alpha-Version einem geschlossenen Test unterzogen werden. Dass Jajah dazu noch seine Vorzüge anpreist, macht keinen guten Eindruck. Im Oktober soll die Finalversion erscheinen - bis dahin sollte Jajah die gröbsten Schnitzer ausgemerzt haben. Von der aktuellen Beta-Version ist nur abzuraten. [Gurow 2005] Empfehlung einer Untersuchung Es wird empfohlem, im Internet nach möglichst vielen Diensten und Produkten rund um Skype zu recherchieren und mittels einer SWOT Analyse zu ermitteln, welches Potential und welche Märkte hinter diesen Diensten und Produkten stecken. 6.4 Fallstudien aus der Wissensmanagement-Praxis Instant Messaging, File Sharing und Videophonie unterstützt die Teamarbeit enorm. Dennoch gibt es im Software Universum noch unzählige weitere Geoupwarelösungen, die sich mit der Erleichterung der Teamarbeit befassen.

69 6.4. FALLSTUDIEN AUS DER WISSENSMANAGEMENT-PRAXIS 69 Um Struktur in gemeinsam genutzte Dokumente zu bringen, eigenet sich beispielsweise das PHP basierte MediaWiki. Abgesehen von Schwächen, die der eingebaute Dokumentenschutz offenbart schützenswerte Dateien sollten per.htaccess oder Webserver-Konfiguration geschützt werden, unterstützt MediaWiki einige nützliche Groupware-Features über den Webbrowser. Mittels Syntax Highlighting (mit spezieller Wiki- Syntax) werden Formatierungsanweisungen in Texten eingepflegt (optional auch mit FCKEditor-Plug-In, das auch ohne Wiki-Syntax arbeitet). Um die Arbeit an Dokumenten zu vereinfachen, wird an einer vielversprechenden WYSIWYG Lösung namens Wikiwyg gearbeitet. Auch Bilder und andere Medien können neben Texten ins MediaWiki eingebunden werden. Mittels so genannter Medialinks wird darauf referenziert. Gemeinsames Arbeiten an Dokumenten ist das Hauptanliegen von MediaWiki. Werden Texte betrachtet, an denen Änderungen von anderen Personen duchgeführt wurden, werden diese Veränderungen markiert und die Änderungen können eingepflegt werden, unter gewissen Voraussetzungen können diese Änderungen auch automatisiert durchgeführt werden. Auch die druckbare Ausgabe einzelner Dokumente (oder Kapitel) in ein einziges zusammenhängendes Dokument ist mittels so genannter Transklusionen möglich. Die Reihenfolge der einzelnen Kapitel bleibt dabei dem Ersteller des Gesamtdokumentes vorbehalten und kann beliebig verändert werden. Mittel CSS und diverser Plug-Ins wird aus dem Gesamtdokument ein druckbares designtes PDF. Weitere Lösungen in diesem Bereich stellen die Programme Jotspot, Confluence oder Moin Moin dar. Muss die Arbeit an gemeinsamen Dokumenten nicht unbedingt synchron erfolgen, eignen sich schlicht und ergreifend auch die herkömmlichen Office Lösungen (OpenOffice, Microsoft Office), die gemeinsames Arbeiten an Dokumenten unterstützen. Chaos bricht allerdings bei dem Versuch aus, mehrere lokal bearbeitete Kopien zu einem Gesamtdokument zusammenzuführen. In diesem Fall werden Mehrbenutzer Editoren empfohlen, die gezielt den gleichzeitigen Schreibzugriff auf eine gemeinsam bearbeitete Datei ermöglichen. Ein Beispiel hierfür wäre das Programm Moon Edit (kostenlos für private Nutzer, Windows und Linux). Jedes Teammitglied instaliert den Client lokal auf dem eigenen Rechner. Das gemeinsam genutzte Dokumentenverzeichnis auf einem Server beinhält den Serverteil der Software (meserver). Jeder Mitarbeiter erhält zum Bearbeiten eine eigene Hintergrundfarbe, um Änderungen rasch optisch erfassen zu können. Auch eine Versionierung der bearbeiteten Dateien wird von Moon Edit unterstützt. Ein Schwachpunkt ist die unverschlüsselte Datenübertragung mittels eines proprietären Protokolls. Daher ist Moon Edit zur Bearbeitung sensibler Inhalte nicht geeignet. Der kostenlose Gruppeneditor SubEthaEdit (ausschließlich für Mac) verwendet Apples Bonjour Protokoll und unterstützt externe Instant Messaging Tools, sowie den Apple Messanger Client ichat. Wie bei Moon Edit sind auch hier den verschiedenen Teammitgliedern verschiedene Hintergrundfarben zugeordnet, um das synchrone Arbeiten an Dokumenten (oder Quelcode) zu erleichtern. Mittels Administratorfunktion können den einzelnen Teammitgliedern auch verschiedene Zugriffsrechte auf die zu bearbeitenden Dateien eingeräumt werden. Der Editor beherrscht darüber hinaus auch noch Syntax Highlighting für diverse Formate (zb LaTex, diverse Programmiersprachen).

70 70 KAPITEL 6. GROUPWARE COMPUTING Auch im Web 2.0 wird an Groupwarelösungen zum synchronen Arbeiten an gemeinsamen Dokumenten gearbeitet. Erwähnenswert hierbei sind der Zoho Writer [ZOHO 2007] oder Googles Docs and Spreadsheets [Google 2007]. Kleine Arbeitsgruppen mit geschulter Kommunikationskultur profitieren von den genannten Mehrbenutzer Editoren in Zusammenarbeit mit regelmäßigen Backups und Versionierungsservern. Speziell spontane Zusammenarbeit wird hierbei gefördert. Wer allerdings längerfristige Projekte mit Groupwarelösungen bewältigen möchte und seine Daten ungern fremden Servern überlassen möchte, ist mit SubEthaEdit oder MoonEdit und MediaWiki bestens beraten. [König 2006] 6.5 Schlußfolgerungen für das Wissensmanagement Skype-User gibt es mittlerweile überall doch überraschenderweise führen nicht etwa die Vereinigten Staaten die Userstatistiken an, wie man vielleicht vermuten mag. Auf Platz 1 findet man Brasilien mit Usern sehr dicht gefolgt von China mit ebenfalls über Skypern. Die Vereinigten Staaten belegen mit über Usern den 3. Rang. Einer informierten Quelle zufolge, hat ebay Skype für 2,6 Milliarden US-Dollar gekauft. Zunächst sollen 1,3 Milliarden in Bar gezahlt werden und weitere 1,3 Milliarden US-Dollar sollen in Form von Aktien folgen. Im Jahr 2008 könnte es dann eine weitere Zahlung von 1,5 Milliarden Dollar geben, so dass das Geschäft einen Gesamtwert von 4,1 Milliarden US-Dollar haben könnte. EBay will den von Skype betriebenen Dienst in seinen Marktplatz integrieren, um so die Kommunikation zwischen Käufer und Verkäufer zu verbessern. Durch die Übernahme erhofft sich ebay ausserdem Wachstumsimpulse für seine verschiedenen Web-Dienste. [MeinSkype 2007] Damit ist klar, dass Skype kaum noch aufzuhalten ist, und es stellt sich die Vermutung, dass Beyond Skype wohl noch mehr Skype ist. Natürlich wird hier der Markt an Drittanbietern gewaltig wachsen und es werden viele neue Dienste rund um Skype entstehen. Es ist zudem zu erwarten, dass Skype auch in Europa und Längern, die in der Nutzungsstatistik noch hinten liegen, noch ein enormes Wachtumspotential hat und hier durch das hohe Innovationspotential dieser Länder die Dienste erst so richtig ins Rollen kommen werden. Man darf aber die Konkurrenz von Skype nicht unterschätzen. Obwohl diese meist durch ein schlechtes Userinterface und weniger Features weit hinter Skype angesiedelt werden, bieten diese teilweise Lockangebote wie gratis Anrufe in das Festnetz vieler Länder (VoIP Buster etc.), und man sollte solche Dienste in der Geiz ist Geil Gesellschaft nicht unterschätzen. Jedoch ist Skype to Skype ebenfalls gratis und damit nur mehr eine Frage der Zeit, bis diese Angebote wieder uninteressant werden. 6.6 Zusammenfassung Man kann also zusammenfassend sagen, dass Skype eindeutig auf der Gewinnerstrasse ist und kein Weg mehr an Skype vorbeiführt. Es stellt sich nun die Frage, ob Skype dadurch ein Monopol geschaffen hat. Nach Einschätzung der Autoren dieses Papers ist dies vorerst der Fall. Man darf allerdings die Dynamik

71 6.6. ZUSAMMENFASSUNG 71 des Internet nicht unterschätzen, so wurde eine solche Zukunft auch schon ICQ prognostiziert, dennoch sind die ICQ-Nutzerzahlen derzeit stetig abnehmend zugunsten von Skype. Solch eine schleichende Migration zur nächsten Killerapplikation könnte also auch noch Skype bevorstehen.

72 72 KAPITEL 6. GROUPWARE COMPUTING

73 Literaturverzeichnis [Gurow 2005] Gurow, L.: Gut gemeint, schlecht gemacht: Jajah, die Skype-Konkurrenz, Netzwelt, gut-gemeint-schlecht-gemacht-jajah. html ( ) [Google 2007] Google: Docs & Spreadsheets, ( ) [Kelly 2005] Kelly B.: The Role Of Skype And VoIP Technologies, University of Bath Bath, swmlac /skype/ppt2000-html/intro files/v3 document.html ( ) [MeinSkype 2007] MeinSkype: Web Site, ( ) [Schlichter 2002] Schlichter J.: Computergestützte Gruppenarbeit, Kursunterlagen, TU München, html/whiteboard/cscw course.html ( ) [Heinrich-Heine-Universität Düsseldorf 2005] Heinrich-Heine-Universität Düsseldorf: Internetkommunikation- & kooperation (Groupware), Online Artikel, ( ) [König 2006] König, P.: Teamwork im Netz, in Zeitschrift: c t, 20, pp , [NewsGuide 2007] NewsGuide: Telecommunications, diverse Online Artikel, ( ) [SkypeJournal 2007] SkypeJournal: Web Site, ( ) [Usability First 2002] Usability First: Groupware, Online Artikel, ( ) [VOIP Information 2007] VOIP Information: Die Geschichte von Skype und dessen Zukunft, ( ) 73

74 74 LITERATURVERZEICHNIS [VoIP Watch 2006] VoIP Watch: It s Not About Selling In..., Blog-Eintrag, not about s. html ( ) [Wikipedia 2007a] Wikipedia: Instant Messaging, messaging ( ) [Wikipedia 2007b] Wikipedia: Instant Messaging, messaging ( ) [Wikipedia 2007c] Wikipedia: Extensible Messaging and Presence Protocol, Messaging and Presence Protocol ( ) [ZOHO 2007] Zoho: Online Word Processor: Write, Share, Collaborate, ( )

75 Kapitel 7 Workflow Management Prozessverbesserungen mittels Workflow Management Ernst Leitner CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Markus Hofer CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Rene Kraus CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Marco Trinkl CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 7.1 Motivation Aufgrund immer kürzerer Produkt- und Innovationszyklen müssen Unternehmen am Markt effektiver und flexibler reagieren. Diese erfordert eine gute Strukturierung der Geschäftsprozesse in den Unternehmen, damit sie auch ohne großen personellen Aufwand angepasst werden können. Die Einführung eines Workflow- Management-Systems (WfMS) kann diese Anforderungen auf der Basis von projektnotwendigen Vorarbeiten, die vor dessen Realisierung durchgeführt werden müssen, positiv unterstützen. [Müller 2004] Anfangs werden die wichtigsten Begriffe erläutert, die für das Verständnis dieses Papers notwendig sind. Der anschließende Abschnitt erarbeitet die Komponenten und Ziele eines Workflow-Management-Systems und behandelt auch den Nutzen von Workflow Management für das Wissensmanagement. Anhand eines konkreten Praxis-Beispiels für Offene Punkte in einem Projekt wird das bisher theoretisch Behandelte von der Beschreibung über den Aufbau bis zur Analyse angewandt. 75

76 76 KAPITEL 7. WORKFLOW MANAGEMENT 7.2 Begriffsdefinitionen Bevor nun Grundlagen des Workflow Management untersucht werden, müssen zunächst noch die Begriffe Aktivität, Prozess, Geschäftsprozessmanagement, Workflow und Workflow Management bzw Workflow Pattern definiert werden Aktivität Eine Aktivität stellt die kleinste Einheit dar, die von einem Workflowmanagementsystem gesteuert werden kann. Sie ist ein Stück zusammenhängender Arbeit, das immer genau einer menschlichen oder maschinellen Ressource zugeordnet ist. Das Glossar der Workflow Management Coalition unterscheidet zwischen einer automatisierten Aktivität, die durch ein Workflowmanagementsystem steuerbar ist, und einer manuellen, nicht steuerbaren Aktivität. Manuelle Aktivitäten sind für die weiteren Betrachtungen nicht relevant. Deshalb werden automatisierte Aktivitäten einfach als Aktivitäten bezeichnet. [Haase 2003] Prozess Ein Prozess ist eine Folge von logisch zusammenhängenden Aktivitäten zur Erstellung einer Leistung bzw. Veränderung eines Objekts. [Schulte-Zurhausen 1999] Geschäftsprozessmanagement Unter Geschäftsprozessmanagement wird ein integriertes Konzept von Führung, Organisation und Controlling verstanden, das eine zielgerichtete Steuerung der Geschäftsprozesse ermöglicht und das gesamte Unternehmen auf die Erfüllung der Bedürfnisse der Kunden und anderer Interessengruppen (Mitarbeiter, Kapitalgeber, Eigentümer, Lieferanten, Partner, Gesellschaft) ausrichtet. Außerdem trägt es wesentlich dazu bei, die strategischen und operativen Ziele des Unternehmens zu erreichen. Zielsetzung des Geschäftsprozessmanagements ist es, die Effektivität und Effizienz des Unternehmens zu erhöhen und damit den Wert des Unternehmens zu steigern. [Schmelzer & Sesselmann 2004] Workflow Ein Workflow bezeichnet eine Abfolge von Aktivitäten, welche zur Erledigung eines Geschäftsprozesses notwendig sind. Er ist eine ausführbare Beschreibung eines Geschäftsprozesses und wird durch einen Auslöser (Trigger) initiiert. Aktivitäten sind miteinander verbunden und werden von Aufgabenträgern (Sachbearbeitern, Arbeitsgruppen, Applikationen oder Transaktionen) nach festen Regeln ausgeführt. Sie sind in sich geschlossene Verrichtungseinheiten in einem Workflow-Ablauf und setzen sich aus einzelnen Arbeitsschritten zusammen. Arbeitsschritte werden entweder IT-unterstützt oder manuell ausgeführt. [Jablonski 1995]

77 7.3. GRUNDLAGEN Workflow Management Workflow Management umfasst die Modellierung, die Simulation sowie die Ausführung und Steuerung (in zeitlicher und örtlicher Hinsicht) von Geschäftsprozessen unter Bereitstellung der jeweils benötigten Informationen und Werkzeuge. [Teufel 1996] Workflow Pattern For our purpose, patterns address business requirements in an imperative workflow style expression, but are removed from specic workflow languages. Thus they do not claim to be the only way of addressing the business requirements. Nor are they alienated from the workflow approach, thus allowing a potential mapping to be positioned closely to different languages and implementation solutions. [van der Aalst et al. 2003] Workflow Patterns beziehen sich auf Geschäftsanforderungen in einem zwingenden Workflowausdruck, sind aber unabhängig von konkreten Workflowsprachen. Weder sind sie die einzige Möglichkeit Geschäftsanforderungen abzubilden, noch sind sie vom Workflow-Ansatz getrennt. Dadurch erlauben sie Zuordnungsmöglichkeiten, die nahe an unterschiedlichen Sprachen und Implementierungslösungen positioniert werden können. 7.3 Grundlagen Ein Workflow-Management-System (auch Workflow-System) dient der computergestützten Abbildung von Arbeitsschritten zwischen Mitarbeitern, Abteilungen und Hierarchien. Komplexe Vorgänge werden in atomare Teilschritte zerlegt und optimiert. Das Ergebnis ist eine auf elektronischem Wege geordnete Ablaufabarbeitung. Die Fehlerquote wird durch diese technische Unterstützung verringert, und die einzelnen Prozessschritte können für alle beteiligten Personen transparent nachvollzogen werden. Ziel des Workflow-Management-System ist der automatisierte, durchgängige Informationsfluss von Prozessen. Durch die Weiterleitung der erforderlichen Informationen an alle betroffenen Personen wird die Durchlaufzeit zwischen den einzelnen Schritten eines Vorgangs verringert. Insgesamt werden durch den Einsatz eines Workflow-Management-Systems Kosten für das Unternehmen gespart und die Wettbewerbsfähigkeit gesteigert. [van der Aalst et al. 2003] Die sich gegenseitig beeinflussenden Kriterien Mensch, Technik und Organisation können in der folgenden Tabelle unterteilt werden (siehe Abbildung 7.1) Basiskomponenten eines Workflowmanagementsystems Laut der Workflow Management Coalition (WfMC) besteht ein WFMS aus folgenden Basiskomponenten (siehe auch Abbildung 7.2): 1. Laufzeitumgebung (Workflow Enactment Service)

78 78 KAPITEL 7. WORKFLOW MANAGEMENT Abbildung 7.1: Zielsetzungen von WfMS 2. Prozessmodellierung (Process Definition Tools) 3. Workflow Client Anwendung (Workflow Client Application) 4. Aufgerufene Anwendungen (Invoked Applikations) 5. Weitere Laufzeitumgebungen (Other Enactment Services) 6. Administrations- und Monitoring- Tools Abbildung 7.2: Basiskomponenten eines Workflowmanagementsystems [Hollingsworth 1995]

79 7.3. GRUNDLAGEN Workflowlaufzeitsystem (Workflow Enactment Service) Das Workflowlaufzeitsystem ist die zentrale Komponente eines Workflowmanagementsystems mit Schnittstellen zu allen anderen Komponenten. Es stellt die Laufzeitumgebung für die Ausführung der Workflows zur Verfügung. Dazu besteht es aus einer oder mehreren Workflow Engines, die auf mehreren Rechnern verteilt sein können. Eine Workflow Engine übernimmt die Ausführung von Workflowinstanzen, d.h. sie erstellt neue Instanzen, steuert sie und zerstört sie schließlich auch wieder. Diese Aufgaben werden durch Interpretation der Workflowdefinition ausgeführt. [Haase 2003] Modellierungswerkzeuge (Process Definition Tools) Mit Hilfe der Modellierungswerkzeuge erstellt der Workflowmodellierer die Workflowdefinitionen, die zur Laufzeit von dem Workflowlaufzeitsystem interpretiert werden können. In der Regel kann der Workflowmodellierer durch eine einfache intuitive graphische Repräsentation (z.b. Ereignisgesteuerte Prozessketten, Petrinetze, Activity-State-Charts) die Workflowdefinitionen erstellen. Diese werden dann vom Modellierungswerkzeug in eine textliche Repräsentation in einer formalen Sprache umgewandelt, anhand derer das Workflowlaufzeitsystem die Workflows ausführt. Deshalb muss die formale Sprache zwischen dem Modellierungswerkzeug und dem Workflowlaufzeitsystem abgestimmt sein. [Haase 2003] Häufig liegen bereits mit der Geschäftsprozessmodellierung Modelle der Geschäftsprozesse vor, die durch Verfeinerung automatisierbar gemacht werden können. Deshalb ist eine Integration der Werkzeuge zur Geschäftsprozessmodellierung in das Workflowmanagementsystem sinnvoll. Diese Integration sollte zumindest den Import von Geschäftsprozessmodellen ermöglichen. Eventuell kann sogar auf ein eigenständiges Modellierungswerkzeug komplett verzichtet Workflowclientanwendungen (Workflow Client Applications) Die Workflowclientanwendungen ermöglichen die Interaktion des Anwenders mit dem Workflowmanagementsystem. Der Anwender kann über die Workflowclientanwendungen die Ausführung eines Workflows starten. Des Weiteren stellen die Workflowclientanwendungen dem Workflowteilnehmer seine Arbeitsliste zur Verfügung. Er kann aus der Arbeitsliste ein Arbeitselement zur Ausführung aktivieren. Diese Funktionalität wird als Worklist Handler bezeichnet. [Haase 2003] Aufrufbare Anwendungen (Invoked Applications) Diese Anwendungen werden von dem Workflowlaufzeitsystem aufgerufen, um eine Aktivität auszuführen. Wenn eine aufrufbare Anwendung eine Benutzereingabe erfordert, sollte sie nicht unmittelbar aufgerufen werden. Sie sollte vielmehr über die Workflowclientanwendungen dem Anwender angezeigt und erst nach Aktivierung durch den Anwender gestartet werden. Der Aufruf von aufrufbaren Anwendungen kann über verschiedene Techniken realisiert werden.

80 80 KAPITEL 7. WORKFLOW MANAGEMENT So können beispielsweise Anwendungsagenten erstellt werden, die dem Workflowlaufzeitsystem eine einheitliche Schnittstelle zum Aufruf der Anwendungen bieten. Oder die aufrufbaren Anwendungen stellen selbst eine standardisierte Schnittstelle zur Verfügung, die das Workflowlaufzeitsystem direkt ansteuern kann. Die Schnittstelle kann eine allgemein spezifizierte API sein, wie sie beispielsweise in Microsofts Komponentenmodel COM zu finden ist. Es kann aber auch eine eigens spezifizierte Schnittstelle verwendet werden, die zwischen dem Workflowmanagementsystem und den aufrufbaren Anwendungen vereinbart wird. Wenn die aufrufbaren Anwendungen auf entfernten Systemen laufen, sind Mechanismen für entfernte Prozeduraufrufe erforderlich. [Haase 2003] Weitere Laufzeitumgebungen (Other Enactment Services) Mit der Schnittstelle zu weiteren Laufzeitumgebungen ist die Möglichkeit gegeben, Arbeitsprozesse oder Teile davon an ein zu einer anderen Domäne gehöriges System weiterzugeben. Damit wird eine Workflow Interoperatibilität ermöglicht. [van der Aalst et al. 2003] geht davon aus, dass in Zukunft immer mehr Workflow Systeme verknüpft sein werden. Seien das Workflow Systeme von anderen Abteilungen einer Firma oder solche von anderen Unternehmen. [Haase 2003] Administrations- und Überwachungswerkzeuge (Administration und Monitoring Tools) Mit Hilfe der Administrationswerkzeuge werden Benutzer und Benutzergruppen verwaltet. Den Benutzern können Rollen zugeordnet werden, die es ihnen ermöglicht bestimmte Aktivitäten auszuführen. Über Supervisorfunktionen kann ein Eingriff in die Workflowausführung erfolgen. D.h. der Administrator sollte z.b. den Status eines Workflows verändern oder Workflows vorzeitig beenden können. Mit Hilfe der Überwachungswerkzeuge kann der Verlauf der Ausführung der Workflows eingesehen werden. So kann jederzeit der Status der laufenden Workflows ermittelt werden. Sinnvoll wäre auch die Möglichkeit der Erstellung von Statistiken, wie z.b. an welchen Stellen die Ausführung des Workflows sich verzögert oder wie hoch die Auslastung der einzelnen Mitarbeiter ist. Hierbei sind aber der Datenschutz und die Persönlichkeitsrechte der Mitarbeiter zu wahren. [Haase 2003] Der Nutzen von Workflow Management für Wissensmanagement Für einen Prozessorientierten Ansatz ergeben sich laut Remus und Lehner folgende Vorteile: [Remus & Lehner 1999] Orientierung an der Wertschöpfungskette: Durch die Prozessorientierung kann insbesondere die geeignete Wissensbereitstellung für die Bearbeitung wertschöpfender und damit besonders unternehmensrelevanter Aktivitäten unterstützt werden. Die Prozesssicht dient damit als integrativer Faktor, um vorhandenes Wissen mit wertschöpfenden Aktivitäten zu verknüpfen.

81 7.4. BESCHREIBUNG PROZESS DIENSTREISEANTRAG 81 Kontextbereitstellung: Prozesse bieten einen Teil des Kontexts, der für das Verständnis und die Internalisierung von Wissen notwendig ist. Der Kontext kann in Bezug auf die Prozessmodelle unterschiedlich weit gefasst sein: Bestimmtes Wissen bezieht sich auf eine einzelne Aktivität, andere Wissensbestände beziehen sich auf den gesamten Prozess oder auf eine einzelne Rolle, etc. Methodische Unterstützung der Durchführung von Wissensprozessen: Im Bereich des Prozessmanagements existieren etablierte Methoden zur Modellierung, Auswertung und rechnergestützten Durchführung von Prozessen. Die Anwendung dieser Methoden auf das Wissensmanagement kann z.b. durch die Etablierung organisatorischer Rollen wie Prozessverantwortlicher, durch die Nutzung von Modellierungsansätzen oder durch die Verwendung von Methoden zur Ermittlung von Kosten und Nutzen erfolgen. Prozesse als Grundlage der Navigation: Für das Design eines Wissensmanagementsystems bieten Prozesse eine für den Benutzer verständliche Möglichkeit zur Navigation in den verwalteten Wissensbeständen. Wie die hier erarbeiteten theoretischen Aspekte des Workflow Managements und dessen Vorteile in der Praxis aussehen könne, zeigt der nun folgende Abschnitt dieses Papers. 7.4 Beschreibung Prozess Dienstreiseantrag In diesem Abschnitt wird der Prozess Reiseantrag der in jeder Unternehmung zur Anwendung kommt detailliert beschrieben, auf Ineffizienz hin untersucht und gegebenenfalls verbessert. Wie schon im Unterabschnitt über Geschäftsprozessmanagement beschrieben müssen Prozesse so gestaltet werden, dass diese Effektive und Effizienz sind um so in der Unternehmung kosten zu sparen. Dieser Praxisteil beschäftigt sich mit der Analyse von Prozessen die auch in Workflowsystemen zur Anwendung kommen um Prozesse zu optimieren. In jeder Unternehmung werden Dienstreisen unternommen. Um diese Dienstreisen auch verrechnen zu können, müssen Dienstreiseanträge von den Mitarbeitern gestellt werden. Diese Dienstreiseanträge müssen dann von einem Vorgesetzten genehmigt werden. Genau dieser Prozess der Antragstellung und der Genehmigung wird im Abbildung 7.3 dargestellt Aufbau des Prozesses Dienstreiseantrag Im ersten Prozessschritt wird vom Reiseantragsteller eine Dienstreiseantragsformular aus einer Vorlage ausgedruckt. Diese Vorlage wird dann händisch mit den wichtigsten Daten ausgefühlt (Reiseziel, Datum, Name Antragsteller, usw.). Nach dem der Antrag fertig ausgefühlt ist wird dieser vom Antragsteller unterschrieben und per Hauspost (die einmal am ende des Tages kommt) an den Vorgesetzen gesandt. Der Vorgesetzte bekommt den Antrag per Hauspost am nächsten Tag zu und prüft diesen auf Richtigkeit. Wird der Antrag positiv bewertet oder müssen noch Änderungen vorgenommen werden kommt dieser per Hauspost wieder

82 82 KAPITEL 7. WORKFLOW MANAGEMENT Abbildung 7.3: Ursprünglicher Prozess Reiseantrag retour an den Antragstellter. Bei negativem Bescheid muss der Vorgesetzten die Gründe für die Ablehnung schriftlich Begründen und diese Begründen per Hauspost an den Antragsteller zurück senden Analyse des Prozesses Dienstreiseantrag Zu Beginn dieses Abschnitts wurde der Ablauf des Prozesses Dienstreiseantrag genau beschrieben. Bei einer genaueren Betrachtung ist aber zu erkennen das dieser Prozess sehr ineffizient ist und der Prozess überarbeit werden muss. Die Bearbeitung kann durch die Hauspost mehrer Tage in Anspruch nehmen. Folgende Probleme und Lösungsvorschläge können dabei manifestiert werden: Reiseantrag schreiben: Der Antragsteller muss einen Reiseantrag ausdrucken und diesen händisch ausfühlen. Diese Ausdrucken bzw. das händische Ausfühlen beansprucht sehr viel Zeit und verursacht dadurch Kosten. Bei einer Prozessverbesserung muss dieser Schritt ersetzt bzw. geändert werden. Mögliche Lösungen dafür wären den Antrag direkt am Computer auszufühlen und nicht mehr auszudrucken. Reiseantrag an Vorgesetzteten: Der Reiseantrag wird per Hauspost vom Antragsteller an den Vorgesetzten und wieder zurück an den Antragsteller übermittelt. Diese Übermittlung per Hauspost beansprucht mindestens einen Arbeitstag was die Durchlaufzeit unnötig in die Länge zieht und dadurch die Prozesskosten erhöht. Ziel muss es daher sein die Übermittlung des Antrages effizienter zu gestallten um so die Durchlaufzeit zu reduzieren. Als Lösungsansatz könnte eine Übermittlung au elektronischen Wege dienen ( , Intranet, usw.). Die Übermittlung auf elektronischem Wege ist sehr

83 7.4. BESCHREIBUNG PROZESS DIENSTREISEANTRAG 83 effizient und kann so die Durchlaufzeit reduzieren. Der Vorgesetzte könnte so innerhalb von Minuten den Antrag in Händen halten und der Antragsteller bekämme so schneller eine Antwort. Reiseantrag Bewertung: Wenn der Vorgesetzte den Reiseantrag endlich mit der Hauspost bekommen hat muss er nun entscheiden ob alles korrekt ausgefühlt ist, ob Änderungen notwendig sind und ob er diesen Antrag zustimmt. Bei Ablehnung des Dienstreiseantrages muss er händisch eine schriftliche Begründing abgeben. Diese Bewerten und durchsehen ob alles richtig ausgefühlt ist beansprucht eine Menge an Zeit was wiederum die Durchlaufzeit erhöht und Kosten verursacht. Würde der Reiseantrag so gestaltet des der Antragsteller Datenfelder gar nicht vergessen kann auszufühlen wäre dies eine mögliche Lösung dieses Problems. Weiters könnte der Antrag so gestaltet werden, dass der Vorgesetzte seine Ablehnenten Begründung per Pop-down Menü auswählt, könnte wiederum Zeit eingespart werden. Im verbesserten Prozess in Abbildung 7.4 ist zu sehen, dass der Antragsteller den Dienstreiseantrag nur mehr am Computer ausfühlt. Dabei kann er keinen Fehleingaben machen da die Eingaben auf Korrektheit überprüft werden. Weites vermindert sich die Durchlaufzeit des Prozess da die Anträge per übermittelt werden und die langsame Hauspost somit wegfällt. Auch der Vorgesetzte erspart sich Zeit für seine Begründungen da er nun vordefinierte Begründunge verwenden kann. Der neue Prozess kann so innerhalb von Minuten abgewickelt werden und erspart eine Menge an Zeit und vor allem an Kosten. Abbildung 7.4: Verbesserterer Prozess Reiseantrag

84 84 KAPITEL 7. WORKFLOW MANAGEMENT 7.5 Fazit Neugestaltung von Prozessen kann die Wettbewerbsfähigkeit einer Unternehmung steigern, Personalkosten einsparen und die Durchlaufzeit von Prozessen minimieren. Wie bei den Vorgestellten Prozess zu schön zu sehen ist kann der Prozess von einer Prozessdauer von mehreren Tagen auf Minuten gekürzt werden indem man neue Medien einsetzt und die Prozesse ständig im Auge behält.

85 Literaturverzeichnis [Haase 2003] Haase, C.: Konzeption und Realisierung einer verteilten Workflow-Steuerung für mobile Endgeräte, Diplomarbeit, Universität Dortmund, F diplomarbeiten/da-haase-pdf.pdf ( ) [Hollingsworth 1995] Hollingsworth, D.C.: Workflow Management Coalition: The Workflow Reference Model, The Workflow Management Coalition, ( ) [Jablonski 1995] Jablonski, S.: Workflow-Management-Systeme: Motivation, Modellierung, Architektur, Thomson, [Müller 2004] Müller, J.: Workflow-based Integration: Grundlagen, Technologien, Management, Springer, [Remus & Lehner 1999] Remus, U.; Lehner, F.: The Role of Process-oriented Enterprise Modeling in Designing Process-oriented Knowledge Management Systems, Springer, [Schmelzer & Sesselmann 2004] Schmelzer, H.J.; Sesselmann, W.: Geschäftsprozessmanagement in der Praxis, Hanser, [Schulte-Zurhausen 1999] Schulte-Zurhausen, M.: Organisation, 2. Auflage, Vahlen, [Teufel 1996] Teufel, S.: Computerunterstütze Gruppenarbeit - eine Einführung, [van der Aalst et al. 2003] van der Aalst, W.M.P.; ter Hofstede, A.H.M.; Kiepuszewski, B.; Barros, A.P.: Workflow Patterns, in: Distributed and Parallel Databases, 14 (1), pp. 5 51, ( ) 85

86 86 LITERATURVERZEICHNIS

87 Kapitel 8 Learning Management Der Einfluss von e-assessment auf das Wissensmanagement Patrick Hoitsch CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Gernot Faschinger CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Andreas Kurz CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Michael Salzger CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 8.1 Motivation Laut [Maier-Häfele & Häfele 2005, S. 68f] verfügen die meisten Learning Management Systeme (LMS) über Funktionen, um Werkzeuge für das Skill- und Kompetenz-Management abzubilden. Kompetenzen spielen im Bereich von Wissensmanagement eine ganz entscheidende Rolle, wie die Wissenstreppe nach [North 1999, S. 41] zeigt. Funktioniert die Verwaltung und das Steuern (Managen) von Wissen, so führt dies zu Kompetenz. Mögliche Werkzeuge zum Messen von Wissen und Kompetenzen sind elektronische Tests, so genannte e-assessments. Unter diesen Gesichtspunkten, sowie unter dem Aspekt, dass die Bedeutung von Wissensmanagement zukünftig immer weiter zunehmen wird [Tergan & Zentel 2003, S. 11], soll untersucht werden, welchen Einfluss e-assessments als Teilkomponenten eines LMS auf das Wissensmanagement eines Unternehmens bzw. einer Bildungseinrichtung haben. Weiters ist zu klären, inwieweit e-assessments eine Möglichkeit darstellen Wissen zu entwickeln, selbst zu erwerben, zu verbreiten und somit einen Kompetenzaufbau zu 87

88 88 KAPITEL 8. LEARNING MANAGEMENT erzielen. Zu diesem Zwecke wurden Experteninterviews und eine Studierendenbefragung durchgeführt, dessen Ergebnisse im praktischen Teil dieses Papers zu finden sind. 8.2 Definitionen und Grundlagen Die Kernprozesse des Wissensmanagements sind laut Probst, Raub und Romhardt [Probst et al. 1999]: Wissensidentifikation(-transparenz), Wissenserwerb, Wissensentwicklung, Wissensverteilung, Wissensnutzung und Wissensbewahrung. Diese sechs Prozesse stellen das Beobachtungsergebnis von Problemstellungen großer Unternehmen und deren Kategorisierungen dar. Die beiden weiteren Bausteine Wissensbewertung und Wissensziele fungieren als Steuer- und Regelinstrumente. Abbildung 8.1: Bausteine des Wissensmanagements nach [Probst et al. 1999, S. 58] E-Assessments spielen in diesem Gesamtkreislauf eine ganz zentrale Rolle. Vor allem die Prozesse Wissenserwerb, -entwicklung, -verteilung, -nutzung, -bewertung und die daraus resultierenden Wissensziele bieten entscheidende Anknüpfungspunkte Was ist ein e-assessment? Unter einem Assessment versteht man ein Beurteilungsverfahren, um die Fähigkeiten, Fertigkeiten und das Wissen von Lernenden systematisch zu bewerten [Maier-Häfele & Häfele 2005, S. 312]. Dabei steht die Vorsilbe e für elektronisch und internetgestützt. Die Basis dieser Tests stellen einzelne Fragen unterschiedlichen Typs dar. [Issing & Klisma 2002, S. 206ff] unterscheidet drei Hauptgruppen: Geschlossene Fragetypen: Auswahlaufgaben, Zuordnungen, Reihenfolgen Offene Fragetypen: Eingabe eines Wortes, einer Zahl, eines Satzes

89 8.2. DEFINITIONEN UND GRUNDLAGEN 89 Direkt manipulative Fragetypen: Drag&Drop Eine Verbesserung der Gesamtqualität kann durch eine Vielzahl an Testfunktionen sowie eine detaillierte Feedbackgestaltung bei den einzelnen Fragen erreicht werden. Beispiele für Testfunktionen sind: Zeitlimit für das Absolvieren des Tests Begrenzte Anzahl an Testversuchen Fragenpools aus denen eine beliebige Anzahl an Fragen gewählt wird Fragen mit bzw. ohne Feedback. an die Lernenden Leider wird meist auf Grund eines höheren Implementierungsaufwandes von diesen Möglichkeiten wenig Gebrauch gemacht [Issing & Klisma 2002, S. 207]. Die Einsatzszenarien von e-assessments sind vielseitig: Pre-Assessment, um das Vorwissen von Lernenden zu überprüfen und einen einheitlichen Wissensstand zu erreichen Übungstests bzw. Self checking excercises, zur Selbstüberprüfung und Selbsteinschätzung der Lernenden Tests in Form von Klausuren, die in die Benotung von Lerninhalten einfließen Peer Assessments, in denen die einzelnen Lernenden Mitglieder ihrer Lerngruppe bewerten Adaptive Tests, die sich auf Basis von Analysen der bereits vorliegenden Testergebnissen an das Wissen der Lernenden anpassen Games-based Tests, die in Form von spielerischen Methoden Wissen abfragen Zugegriffen wird auf die e-assessment Module von den Lernenden über ein Learning Management System Was ist ein Learning Management System (LMS)? Unter einem Learning Management System versteht man ein Softwaretool, auf welches im Intranet oder Internet zugegriffen werden kann. Es stellt über eine Weboberfläche Funktionen zur Verwaltung (Administration) und Steuerung (Management) des Lernprozesses von Teilnehmern zur Verfügung [Baumgarter et al. 2002, S. 309]. Die fünf Funktionsbereiche eines solchen Systems sind [Maier-Häfele & Häfele 2005]: Präsentation von Inhalten (Learning Content) Erstellung von Aufgaben und Übungen Evaluations- und Bewertungshilfen (Assessment)

90 90 KAPITEL 8. LEARNING MANAGEMENT Administration (von Lernenden, Trainern, Inhalten, Kursen, Lernforschritten, Terminen etc.) Kommunikation und Kooperation Vor allem die Punkte 2 und 3 zeigen die große Bedeutung von e-assessments für ein Learning Management System und somit für das Kompetenzmanagement von Unternehmen. 8.3 Nutzen von e-assessments für Wissensmanagement Um den Nutzen von e-assessments für das Wissensmanagement aus Sicht von e-assessment Autoren zu klären, wurden Experteninterviews sowie eine Studierendenbefragung durchgeführt. Als Untersuchungsfeld diente der Studienbetrieb an der Fachhochschule CAMPUS 02. Als Learning Management System kommt am CAMPUS 02 das Open Source System Moodle (Modular Object Oriented Development Learning Environment) zum Einsatz [Moodle 2007] Experteninterviews Folgenden Lehrpersonen wurden interviewt: Dipl.-Ing. Felix Mödritscher (Institut für Informationssysteme und Computer Medien, Technische Universität Graz): Vorlesungen Informationsdesign und Wissensmanagement am Studiengang Informationstechnologien und IT-Marketing, CAMPUS02 Fachhochschule der Wirtschaft Dr. Alexandra Sindler (Karl-Franzens-Universität Graz): Vorlesung Content Authoring am Studiengang Informationstechnologien und IT-Marketing, CAMPUS02 Fachhochschule der Wirtschaft Der Gesprächsverlauf wurde durch Leitfragen gesteuert und elektronisch aufgezeichnet. Im Folgenden sind die Aussagen und Erkenntnisse zusammengefasst: Frage1: Welchen Nutzen bringen e-assessments für Wissensmanagement aus Ihrer Sicht? Frage2: Welche Aspekte bzw. Funktionen von e-assessments bringen diesen Nutzen? Mödritscher: In erster Linie wird das Vernetzen von Lehrenden untereinander als Vorteil gesehen. Dabei geht es vor allem um eine gegenseitige Hilfestellung für das Erstellen eines pädagogischen Gesamtszenarios für den Vorlesungsablauf. Als ein weiterer Nutzen wird der gegenseitige Austausch von erstellten Fragen und ganzen Tests gesehen. Begründet wird diese Aussage damit, dass der Austausch von Information integraler Bestandteil eines ganzheitlichen Wissensmanagements sei. Dem Einfluss von e-assessments auf das Kompetenz-Management wird die größte Bedeutung beigemessen. Folgende Fragen stehen im Mittelpunkt: Welche Kompetenzen sind vorhanden? Wo besteht Handlungsbedarf? Diese Fragen können mit Gap-Analysen beantwortet

91 8.3. NUTZEN VON E-ASSESSMENTS FÜR WISSENSMANAGEMENT 91 werden. Auf Basis der Ergebnisse sollen Schulungen in Richtungen dieser fehlenden Kompetenzen eingerichtet werden. Weniger relevant wird der Einfluss auf die Verteilung von Wissen gesehen. Es geht mehr um die Idee, Wissen zu identifizieren, zu erwerben und weiter zu entwickeln, als dieses weiterzugeben. Sindler: Der Nutzen von e-assessments liegt nicht allein in der Wissensabfrage. Elektronische Tests stellen auch eine gute Möglichkeit dar, um die Ausgangssituation des vorhandenen Wissensstandes innerhalb einer Personengruppe festzuhalten. Welche Vorkenntnisse existieren bei den Studierenden? Was kann vorausgesetzt werden? Bei welchem Wissensniveau kann der Lehrende ansetzen? Ein weiterer Schwerpunkt liegt im Auffinden der Lernpreferenzen. Wo liegen die Interessenschwerpunkte der Lernenden? Diese Abfragen sollen während des gesamten Prozesses durchgeführt werden. Somit kann eine permanente Neuausrichtung des Lehrinhaltes sichergestellt werden. E-Assessment Tools können ebenfalls genutzt werden, um Wissen zu erweitern, Kompetenzen aufzubauen. Als Kompetenzaufbau ist in diesem Zusammenhang nicht nur das Erwerben von Wissen der Lernenden gemeint, sondern auch der Prozess der Fragen- und Testerstellung für. Die so gewonnenen Erfahrungen können von den Lehrenden an andere Personen weitergeben werden. Somit entsteht ein gemeinsamer Erfahrungshintergrund und Wissensstand. Darauf aufbauend können weitere Beispiele und Umsetzungsszenarien erstellt und gesammelt werden. Das so gesicherte und dokumentierte Wissen bringt den großen Nutzen der Wiederverwendbarkeit. Um den Wissenstransfer zu verstärken, ist es sinnvoll, auch die Lernenden in den Prozess der e-assessment Erstellung einzubinden. Die Aufbereitung von Teilen des Lehrinhalts einer Vorlesung durch die Studenten in Form von Fragen ist eine gute Möglichkeit dazu. Um die Qualität der Inhalte zu sichern, ist eine Überprüfung der erstellten Fragen durch den Lehrenden notwendig. Danach ist ein Weitertransferieren möglich und sinnvoll. Frage 3: Welchen Nutzen bringt Wissensmanagement für e-assessments aus Ihrer Sicht? Frage 4: Welche Aspekte von Wissensmanagement bringen diesen Nutzen? Mödritscher: Sinnvoll wäre es, die vorhandenen Kompetenzmodelle aus dem Wissensmanagement beim Einsatz von elektronischen Tests zu berücksichtigen. Dieser Ansatz, e-assessments mit Kompetenzmodellen zu verbinden, fehlt in fast allen Systemen. Auch das Learning Management System Moodle unterstützt diesen nicht.

92 92 KAPITEL 8. LEARNING MANAGEMENT Durch die erstellten elektronischen Tests ist eine rasche Auswertung möglich. Weiters kann eine Gegenüberstellung von e-assessments und Kompetenzen überprüfen, welche Kompetenzen erfüllt, teilweise erfüllt bzw. nicht erfüllt sind. Ziel ist eine formale Beschreibung für die inhaltliche Zuordnung eines elektronischen Tests zu einer oder mehreren Kompetenz(en). Welche Kompetenz(en) wird/werden durch welchen Test überprüft? Weiters sind die Levels der Kompetenzerfüllung zu definieren. Welche Kompetenz(en) ist/sind in welchem Ausmaß vorhanden? Das Resultat ist eine schnelle und effiziente Erhebung von Kompetenzen. Auf Basis dieser Ergebnisse lassen sich Ausbildungsziele definieren, die wiederum durch e-assessments unterstützt werden können. Folgende Hinweise auf laufende Aktivitäten wurden gegeben: Das IMS Global Learning Consortium, eine internationale Standardisierungsorganisation, befasst sich unter dem Namen Reusable Definition of Competency or Educational Objective (RDCEO) [IMS 2007] aktuell bereits mit solchen Kompetenzmodellen. Es wird ein Informationsmodell für Kompetenzdefinitionen und deren Referenzierung und Austausch beschrieben. Aufgaben und Lernergebnisse sind Teil dieses Modells. Weiters wir der Fokus auf Learning Management Systeme gelegt, da diese für das Verwalten von Kompetenzinformationen vorgesehen sind. Professor Dietrich Albert verfolgt in seinen Forschungsarbeiten das Ziel, ein Kompetenzmodell aufzubauen, welches mittels Online-Fragen den Kompetenzstand von Lernenden erhebt [Heller et al. 2005]. Darin enthalten sind Ansätze von adaptiven Tests. Mit wenigen Fragen soll so viel wie möglich an Information gesammelt werden, um so den Kompetenzstand genau zu erheben Studierendenbefragung Eigene Erfahrungsberichte auf Basis der in den Vorlesungen (Informationsdesign) absolvierten e- Assessments im LMS Moodle (aus dem Gesichtspunkt WM) Die Befragung fand unter den Studierenden des 6. Semesters am Studiengang Informationstechnologien und IT-Marketing statt. Diese wurde als Online-Umfrage im Learning Management System Moodle durchgeführt. Ziel war es, den Einfluss der in der Vorlesung Informationsdesign eingesetzten e-assessments auf das Wissensmanagement aus Sicht der Studierenden zu evaluieren. In Tabelle 8.1 sind die Fragen sowie die dazugehörigen Antworten der Befragung angeführt. Die Ergebnisse basieren auf 23 ausgewerteten Online-Fragebögen. Bei der Analyse der Fragen fällt auf, dass die Einstellung zu e-assesments durchaus positiv ist. Inhalte wurden als wichtig eingestuft und der Lerneffekt speziell beim Wiederholen von gelernten Inhalten als wichtig und zielführend eingestuft. Übungstests werden zwar nicht als sehr motivierend und verstärkt wünschenswert eingeschätzt, nichts desto trotz werden e-assesments als sinnvolle Variante zu schriftlichen Tests erkannt und akzeptiert.

93 8.4. ZUSAMMENFASSUNG 93 Die Vorteile von e-assesments liegen für die meisten in der besseren Auswertbarkeit und der Reduktion von langwierigen handschriftlichen Arbeiten, während die Vorteile von schriftlichen Tests in der Möglichkeit der ausführlichen Darstellung bei der Beantwortung liegen. 8.4 Zusammenfassung Dem Einfluss von e-assessments auf das Kompetenz-Management als Teil des Wissensmanagements wird von beiden Experten die größte Bedeutung beigemessen. Die Schwerpunkte liegen dabei in der Identifikation, dem Erwerb und der Entwicklung von Wissen. Tests können in der Identifikationsphase genutzt werden, um den Wissenstand von Studierenden am Vorlesungsbeginn zu erheben und Lernpreferenzen aufzufinden. Bereits bei der Erstellung, bei der auch die Studierenden eingebunden werden sollten, und beim Einsatz von e-assessments sollen Kompetenzmodelle berücksichtigt werden. Ziel ist eine formale Beschreibung für die inhaltliche Zuordnung von elektronischen Tests zu einer oder mehreren Kompetenz(en). Dabei ist zu beachten, dass nicht alle Arten von Kompetenzen durch e-assessments im gleichen Ausmaß vermittelt werden können, wie dies in der traditionellen Ausbildung der Fall ist [Mödritscher & Sindler 2005]. Ein weiterer wichtiger Aspekt ist das Vernetzen von Lehrenden untereinander. Dabei geht es auf der einen Seite um eine gegenseitige Hilfestellung für das Erstellen eines pädagogischen Gesamtszenarios von Vorlesungen, sowie um einen Austausch von erstellten Fragen und Tests. Die Studierenden nehmen den Einsatz von e-assessments durchaus positiv auf. Vor allem der Lerneffekt durch elektronische Übungstests bzw. Self checking excercises wird als wichtig und zielführend eingestuft. Die Möglichkeit schriftliche Tests durch e-assessments zu ersetzen wird als weniger sinnvoll erachtet. Als Vorteile werden in diesem Zusammenhang die schnelle Auswertbarkeit und das Wegfallen von Schreibarbeit gesehen, was weniger mit dem Erwerb von Wissen als mit Zeitersparnis in Verbindung steht.

94 94 KAPITEL 8. LEARNING MANAGEMENT Wurden durch die Übungstests in Informations-Design (6. Semester) wichtige Inhalte vermittelt? Ja 61% Nein 39% Hatten die Übungstests einen positiven Lerneffekt? Ja 70% Nein 30% Ist das Instrument Übungstest Ihrer Meinung nach geeignet um zuvor Gelerntes zu wiederholen? Ganz Bestimmt 17% Eher Ja 66% Eher Nein 17% Fördern Übungstests Ihrer Meinung nach die Motivation beim Erarbeiten von Wissen? Ganz Bestimmt 9% Eher Ja 39% Eher Nein 44% Sicherlich nicht 9% Würden Sie sich mehr Übungstests zur Wissenskontrolle wünschen? Ja 70% Nein 30% Was halten Sie davon schriftliche Tests durch Tests in elektronischer Form zu ersetzen? Wirklich Sinnvoll 17% Akzeptabel 57% Eher ungeeignet 26% Geben Sie kurz und prägnant den für Sie wichtigsten Vorteil von etests gegenüber schriftlichen Tests an! Bessere Auswertbarkeit Keine lange handschriftlichen Tests mehr Geben Sie kurz und prägnant den für Sie wichtigsten Vorteil von schriftlichen Tests gegenüber etests an! Skizzen, ausführliche Erklärungen möglich mehr Freiraum beim Beantworten Tabelle 8.1: Ergebnis der Studierendenbefragung mit Moodle

95 Literaturverzeichnis [Baumgarter et al. 2002] Baumgartner, P.; Häfele, H.; Maier-Häfele, K.: E-Learning Praxishandbuch: Auswahl von Lernplattformen, Studien Verlag, [Heller et al. 2005] Heller, J.; Mayer, B.; Hockemeyer, C.; Albert, D.: Competence-based Knowledge Structures for Personalised Learning: Distributed Resources and Virtual Experiments, in: Proceedings of International ELeGI Conference on Advanced Technology for Enhanced Learning, [IMS 2007] IMS: Reusable Definition of Competency or Educational Objective Specification, ( ) [Issing & Klisma 2002] Issing, L.J.; Klimsa, P.: Information und Lernen mit Multimedia und Internet, 3. Auflage, BeltzPVU, [Ley 2006] Ley, T.: Organizational Competency Management: A Competence Performance Approach, Dissertation, Karl-Franzens-Universität Graz, [Moodle 2007] Moodle.de: Moodle in Deutschland, ( ) [Maier-Häfele & Häfele 2005] Maier-Häfele, K.; Häfele, H.: Open-Source-Werkzeuge für e-trainings, managerseminare Verlags GmbH, [Mödritscher & Sindler 2005] Mödritscher, F.; Sindler, A.: Quizzes are not enough to reach high-level learning objectives!, in: Proceedings of World Conference on Educational Multimedia, Hypermedia & Telecommunications, pp , [North 1999] North, K.: Wissensorientierte Unternehmensführung: Wertschöpfung durch Wissen, 2. Auflage, Gabler Verlag, [Probst et al. 1999] Probst, G.; Raub S.; Romhardt, K.: Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen, 3. Auflage, Gabler Verlag, [Tergan & Zentel 2003] Tergan, S.-O.; Zentel, P.: Lernplattformen und die Zukunft des E-Learning, IWM, ( ) 95

96 96 LITERATURVERZEICHNIS

97 Kapitel 9 Learning Content Management Die Erstellung von Inhalten in einem Learning Content Management System am Beispiel Moodle Markus Mitterhumer CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Jochen Stocker CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Johannes Wech CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria Roman Zelenka CAMPUS 02, University of Applied Sciences Degree Program in IT and IT-Marketing, Graz, Austria 9.1 Einleitung Spricht man heutzutage von e-learning, so ist meist die Bereitstellung von Lernunterlagen zu jedem beliebigen Zeitpunkt gemeint. Dem Lernenden wird dazu Zugang zu einem Datenspeicher gewährt, von wo aus er direkt nach der Beantwortung von ein paar Fragen, exakt die Informationen erhält, die er benötigt. Unglücklicherweise funktioniert der Informationsaustausch in den meisten Unternehmen noch nicht ganz so klaglos. Abhilfe sollen hier Learning Content Management Systeme (LCMS) schaffen. Abschnitt 9.2 gibt einen Kurzüberblick über LCMS, den Aufbau sowie die grundlegenden Unterschiede zu LMS 1 und CMS. Dabei werden lediglich allgemeine Aspekte betrachtet, eine detaillierte Vorstellung 1 Learning Management Systeme werden im nachfolgenden Kapitel detaillierter betrachtet und diene hier nur zu Vergleichszwecken. 97

98 98 KAPITEL 9. LEARNING CONTENT MANAGEMENT von Hier werden auch wesentliche Aspekte bei der Einführung eines derartigen Systems beschrieben. Abschnitt 9.3 stellt die wichtigsten Standards aus dem Bereich E-Learning und Learning Content Management Systeme vor und begründet die Wichtigkeit von Standards gerade in diesem Kontext. In Abschnitt 9.4 werden LMS, CMS und LCMS detaillierter beschrieben und die Unterschiede zueinander veranschaulicht. Der praktische Teil (Abschnitt 9.5) betrachtet die vom Campus02 eingesetzte E-Learning Plattform Moodle anhand der Kriterien für LMS und LCMS und geht dabei der Frage der eindeutigen Zuordenbarkeit zu einem der beiden Systeme nach. 9.2 Überblick über LCMS Die Komponenten eines LCMS Ein LCMS bietet neben Autorenwerkzeugen zur Erstellung von Lerninhalten auch Werkzeuge zur Ablaufsteuerung und Zusammenstellung des Lernprozesses. In [Brennan et al. 2001] werden die einzelnen Komponenten eines LCMS in eine Autorenanwendung, ein Daten-Repository, ein Bedieninterface und ein Werkzeug zur Administration unterteilt (Abbildung 9.1). Das Autorenwerkzeug bietet eine Vielzahl an Vorlagen sowie Funktionen zur Erstellung von Storyboards und kann auch zur Übernahme bzw. Konvertierung von bestehenden Inhalten eingesetzt werden. Abbildung 9.1: Komponenten eines LCMS Das Daten-Repository stützt sich bei der Speicherung und Verwaltung der individuellen Lernobjekte auf Metadaten. Das dynamische Userinterface bereitet die Inhalte graphisch auf und kann an die individuellen Bedürfnisse einer Person oder eines Unternehmens angepasst werden. Das Administrationswerkzeug verwaltet die Benutzerprofile der Lernenden, Kurskataloge und allgemeine Einstellungen. Als Zusatzfeatures werden von einzelnen LCMS Groupware-Funktionen wie Chat, oder Diskussionsforen angeboten. In einem Unternehmen sind die unterschiedlichen Trainingsunterlagen, wie Word Dokumente, Power Point Präsentationen oder Flash Animationen oft über die einzelnen Abteilungen verteilt. Unter Zuhilfenahme eines LCMS können all diese Inhalte in einem einzigen System vereinigt werden und können nun von zentraler Stelle aus überarbeitet und strukturiert werden, um daraus E-Learning Kurse aufzubereiten. Somit

99 9.2. ÜBERBLICK ÜBER LCMS 99 wird es für ein Unternehmen einfacher, die Kontrolle über die verschiedenen Inhalte zu behalten. [Singh 2000] unterstreicht noch einen weiteren wesentlichen Vorteil von LCMS: Die zentralen Daten-Repositories erlauben die parallele Bearbeitung von Inhalten durch mehrere Entwickler oder Content Autoren über das Firmennetzwerk Aufbereitung der Inhalte In einem LCMS erfolgt die Aufbereitung der Lernunterlagen über eine Vorauswahl der Lerninhalte. Basierend auf dem Profil des Lernenden kann das System entweder einzelne Lernobjekte aus dem Repository holen oder ganze Kurse zusammenstellen. Die Qualität eines LCMS basiert dabei größtenteils auf effizienter Entwicklung und der Verwendung von Lernobjekten. Lernobjekte sind wieder verwendbare, medienunabhängige Informationsbrocken, die über Metadaten klassifiziert werden. Sie stellen die modularen Bauteile von E-Learning Inhalten dar und können aus unterschiedlichsten Medientypen wie Text, Graphik, Audio, Video, Animationen, Spielen, Simulationen oder Tests aufgebaut sein. Ein weiterer kritischer Faktor beim Einsatz eines LCMS stellt das Verständnis für die spezifischen Anforderungen und die vorhandnen Fähigkeiten innerhalb der Organisation dar. Ein Unternehmen mit fundierten Kenntnissen im Industrial Design aber mangelnder Kompetenz im Bereich der Medienerstellung wird nach einem System suchen, dass sie in eben diesen Bereichen unterstützt. Vor dem Kauf eines Systems ist es deshalb von wesentlicher Bedeutung, die persönlichen bzw. unternehmensspezifischen Ziele zu analysieren, und das LCMS anhand dieser Kriterien auszuwählen Verwandte Systeme Aufgrund der starken Ähnlichkeiten zwischen Learning Contnent Management Systemen, Learning Management Systemen (LMS) und Content Management Systemen (CMS) gibt es immer wieder Verwechslungen bei der Auswahl und Einführung solcher Systeme. Im Wesentlichen vereint ein LCMS die Möglichkeiten zur Administration des Lernprofils aus LMS mit den Funktionen zur Inhaltserstellung und -verwaltung aus CMS. Die meisten LCMS bieten grundlegende Funktionen zur Kursverwaltung, sind allerdings bei weitem nicht so vielseitig wie Learning Management Systeme. Im Vergleich dazu verfolgen die meisten LMS die Fortschritte des Lernenden durch laufende Leistungsüberprüfungen. Sie empfehlen basierend auf diesen Daten entsprechende weiterführende Kurse, bieten aber keinerlei Funktionen zur dynamischen Bereitstellung der entsprechend personalisierten Lernunterlagen oder zur Verwaltung der Zugriffsrechte auf individuelle Lernobjekte. Duncan Lennox, CTO von WBT Systems, beschrieb den Unterschied zwischen LMS und LCMS bei einer Podiumsdiskussion auf der ASTD 2001 folgendermaßen: An LMS solves running a learning organization, and an LCMS gets the right content to the right people at the right time. Obwohl sich der Einsatz eines einzelnen Systems zur Verwaltung der Inhalte, der Benutzerdaten und Kurse recht einfach anhört, so kann ein System solchen Umfangs schnell zu einem Aufwand bei der Erstellung personalisierter Inhalte

100 100 KAPITEL 9. LEARNING CONTENT MANAGEMENT führen, der in keinem ökonomischen Verhältnis zu den gewonnenen Funktionalität steht. Auch hier gilt es, die Anforderungen eines Unternehmens zu analysieren, bevor der Einführung eines der Systeme der Vorzug gegeben wird. 9.3 Standards Es gibt mittlerweile eine sehr große Anzahl von Learning Content Managment System Anbietern. So berichten [Baumgartner et al. 2002a, S. 30 ff.] davon, dass während der Recherchearbeit für dieses Buch bereits rund 100 verschiedene Hersteller identifiziert wurden. Durch diese Vielzahl von unterschiedlichen Systemen gewinnt das Einhalten von internationalen e-learning Standards immer mehr an Bedeutung. In der heutigen Zeit geht man von der Interoperabilität der Lerninhalte aus, nachdem die Erstellung von Lerninhalten enorme Kosten verursacht und die Systemkosten im Vergleich dazu nahezu vernachlässigt werden können. Je mehr Standards von einem Hersteller eingehalten werden, desto größer ist die Chance am Markt bestehen zu können Didaktische Perspektive der Anwendergruppen Bevor nun auf die Standards näher eingegangen werden kann, muss zuerst die Bedeutung der e-learning Standards aus didaktische Sichtweise für deren Anwender erörtert werden. Man unterscheidet zwischen folgenden zwei Benutzergruppen: LehrerInnen und AutorenInnen LernerInnen Die Perspektive der LehrerInnen und AutorenInnen: Das System sollte Rapid Content Development ohne technische Detailkenntnisse des Benutzers unterstützten. Dabei sollten zur Effizienzsteigerung einzelne Module miteinander kombiniert und sys- temübergreifend abgespeichert werden können. Zusätzlich soll auch die Möglichkeit bestehen, den Lernmodulen didaktischen Metadaten hinzuzufügen. Ebenfalls nicht außer acht gelassen werden sollte auch die Unabhängigkeit des Autorenwerkzeuges und das Vermeiden von Redundanzen in Hinblick auf die Betreuung von Kursen und Abwicklung von Prüfungen. [Baumgartner et al. 2002b] Die Perspektive der LernerInnen: LernerInnen erwarten sich während der Aus-und Weiterbildungsmaßnahmen, dass die Lernplattformen eine entsprechende Unterstützung bei der systemübergreifenden oder internationalen Suche nach spezifischen Lernmodulen. Die Suchanfragen sollten auf drei Schwerpunkte (Lerninhalt, Kosten, Methodik) eingeschränkt werden können. Das System sollte aufgrund des Profiles der LernerInnen die entsprechenden Lehrermodule auswählen und vorstellen können. Weiters soll der Lernfortschritt protokolliert und verwaltet

101 9.3. STANDARDS 101 werden können. Am Ende des Kurses sollte eine Überprüfung des Erfolges mit einer möglichen Zertifizierungsprüfung angeboten werden. Von Vorteil wäre es, wenn die Ergebnisse dieser Prüfungen an andere Lernplattformen oder Human-Resources-Applikationen weitergegeben werden könnte. Die LernerInnen erwarten dieselbe Benutzerführung auf unterschiedlichen Systemen. [Baumgartner et al. 2002b] Aktuelle Standards Innerhalb der letzten Jahre haben sich in den USA und Europa mehrere Standardisierungskonsortien gebildet. Diese definieren Technologie-Standards für Learning Management und WBT s (Web Based Training). Ursprünglich gab es getrennte Standardisierungsbestrebungen. Mittlerweile haben sich die auf der nächsten Seite angeführten Konsortien darauf geeinigt, ihre Arbeitsergebnisse auszutauschen und zu konsolidieren. Unter anderem auch deshalb, da nur das IEEE das Recht auf die Spezifikation und Etablierung der Standards bei den relevanten Organisationen, wie z.b. ANSI (American National Standards Institute), hat. [Baumgartner et al. 2002b] Der relativ komplexe Aufbau des Kooperationsnetzwerkes ist in Abbildung 9.2 ersichtlich. Nachfolgend sind die wichtigsten Standardisierungsinitiativen aufgelistet, die die oben beschriebenen Perspektiven (siehe Unterabschnitt 9.3.1) einschließen bzw. deren Umsetzung möglich ist: AICC- Aviation Industry Computer Based Training Commitee (www.aicc.org) ADL- Advanced Distributed Laearning Initiative (www.adlnet.org) ARIADNE- Alliance of Remote Instructional Authoring and Distribution Networks for Europa (www.ariadne-eu.org) EML- Educational Modelling Language der Open University der Niederlande (OUNL) (eml.ou. nl) IEEE LTSC- Learning Technologie Standard Comittee des IEEE (ltsc.ieee.org) IMS- Instructional Managment System Project (www.imsproject.org) Nachfolgend die Definitionen der Standards nach [Gries 2003]: AICC Aviation Industry Computer Based Training Committee, Zusammenschluss mehrerer Unternehmen der Luftfahrtindustrie, Regierungsbehörden, Technologieanbieter für e-learning und Content - Entwickler, die an der Standardisierung zur Unterstützung von Entwicklung, Durchführung und Evaluation von elektronischen Lerntechnologien arbeiten. Zu den Aufgaben gehören: die Entwicklung von Richtlinien, um Interoperabilität zu gewährleisten, die Unterstützung der Mitarbeiter, um die ökonomische und effektive Implementierung von rechnergestützten Trainings zu fördern und die Einrichtung eines offenen Forums zur Diskussion über elektronische Lerntechnologien

102 102 KAPITEL 9. LEARNING CONTENT MANAGEMENT Abbildung 9.2: Kooperationsnetzwerk der Standardisierungsgremien nach [Baumgartner et al. 2002b] Die AICC erarbeitet Richtlinien und Empfehlungen, die direkt in die Standardisierungsvorhaben und Modellentwicklungen anderer Einrichtungen einfließen. ADL Advanced Distributed Learning Initiative, Initiative des Department of Defence (DoD), White House Office of Science and Technology Policy (OSTP) zur Entwicklung von Standards zur Nutzung von Lern- und Informationstechnologien bei Ausbildung und Training und zur Sicherung des Zugriffs auf hochqualitative Lernmaterialien - angepasst an die Bedürfnisse des Lernenden und verfügbar wann und wo sie gerade gebraucht werden. Das wichtigstes Arbeitsergebnis der ADL ist die Erarbeitung und Veröffentlichung des Shareable Content Object Reference Model (SCORM). SCORM enthält in der Version 1.2: eine XML - basierte Spezifikation zur Darstellung von Lerninhaltsstrukturen (z.b. Lernobjekte), sodass diese ohne Einschränkungen in unterschiedlichen Lernumgebungen verwendet werden können, eine Spezifikation für eine Laufzeitumgebung einschließlich eines definierten Befehlssatzes (API), welches einen Datenaustausch zwischen Lerninhalt und Lernmanagementsystem zur Laufzeit ermöglicht, eine Spezifikation zur Festlegung von Metadaten über Lerninhalte, die eine Recherche in Kursdatenbanken möglich machen. Aufgrund der breiten Akzeptanz mit wachsendem (auch internationalen Interesse) gilt SCORM heute als Industriestandard. ARIADNE Association of Remote Instructional Authoring and Distribution Networks for Europe (ARI- ADNE), Foundation for the European Knowledge Pool, Internationale Standardisierungsorganisation

103 9.3. STANDARDS 103 zur Entwicklung von Werkzeugen und Methoden zur Erstellung, Verwaltung und Wiederverwendung von computerbasierten Lernressourcen, Mitarbeit an der Entwicklung von LOM (IEEE), Hauptergebnis ist die Entwicklung einer digitalen Bibliothek, die eine dezentrale Speicherung von Lernmodulen und deren semantische Beschreibung auf Basis von IEEE Learning Object Metadata (LOM) ermöglicht. EML Educational Modelling Language (EML), an der Open University of the Netherlands entwickelte Sprache zur pädagogischen Modellierung von Lernumgebungen, Ziel ist die Entwicklung eines didaktisch-pädagogischen Metamodells mit Einbettung von Lernobjekten in einen didaktischen Kontext, Entwicklungen sind Basis für Spezifikationen der IMS. [EML] IEEE/LTSC Learning Technology Standards Committee (IEEE/LTSC), Einrichtung des Institute of Electrical and Electronics Engineers (IEEE) zur Erarbeitung von Normen und Richtlinien im Bereich der Lehr- und Lerntechnologie, wichtige Arbeitsergebnisse sind: Learning Technology System Architecture (LTSA) beschreibt eine abstrakte Systemarchitektur von Lerntechnologien, Learning Object Metadata (LOM)beschreibt Lernmodule und ermöglicht somit die Identifikation und den Austausch von Modulen, Public and Privat Information (PAPI)bezieht sich auf die Daten der Lernenden (persönliche Informationen, Informationen über das Lernverhalten und die Lernleistungen, über Arbeiten und Abschlüsse der Lernenden, sowie über Benutzerpräferenzen), Computer Managed Instruction (CMI) beschäftigt sich mit Spezifikationen für den Austausch, die Kombination und Administration von Kursen. Die Ergebnisse des IEEE sind Grundlage für nationale und internationale Normung. Nur wenige der oben angeführten Initiativen haben sich als Industriestandard etabliert. Dazu zählen: LOM IMS Spezifikationen AICC SCORM Es ist auch eine erwiesene Tatsache, dass heute verfügbare Spezifikationen im Bereich e-learning noch ständig weiterentwickelt werden. Damit steht man als Content-Entwickler oder -Anbieter vor einer Reihe weiterer Fragen, wie beispielsweise, welche Spezifikationen für ein Problem passend sind, ob diese Spezifikationen bereits genügend ausgereift sind und welcher Aufwand bei der Verwendung entsteht. [Gries 2003]

104 104 KAPITEL 9. LEARNING CONTENT MANAGEMENT 9.4 e-management Systeme In diesem Abschnitt werden nebst den Unterschieden zwischen Learning Management Systemen (LMS), Content Management Systemen (CMS) und Learning Content Management Systemen (LCMS) auch deren Gemeinsamkeiten in Hinblick auf die Wiederverwendbarkeit der Inhalte aufgezeigt Learning Management Systemen (LMS) In einem LMS können sowohl selbsterstellte als auch kommerziell erworbene Lerninhalte in einer Datenbank verwaltet und dem Lernenden zur Verfügung gestellt werden. Das System protokolliert den jeweiligen Lernprozess des Nutzers, welche Lerninhalte zum Beispiel konsumiert wurden oder welche Testergebnisse erreicht wurden. Ferner bietet ein LMS dem Lernenden unterschiedliche Möglichkeiten, sich mit anderen Kursteilnehmern auszutauschen. Beispielsweise werden Möglichkeiten zur synchronen Kommunikation via Chatfunktionen oder asynchronen Kommunikation mittels Disskussionsforen oder Filesharing in LMS integriert. Die kleinste Lerneinheit, die von einem LMS (Abbildung 9.3) verwaltet werden kann, ist der Online Kurs als solches. Daraus resultiert, dass die Wiederverwendbarkeit der Inhalte stark eingeschränktg ist. Abbildung 9.3: Schematische Darstellung eines LMS nach [Maier-Häfele & Häfele 2002] Als weiteres Merkmal der LMS ist erwähnenswert, dass die Hersteller dieser Systeme die Erstellung von Lerninhalten mittels Autorenwerkzeugen nicht als Teil des jeweiligen LMS sehen. Die Möglichkeiten der Inhaltserstellung wurden oft nur rudimentär implementiert oder von Fremdanbietern zugekauft. Es existieren mittlerweile zahlreiche Anbieter von alternativen Autorenwerkzeugen, die selbst ungeübten oder technisch nicht versierten Personen die Erstellung von Lerninhalten leicht ermöglichen. Aufgrund der noch nicht ausgereiften Standards kann es zu Problemen bei der Kompatibilität der Lerninhalte ergeben. [Maier- Häfele & Häfele 2002]

105 9.4. E-MANAGEMENT SYSTEME Content Management Systemen (CMS) CMS wurden ursprünglich zur Organisation und dem Management von Dokumenten entworfen, haben sich aber inzwischen zu mächtigen Redaktionssystemen weiterentwickelt. Mit ihnen können sowohl Online Inhalte erstellt werden, als auch die Abläufe eines webbasierten Lernprozess koordiniert werden. CMS vereinfachen die Verwaltung und die Erstellung von Online Inhalten und werden meist für Internetportale oder Websites mit hohem laufendem Änderungs- und Anpassungsgrad verwendet. Dabei entsprechen CMS drei wesentlichen Kriterien (Abbildung 9.4): Separierung von Layout und Inhalt: Bei einer CMS-verwalteten Website werden die Inhalte getrennt vom Layout gespeichert. Beim Aufruf einer solchen dynamischen Site wird, im Gegensatz zu statischen Seiten zuerst das Layout, welches in sogenannten Templates hinterlegt ist, geladen und anschließend der Inhalt an den gewünschten Positionen entsprechend dem Layout platziert. Komponenten Management: Die einzelnen Komponenten, hierbei kann es sich beispielsweise um Bilder oder Texte handeln, werden mit Metadaten versehen und in einer Datenbank verwaltet. Die einzelnen Komponenten können nun leicht anhand der hinterlegten Metadaten charakterisiert, kategorisiert und freigegeben werden, was die Erstellung von Artikeln aus verschiedenen Komponenten vereinfacht. Workflow Management: Ein CMS bietet die Möglichkeit Workflows zu definieren, die den Prozess, den die jeweiligen Dokumente durchlaufen, beschreibt. So kann beispielsweise mittels Workflow definiert werden, dass eine Site nur eine bestimmte Zeit Online ist und danach in ein Archiv verschoben wird. Weiters bieten CMS oft die Möglichkeit der Personalisierung von Inhalten, Benutzer können sich an Webseiten anmelden und erhalten ein auf ihr Profile zugeschnittenes Informationsangebot. In einem CMS wird der Inhalt, anders als beim LMS, auf Ebene der Content-Komponenten verwaltet, was bedeutet, das ein und die selbe Komponente mehrfach in unterschiedlichen Artikeln verwendet werden kann. In einer Lernumgebung spricht man dabei von learning objects, sollen diese wiederverwendet werden, handelt es sich um reusable learning objects. Derzeit werden CMS jedoch noch kaum im Lernumfeld verwendet. [Maier- Häfele & Häfele 2002] Learning Content Management Systemen (LCMS) LCMS bilden schließlich die Kombination von LMS und CMS (Abbildung 9.5). Die Kernaufgaben setzen sich auch dementsprechend zusammen: Es können wiederverwendbare Lernobjekte erstellt, gespeichert und verwaltet werden und webbasiertes Lernen organisiert und betreut werden. Alle Lernobjekte, die entweder mit dem zum LCMS mitgelieferten Autorentool erstellt, oder auch zugekauft werden können, werden mittels Metadaten kategorisiert, um diese leichter auffindbar zu machen. Danach können die einzelnen Lernobjekte immer wieder zu neuen Kursen kombiniert werden. Die einzel-

106 106 KAPITEL 9. LEARNING CONTENT MANAGEMENT Abbildung 9.4: Schematische Darstellung eines CMS nach [Maier-Häfele & Häfele 2002] Abbildung 9.5: Schematische Darstellung eines LCMS nach [Maier-Häfele & Häfele 2002]

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe

Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Suchmaschinenoptimierung - Der effiziente Weg zur Zielgruppe Inhalt 1. Was ist Suchmaschinenoptimierung? - Definition - Zielsetzung 2. Funktionsweise - Inhalt und Struktur - Eingehende Links 3. Case Studies

Mehr

Web Data Mining. Alexander Hinneburg Sommersemester 2007

Web Data Mining. Alexander Hinneburg Sommersemester 2007 Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining

Mehr

SemanticMediaWiki+ als Wissensplattform für Unternehmen

SemanticMediaWiki+ als Wissensplattform für Unternehmen SemanticMediaWiki+ als Wissensplattform für Unternehmen Zielgruppengerechte Produktion von Trainingsmaterial am Beispiel der UNESCO Daniel Hansch, hansch@ontoprise.de, ontoprise GmbH Hans-Peter Schnurr,

Mehr

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Suchmaschinen und ihre Architektur Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Ziel Rudimentäre Grundkenntnisse über die Funktionsweise von Suchmaschinen und Trends Einführung in

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Grundlagen und die größten Irrtümer.

Grundlagen und die größten Irrtümer. Nr. SEO für jedermann. Grundlagen und die größten Irrtümer. Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEM) werden immer wieder verwechselt: Doch SEO beschäftigt sich mit der Optimierung

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

1 Zusammenfassung/Summary

1 Zusammenfassung/Summary 1 Zusammenfassung/Summary Zusammenfassung: Wissensdatenbanken gewinnen zunehmend an Bedeutung, wenn es darum geht, die Informationen, die ungeordnet in einem Unternehmen vorliegen, zu strukturieren und

Mehr

Black-Hat Search Engine Optimization (SEO) Practices for Websites

Black-Hat Search Engine Optimization (SEO) Practices for Websites Beispielbild Black-Hat Search Engine Optimization (SEO) Practices for Websites Damla Durmaz - 29. Januar. 2009 Proseminar Technisch Informatik Leitung: Georg Wittenburg Betreuer: Norman Dziengel Fachbereich

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

Suchmaschinen Marketing Erfolg mit qualifizierten Besuchern!

Suchmaschinen Marketing Erfolg mit qualifizierten Besuchern! Suchmaschinen Marketing Erfolg mit qualifizierten Besuchern! Suchtreffer AG Bleicherstr. 20 D-78467 Konstanz Tel.: +49-(0)7531-89207-0 Fax: +49-(0)7531-89207-13 e-mail: info@suchtreffer.de Suchmaschinen-Marketing

Mehr

Optimieren Sie Ihre n2n Webseite

Optimieren Sie Ihre n2n Webseite N2N Autor: Bert Hofmänner 5.10.2011 Optimieren Sie Ihre n2n Webseite Einer der wichtigsten Faktoren für den Erfolg Ihrer Webseite in Suchmaschinen sind deren Inhalte. Diese können Sie mit einem Content

Mehr

Wie Suchmaschinen von Social Software profitieren

Wie Suchmaschinen von Social Software profitieren Wie Suchmaschinen von Social Software profitieren Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg Fakultät DMI, Department Information Berliner Tor 5, 20249 Hamburg dirk.lewandowski@haw-hamburg.de

Mehr

Suchmaschinenalgorithmen. Vortrag von: Thomas Müller

Suchmaschinenalgorithmen. Vortrag von: Thomas Müller Suchmaschinenalgorithmen Vortrag von: Thomas Müller Kurze Geschichte Erste Suchmaschine für Hypertexte am CERN Erste www-suchmaschine World Wide Web Wanderer 1993 Bis 1996: 2 mal jährlich Durchlauf 1994:

Mehr

Without knowledge management our services would be unthinkable. Arthur D. Little

Without knowledge management our services would be unthinkable. Arthur D. Little Without knowledge management our services would be unthinkable. Arthur D. Little Weshalb Wissensmanagement? Wissen ist die Gesamtheit der Informationen, Kenntnisse und Fähigkeiten einer Person, die zur

Mehr

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen

Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Enterprise Social Networking: Ein Framework und ein Fachkonzept für ein Industrieunternehmen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor auf Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Web-2.0-Forschung der KWARC-Gruppe

Web-2.0-Forschung der KWARC-Gruppe Web-2.0-Forschung der KWARC-Gruppe 3. Web Montag Bremen Christoph Lange, Matthias Bröcheler International University Bremen (Jacobs University Bremen ab Frühjahr 2007) 27. November 2006 Ch. Lange/M. Bröcheler

Mehr

Bilder-SEO Tipps. Optimierung von Bildinhalten für Suchmaschinen. Suchmaschinenoptimierung von Bildern

Bilder-SEO Tipps. Optimierung von Bildinhalten für Suchmaschinen. Suchmaschinenoptimierung von Bildern Bilder-SEO Tipps Suchmaschinenoptimierung von Bildern Optimierung von Bildinhalten für Suchmaschinen. System-Voraussetzungen: WebSite mit TYPO3 ab Version 4.2 BlueChip Software GmbH Business Software Web

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit

Universität Passau. Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth. Masterarbeit Universität Passau Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Masterarbeit "Identifikation von Erfolgsfaktoren für eine Facebook- Recruiting-Strategie"

Mehr

Wissensmanagement für E-Learning-Anwender ZWH-Bildungskonferenz 2005

Wissensmanagement für E-Learning-Anwender ZWH-Bildungskonferenz 2005 Wissensmanagement für E-Learning-Anwender ZWH-Bildungskonferenz 2005 Birgit Küfner, 21. Oktober 2005 1 The Power of Learning Wissensmanagement für E-Learning-Anwender Überblick 1. Porträt time4you GmbH

Mehr

Vom Kunden gefunden werden: Internet-Marketing für Online-Shops. Eine gute Adresse: Den richtigen Domain-Namen wählen

Vom Kunden gefunden werden: Internet-Marketing für Online-Shops. Eine gute Adresse: Den richtigen Domain-Namen wählen Vom Kunden gefunden werden: Internet-Marketing für Online-Shops Dieser kleine Leitfaden soll Ihnen aufzeigen, dass man bei einem Online-Shop nicht nur am Design und an den Artikeln arbeiten muss, sondern

Mehr

Quelle. Thematische Verteilungen. Worum geht es? Wiederholung. Link-Analyse: HITS. Link-Analyse: PageRank. Link-Analyse: PageRank. Link-Analyse: HITS

Quelle. Thematische Verteilungen. Worum geht es? Wiederholung. Link-Analyse: HITS. Link-Analyse: PageRank. Link-Analyse: PageRank. Link-Analyse: HITS Hauptseminar Web Information Retrieval Quelle Thematische Verteilungen 07.05.2003 Daniel Harbig Chakrabati, Soumen; Joshi, Mukul; Punera, Kunal; Pennock, David (2002): The Structure of Broad Topics on

Mehr

ASQT 2015. 13. Anwenderkonferenz für Softwarequalität, Test und Innovation

ASQT 2015. 13. Anwenderkonferenz für Softwarequalität, Test und Innovation ASQT 2015 13. Anwenderkonferenz für Softwarequalität, Test und Innovation Kongress Graz 16. u. 17. April 2015 www.asqt.org Motivation In den letzten 50 Jahren haben zwei Wellen der Informationstechnologie

Mehr

SEO Services von dmc. Mehr Erfolg mit Suchmaschinenoptimierung durch dmc

SEO Services von dmc. Mehr Erfolg mit Suchmaschinenoptimierung durch dmc SEO Services von dmc Mehr Erfolg mit Suchmaschinenoptimierung durch dmc Suchmaschinenoptimierung bei dmc Die Suchmaschinenoptimierung hat das Ziel bessere Positionen in den unbezahlten Suchergebnissen

Mehr

Detecting Near Duplicates for Web Crawling

Detecting Near Duplicates for Web Crawling Detecting Near Duplicates for Web Crawling Gurmeet Singh Manku et al., WWW 2007* * 16th international conference on World Wide Web Detecting Near Duplicates for Web Crawling Finde near duplicates in großen

Mehr

Tipps und Tricks der Suchmaschinenoptimierung

Tipps und Tricks der Suchmaschinenoptimierung Tipps und Tricks der Suchmaschinenoptimierung Thomas Kleinert Institut für Wirtschaftsinformatik (IWi) im DFKI 16. Juli 2014 Agenda Was ist Suchmaschinenmarketing? Wie arbeiten Suchmaschinen? On-Page Optimierung

Mehr

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten

Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten Web-Design und Suchmaschinen-Optimierung: Zwei getrennte Welten 1. Einleitung Im täglichen Gespräch mit Unternehmen stellen wir als Suchmaschinen-Marketing- Agentur immer häufiger fest, dass Unternehmen

Mehr

Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos

Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos Seminar: Semantic Web Wintersemester 2005/2006 Universität Jena Seminarleiter: Prof. Dr. C. Beckstein, Dr. H. Sack, Dipl.-Inform. H. Peter

Mehr

SEO. Web-Popularität mit Hilfe von Suchmaschinenoptimierung. Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50

SEO. Web-Popularität mit Hilfe von Suchmaschinenoptimierung. Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50 SEO Web-Popularität mit Hilfe von Suchmaschinenoptimierung Seitwert GmbH Benzenbergstraße 39-47 D-40219 Düsseldorf Telefon: +49 (0)211-749505 - 50 SEO: Web-Popularität mit Hilfe von Suchmaschinenoptimierung

Mehr

Einführung in die Wissensverarbeitung und Data Mining

Einführung in die Wissensverarbeitung und Data Mining Einführung in die Wissensverarbeitung und Data Mining Peter Becker FH Bonn-Rhein-Sieg Fachbereich Angewandte Informatik!" $# Vorlesung Wintersemester 2001/02 1. Einführung Vorbemerkungen 1 Einführung Vorbemerkungen

Mehr

Contao SEO: 7 Experten-Tipps

Contao SEO: 7 Experten-Tipps Contao SEO: 7 Experten-Tipps Contao SEO: 7 Experten-Tipps Contao, ehemals bekannt unter dem Namen TYPOlight, ist ein kostenloses Content Management System (CMS) zum Verwalten und Pflegen einer Webpräsenz.

Mehr

9. IR im Web. bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden

9. IR im Web. bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden IR im Web 9. IR im Web bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden müssen Einführung in Information Retrieval 394 Probleme verteilte Daten: Daten sind auf vielen

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin HP Autonomy Information Governance Strategie: Die Kontrolle über die Informationsflut Petra Berneaud - Account Manager Autonomy Status in vielen

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

3.1.1 Textfelder, Kombinationsfelder, Listenfelder, Kontrollkästchen, Optionsfelder eines Webformulars ausfüllen

3.1.1 Textfelder, Kombinationsfelder, Listenfelder, Kontrollkästchen, Optionsfelder eines Webformulars ausfüllen 3 WEB VERWENDEN 3.1 Formulare Viele Anbieter, zb im Bereich E-Commerce oder auch E-Banking, stellen Internetseiten zur Verfügung, über die Benutzerinformationen, Bestellungen oder Anfragen eingegeben werden

Mehr

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftsingenieur der Fakultät

Mehr

Leistungsspektrum. von SEOSEMbra.de 08.10.2013

Leistungsspektrum. von SEOSEMbra.de 08.10.2013 Leistungsspektrum von 08.10.2013 Zum Bahnhof 51a Butzbach, Hessen 35510 Telefon: +49 (0) 6033 97 56 717 E- Mail: info@seosembra.de Web: http://www.seosembra.de 1 Schwerpunkte Damit eine Webseite mit den

Mehr

Content Management Systeme auf dem Weg zum Semantic Web

Content Management Systeme auf dem Weg zum Semantic Web Content Management Systeme auf dem Weg zum Semantic Web Semantic Web baut auf der Anreicherung bestehender Datenbestände mit strukturierten Metadaten auf. Um die vieldiskutierten Vorteile von Semantic

Mehr

Abbildung 1: Titelbild (Quelle: http://www.oobject.com/algorithmic-architecture/follymorph-continuum-group-finalpresentation/3267/)

Abbildung 1: Titelbild (Quelle: http://www.oobject.com/algorithmic-architecture/follymorph-continuum-group-finalpresentation/3267/) Abbildung 1: Titelbild (Quelle: http://www.oobject.com/algorithmic-architecture/follymorph-continuum-group-finalpresentation/3267/) Enterprise Continuum Wiederverwendung von Unternehmensarchitekturen Modul

Mehr

Relevanzranking als Erfolgsfaktor für Discoverysysteme. Elmar Haake Staats und Universitätsbibliothek Bremen

Relevanzranking als Erfolgsfaktor für Discoverysysteme. Elmar Haake Staats und Universitätsbibliothek Bremen Relevanzranking als Erfolgsfaktor für Discoverysysteme Elmar Haake Staats und Universitätsbibliothek Bremen GBV Verbundkonferenz Hannover 05.09.2012 1 Relevanzranking als Erfolgsfaktor für Discoverysysteme

Mehr

Ihr Weg in die Suchmaschinen

Ihr Weg in die Suchmaschinen Ihr Weg in die Suchmaschinen Suchmaschinenoptimierung Durch Suchmaschinenoptimierung kann man eine höhere Platzierung von Homepages in den Ergebnislisten von Suchmaschinen erreichen und somit mehr Besucher

Mehr

Homepage-Optimierung. Mit der Homepage Kunden gewinnen!

Homepage-Optimierung. Mit der Homepage Kunden gewinnen! Homepage-Optimierung Mit der Homepage Kunden gewinnen! Der heutige Abend... Suchmaschinen Was, Wer, Wie, Warum?!? Was hat das mit mir zu tun? Die eigene Homepage Grundlagen, Aufbau, Struktur, Zielausrichtung

Mehr

Wissensmanagement in kleinen und mittleren Unternehmen (KMU) Mensch Organisation Technik

Wissensmanagement in kleinen und mittleren Unternehmen (KMU) Mensch Organisation Technik Jahrestagung Hamburg 2008 Wissensmanagement in kleinen und mittleren Unternehmen (KMU) Mensch Organisation Technik Jan Soose Überblick / Agenda Einführung Wissensmanagement und KMU Was ist Wissen? Wissensmanagement

Mehr

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG

cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 2010 cometis AG cometis AG SEO Search Engine Optimization Wiesbaden, August 2010 Seite 1 von 17 Agenda Schritte bei der Suchmaschinenoptimierung 1. Unternehmensanalyse 2. Keyword-Analyse 3. On-Site Optimierung 4. Off-Site

Mehr

Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search.

Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search. Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search. Die Lösung für Enterprise Search xdot search xdot search ist eine professionelle Semantische Suche Suchlösung

Mehr

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext Corporate Smart Process Content Wissensmanagement mittels Prozesskontext Agenda 1. Ziele des Teilvorhabens 2. Einführung in die Prozesswelt 3. SemTalk als Werkzeug für Prozessmodellierung und Wissensmanagement

Mehr

Information & Knowledge Management

Information & Knowledge Management Übergangsbestimmungen für das Masterstudium Information & Knowledge Management an der Technischen Universität Wien von der Studienkommission Informatik beschlossen am 20.9.2006 (1) Sofern nicht anderes

Mehr

Skript zum Kurs Literaturverwaltung mit EndNote - Aufbaukurs Literatur in EndNote organisieren und finden

Skript zum Kurs Literaturverwaltung mit EndNote - Aufbaukurs Literatur in EndNote organisieren und finden Skript zum Kurs Literaturverwaltung mit EndNote - Aufbaukurs Literatur in EndNote organisieren und finden Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung - Weitergabe unter gleichen

Mehr

SEO BASICS IM B2B-BEREICH

SEO BASICS IM B2B-BEREICH SEO BASICS IM B2B-BEREICH Suchmaschinenoptimierung für Unternehmer ohne Schnickschnack Internet World, München 24. März 2015 ZIEL WAS SIE ERWARTET Ich zeige Ihnen heute die Grundlagen der On-Page Optimierung

Mehr

Tipps rund um die Suchmaschinen- Optimierung

Tipps rund um die Suchmaschinen- Optimierung Tipps rund um die Suchmaschinen- Optimierung Jimdo hat einige praktische Tipps und Wissenswertes rund um das Thema Suchmaschinenoptimierung zusammengestellt. Jeder kann jederzeit einsteigen und seine Seite

Mehr

Das Studiengangsinformationssystem (SGIS)

Das Studiengangsinformationssystem (SGIS) Das Studiengangsinformationssystem (SGIS) Manual für Typo3-Redakteure Version 1.a Mai 2015 Kontakt: Referat 1.4 - Allgemeine Studienberatung und Career Service Christian Birringer, christian.birringer@uni-rostock.de

Mehr

http://www.nvu-composer.de

http://www.nvu-composer.de Kapitel 16 Seite 1 Ein portabler Web-Editor Wer viel Zeit in eine Website investieren will ist gut beraten, eine professionelle Software für Webdesigner zu beschaffen. Diese Programme sind sehr leistungsfähig,

Mehr

Wie schreibt man eine Literaturübersicht?

Wie schreibt man eine Literaturübersicht? Wie schreibt man eine Literaturübersicht? Hinweis: Eine Literaturübersicht kann sowohl ein eigenständiger Text oder Teil einer wissenschaftlichen Arbeit sein. Im zweiten Fall findet sich in der Arbeit

Mehr

Optimieren von Requirements Management & Engineering

Optimieren von Requirements Management & Engineering Xpert.press Optimieren von Requirements Management & Engineering Mit dem HOOD Capability Model Bearbeitet von Colin Hood, Rupert Wiebel 1. Auflage 2005. Buch. xii, 245 S. Hardcover ISBN 978 3 540 21178

Mehr

A-Plan 12.0. Zeiterfassung 2.0. Ausgabe 1.1. Copyright. Warenzeichenhinweise

A-Plan 12.0. Zeiterfassung 2.0. Ausgabe 1.1. Copyright. Warenzeichenhinweise A-Plan 12.0 Zeiterfassung 2.0 Ausgabe 1.1 Copyright Copyright 1996-2014 braintool software gmbh Kein Teil dieses Handbuches darf ohne ausdrückliche Genehmigung von braintool software gmbh auf mechanischem

Mehr

Dr. Stefan Wess, Geschäftsführer

Dr. Stefan Wess, Geschäftsführer Dr. Stefan Wess, Geschäftsführer Wirtschaftliche Aspekte der Suchtechnologie: Es geht um (viel) mehr als (nur) Die richtige Information zur richtigen Zeit bei der richtigen Person 4 Dr. Stefan Wess 11.

Mehr

Die Wahl der Suchbegriffe

Die Wahl der Suchbegriffe Die Wahl der Suchbegriffe Der erste wichtige Schritt für eine effektive Literaturrecherche ist die Wahl der Suchbegriffe. Auf der Suche nach Literatur kommt es häufig vor, dass man keine oder nur sehr

Mehr

1 Einleitung. Software Engineering. Vorgehensweisen

1 Einleitung. Software Engineering. Vorgehensweisen 1 Noch ein Buch über Software Engineering? Warum nicht! Wir folgen einem Prinzip, das zur Lösungsfindung in den verschiedensten Domänen Einzug gehalten hat: die Betrachtung aus verschiedenen Blickwinkeln.

Mehr

Best Practices fü r Seminararbeiten

Best Practices fü r Seminararbeiten Best Practices fü r Seminararbeiten 1. Ziel des Seminars Ein Seminar ist dazu da, vorhandene Literatur / Software / etc. zu einem bestimmten Thema durchzuarbeiten und die wesentlichen Punkte zusammenzufassen,

Mehr

Gesucht und Gefunden: Die Funktionsweise einer Suchmaschine

Gesucht und Gefunden: Die Funktionsweise einer Suchmaschine Gesucht und Gefunden: Die Funktionsweise einer Suchmaschine Prof. Dr. Peter Becker FH Bonn-Rhein-Sieg Fachbereich Informatik peter.becker@fh-bonn-rhein-sieg.de Vortrag im Rahmen des Studieninformationstags

Mehr

CHECKLISTE B A C K L I N K S

CHECKLISTE B A C K L I N K S CHECKLISTE BACKLINKS Backlinks, also Rückverweise, die von anderen Internetseiten auf Ihre Website führen, sind ein äußerst effektives Instrument, um die Besucherzahlen auf Ihrer Website zu erhöhen und

Mehr

Abschlussberich olat pilot vwl

Abschlussberich olat pilot vwl Institut für Wirtschaftstheorie, politik und geschichte Abschlussberich olat pilot vwl Projektcode 2009.159 Lukas Hechl & Gottfried Tappeiner 25.11.2010 Feedback zu OLAT Schon der erste Eindruck lässt

Mehr

Von der Literaturverwaltung zur Dokumentenverwaltung

Von der Literaturverwaltung zur Dokumentenverwaltung Von der Literaturverwaltung zur Dokumentenverwaltung Literaturverwaltung erfasst Metadaten über ein Dokument Dokumentenverwaltung kümmert sich um die Dokumenten-Technologien Umsetzung meist in einem Dokumentmanagementsystem

Mehr

RÖK Typo3 Dokumentation

RÖK Typo3 Dokumentation 2012 RÖK Typo3 Dokumentation Redakteur Sparten Eine Hilfe für den Einstieg in Typo3. Innpuls Werbeagentur GmbH 01.01.2012 2 RÖK Typo3 Dokumentation Inhalt 1) Was ist Typo3... 3 2) Typo3 aufrufen und Anmelden...

Mehr

Kapitel 1 Überblick Content Management und Digitale Bibliotheken

Kapitel 1 Überblick Content Management und Digitale Bibliotheken Kapitel 1 Überblick Content Management und Digitale Bibliotheken Prof. Dr.-Ing. Stefan Deßloch Geb. 36, Raum 329 Tel. 0631/205 3275 dessloch@informatik.uni-kl.de 1 Überblick Was ist Content? Daten, Dokumente,

Mehr

Benutzerhandbuch WordPress

Benutzerhandbuch WordPress Benutzerhandbuch WordPress Handbuch zur Erstellung eines Weblogs Copyright 2008 by Eva-Maria Wahl & Dennis Klehr Inhaltsverzeichnis 1. Einführung 3 1.1 Blog 3 1.2 Web 2.0 3 1.3 Content Management System

Mehr

Vorwort. Hermann J. Schmelzer, Wolfgang Sesselmann. Geschäftsprozessmanagement in der Praxis

Vorwort. Hermann J. Schmelzer, Wolfgang Sesselmann. Geschäftsprozessmanagement in der Praxis Vorwort Hermann J. Schmelzer, Wolfgang Sesselmann Geschäftsprozessmanagement in der Praxis Kunden zufrieden stellen - Produktivität steigern - Wert erhöhen ISBN (Buch): 978-3-446-43460-8 Weitere Informationen

Mehr

Kunden gewinnen mit Fallstudien

Kunden gewinnen mit Fallstudien Seite 1 Content Marketing Guide 1 Kunden gewinnen mit Fallstudien Doris Doppler 2012 Doris Doppler. Alle Rechte vorbehalten. web: www.textshop.biz www.ddoppler.com mail: office@textshop.biz Das Werk einschließlich

Mehr

Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis

Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis Peter Steuri Partner / Leiter IT-Prüfung und -Beratung BDO AG, Solothurn Ausgangslage / Zielsetzungen Ausgangslage Sehr grosses, global

Mehr

Wer sucht wie nach was?

Wer sucht wie nach was? Wer sucht wie nach was? SEO-Optimierungsvorschläge für Websites auf der Basis von Keyword-Recherche Hamburg, 16.10.2012 Christine Wolgarten. Wer spricht da? Christine Wolgarten 2000-2002 allesklar.de Lektorin

Mehr

Hochschule Heilbronn Technik Wirtschaft Informatik

Hochschule Heilbronn Technik Wirtschaft Informatik Hochschule Heilbronn Technik Wirtschaft Informatik Studiengang Electronic Business (EB) Diplomarbeit (280000) Evaluierung und Einführung eines Web Content Management Systems bei einem internationalen und

Mehr

SUCHMASCHINEN - OPTIMIERUNG WORAUF KOMMT ES AN?

SUCHMASCHINEN - OPTIMIERUNG WORAUF KOMMT ES AN? SUCHMASCHINEN - OPTIMIERUNG WORAUF KOMMT ES AN? 1 Was wollen wir? Wir wollen, dass unsere Zielgruppe unsere Website besucht und effizient für sich nutzen kann. 2 Wie kommt unsere Zielgruppe auf unsere

Mehr

Google. Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de

Google. Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de R. Ferber fb md h_da Informationsrechtstag 2009 h_da 2000-07-10 Folie 1 Google Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de R.

Mehr

Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez

Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez Google Wie komme ich nach oben? Bonn, den 08.09.2015 Sabina Bravo Sanchez 5.3 Milliarden Suchanfragen in Deutschland pro Monat (lt. Sistrix 2012 geschätzt) Europa ist Googleland Google ist eine Diva! SEM

Mehr

Release Notes für die Online-Version der Perinorm - September 2014

Release Notes für die Online-Version der Perinorm - September 2014 Release Notes für die Online-Version der Perinorm - September 2014 Mit der Ausgabe September 2014 wird die Software für die Online-Version von Perinorm aktualisiert. Einige Verbesserungen, die mit diesem

Mehr

IQSoft BPM (SW-Release 1.4) Business Process Modeling

IQSoft BPM (SW-Release 1.4) Business Process Modeling IQSoft BPM (SW-Release 1.4) Business Process Modeling Produktbeschreibung Mit BPM, dem Design Tool zu IQSoft, modellieren Sie Ihre Unternehmensprozesse einfach und effektiv. Durch den direkten Zugriff

Mehr

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit Universität Passau Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Bachelorarbeit Der Einsatz moderner Medien und Kommunikationsmöglichkeiten

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

-- in der Theorie und Praxis --

-- in der Theorie und Praxis -- FH Bonn-Rhein-Sieg 13.01.2010 Suchmaschinenmarketing -- in der Theorie und Praxis -- Tobias Battenberg // SPF Handel 2009/2010 Inhalt der Präsentation 1. Einleitung Shoppingmedium Internet, Vorgehensweise

Mehr

Dezember 2009 FACEBOOK MARKETING: Die 10 Facebook-SEO-Tipps, die jeder Facebook-Seitenbetreiber wissen sollte. von Thomas Hutter FACEBOOKMARKETING.

Dezember 2009 FACEBOOK MARKETING: Die 10 Facebook-SEO-Tipps, die jeder Facebook-Seitenbetreiber wissen sollte. von Thomas Hutter FACEBOOKMARKETING. Dezember 2009 FACEBOOK MARKETING: Die 10 Facebook-SEO-Tipps, die jeder Facebook-Seitenbetreiber wissen sollte von Thomas Hutter Auf Facebook entstehen immer mehr Pages von Firmen, Marken, Organisationen

Mehr

Hand aufs Herz: Wie online ist Ihr Unternehmen?

Hand aufs Herz: Wie online ist Ihr Unternehmen? Hand aufs Herz: Wie online ist Ihr Unternehmen? Testen Sie Ihre Website in wenigen Schritten doch einfach mal selbst! Hallo! Mein Name ist Hans-Peter Heikens. Als Online Marketing Manager und Social Media

Mehr

KompetenzManager http://www.kompetenzmanager.ch/mah Manual für die Benutzung der Website

KompetenzManager http://www.kompetenzmanager.ch/mah Manual für die Benutzung der Website KompetenzManager http://www.kompetenzmanager.ch/mah Manual für die Benutzung der Website Inhalt Inhalt... 1 1. Anmelden beim Kompetenzmanager... 3 2. Erstellen eines neuen Kompetenzprofils... 4 2.1. Wizard

Mehr

IAWWeb PDFManager. - Kurzanleitung -

IAWWeb PDFManager. - Kurzanleitung - IAWWeb PDFManager - Kurzanleitung - 1. Einleitung Dieses Dokument beschreibt kurz die grundlegenden Funktionen des PDFManager. Der PDF Manager dient zur Pflege des Dokumentenbestandes. Er kann über die

Mehr

Scheinaufgabe im Fach Web Engineering

Scheinaufgabe im Fach Web Engineering Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für Verteilte Systeme Scheinaufgabe im Fach Web Engineering Thomas Thüm 07. August 2006 Matrikel: 171046 Lehrveranstaltung: Web

Mehr

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften

Mehr

Kurzanleitung CMS. Diese Kurzanleitung bietet Ihnen einen Einstieg in die Homepage Verwaltung mit dem Silverstripe CMS. Inhaltsverzeichnis

Kurzanleitung CMS. Diese Kurzanleitung bietet Ihnen einen Einstieg in die Homepage Verwaltung mit dem Silverstripe CMS. Inhaltsverzeichnis Diese Kurzanleitung bietet Ihnen einen Einstieg in die Homepage Verwaltung mit dem Silverstripe CMS Verfasser: Michael Bogucki Erstellt: 24. September 2008 Letzte Änderung: 16. Juni 2009 Inhaltsverzeichnis

Mehr

Ohne Mathematik undenkbar!

Ohne Mathematik undenkbar! Die tägliche - Suche: Ohne Mathematik undenkbar! Dipl.-Wirt.Math. Jan Maruhn FB IV - Mathematik Universität Trier 29. März 2006 29. März 2006 Seite 1 Gliederung Einleitung und Motivation Das Internet als

Mehr

Handbuch zu AS Connect für Outlook

Handbuch zu AS Connect für Outlook Handbuch zu AS Connect für Outlook AS Connect für Outlook ist die schnelle, einfache Kommunikation zwischen Microsoft Outlook und der AS Datenbank LEISTUNG am BAU. AS Connect für Outlook Stand: 02.04.2013

Mehr

Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung...

Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung... Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung...8 Affiliate Marketing...9 Video Marketing... 10 2 Online Marketing

Mehr

Informationsvermittlung im Web 2.0

Informationsvermittlung im Web 2.0 Informationsvermittlung Wie EEXCESS den Zugang zu kulturellen und wissenschaftlichen Daten erleichtern will 103. Bibliothekartag, Bremen Vortrag von Maren Lehmann, ZBW Kiel im Web 2.0 Maren Lehmann, ZBW

Mehr

Meisterstück Karin Gangl, BA Literatur- und Ressourcenplattform für den Studiengang Angewandtes Wissensmanagement

Meisterstück Karin Gangl, BA Literatur- und Ressourcenplattform für den Studiengang Angewandtes Wissensmanagement Meisterstück Karin Gangl, BA Literatur- und Ressourcenplattform für den Studiengang Angewandtes Wissensmanagement Fragebogen zur Onlinebefragung Mastertudiengang Angewandtes Wissensmanagement FH Burgenland,

Mehr

Wissensmanagement und Technische Dokumentation

Wissensmanagement und Technische Dokumentation Wissensmanagement und Technische Dokumentation requisimus AG Flandernstrasse 96 D-73732 Esslingen Christian Paul, requisimus AG, 05.06.2007 Inhalt Technische Dokumentation und Wissensmanagement... 3 Wissensmanagement...3

Mehr

SEO für TYPO3 Redakteure

SEO für TYPO3 Redakteure SEO für TYPO3 Redakteure Dass Suchmaschinen-Optimierung - kurz SEO - mittlerweile fester Bestandteil einer guten Webseite ist, steht sicherlich außer Frage. Leider sprechen SEO-Experten oft eine kryptische

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

1. Erstellung, aus einer Idee wird ein digitaler Bestandteil einer Website.

1. Erstellung, aus einer Idee wird ein digitaler Bestandteil einer Website. 2. Webpublishing Zur Erstellung von Webpages wurden verschiedene Konzepte entwickelt. Alle diese Konzepte basieren auf dem Content Life Cycle, der mit einem Content Management System weitgehend automatisiert

Mehr

Mit Wikis Wissen im Unternehmen und im Netzwerk managen

Mit Wikis Wissen im Unternehmen und im Netzwerk managen Deutsche Institute für Textil- und Faserforschung Denkendorf Zentrum für Management Research Mit Wikis Wissen im Unternehmen und im Netzwerk managen Dr. Thomas V. Fischer Leiterin: Prof. Dr. rer. pol.,

Mehr