SEITENANZAHL DES ENDBERICHTES: 34 und 9 Anhänge

Größe: px
Ab Seite anzeigen:

Download "SEITENANZAHL DES ENDBERICHTES: 34 und 9 Anhänge"

Transkript

1 BUNDESMINISTERIUM FÜR WISSENSCHAFT VERKEHR UND KUNST Endbericht GESCHÄFTSZAHL: GZ /2-V/B/9/98 VOLLER TITEL DES PROJEKTS: Intelligente Wissenserfassung und Wiederauffindung in künftigen WWW-Systemen ARBEITSTITEL: WWW-Wissensorganisation SEITENANZAHL DES ENDBERICHTES: 34 und 9 Anhänge AUFTRAGNEHMER: Institut für Informationsverarbeitung und Computergestützte Neue Medien (IICM), TU-Graz, Schießstattgasse 4a, A-8010 Graz PROJEKTLEITER: o.univ.-prof.dr.dr.h.c. H. Maurer ANZAHL DER MITARBEITER: 10 PROJEKTDAUER: KOSTENANTEIL DES BMWVK: 2/3 Seite 1

2 Forschungsendbericht WWW-Wissensorganisation Arbeit im Bereich Wissensaufbereitung und Wissensauffindung für das Projekt GZ /2-V/B/9/981 Bundesministerium für Wissenschaft und Verkehr Thomas Aichriedler ChristianGütl Harald Forstinger Jürgen Heber Bernhard Knögler Hermann Maurer Dietmar Neussl Gerald Reif Johannes Weitzer IICM, TU-Graz Graz, Februar 2000 Seite 2

3 1 Projektziel Die große Anzahl von Dokumenten im Internet sowie die rasche Zunahme der Dokumente stellte sich als eine der Auswirkungen der Informationsgesellschaft des zu Ende gehenden 20. Jahrhunderts dar. Zunehmend sind auch Multimedia-Elemente sowie Audio- bzw. Video-Streaming als Informationsträger verfügbar. Begleitet wird dies von einer nahezu unüberschaubaren Anzahl von Entwicklungen, die direkt oder indirekt das Internet bzw. das World Wide Web (WWW oder W3) beeinflussen. Dem enormen Vorteil einer weltweiten Vernetzung von Informationen und Informationsvielfalt steht zunehmend der Nachteil der Unstrukturiertheit gegenüber, welcher letztlich zu Entwicklungen erster Methoden für das automatisierte Auffinden - und somit zu den heutigen Suchdiensten - geführt hat. Heute verfügbare Suchverfahren und die Aufbereitung der durchsuchten Dokumente stellen in Teilbereichen für den Internet-Benutzer hilfreiche Werkzeuge zur Verfügung. Mit den gegenwärtigen Methoden und der Zunahme von Dokumenten und Suchmaschinen wird allerdings die dadurch verursachte Netz- und Serverbelastung künftig andere Anwendungen weitgehend beeinträchtigen. Dazu kommt, daß die bereitgestellten Bedienungsoberflächen heutiger Suchdienste in vieler Hinsicht nicht benutzerfreundlich sind. Die raschen Entwicklungen neuer Internetstandards und Anwendungen sowie der Bedarf an innovativen Verbesserungen soll durch das Forschungsprojekt Intelligente Wissenserfassung und Wiederauffindung in künftigen WWW-Systemen behandelt werden. Relevante Forschungsansätze und Testimplementierungen sollen Möglichkeiten von Verbesserungen oder gänzlich neue Ansätze (im Gegensatz zu gegenwärtigen Suchdiensten wie z.b. HotBot, Harvest, Altavista, Lycos, etc.) aufzeigen. Dabei sollen Bereiche, wie z.b. hierarchische Suchdienste, automatische Linkkonsistenzprüfung, Benutzerprofile, Qualitätskennziffer, Relevanzprüfung und Individuelles Ranking betrachtet werden. Des weiteren sind u.a. Dokument- Zusatzinformationen (Meta-Daten), Ähnlichkeit der Dokumente, zweistufige Suchmöglichkeiten, Suchindex verknüpfter Dokumente und semantische Netze interessante Untersuchungsgebiete. 2 Anpassung des Projektzieles im Laufe der Untersuchungen und ersten Implementationen Wie bereits im Forschungszwischenbereicht dargestellt, hat sich an Hand von Literaturrecherchen und Analysen bestehender Suchdienste sowie erster Testimplementierungen die Notwendigkeit eines möglichst verteilten und offenen Systems gezeigt. Die bereits gewonnenen Erkenntnisse legen es nahe, das Konzept eines zukunftsorientierten Wissenserfassungs- und Wissensauffindungssystems - verteilt und für externe Systeme offen - in Verbindung mit Qualitätsmetadaten zu verfolgen. Im zweiten Teil des Forschungsvorhabens sind Teile dieses Konzeptes durch Testimplementierungen eingehend untersucht worden. Begleitend sind weitere Literaturrecherchen durchgeführt worden. Seite 3

4 3 Einleitung Das Wissen der Menschheit wächst unaufhaltsam - näherungsweise exponentiell - und ist für den einzelnen schon lange nicht mehr überschaubar. Beschränkt man sich auch nur auf ein Fachgebiet, eine sogenannte knowledge domain, so ist selbst hierbei der Mensch überfordert, den Überblick zu behalten. Das Wissen der Menschheit wächst wie Kapital, mit Zinsen und Zinseszinsen. Das rasante Wachstum wird augenscheinlich, wenn man die Verdoppelungszeit des Wissens betrachtet; diese beträgt etwa 10 Jahre, bei engerer Auslegung und unter Berücksichtigung aller wissenschaftlichen Publikationen 20 Jahre. In einer makroökonomischen Sichtweise kommt der Menschheit vermehrt die Aufgabe zu, dieses Kapital zum Wohle aller zu nutzen. Neue Arbeitsgebiete, Wissenschaftszweige und Forschungsgebiete müssen dem Rechnung tragen. So leben z.b. 90 Prozent aller Wissenschafter, die jemals gelebt haben, heute. Diese Aussage triff jedoch nicht nur für die heutige Situation zu, sondern galt auch schon vor einhundert oder zweihundert Jahren. Die angeführten Fakten der Wissenszunahme beschreiben den derzeitigen Status quo, lassen jedoch die immer größer werdende künftige Bedeutung von Wissensmanagement erkennen. In einer mikroökonomischen Sichtweise, insbesondere in Organisationsstrukturen wie Unternehmungen, kommt dem verfügbaren Wissen enorme Bedeutung zu, die erworbene und nachhaltig bestehende Fähigkeit von Wissensmanagement kann als ein strategisches Erfolgspotential angesehen werden. Als wesentlicher Aspekt kann die Qualität im Zusammenhang mit verfügbaren Wissensquellen und den daraus gewonnenen Informationen angesehen werden. Nur zuverlässige, zeitgerechte Information und Kenntnisse über die Absichten und den Benutzerkreis ermöglichen erst eine sinnvolle Nutzung. Das vorhandene Wissen der Menschen - ihre Kenntnisse, Erfahrungen, Problemlösungsstrategien, etc. - und die im Laufe der Zeit daraus entstandenen Wissensspeicher, wie Bibliotheken und in letzter Zeit zunehmend das Internet, sollen die notwendigen handlungsorientierten und relevanten Informationen für den einzelnen liefern. Dazu sind Systeme notwendig, die Informationen sowie deren Beziehungen zueinander verwalten können, bereits vorhandenes Wissen integrieren und offen und flexibel sind für Erweiterungen. Eine wesentliche Aufgabe kommt auch der Wiederauffindung von Information, dem information retrieval, zu. Der gegenwärtig wohl größte zusammenhängende Wissensspeicher, das Internet, weist eine geschätzte Anzahl von über 7 Millionen Web Sites auf. Dies Anzahl wird auf im Jahre 2003 auf 200 Millionen Web Sites ansteigen. Die Anzahl der indizierbaren Seiten wird wohl um Zehnerpotenzen höher liegen. Zum Zeitpunkt des Verfassens dieses Berichtes hat z.b. FAST Search mit 300 Millionen Seiten derzeit den größten Index. Damit erscheint gerade das Internet als weltumspannender Wissensspeicher einer nähere Betrachtung im Bereich des Wissensmanagement - als sinnvoll. Der Gestaltungsbereich eines Wissenssystems sollte deshalb auch auf Internet bzw. auf Nachfolgetechnologien ausgerichtet sein. Aufgrund von fehlenden Regulativen beim Publizieren von Inhalten im Internet werden die Aspekte von Qualitätskriterien bei der Suche und dem Beurteilen von gewonnenen Informationen zu einem notwendigen und wichtigen Thema. Seite 4

5 4 Ergebnisse aus Literaturrecherchen und Untersuchung von gegenwärtigen Suchdiensten Bei einer engeren Betrachtung von Wissensmanagement aus der Sicht der Wissenserfassung und -verarbeitung sind insbesondere der Gathering-Prozeß, Strukturierung und Verknüpfung der gespeicherten Informationen, sowie die Anreicherung von zusätzlichen Informationen gemeint. Die Informationsanreicherung setzt sich dabei einerseits aus von Benutzern generierten Zusatzinformationen und aus menschlichem Expertenwissen und andererseits von automatisierten Prozessen, wie z.b. Extraktion von Metadaten aus dem Inhalt oder aus Clusterbildungen, zusammen. Als weitere Hauptaufgabe kann der Retrieval-Prozeß genannt werden. Dem einzelnen Benutzer sollte dabei die für ihn relevante, aktuelle und angepaßte Information angeboten werden. Betrachtungen im Zusammenhang mit dem Internet sollen gegenwärtige Probleme aufzeigen. Nachfolgende Absätze beziehen sich auf die Literaturstudie "Analyse gegenwärtiger Suchdienste und Konzepte für künftige Wissensauffindung" (siehe auch Anhang 1), "Suchmaschinen - Verteilte Suche und Indizierung" (siehe Anhang 2) und "Aspekte der Wissensverarbeitung" (siehe auch Anhang 3). Die Analyse zeigt die verschiedenen Bereiche und Möglichkeiten, Informationen online - über das Internet - zu verbreiten bzw. zur Verfügung zu stellen. Zunächst sollen die herkömmlichen Suchdienste betrachtet werden. Internet Suchmaschinen, wie z.b. Altavista, versuchen von zentraler Stelle aus die verfügbaren Informationen der einzelnen Server abzuernten und diese auch zentral zur Verfügung zu stellen. Dabei kann es durchschnittlich 3 Wochen dauern, bis die Informationen erfaßt werden und die Durchsuchungstiefe ist von der Wichtigkeit der einzelnen Server abhängig. Ein aktuelles und vollständiges Abbild des Internets scheint damit kaum möglich. Untersuchungen zeigen, daß die größten Suchdienste weniger als 20 % aller indizierbaren Dokumente in ihrem Index haben. Die Erfassung und das Indizieren von einzelnen Wörtern der Dokumente führt bei Suchanfragen oftmals zu einer nahezu endlosen Liste von Treffern, die den Benutzer überfordert und mitunter auch nicht die geforderte Qualität aufweist. Zusätzliche Informationen, wie Server- und Webbereich-Zusatzbeschreibungen, Qualitätsaspekte, Gültigkeitsdauer und Verweise werden von gegenwärtigen Systemen höchstens vereinzelt berücksichtigt. Der verteilten Struktur der Information im Internet wird kaum Rechnung getragen. Redaktionell betreute Suchkataloge könnten teilweise oben genannten Problemen entgegenwirken. Der hohe Aufwand der Wartung der Suchkataloge schränkt den Umfang an gespeicherten Information weiter stark ein. Für die zuverlässige Betreuung von oben genannten Zusatzinformationen muß der Bereich auf wenige oder einen einzelnen Wissensbereich eingeschränkt werden. Ein möglicher Lösungsweg kann in einem offenen System liegen, wo der Wissenserfassungs- und Wissensverarbeitungsprozeß eng mit anderen Komponenten, wie z.b. mit Bewertungssystemen, Collaborative Filtering Systemen und Archivierungssystemen, zusammen wirkt. Die gesamte Knowledge Community, Benutzer und menschliche Experten, soll die Inhalte des Systems gestalten und diese sollen dem einzelnen wieder zu Gute kommen. Betrachtet man gegenwärtige Informationssysteme, die aus marktstrategischen Überlegungen auch gerne als Knowledge Management Systeme bezeichnet werden, Seite 5

6 so sind diese zumeist auf schmale Bereiche des innerbetrieblichen Informationsprozesses beschränkt. Nur wenige einzelne Produkte können zu einem geringen Teil oben genannte Forderungen erfüllen. Ein großes Problem stellt weiters die Verwaltung aller in einer Organisation verfügbaren Informationen in einer transparenten und konsistenten Sichtweise dar. Bestehende und auch künftige Systeme sollen durch eine offene Architektur leicht integrierbar sein. Entsprechend der Verteiltheit der Internetquellen liegt der Ansatz nahe, auch - zumindest Teile - der Wissensauffindung in einer verteilten Struktur zu realisieren. Durch die Größe und Dynamik des Internets und dem Mangel an anerkannten Standards ergeben sich für die gängigen zentralen Suchdienste entscheidende Nachteile. Die Ergebnisse sind nicht vollständig, obwohl oft Unmengen an Suchergebnissen angeboten werden. Die Qualität der Ergebnisse ist oft mangelhaft bzw. wirklich relevante Ergebnisse sind schwer zu erkennen, besonders durch schlechtes Ranking dieser und durch Fehlen von Zusatzinformation und Beschreibungen der Resultate. Indizes sind nicht up-to-date. Die einzelnen Suchdienste sind unterschiedlich zu bedienen, d.h. bieten verschiedene Features an. Kataloge liefern zwar oft qualitativ bessere Resultate, sind aber weit nicht vollständig, und Meta-Suchmaschinen haben mit uneinheitlichen Query-Languages und dem Result-Merging zu kämpfen. Herkömmliche Suchmaschinen (AltaVista, NorthernLight, Infoseek, etc) verwalten jeweils einen eigenen Index zentral, der durch Crawling des gesamten Webs aufgebaut wird. Der Benutzer verwendet ihre User- Interfaces um Queries abzusetzen. Dabei hat jede Search Engine eine eigene, nicht standardisierte Query-Language. Ebenso sind die Formate der Einträge in den Indexen von Suchdienst zu Suchdienst verschieden. Somit ist keine geregelte Zusammenarbeit zwischen den einzelnen Suchdiensten möglich. Bei der Verteilten Suche und Indizierung soll nun diese Zusammenarbeit ermöglicht werden. Es verwaltet nicht mehr ein Suchdienst einen großen zentralen Index, sondern mehrere Informations-Server verwalten mehrere kleinere Indizes, die man sich gegenseitig zur Verfügung stellt. Dazu müssen natürlich Standards eingehalten werden. Es gibt hier unterschiedlichste Ansätze zur Verteilung der Indexe. Die Informationsserver, können regionale Informationen abdecken, nur Dokumente zu bestimmten Fachgebieten, etc., anbieten. Verteilte Suche ist, wenn auch ein sehr vielversprechender, nur ein möglicher Ansatz, um der Informationsflut im Internet Herr zu werden. Es gibt noch andere Ansätze und Konzepte, sowie Verbesserungsvorschläge, die derzeit noch im Forschungsstadium sind. Diese neuen Ideen befassen sich z.b. mit neuen Architekturen, verbesserten Crawlertechniken, Metadaten, der Definition von Standards, mit Ranking-Techniken und mit benutzerfreundlicheren User-Interfaces. Zusammenfassend kann man von gegenwärtigen Suchdiensten - den robot-basierten Suchmaschinen, den Suchkatalogen sowie den Meta-Suchdiensten - den positiven Aspekt hervor heben, das diese entsprechend ausgewählt den Benutzer beim Auffinden von Informationen unterstützen. Um gezielt Informationen auffinden zu können, benötigen die Benutzer jedoch umfangreiche Kenntnisse über verfügbare Suchdienste und den jeweiligen Recherchemöglichkeiten. Schwachpunkte der gegenwärtigen Suchdienste sind durch die fehlende Möglichkeit, Qualitätskriterien bei den Suchabfragen mit einzubeziehen, gegeben. Des weiteren fehlen geeignete Zusatzinformationen bei den Suchergebnissen, um Aussagen über die Qualität der Seite 6

7 angebotenen Informationen, wie z.b. Zuverlässigkeit, Zielgruppen, etc., treffen zu können. Eine starke Belastung der Server und des Netzwerkes wird durch die Vielzahl der Suchdienste, die alle parallel das Internet absuchen, verursacht. Nachfolgend sollen weitere Möglichkeiten zur Wissensauffindung kurz angeführt werden. Recommendation Systems nutzen den sozialen Mechanismus der Wissensteilung, der u.a. als Ursprung für die Weiterentwicklung der Sprache und dem abstrakten Denken gilt. Dieser Mechanismus wird angewandt, um mittels dem Internet weltweit den Austausch von Wissen innerhalb von Gruppen mit ähnlichen Interessen und Vorlieben zu ermöglichen. Durch den Einsatz von speziellen Filtertechniken, genannt "Collaborative Filtering", werden einem Benutzer dieses Systems anhand von Vorlieben einer Gemeinschaft von vergleichbaren Usern Vorschläge unterbreitet, bzw. Prädiktionen gemacht was dieser Benutzer bevorzugt oder ablehnt. Diese Methode kann bei verschiedenen Dingen, wie z.b. Büchern, Filmen oder ähnlichem zum Einsatz kommen. Dem User werden zuvor einige Fragen gestellt, um ihn richtig einordnen zu können. Dieses Profil dient dem System dann als Grundlage für die Prädiktionen und verbessert außerdem die Genauigkeit der folgenden Aussagen mit jedem weiteren gewerteten und eingeschätzten Gegenstand. Recommendation Systems sind schnell und effizient, besonders wenn man sie mit traditionellen künstlichen Intelligenzen wie etwa neuralen Netzen oder regelbasierten Prozessen vergleicht. Es kommen Menschen und Computer jeweils dort zum Einsatz, wo sie die besten Leistungen erbringen. Durch die automatisierte Speicherung von menschlichen Meinungen über die Wichtigkeit und Qualität dieses Materials werden die Ergebnisse von Suchprozessen verbessert. Diese Technologie nennt sich Automated Collaborative Filtering (ACF). Automated Collaborative Filtering kann als ein Beispiel für künstliche Intelligenz gesehen werden. Das System kombiniert menschliche und maschinelle Stärken im Sinne der Wissensverarbeitung. ACF erlaubt Verknüpfungen von Personen mit ähnlichen Interessen zu finden, es ermittelt Experten für spezielle Wissensgebiete, analysiert die Struktur der Interessen in verschiedenen Themengebieten, erleichtert die Entstehung von Interessensgruppen und verbessert das Finden von Zielgruppen für Ankündigungen und Annoncen. Die Verbreitung von Meinungen benötigt kein Wissen über die physikalische Identität der Person, die Ratschläge erhält oder erteilt. Ein weiterer interessanter Ansatz sind Intelligent Agents. Die Anwendungsgebiete für intelligente Agenten gehen weit über den Rahmen dieses Forschungsprojektes hinaus. Der Begriff Agenten wird u.a. im Zusammenhang mit intelligenten Hilfesystemen, beim Management von Geschäftsprozessen oder bei Ansätzen zur Reduktion der Informationsflut und des Arbeitsaufwandes genannt. Im Zusammenhang mit der vorliegenden Arbeit stehen insbesondere Informationsmanagement und Benutzerschnittstellen. Zum erstgenannten Punkt, dem Informationsmanagement: In dieses Anwendungsgebiet fällt die aktive Suche im WWW mit der Unterstützung von intelligenten Agenten. Diese können sich über die Zeit ihrer Anwendung an die Bedürfnisse und Aufgaben eines bestimmten Benutzers anpassen, indem sie seine Interessen, Gewohnheiten und Vorlieben erlernen. Vergleichbar mit einem menschlichen Assistenten können sie diesem dann immer mehr Aufgaben abnehmen. In den Bereich des Informationsmanagements fallen aber auch passiv arbeitende Agenten, etwa zur intelligenten Organisation eingehender Nachrichten. In beiden Seite 7

8 Anwendungsfällen kann der Agent sowohl vom alleinigen Benutzer lernen oder aber durch Einsatz einer Art "social filtering", also durch Präferenzen von Benutzern mit potentiell gleichen Interessen seine Fähigkeiten verbessern. Dies geschieht dann in Kooperation mit anderen Agenten. Die zweite wichtige Anwendung, die Benutzerschnittstellen: Intelligente Agenten können den Anwender bei der Benutzung komplexer Programme unterstützen oder selbst zur Benutzerschnittstelle werden. Dies stellt den Übergang vom Ansatz der direkten Manipulation an Objekten hin zur Delegation von Aufgaben an Agenten zum Erreichen eines Zieles. Diese indirekte Manipulation stellt einen radikalen Umschwung in der Gestaltung der Mensch- Maschine Schnittstelle dar. Ein zusehends immer wichtiger Anwendungsbereich, Mobile Computer: Personal Digital Assistants (PDA) können für den Benutzer selbständig Aufgaben ausführen, ohne das dieser ständig mit dem Netz verbunden sein muß. Sie können beispielsweise s entgegennehmen oder nach Informationen suchen. Gerade der letztgenannte Punkt wird in der stark zunehmenden mobilen Kommunikation von besonderem Interesse werden. Der Begriff "Push" soll im Zusammenhang mit dem Medium Internet ausdrücken, daß bei diesem Verfahren der Benutzer mit von ihm gewünschten Informationen versorgt wird. Dieses Verfahren unterscheidet sich von allen anderen Methoden zur Wissensauffindung, bei denen vom Benutzer erwartet wird, sich diese Informationen selbst zu beschaffen (entspräche dem Begriff "Pull"). Push-Technologie verbindet die Fähigkeiten eines leistungsfähigen PCs mit denen des Internets. Durch die Verwendung des lokalen Speichers wird die Zustellung von Informationen erleichtert. Beim Abrufen der Informationen, die dann bereits lokal aufbewahrt werden, kommt es dann zu keinen weiteren merklichen Verzögerungen. Die dadurch gesteigerte Benutzerzufriedenheit ist sowohl Zweck als auch Erfolgsrezept dieses Verfahrens. Das Empfangen von Push-Informationen gestaltet sich für den Endverbraucher relativ einfach. Der Benutzer bzw. Abonnent wird Mitglied bei einem Anbieter oder einem speziellen Informationskanal - dem Channel - durch Übermittlung eines Informationsprofils das demographische Daten und Angaben über gewünschte Inhalte enthält. Weiters erstellt er einen Zeitplan, wann die gewünschten Daten übermittelt werden sollen. Basierend auf diesem Zeitplan, baut der PC des Benutzers eine Verbindung zum Server im Internet auf und erhält auf diesem Weg vom Server die entsprechend gefilterten Informationen. Durch den Einsatz der Multicast-Verfahren kann eine drohend hohe Netzbelastung durch diese Technologie eingeschränkt werden, da es bei diesem Verfahren nicht mehr nötig ist, zu jedem Benutzer eine eigene Verbindung aufzubauen, was besonders bei mehreren Benutzern im selben Subnetz, die exakt identische Informationen erhalten sollen, logisch erscheint. Auch der Einsatz von anderen Übertragungswegen eignet sich für dieses Verfahren. So ist der Einsatz von Satelliten und Rundfunknetzen möglich. Auch eine Kombination von Push-Technologie mit anderen zuvor vorgestellten Verfahren wäre denkbar. Recommendation Systems oder Intelligente Assistenten können mit Push- Technologie kombiniert werden und würden eine persönliche Betreuung jedes Benutzers unterstützen. Der Vollständigkeit halber sollen noch weitere Ansätze zur Wissensauffindung nachfolgend angegeben werden. Internet-Clearinghouses haben die Zielsetzung, jegliche relevante Literatur innerhalb ihres zuständigen Teilgebietes zu Sammeln und zu Verzeichen. Durch den intellektuellen Zugang zu Internet-basierten Informationen über eine zentrale Stelle, wo fachspezifische Informationen strukturiert und in Seite 8

9 benutzergerechten Präsentationsformen angeboten werden, soll der Anwender schneller und gezielter an die einschlägigen Quellen gelangen. Die qualitative Präsentation beruht größtenteils auf einer intellektuellen inhaltlichen Erschließung, die sowohl eine verbale Erschließung (die semantisch korrekte Inhaltswiedergabe bzw. Zusammenfassung eines Dokuments) als auch ein Klassifikationssystem beinhalten kann. Die vergangenen zwei Dekaden haben eine dramatische Zunahme der auf elektronischen Wege gespeicherten Informationen mit sich gebracht, beispielhaft wurde dies bereits an Hand des Internets gezeigt. Die Erkenntnis, daß große Datenmengen eine Reihe von impliziten Aspekten - die für Benutzer von großen Interesse sein können - enthalten, führte zu der Entwicklung des Datamining, auch "Knowledge Discovery in Databases" (KDD) genannt. Datamining ist definiert als die nicht-triviale Extraktion von implizitem, zuvor unbekanntem und potentiell nützlichem Wissen aus Datenmengen. Das Prinzip des Datamining ist auch auf das WWW anwendbar, das als eine Spezialform einer Datenbank gesehen werden kann. Das WWW stellt eine Sonderform eines heterogenen Datenbestandes dar. Das weltweite Datennetz dient primär als Medium zur Wissensverbreitung, hat aber auch viele andere Anwendungsmöglichkeiten im Bereich von Wirtschaft und Handel, etwa als Hilfsmittel für Serviceleistungen. Datamining ist für diese Form einer großen Datenmenge speziell geeignet, da die Heterogenität des WWW im Gegensatz zu anderen Anwendungen des maschinellen Lernens kein Problem darstellt. Der Hauptaugenmerk bei möglichen Anwendungen von Datamining im WWW liegt auf der Konzeption des Lernalgorithmus und den sich daraus ergebenden Möglichkeiten für den User. Damit kann Datamining im Bereich der Wissensauffindung im WWW eine sinnvolle Erweiterung bzw. Ergänzung bieten. Zusammenfassend läßt sich schlußfolgern, daß neben den herkömmlichen Konzepten von Suchdiensten eine Reihe von bereits existierenden Konzepten, wie z.b. den Intelligent Agents, Push-Technologie, Recommendation Systems, WWW- Clearinghouses und Datamining, bei den Betrachtungen zur Gestaltung eines modernen Wissenserfassungssystems einbezogen werden sollten. Es soll in die Überlegungen zum Gestaltungsprozeß noch Multimedia-Technologien im Bereich der Wissensauffindung mit einbezogen werden. Die Entwicklung in diesem Gebiet reichen z.b. von einfacher Metadatenverwaltung hin zu Spracherkennung und automatischer Transkription und der anschließenden Indizierung des Textes. Eine verstärkte Aktivität dieses Bereiches scheint eine Berücksichtigung im Gestaltungskonzept notwendig zu machen. Nachfolgend sollen Erkenntnisse aus dem Untersuchungsbereich angemerkt werden, die in ein modernes Konzept zur Wissensauffindung einfließen können. Agent Systems als Software-Paradigma könnte ein interessanter Ansatz für die Zukunft sein. Es kann damit ein einheitlichen Such- und Darstellungsprozeß - unter Einbezug der Benutzereigenschaften - über mehrere Informationsquellen angeboten werden. Informationstiefe und -vielfalt könnte dabei in Abhängigkeit der Funktion und der Zugehörigkeit einer bestimmten Teilorganisationseinheit angeboten werden. Bei Zusammenarbeit mit anderen Organisationen sollte eine Weitergabe von anonymisierten Informationseinheiten möglich sein. Im Sinne der Annäherung an die Seite 9

10 Automated Collaborative Filtering (ACF) Philosophie sind einmal gefundene relevante und qualitätvolle Informationen der gesamten Knowledge Community passiv oder auch aktiv zur Verfügung zu stellen. Dies sollte in analoger Weise auch für bereits gelöste Probleme gelten. Bewertungen, Zusätze und Verknüpfungen von gespeicherten Informationen verbessern den gesamten Knowledge Prozeß und damit auch das Auffinden von relevanten Informationen für den einzelnen Benutzer. Dem Wissenserfassungs- und Wissensverarbeitunsprozeß in einem zukunftsorientierten Knowledge Management System kommt in vielen Stufen eine wesentliche Rolle zu und kann als horizontale Integrationsschicht über die Knowledge Management Prozeßstufen gesehen werden. So kann beim Einbringen von neuen Informationen u.a. Unterstützung bei Kategorisierungen sowie Verbindungen zu bestehendem Wissen und Beschaffung von Zusatzinformationen erbracht werden. Bereits gespeicherte Information kann z.b. unter Einbeziehung von Bewertungssystemen und Benutzererfahrungen sowie durch Querverweise weiter angereichert werden. Darüber hinaus soll zu den einzelnen Themengebieten das entsprechende Domain Expert Knowledge (und damit Spezialisierungen) entstehen, das sowohl beim Einbringen von Information wertvolle Hilfe leisten kann als auch beim Retrieval Prozeß für eine Verbesserung der Suchergebnisse sorgt. Das situationsbezogene und problemorientierte Nachfragen nach Information soll individuell für jeden Benutzer aktuelle und handlungsrelevante Information liefern. Entsprechend den oben gestellten Anforderungen ist ein offenes und skalierbares System denkbar. Um der vorherrschenden Verteiltheit der Informationsquellen gerecht zu werden, sollen auch die Wissenserfassungs- und Wissensverarbeitungsmodule verteilt zur Anwendung kommen. Bestehende Wissensspeicher müssen in dem verteilten System ebenso integrierbar sein wie die nachträgliche Einbindung künftiger Systeme. Dabei sollten so viele Prozesse wie möglich hin zu den einzelnen Systemen ausgelagert werden. Unabhängig davon müssen aus Gründen der Performance und der Spezialisierung sogenannte Knowledge Broker Punkte realisierbar sein, die unter Einbeziehung von Benutzerinformationen die nachgefragte Information in der gewünschten Qualität liefern können. Entsprechend der Philosophie von kleinen flexiblen Zellen sollen Systeme für Organisationseinheiten autark arbeiten können und dennoch beliebig zu größeren, auch dynamisch gebildeten, Wissensclustern skalierbar sein und dieses Wissen gemeinsam nutzen. Zusammenfassend kann in Anlehnung an die ACF Philosophie hervorgehoben werden, daß die Erfahrungen und Kenntnisse der Menschen wesentlicher Bestandteil des Wissensspeichers sind; der Wissenserfassung und -verarbeitung kommen unterstützende und automatisierende Aufgaben zu. Somit können diese Forschungsbereiche den Vorgang von Information zu Wissen und umgekehrt erleichtern und beschleunigen. Detaillierte Studien bzw. Arbeiten zu diesem Abschnitt sind in Anhang 1, Anhang 2 und Anhang 3 enthalten. Im nächsten Kapitel wird ein mögliches Gestaltungskonzept im Überblick erörtert. Seite 10

11 5 Gestaltungskonzept Die umfangreichen Literaturstudien sowie die Testimplementierungen haben gezeigt, daß ein zukunftsorientiertes Suchsystem der Verteiltheit der Informationsquellen entsprechen soll. Des weiteren muß das System offen und erweiterbar sein, damit eine Integration von bestehenden und künftigen Informationssystemen gewährleistet werden kann. Externe Applikationen, wie Bewertungssysteme, Collaborative Filtering, Intelligent Agents, Archivierung und Versionierung, sollen von dem Suchsystem einerseits unterstützt werden und anderseits sollen Teilinformationen der externen Anwendungen auch in das Suchsystem einfließen können. Eine weitere Anforderung an ein zukunftsorientiertes Suchsystem liegt in einer verteilten und kooperierenden Brokerstruktur. Unter Broker soll in diesem Zusammenhang die Schnittstelle zwischen den Benutzern und dem System gesehen werden; es ist dies jener Teil, der dem Benutzer entsprechende Formulare zur Suchanfrage anbietet, die Suchanfrage entsprechen weiterverteilt und die Ergebnisse wiederum für den Benutzer aufbereitet. Um den genannten Anforderungen zu entsprechen, wird in diesem Abschnitt ein Gestaltungskonzept eines Frameworks entwickelt, xfind. xfind ist die Abkürzung für extended Framework for Information Discovery steht einerseits für das Gestaltungskonzept und andererseits für den implementierten Prototyp (siehe auch 6 Testimplementierungen). Das Niederschreiben und Aufnehmen von Wissen in Büchern, das Verwalten, Sammeln und Festhalten von Information in Archiven verliert mehr und mehr an Bedeutung. Der Prozeß des Durchsuchens übersichtlicher Ordnungssysteme wie Bibliotheken, Büchern und Zeitschriften wandelt sich in eine Auseinandersetzung mit komplexen Informationsfragmenten. Digitale Kommunikations- und Informationssysteme und globale Vernetzung bewirken eine Entfernung von existierenden Informationsstrukturen. Das Internet spannt einen Raum auf, der sich zunehmend mit dem realen gesellschaftlichen Lebensraum überschneidet. Die uneingeschränkte Informationsflut verlangt neue Mittel zur Suche und Auffindung von Inhalten. Gegenwärtige Suchdienste kommen mit den grundlegenden Eigenschaften dieses globalen Mediums kaum mehr zu Rande. Die enorme Netzwerklast von Suchdiensten verringert die Leistung für andere Dienste im Netz. Darüber hinaus werden Informationsserver durch permanentes "Gathern'' in ihrer Leistungsfähigkeit geschwächt. Auch für den Benutzer wird es mit steigendem Angebot immer schwieriger, relevante und adäquate Information zu finden. Aspekte der Zuverlässigkeit und Qualität spielen eine immer größer werdende Rolle. Zuverlässige Information wird ein immer kostbareres Gut und es scheint sich abzuzeichnen, daß gerade in diesem Bereich kommerziell verwertbare Produkte am Markt gefragt sein werden und platziert werden können. Die Quantität und die Unstrukturiertheit des Informationsangebotes verlangt neue Wege in der Auffindung und Bereitstellung von Information. Verteilte Suchsysteme passen sich der Topologie des Internets an. Durch die bekannte Methode Teile und Herrsche'' kann man lokal verschiedene Grundprobleme lösen und unter Einbindung Seite 11

12 vieler dieser Teilsysteme ein komplexes, strukturiertes Netz aufbauen, das in thematische oder regional gegliederte Suchdienste mündet. Zusammenarbeit statt gegenseitiges Blockieren. Entgegen den zur Zeit vorherrschenden Technologien eines zentralen Suchsystems könnte mit dem Konzept xfind ein Nischenkonzept erreicht werden, das durch die Möglichkeit eines verteilten Suchkonzepts als dynamische Hintergrundbibliothek verwendet und in weiten Bereichen vermarktet werden kann. Als besonderer Vorteil sei hier erwähnt, daß durch die physikalische "Nähe" von xfind-gatherern zur Informationsquelle eine hohes Maß an Aktualität erzielt werden kann. Die nachfolgend kurz aufgezeigten Schwachpunkte gängiger Suchdienste sollen die vorhandene Problematik beschreiben: Netzwerk- und Serverbelastung Vollständigkeit, Aktualität und Linkkonsistenz des Suchergebnisses Qualität und Zuverlässigkeit Netzwerk- und Serverbelastung Eines der Hauptprobleme der gegenwärtigen Suchsysteme mit vollautomatischer Auffindung ist das vielfache, unkoordinierte Durchsuchen des Netzes durch eine zunehmende Zahl an Suchmaschinen. Dazu kommt, daß sämtliche Rohdaten vom Server geladen, über das Netz gesandt und erst an zentraler Stelle analysiert werden. Um die Informationsserver und das Netz nicht zu überlasten, müssen die Updateintervalle entsprechend groß gewählt werden. Das geht auf Kosten der Konsistenz und Aktualität. Das kooperierende, verteilte System xfind berücksichtigt beide oben erwähnten Schwächen. Zum einen kann ein lokales Teilsystem direkt beim Informationsserver Daten auffinden, vorbereiten, komprimieren und bereitstellen. Zum anderen können mehrere Suchdienste von diesen aufbereiteten Daten Gebrauch machen. Der einzelne Informationsserver kann daher wesentlich öfter abgesucht werden, ohne daß es zu Überlastungen kommt. XFIND kann auch die Vollständigkeit, Aktualität und Linkkonsistenz der Suchergebnisse verbessern: Vollautomatische Suchdienste streben zumindest teilweise Vollständigkeit an. Da selbst große Dienste nicht ständig alle Änderungen erfassen können und das WWW keinem zusammenhängenden Graphen entspricht, läßt sich Vollständigkeit nicht zentral von einer Stelle aus erzielen. Das gleiche gilt für die Aktualität von indizierten Dokumenten und in weiterer Folge auch für die Konsistenz von Verknüpfungen der Dokumente untereinander. Um diesem Problemkreis zu begegnen, kann man sich bei der Auffindung zunächst auf einzelne Informationsserver beschränken. Suchprogramme, die am Rechner des Informationsservers im Hintergrund laufen und diesen periodisch absuchen, können so Vollständigkeit innerhalb ihres Bereiches erreichen. Die Aktualität und die Linkkonsistenz hängt von der Größe des Absuchintervalls im Verhältnis zur Änderungsrate am Server ab. Je öfter der Seite 12

13 Bereich abgesucht wird, desto konsistenter sind die Daten des Suchdienstes. Das Suchprogramm stellt weiters die Information des Servers für übergeordnete Suchdienste in geballter Form bereit. Dieses Konzept führt zur Architektur der verteilten Suche. Das Framework sollte es natürlich auch erlauben, externe Informationsdienste bzw. Datenbanken in die Recherche mit einzubeziehen. Damit könnten dann auch dynamisch generierte Informationen verwaltet werden. Dafür wären besondere Schnittstellen, die für eine Query-Weiterleitung verwendet werden können, notwendig. Eine Besonderheit in der genannten Problematik stellt hierbei das Hyperwave Information System dar, da dieses System ein integriertes Suchsystem anbietet. Hier wäre eine geeignete Anbindung zum vorhandenen Suchindex von großem Interesse, da man hierbei Performance einsparen könnte. Um einen größeren Informationsraum zur Suche vorbereiten zu können, eignet sich das oben erwähnte Konzept der verteilten Architektur in Verbindung mit verteilten Suchanfragen. Auf unterster Ebene stehen die lokalen Server, die vollständige Erfassung ihrer Daten sicherstellen müssen. Dies kann im vorliegenden Konzept durch einen Gatherer erfolgen, der entweder lokal auf den Server läuft oder zumindest im Sinne eine guten Netzwerkanbindung nahe dem Server ist. Darüberliegende Indexer fassen die aufbereiteten Informationen von mehreren Servern zu zusammen. Dabei kann das Zusammenfassen u.a. nach geographischen oder thematischen Gesichtspunkten erfolgen. Diese Daten werden indiziert und stehen für Suchanfragen zu Verfügung. Qualität und Zuverlässigkeit von angebotener Information bestimmt die Verwertbarkeit für den Benutzer und diese Aspekte werden mit der raschen Zunahme der Dokumenten immer wichtiger. Durch die mannigfaltigen Arten von Anbietern und deren Anonymität sind beide Forderungen von vornherein nicht gegeben. Die Qualitätsangaben von ganzen Informationsservern und auch einzelnen Dokumenten bleiben vorerst Lektoren vorbehalten. Die Bereitstellung von Bewertungen von vorhandener Information könnte sich parallel zu den Suchdiensten als eigenständiger, kommerzieller Dienst entwickeln. Des weiteren könnten Bewertungen durch den Benutzer in das System rückfließen. Hauptziel von xfind soll es sein, möglichst aktuell relevante Information unter Schonung von Server- und Netzwerkressourcen als Konzept der verteilten Wissensauffindung und -suche anzubieten. Durch die Programmiersprache Java kann ein zukunftsorientierte plattformunabhängiges Produkt gestaltet werden. Die Konzeption von xfind sieht entsprechende Schnittstellen zur einfachen Erweiterung und leichteren Weiterentwicklung sowie für weitere Testimplementierungen vor. Der Benutzer soll über Userschnittstellen einfache und erweiterte Suchabfragen an XFIND schicken können, wobei in weiteren Ausbaustufen Wizards und Interface Agents bei den Suchen helfen sollen. Die Suchergebnisrepräsentation soll dem Benutzer einen Informationsmehrwert liefern. Neben automatischer Beschlagwortung und Beschreibung könnten Zusatzinformationen über den jeweiligen Server und auch Seite 13

14 Qualitätsinformationen angeboten werden. Darüber hinaus sollen graphische Visualisierungstools zur erweiterten Visualisierung angeboten werden. Durch Schnittstellen soll eine einfache Verwendung der DINO Technologie und damit der Zugang zu weiteren Informationssystemen möglich sein. Neben der eigenständigen Applikation von xfind soll das System als Modul für WBT (Gentle), electronic Publishing und als externes Informationsmodul für Hyperwave Verwendung finden. Nachfolgend sind, thematisch zusammengefasst, Anforderungen an ein modernes Framework zur Wissensauffindung aufgelistet: 1. Pricing System Suchergebnisse werden, je nach Aufwand, verrechnet Mitarbeit (Quality-Ranking, Anmerkungen) wird gutgeschrieben Ranking und angezeigte Zusatzinformationen kommerziell verwertbar Zusatzdienste für den Info-Provider (Statistiken, Broken Links, etc.) Werbung themenspezifisch platzieren (abhängig von Thema der Suchanfrage) 2. Quality-Ranking - Annotation Dokumente, Server und Web-Areas können durch externe Mitarbeiter angemeldet und durch Fachexperten bewertet werden Benutzer können zu gefundenen Dokumenten Anmerkungen verfassen und Verweise auf andere Dokumente, Server, Web-Areas erstellen Grad der Vernetzung einzelner Dokumente geht in deren Bewertung ein. User Feedback über die Zufriedenheit der Suchergebnisse 3. Schnittstellen PDF Gatherer- bzw. Brokerschnittstelle zu Hyperwave Schnittstellen zu anderen Suchsystemen Schnittstellen zu Datenbankapplikationen Erweiterung auf Meta-Suche (Einbindung anderer Suchmaschinen) Anknüpfung für kommerzieller Indexersysteme Einsetzbarkeit als Hintergrundbibliothek im Bereich Gentle und OISee Einsetzbarkeit als Hintergrundbibliothek für Business-Anwendungen 4. Ergebnisdarstellung Ähnlichkeit der Dokumente, Clustering, 3D, Wissenshierarchie Neue Informationen z.b. als Newsticker (Dokumente, Server, Web-Area) Zweistufige Anzeige, Kompakte Anzeige, stufenweises Erweitern der angezeigten Info Userdefinierter Umfang der Anzeige, Bereitstellen von Zusatzinformationen Wunschweise auch Ausschnitte bzw. verkleinerte Abbilder von auf Seiten enthaltenen Multimedia-Objekten anzeigen Gruppierung der Dokumente nach Web-Areas, Server, etc. 5. Suchanfrage Ähnlichkeit Dokument Abfrage Seite 14

15 Thematische bzw. geografische Stufung der Suche, durch Benutzer definierbar User-Profiling: Benutzerkreis-Gliederung, Pricing Suche nach eingebetteten Objekten Info-Abo zu bestimmten Themen Suchaufwandabschätzung Hyperrelationale Suche Suche in Geschützen Informationsbereichen 6. Architektur Agentkonzept soll unterstützt werden Drei Module: Gatherer, Indexer und Broker (u.u. auch Client-Anzeigemodul) Für eine Informationsverteilung über Broker, Indexer, Gatherer, etc. kann zusätzlich eine weitere Komponente, ein Master von Interesse sein; darüber kann auch ein Softwareupdate bzw. Update von Hilfsmodulen, die mit externen Systemen zusammen arbeiten, in Verbindung stehen Gatherer: lokal und remote Indexer soll beliebige Indizierer verwenden können; auch die Kombination von Text- und z.b. Bildindizierern soll möglich sein. Broker: erhalten Info von Gatherern und Brokern. System kaskadierbar Kontrollkommunikation: Kosistenzprüfung für Inhalt der verbundenen Broker Konfigurierbarkeit: User-Interface, Teile des Systems API 7. Dienste für Info-Provider Dead-Link-Erkennung Statistiken: Off-Online, Response-Zeit, Download-Zeiten, Anteil von Broken Links, Anzahl von Text- und Multimedia Dokumenten Mitteilung bei Dokumentenmodifikationen Überwachung der Server bzw. Bereiche auf das Vorkommen von bestimmten Wörtern Aus den thematisch gruppierten Anforderungen leiten sich für die zu gestaltenden Module Gatherer, Indexer, Broker und Master folgende Überlegungen ab: Gatherer Dient zum Auffinden von Dokumenten, Aufbereiten der Inhalte und dazugehörenden Metadaten Für remote und lokale Informationsquellen Einsetzbarkeit auch hinter einer Firewall (Kommunikation mit restlichem System) Keyword-Extraction, Description-Builder, Language-Detection Verarbeitung von Metadatenformaten LOM und DC Seite 15

16 Durchforstet mehrere Adressbereiche konfigurierbar oft ab (verschiedene Access-Protokolle) Extrahiert Dokumenteninhalte (verschiedene Dokumentformate), verarbeitet dokumentenspezifische Eigenschaften (Dokument-Type, MIME-Type, Format, Erstelldatum, Filegröße, etc.) und Metadaten. Generiert und hält pro Dokument eine beschreibendes Objekt: SOIF (Metadatenformat) Hält Information über Servereigenschaften (Verfügbarkeit, Zugriffszeit, Dead Links etc.) Erlaubt konfigurierbar Umfang der Weitergabe von Metadaten; eine Suche nach paßwortgeschützten Bereichen ist möglich ohne daß tatsächliche Inhalte preisgegeben werden Indexer Verwaltung der Gatherer / Web-Bereiche Wickelt die Anmeldung von Web-Bereichen ab. Hält Web-Bereich- Info (vordefiniertes Themengebiet, Betreiberangaben, textuelle Beschreibung, etc.) Ordnet einen neu angemeldeten Bereich einem Gatherer zu. Anmeldung neuer Gatherer Möglichkeit der Zusammenarbeit mit fremden Gatherern (cachen und Gatherer-Sharing) Indizierung Indexer fragt Gatherer nach Veränderungen und bekommt diese zugesandt Weitere Möglichkeit: Gatherer informiert Indexer bei Veränderungen (z.b. News-Ticker) Speichert und indiziert Metadaten-Dokumentenbeschreibung (SOIF) Unterschiedliche Indizier- und Speichermöglichkeiten (RDBMS, FS, Glimpse, Wais, etc.) sind vorgesehen. Kommunikation zu anderen Modulen bleibt davon unberührt. Seite 16

17 Worthäufigkeiten bzw. Wortwichtigkeit werden ermittelt und gespeichert (für Relevanzberechnungen und Gewichtungen) Katalogisierung der Dokumente unter Zuhilfenahme von Metadaten, Web-Bereich-Beschreibung und Einbeziehung externer Systeme (Experten- und Bewertungssystem, etc.) Stemming und Thesauri sind vorgesehen Suche nach Phrasen ist vorgesehen Suche Suche in verschiedenen Attributen möglich (entsprechend Metadaten Format) Browsen (vordefinierte Themen) und Suchen (Metadaten, Volltext) Suche auf Dokument-Ebene und Web-Bereich-Ebene Zweistufige Suche durch Einführung der Web-Bereiche möglich Dokument-Ranking innerhalb des jeweiligen Indexers Cachen Indexer können Teile des Inhaltes anderer Indexer cachen Es besteht die Möglichkeit, dies zu verbieten Passiert über die den Indexeren zugeordneten Gatherer Broker Behandelt Suchanfragen vom User-Client und senden sie an einen oder mehrere Indexer weiter Dient z.z. als Framework, um spezialisiert, total verteilte Suche aufbauen zu können Untersuchung der Möglichkeiten und Vorteile von Inter-Broker- Kommunikation (query-routing) könnte interessant sein Wählt adäquate Indexer für die Suchanfrage Ergebnisaufbereitung: Sortierung Seite 17

18 Löschen doppelter URLs. Zusammenfassung von gleichen Dokumenten mit unterschiedlicher URL Web-Bereich-Info Wählbare Anzeigemodi (wie z.b. Web-Bereich-Zusammenfassung, Dokumente) Bewertungen und Anmerkungen, die externe Systeme zu Verfügung stellen, sind im Broker auswählbar Des weiteren soll untersucht werden, wie man Relevanz-Berechnungen über die Indexergrenzen hinweg durchführt User-Profiling ist vorgesehen (Zufriedenheit bei Suchergebnissen und bevorzugte Indexer bzw. Web Sites sollen berücksichtigt werden) Ein Personal-Broker kann beim Benutzer installiert werden. Er kann so individuell auf Bedürfnisse des Benutzers abgestimmt werden bzw. diesen beobachten (User agent) bzw. den Benutzer Mehrwert-Funktionen (Einblenden von rel. Keyworten, etc.) zu Verfügung stellen. Graphische Suchvisualisierung Master Spiegelt Topologie des Systems wieder und macht diese für Broker und Indexer abfragbar Registrierung der Indexer, Broker und Gatherer, gilt auch für Web Sites Master kennt Beschreibung von Web-Bereichen der Indexer bzw. mindestens zu Indexern zugeordnete Gatherer Beinhaltet ein Ranking der Broker versus Themen. Sind vom Benutzer abrufbar. Broker können Beschreibung, Themen, Statistiken und Adressen anderer Broker, Indexer und Gatherer erfragen Indexer können nach Gatherern und Web-Bereichen suchen und erhalten die Adresse(n) des/der zuständigen Indexer(s) Master verwaltet Gatherer, Indexer und Broker Seite 18

19 Aus den Überlegungen zum Gestaltungskonzept wurden Teile in Form eines ersten Prototypen, xfind V0.9, umgesetzt. 6 Testimplementierungen Im Rahmen des Forschungsprojektes "WWW-Wissensorganisation" wurden der erste Prototyp eines modernen Frameworks zur Wissensauffindung, xfind V0.9, und ein graphisches Visualisierungstool, der xfind Explorer, umgesetzt. Für vertiefende Informationen und Beschreibungen zu den Testimplementierungen sei auf Anhang 4 bis Anhang 9 zu entnehmen. 6.1 Extended Framework for Information Discovery Wie bereits diskutiert, bereiten die großen Informationsmengen und ihre Unstrukturiertheit den Anbietern von WWW-Suchdiensten beträchtliche Schwierigkeiten. Die wesentlichen Anforderungen eines Informationssuchenden, nämlich Relevanz, Aktualität und Qualität der Suchergebnisse, können nur sehr eingeschränkt erfüllt werden. Die Einführung neuer Ansätze, wie sie im xfind- Suchsystem vorgesehen sind, soll hier eine wesentliche Verbesserung der Situation zur Folge haben. Es sei hier nochmals unterstrichen, daß die Zielsetzung die Gestaltung eines modular aufgebauten Framework verfolgt, unter den Prämissen, einer möglichst breiten Einsatzfähigkeit und der Einbeziehung bestehender Such- und Informationssysteme. Aus diesen Überlegungen wurde auf die plattformunabhängige Programmiersprache Java gesetzt. Im Konzept ist auch eine API vorgesehen, die zur leichten Integration externer System nützlich sein soll. Das grundlegende Design von xfind orientiert sich an Aspekten, die im allgemeinen jedes Knowledge Management System zu erfüllen hat, es sind dies die folgenden Punkte: Das Wissen muß sichtbar gemacht werden, man muß wissen wo relevante Informationen zu beziehen sind und wer etwas weiß. Es ist eine Wissensinfrastruktur aufzubauen, die den Zugriff auf interne und externe Informationsquellen ermöglicht. Die Wissensintensität setzt sich mit den notwendigen Verarbeitungs- und Kommunikationsprozessen auseinander. Schließlich ist eine Wissenskultur zu etablieren, die einen zuverlässigen und vertrauenswürdigen Informationsaustausch gewährleistet. Wie erwähnt, erfolgt die Implementierung mit Hilfe der plattformunabhängigen Programmiersprache Java. Um eine möglichst hohe Flexibilität und Skalierbarkeit zu Seite 19

20 erreichen, wurde eine verteilte hierarchische Architektur gewählt, die sich bereits im Harvest-Suchsystem als sehr vorteilhaft erwiesen hat und hier weiterentwickelt worden ist. Das xfind-system in der Version 0.9 wird entsprechend den Überlegungen aus dem vorherigen Kapitel (5 Gestaltungskonzept) aus den Modulen Gatherer, Indexer und Broker aufgebaut. Abbildung 1 soll das Konzept von xfind verdeutlichen. In der gewählten Architektur können die Gatherer verteilt Informationen von Servern aufbereiten. Gatherer können lokal auf den jeweiligen Informationsserver laufen oder aber auch Remote auf Inhalte zugreifen. Die aufbereiteten Informationen der abgegrasten Informationsstrukturen können einem oder mehreren Indexern zur Weiterverarbeitung zur Verfügung gestellt werden. Indexer können wiederum gemeinsam mit den Gatherern auf der selben Maschine arbeiten, oder aber getrennt auf einem anderen Host sitzen. Die dritte Komponente, die Broker sind die eigentliche Schnittstelle zum Benutzer. Die Suchanfragen können entsprechend an einen oder mehrere Indexer weiter geleitet werden und die Ergebnisse werden wiederum zusammengefaßt. Das Konzept sieht auch sogenannte Personal Broker vor, die direkt beim Benutzer sitzen und über Benutzerprofile verbesserte Suchabfragen generieren können. Die für das Forschungsvorhaben besonders wichtige Möglichkeit der Verarbeitung von Qualitäts Metadaten und der Verwaltung von Themen-Klassifikationen werden gesondert (siehe Anhang 6 und Anhang 7) diskutiert. I G remote remote B remote G remote FTP B I WEB G local PERS. B I G local G Gatherer I Indexer B Broker Abbildung 1: Verteiltes Konzept des xfind Systems Nachfolgend werden die einzelnen Module Gatherer, Indexer und Broker näher erläutert. Im Anschluß daran sind die Aspekte über Qualitäts Metadaten und Themenhierarchien diskutiert. Seite 20

Content Management Systeme auf dem Weg zum Semantic Web

Content Management Systeme auf dem Weg zum Semantic Web Content Management Systeme auf dem Weg zum Semantic Web Semantic Web baut auf der Anreicherung bestehender Datenbestände mit strukturierten Metadaten auf. Um die vieldiskutierten Vorteile von Semantic

Mehr

Die folgenden Features gelten für alle isquare Spider Versionen:

Die folgenden Features gelten für alle isquare Spider Versionen: isquare Spider Die folgenden s gelten für alle isquare Spider Versionen: webbasiertes Management (Administratoren) Monitoring Sichten aller gefundenen Beiträge eines Forums Statusüberprüfung Informationen

Mehr

Repeatable Benchmarking Mahout

Repeatable Benchmarking Mahout Studienarbeitsexposé Repeatable Benchmarking Mahout Entwicklung eines Lasttest-Rahmenwerkes für Apache Mahout von: Oliver Fischer Institut für Informatik Humbold-Universität zu Berlin Matrikelnummer: 19

Mehr

Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search.

Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search. Mehr wissen. Mehr entdecken. Mehr leisten. Erschließen Sie Informationen mit Enterprise Search. Die Lösung für Enterprise Search xdot search xdot search ist eine professionelle Semantische Suche Suchlösung

Mehr

Data Mining im Internet

Data Mining im Internet Data Mining im Internet Dipl.-Dok. Helga Walter Bayer HealthCare, Wuppertal PH-R-EU Scientific Information and Documentation 1 Arten / Quellen wissenschaftlicher Information Strukturierte Informationen:

Mehr

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung 2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer Beitrag von Peter Küsters Formen des Datentransfers bei der Erfassung von Websites Im folgenden werden Methoden und Software zur Erfassung vorgestellt.

Mehr

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz

Suchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Suchmaschinen und ihre Architektur Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Ziel Rudimentäre Grundkenntnisse über die Funktionsweise von Suchmaschinen und Trends Einführung in

Mehr

Sie erhalten einen kurzen Überblick über die verschiedenen Domänenkonzepte.

Sie erhalten einen kurzen Überblick über die verschiedenen Domänenkonzepte. 4 Domänenkonzepte Ziele des Kapitels: Sie verstehen den Begriff Domäne. Sie erhalten einen kurzen Überblick über die verschiedenen Domänenkonzepte. Sie verstehen die Besonderheiten der Vertrauensstellungen

Mehr

Von der Literaturverwaltung zur Dokumentenverwaltung

Von der Literaturverwaltung zur Dokumentenverwaltung Von der Literaturverwaltung zur Dokumentenverwaltung Literaturverwaltung erfasst Metadaten über ein Dokument Dokumentenverwaltung kümmert sich um die Dokumenten-Technologien Umsetzung meist in einem Dokumentmanagementsystem

Mehr

Kapitel 1 Überblick Content Management und Digitale Bibliotheken

Kapitel 1 Überblick Content Management und Digitale Bibliotheken Kapitel 1 Überblick Content Management und Digitale Bibliotheken Prof. Dr.-Ing. Stefan Deßloch Geb. 36, Raum 329 Tel. 0631/205 3275 dessloch@informatik.uni-kl.de 1 Überblick Was ist Content? Daten, Dokumente,

Mehr

Datenbank-basierte Webserver

Datenbank-basierte Webserver Datenbank-basierte Webserver Datenbank-Funktion steht im Vordergrund Web-Schnittstelle für Eingabe, Wartung oder Ausgabe von Daten Datenbank läuft im Hintergrund und liefert Daten für bestimmte Seiten

Mehr

E-Mail-Archivierung für Microsoft Outlook und Exchange Server

E-Mail-Archivierung für Microsoft Outlook und Exchange Server windream Exchange E-Mail-Archivierung für Microsoft Outlook und Exchange Server 2 E-Mail-Archivierung für Microsoft Outlook und Exchange Server Das ständig wachsende Volumen elektronischer Mitteilungen

Mehr

Fakultät für Elektrotechnik, Informatik und Mathematik Institut für Informatik Fachgebiet Didaktik der Informatik

Fakultät für Elektrotechnik, Informatik und Mathematik Institut für Informatik Fachgebiet Didaktik der Informatik Fakultät für Elektrotechnik, Informatik und Mathematik Institut für Informatik Fachgebiet Didaktik der Informatik Konzeption und prototypische Implementierung eines Knowledge-Servers mit Adaptern zur Integration

Mehr

Betriebliche Software: Produktdaten-Management

Betriebliche Software: Produktdaten-Management Betriebliche Software: Produktdaten-Management Betriebliche Software: Produktdaten-Management Aufgrund einer großen Anzahl an neuen gesetzlichen Forderungen, die auf die Qualität, Sicherheit oder Umweltverträglichkeit

Mehr

Alternativen zur OpenText Suche. 29. OpenText Web Solutions Anwendertagung Mannheim, 18. Juni 2012 Sebastian Henne

Alternativen zur OpenText Suche. 29. OpenText Web Solutions Anwendertagung Mannheim, 18. Juni 2012 Sebastian Henne Alternativen zur OpenText Suche 29. OpenText Web Solutions Anwendertagung Mannheim, 18. Juni 2012 Sebastian Henne Übersicht Allgemeines zur Suche Die OpenText Common Search Indexierung ohne DeliveryServer

Mehr

inxire Enterprise Content Management White Paper

inxire Enterprise Content Management White Paper inxire Enterprise Content Management White Paper inxire Enterprise Content Management Einleitung Die Informationstechnologie spielt eine zentrale Rolle für den Informationsaustausch und die Zusammenarbeit

Mehr

www.triton.at White Paper Testfallgewinnung mit dem Portfolio-Manager Gewinnung effizienter Testfälle und -daten

www.triton.at White Paper Testfallgewinnung mit dem Portfolio-Manager Gewinnung effizienter Testfälle und -daten www.triton.at White Paper Testfallgewinnung mit dem Portfolio-Manager Gewinnung effizienter Testfälle und -daten Inhaltsverzeichnis Testfall-Gewinnung bei Triton... 3 Ebenen der Testfall-Definition...

Mehr

AudioMining Nachsehen, was zu hören war

AudioMining Nachsehen, was zu hören war AudioMining Nachsehen, was zu hören war Automatisierte Suche nach dem gesprochenen Wort durch moderne Sprachanalyse für Medienbeobachtung, Archive und Portale AudioMining von Fraunhofer IAIS Mit unserer

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

Einrichtung der Nepomuk-Desktop-Suche. Sebastian Trueg Anne-Marie Mahfouf Übersetzung: Johannes Obermayr

Einrichtung der Nepomuk-Desktop-Suche. Sebastian Trueg Anne-Marie Mahfouf Übersetzung: Johannes Obermayr Einrichtung der Nepomuk-Desktop-Suche Sebastian Trueg Anne-Marie Mahfouf Übersetzung: Johannes Obermayr 2 Inhaltsverzeichnis 1 Einführung 4 1.1 Grundeinstellungen..................................... 4

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

MIRA [suite] Langzeitarchivierung von E-Mails und elektronischen Dokumenten

MIRA [suite] Langzeitarchivierung von E-Mails und elektronischen Dokumenten MIRA [suite] Langzeitarchivierung von E-Mails und elektronischen Dokumenten Die kaum mehr zu bewältigende E-Mailflut in die richtigen Bahnen zu lenken, ist ein vordringliches Problem vieler Unternehmen.

Mehr

Die Laborjournalführungs-Software professionell - zuverlässig

Die Laborjournalführungs-Software professionell - zuverlässig Produktinformation Die Laborjournalführungs-Software professionell - zuverlässig Integration von InfoChem ICEdit, ensochemeditor, MDL ISIS / Draw und CS ChemDraw Optional mit Schnittstelle zu anderen Datenbanksystemen

Mehr

Automatisierte Wissensnetze im Entwicklungsprozess. Dr. Thomas Kamps Darmstadt 2012

Automatisierte Wissensnetze im Entwicklungsprozess. Dr. Thomas Kamps Darmstadt 2012 Automatisierte Wissensnetze im Entwicklungsprozess Dr. Thomas Kamps Darmstadt 2012 Überblick Präsentation 1. ConWeaver: Unternehmensprofil, Mission, Zielgruppe 2. Entscheidungskriterien für automatisierte

Mehr

imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen

imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen www.imc-berlin.de/search imc SEARCH auf einen Blick Zentrale Ablage und

Mehr

CaseWare Monitor. ProduktNEWS CaseWare Monitor. Version 4.3. Mehr Informationen zu CaseWare Monitor und unseren anderen Produkten & Dienstleistungen

CaseWare Monitor. ProduktNEWS CaseWare Monitor. Version 4.3. Mehr Informationen zu CaseWare Monitor und unseren anderen Produkten & Dienstleistungen Mit der aktuellen Version hält eine komplett neu konzipierte webbasierte Anwendung Einzug, die sich neben innovativer Technik auch durch ein modernes Design und eine intuitive Bedienung auszeichnet. Angefangen

Mehr

[DIA] Webinterface 2.4

[DIA] Webinterface 2.4 [DIA] Webinterface 2.4 2 Inhalt Inhalt... 2 1. Einleitung... 3 2. Konzept... 4 2.1 Vorteile und Anwendungen des... 4 2.2 Integration in bestehende Systeme und Strukturen... 4 2.3 Verfügbarkeit... 5 3.

Mehr

9. IR im Web. bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden

9. IR im Web. bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden IR im Web 9. IR im Web bei Anfragen im Web gibt es eine Reihe von zusätzlichen Problemen, die gelöst werden müssen Einführung in Information Retrieval 394 Probleme verteilte Daten: Daten sind auf vielen

Mehr

Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen

Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen NOW YOU KNOW [ SERIES] Ontologie Sinn, Zweck und Mehrwert für Ihr Unternehmen [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 002 Ontologie und deren Bedeutung für die Unternehmen von heute Der Begriff der Ontologie

Mehr

AustroFeedr. Pushing the Realtime Web. Projektplan. erstellt von: DI Klaus Furtmüller, DI Wolfgang Ziegler Version 1.0 Datum: 05.10.

AustroFeedr. Pushing the Realtime Web. Projektplan. erstellt von: DI Klaus Furtmüller, DI Wolfgang Ziegler Version 1.0 Datum: 05.10. AustroFeedr Pushing the Realtime Web Projektplan erstellt von: DI Klaus Furtmüller, DI Wolfgang Ziegler Version 1.0 Datum: 05.10.2010 gefördert durch die Internet Privatstiftung Austria (IPA) 1 Projektbeschreibung

Mehr

DDM9000 : Kurz und bündig

DDM9000 : Kurz und bündig LTE Consulting GmbH Ihr Partner für InformationsLogistik DDM9000 : Kurz und bündig Kennen Sie das? Langes Suchen nach Unterlagen, aktuellen Dokumenten und anderen Informationen Wo sind wichtige, aktuelle

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen

imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen imc SEARCH gezielt suchen intelligent filtern schnell auswerten Zentrale Messdatenverwaltung und -organisation imc produktiv messen imc SEARCH auf einen Blick Zentrale Ablage und Verwaltung von Mess- und

Mehr

1 Zusammenfassung/Summary

1 Zusammenfassung/Summary 1 Zusammenfassung/Summary Zusammenfassung: Wissensdatenbanken gewinnen zunehmend an Bedeutung, wenn es darum geht, die Informationen, die ungeordnet in einem Unternehmen vorliegen, zu strukturieren und

Mehr

Cookie-Richtlinie. Einführung Über Cookies

Cookie-Richtlinie. Einführung Über Cookies Einführung Über Cookie-Richtlinie s Verbesserung der Benutzererfahrung verwenden die meisten der von Ihnen besuchten Websites so genannte. Dabei unterscheidet man zwischen Session (für einen Besuch) und

Mehr

Intelligentes Datenmanagement. Simplify your project.

Intelligentes Datenmanagement. Simplify your project. Intelligentes Datenmanagement. Simplify your project. Einfach. Sicher. Effizient. strukturierte Ablage umfangreiche Suchfunktionen einfache Kommunikation lückenlose Dokumentation Mit dem Datenpool, der

Mehr

Automatisiertes Informationsmanagement für Microsoft Exchange Server

Automatisiertes Informationsmanagement für Microsoft Exchange Server Windream Exchange Automatisiertes Informationsmanagement für Microsoft Exchange Server Facts: Zugriff auf E-Mails sowohl aus Microsoft Outlook als auch aus Windream Komfortable Recherche und Verwaltung

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr

Discovery Einführung. DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz

Discovery Einführung. DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz Discovery Einführung DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz 1 Discovery-Einführung Motivation Ziel: Vereinheitlichung Suchindizes Unterschiede Katalog / Discovery Beispiele Und nun?

Mehr

Enemene Meck das Papier ist weg! Dokumenten Management

Enemene Meck das Papier ist weg! Dokumenten Management Kurzbeschreibung Enemene Meck das Papier ist weg! In Drivve DM organisieren und verwalten Sie Ihre Dokumente. Dabei verschlagworten Sie ein Dokument, ordnen es einer Akte und einem Ablageort zu und leiten

Mehr

Infos & Kommunikation. Mit Harvest durchs Internet. Mit Harvest durchs Internet. Die Komponenten. Oliver Göbel / Gabriele Mayer

Infos & Kommunikation. Mit Harvest durchs Internet. Mit Harvest durchs Internet. Die Komponenten. Oliver Göbel / Gabriele Mayer Infos & Kommunikation Mit Harvest durchs Internet Oliver Göbel / Gabriele Mayer Die Komponenten Die Konfigurationen Der Gatherer Der Broker Harvest Server Registry (HSR) WWW Interface Summary Object Interchange

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

Gefahren aus dem Internet 1 Grundwissen April 2010

Gefahren aus dem Internet 1 Grundwissen April 2010 1 Grundwissen Voraussetzungen Sie haben das Internet bereits zuhause oder an der Schule genutzt. Sie wissen, was ein Provider ist. Sie wissen, was eine URL ist. Lernziele Sie wissen, was es braucht, damit

Mehr

Effizientes Änderungsmanagement in Outsourcing- Projekten

Effizientes Änderungsmanagement in Outsourcing- Projekten Effizientes Änderungsmanagement in Outsourcing- Projekten Dr. Henning Sternkicker Rational Software IBM Deutschland GmbH Sittarder Straße 31 52078 Aachen henning.sternkicker@de.ibm.com Abstract: Es werden

Mehr

SEO Erfolg mit themenrelevanten Links

SEO Erfolg mit themenrelevanten Links Hinweis für Leser Dieser Leitfaden soll Ihnen einen Überblick über wichtige Faktoren beim Ranking und Linkaufbau liefern. Die Informationen richten sich insbesondere an Website-Betreiber, die noch keine

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

MCP Managing Conference Proceedings

MCP Managing Conference Proceedings Projekt Workshop zur Global Info SFM WEP, 19-20. Juli 2000, Braunschweig MCP Managing Conference Proceedings Paper Submission und Review bei der EUROGRAPHICS 2000 Resultate und Ausblick bmb+f Global Info

Mehr

Informationsmanagement für effiziente Kommunikationsprozesse. Geschäftsprozessoptimierung Produkt- und Dienstleistungsmanagement

Informationsmanagement für effiziente Kommunikationsprozesse. Geschäftsprozessoptimierung Produkt- und Dienstleistungsmanagement Informationsmanagement für effiziente Kommunikationsprozesse Geschäftsprozessoptimierung Produkt- und Dienstleistungsmanagement Kommunikation bedeutet Austausch und Verständigung von und über Informationen

Mehr

Technische Beschreibung: EPOD Server

Technische Beschreibung: EPOD Server EPOD Encrypted Private Online Disc Technische Beschreibung: EPOD Server Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee JKU Linz Institut für

Mehr

Netze. Netze. Netze und Netzwerke. Vernetzte Systeme (Netzwerke)

Netze. Netze. Netze und Netzwerke. Vernetzte Systeme (Netzwerke) und Netzwerke A.Kaiser; WU-Wien MIS 119 Organisationen werden geschaffen, um eine Aufgabe zu erfüllen, die zu umfangreich ist, um von einer einzelnen Person erledigt zu werden Zerlegung einer Aufgabe in

Mehr

Navigation und Interaktion im Katalog: Das Projekt MedioVis und seine Anwendung. am Beispiel des Projektes MedioVis

Navigation und Interaktion im Katalog: Das Projekt MedioVis und seine Anwendung. am Beispiel des Projektes MedioVis Navigation und Interaktion im Katalog: Das Projekt MedioVis und seine Anwendung Visuelle in Exploration der Mediothek Digitaler der UB Konstanz Bibliothken am Beispiel des Projektes MedioVis Prof. Dr.

Mehr

Dokumentenmanagement. DMS Middleware für optimale Systemintegration

Dokumentenmanagement. DMS Middleware für optimale Systemintegration Dokumentenmanagement DMS Middleware für optimale Systemintegration Ausgangssituation Systemlandschaft heute - eine Bestandsaufnahme Heterogene Systeme, eine Vielzahl von Applikationen unterschiedlicher

Mehr

Message Oriented Middleware am Beispiel von XMLBlaster

Message Oriented Middleware am Beispiel von XMLBlaster Message Oriented Middleware am Beispiel von XMLBlaster Vortrag im Seminar XML und intelligente Systeme an der Universität Bielefeld WS 2005/2006 Vortragender: Frederic Siepmann fsiepman@techfak.uni bielefeld.de

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

Whitepaper 2015. Bessere Suchergebnisse für PDF-Dokumente mit Foxit PDF IFiIter Server

Whitepaper 2015. Bessere Suchergebnisse für PDF-Dokumente mit Foxit PDF IFiIter Server Whitepaper 2015 Bessere Suchergebnisse für PDF-Dokumente mit Foxit PDF IFiIter Server Inhalt Die Notwendigkeit der PDF-Suche... 3 Suche und Indizierung Übersicht... 3 IFilter-Architektur... 4 Leistung

Mehr

Ihr Weg in die Suchmaschinen

Ihr Weg in die Suchmaschinen Ihr Weg in die Suchmaschinen Suchmaschinenoptimierung Durch Suchmaschinenoptimierung kann man eine höhere Platzierung von Homepages in den Ergebnislisten von Suchmaschinen erreichen und somit mehr Besucher

Mehr

Integrierte Lösung für die Verarbeitung von Eingangsrechnungen in SAP

Integrierte Lösung für die Verarbeitung von Eingangsrechnungen in SAP Integrierte Lösung für die Verarbeitung von Eingangsrechnungen in SAP Management Summary Mit der Standardlösung d.3 und dem Standard SAP- Workflow- Template maxflow steht Ihnen eine Komplettlösung zur

Mehr

Internet/Intranet nutzbringend angewandt!?!

Internet/Intranet nutzbringend angewandt!?! Internet/Intranet nutzbringend angewandt!?! Maik G. Seewald Agenda 1. Einleitung und Ziel der Präsentation 2. Internet u. Web Based Computing eine Erfolgsgeschichte 3. Architektur web-basierter Anwendungssysteme

Mehr

Cookie-Richtlinie. Einführung Über Cookies

Cookie-Richtlinie. Einführung Über Cookies Einführung Über Cookie-Richtlinie s Verbesserung der Benutzererfahrung verwenden die meisten der von Ihnen besuchten Websites so genannte. Dabei unterscheidet man zwischen Session (für einen Besuch) und

Mehr

Ein Auszug aus... Studie. Content Management Systeme im Vergleich. Empfehlungen und Entscheidungshilfen für Unternehmensbereiche

Ein Auszug aus... Studie. Content Management Systeme im Vergleich. Empfehlungen und Entscheidungshilfen für Unternehmensbereiche Ein Auszug aus... Studie Content Management Systeme im Vergleich Empfehlungen und Entscheidungshilfen für Unternehmensbereiche Die komplette Studie ist bei amazon.de käuflich zu erwerben. Inhaltsverzeichnis

Mehr

COI-BusinessFlow Integration in Microsoft Federated Search

COI-BusinessFlow Integration in Microsoft Federated Search COI-BusinessFlow Integration in Microsoft Federated Search Business W hite Paper COI GmbH COI-BusinessFlow Integration in Microsoft Federated Search Seite 1 von 7 1 Zusammenfassung 3 2 ECM & Microsoft

Mehr

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND init.at informationstechnologie GmbH - Tannhäuserplatz 2 - A-1150 Wien - www.init.at Dieses Dokument und alle Teile von ihm bilden ein geistiges Eigentum

Mehr

Collaborative Virtual Environments

Collaborative Virtual Environments Collaborative Virtual Environments Stefan Lücking Projektgruppe Kreativität und Technik AG Domik WS 02/03 09.01.2003 1/35 Was sind CVE? Versuch einer Definition : Ein CVE ist ein Programm, das eine virtuelle

Mehr

Suche, Suchmaschinen, Suchmaschinenoptimierung. Workshop TYPO3 17.04.2012 Sybille Peters

Suche, Suchmaschinen, Suchmaschinenoptimierung. Workshop TYPO3 17.04.2012 Sybille Peters Suche, Suchmaschinen, Suchmaschinenoptimierung Workshop TYPO3 17.04.2012 Sybille Peters Sybille Peters Mitarbeiterin TYPO3 Team RRZN seit 4/2011 vorher im Suchmaschinenlabor des RRZN Seite 2 Überblick

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung Use-Cases Bruno Blumenthal und Roger Meyer 17. Juli 2003 Zusammenfassung Dieses Dokument beschreibt Netzwerk-Szenarios für den Einsatz von NetWACS. Es soll als Grundlage bei der Definition des NetWACS

Mehr

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008 Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Andreas Glaser, 23. September 2008 Teufenerstrasse 19 CH 9001 St.Gallen t [+41] 71 228 67 77 f [+41] 71 228 67 88 info@namics.com

Mehr

Wie Suchmaschinen von Social Software profitieren

Wie Suchmaschinen von Social Software profitieren Wie Suchmaschinen von Social Software profitieren Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg Fakultät DMI, Department Information Berliner Tor 5, 20249 Hamburg dirk.lewandowski@haw-hamburg.de

Mehr

d.link for microsoft sharepoint Das strategische ECM- und Archivsystem für Microsoft Sharepoint

d.link for microsoft sharepoint Das strategische ECM- und Archivsystem für Microsoft Sharepoint d.link for microsoft sharepoint Das strategische ECM- und Archivsystem für Microsoft Sharepoint Microsoft bietet mit SharePoint eine leistungsfähige Technologie- und Portalplattform. Mit d.link for microsoft

Mehr

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble

Tier-Konzepte. Vertiefungsarbeit von Karin Schäuble Vertiefungsarbeit von Karin Schäuble Gliederung 1. Einführung 3. Rahmenbedingungen in der heutigen Marktwirtschaft 3.1 Situation für Unternehmen 3.2 Situation für Applikationsentwickler 4. Lösungskonzepte

Mehr

Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung...

Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung... Online Marketing...3 Suchmaschinenoptimierung...4 Suchmaschinenwerbung...5 Newsletter Marketing...6 Social Media Marketing...7 Bannerwerbung...8 Affiliate Marketing...9 Video Marketing... 10 2 Online Marketing

Mehr

Wissensmanagement und Technische Dokumentation

Wissensmanagement und Technische Dokumentation Wissensmanagement und Technische Dokumentation requisimus AG Flandernstrasse 96 D-73732 Esslingen Christian Paul, requisimus AG, 05.06.2007 Inhalt Technische Dokumentation und Wissensmanagement... 3 Wissensmanagement...3

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

SharePoint 2013 als Wissensplattform

SharePoint 2013 als Wissensplattform SharePoint 2013 als Wissensplattform Daniel Dobrich & Darius Kaczmarczyk 29.11.2012 7. SharePoint UserGroup Hamburg Treffen 1 Themen Verwaltete Metadaten in SharePoint 2013 Was sind verwaltete Metadaten

Mehr

Softwaretool Data Delivery Designer

Softwaretool Data Delivery Designer Softwaretool Data Delivery Designer 1. Einführung 1.1 Ausgangslage In Unternehmen existieren verschiedene und häufig sehr heterogene Informationssysteme die durch unterschiedliche Softwarelösungen verwaltet

Mehr

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte.

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte. Microsoft SharePoint Microsoft SharePoint ist die Business Plattform für Zusammenarbeit im Unternehmen und im Web. Der MS SharePoint vereinfacht die Zusammenarbeit Ihrer Mitarbeiter. Durch die Verbindung

Mehr

In diesem Kapitel werden wir nun mehrere Anwendungen von XML in der betrieblichen Praxis vorstellen. Sie sollen XML bei der Arbeit zeigen.

In diesem Kapitel werden wir nun mehrere Anwendungen von XML in der betrieblichen Praxis vorstellen. Sie sollen XML bei der Arbeit zeigen. 181 In diesem Kapitel werden wir nun mehrere Anwendungen von XML in der betrieblichen Praxis vorstellen. Sie sollen XML bei der Arbeit zeigen. Wir beginnen mit dem Startup-Unternehmen Seals GmbH aus Frankfurt,

Mehr

Exposé. Der Versicherungsfall in der Rechtsschutzversicherung

Exposé. Der Versicherungsfall in der Rechtsschutzversicherung Exposé zum Dissertationsthema Der Versicherungsfall in der Rechtsschutzversicherung zur Erlangung des akademischen Grades: doctor iuris Eingereicht als Beilage zur Dissertationsvereinbarung Eingereicht

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Optimieren von Requirements Management & Engineering

Optimieren von Requirements Management & Engineering Xpert.press Optimieren von Requirements Management & Engineering Mit dem HOOD Capability Model Bearbeitet von Colin Hood, Rupert Wiebel 1. Auflage 2005. Buch. xii, 245 S. Hardcover ISBN 978 3 540 21178

Mehr

EDI CONNECT. für Microsoft Dynamics NAV. Auf einen Blick:

EDI CONNECT. für Microsoft Dynamics NAV. Auf einen Blick: Seite 1 PROTAKT Speziallösung EDI Connect Auf einen Blick: EDI CONNECT für Microsoft Dynamics NAV Elektronischer Datenaustausch ganz effizient und einfach über Ihr Microsoft Dynamics NAV System. Vollständige

Mehr

IHRE FREIHEIT IST UNSER ELEMENT. IHR ERFOLG IST UNSERE PASSION.

IHRE FREIHEIT IST UNSER ELEMENT. IHR ERFOLG IST UNSERE PASSION. IHRE FREIHEIT IST UNSER ELEMENT. IHR ERFOLG IST UNSERE PASSION. IHRE VORTEILE: Intelligente Software und individuelle Lösungen für Ihre Entscheidungsfreiheit Fundierte Fachkenntnisse und langjährige Erfahrung

Mehr

1. Erstellung, aus einer Idee wird ein digitaler Bestandteil einer Website.

1. Erstellung, aus einer Idee wird ein digitaler Bestandteil einer Website. 2. Webpublishing Zur Erstellung von Webpages wurden verschiedene Konzepte entwickelt. Alle diese Konzepte basieren auf dem Content Life Cycle, der mit einem Content Management System weitgehend automatisiert

Mehr

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement

Jump Helpdesk. Softwarelösungen für professionelles Servicemanagement Jump Helpdesk Softwarelösungen für professionelles Servicemanagement Jump Network GmbH 2004-2006 Jump Helpdesk Office Übersichtliche Dokumentenstruktur und schneller Zugriff auf alle wichtigen Funktionen.

Mehr

Microsoft Dynamics NAV Technische Details

Microsoft Dynamics NAV Technische Details Microsoft Dynamics NAV Technische Details INHALT Microsoft Dynamics NAV Technische Details........................................ [3] Infrastruktur.............................................. [3] Systemanforderungen.....................................

Mehr

Hinweise zur Bewertung und Korrektur der Abiturarbeiten (2007)

Hinweise zur Bewertung und Korrektur der Abiturarbeiten (2007) Hinweise zur Bewertung und Korrektur der Abiturarbeiten (2007) Kriterien zur Bewertung von Aufgaben: s. EPA: Gesamtanforderung umfasst inhaltliche, methodische und sprachliche Leistung; die Bearbeitung

Mehr

SmarTeam MS Outlook Integration Version 3.1 Beschreibung des Funktionsumfangs

SmarTeam MS Outlook Integration Version 3.1 Beschreibung des Funktionsumfangs SmarTeam MS Outlook Integration Version 3.1 Beschreibung des Funktionsumfangs Der Aufbau der MS Outlook Integration orientiert sich stark an den SmarTeam Integrationen zu den MS Office Produkten, wobei

Mehr

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement Topic Informationen sind eine wichtige unternehmerische Ressource. Wer zeitnah mit strukturierten Informationen arbeiten kann, generiert eindeutige Wettbewerbsvorteile für sein Unternehmen. Es ist eine

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

SemanticMediaWiki+ als Wissensplattform für Unternehmen

SemanticMediaWiki+ als Wissensplattform für Unternehmen SemanticMediaWiki+ als Wissensplattform für Unternehmen Zielgruppengerechte Produktion von Trainingsmaterial am Beispiel der UNESCO Daniel Hansch, hansch@ontoprise.de, ontoprise GmbH Hans-Peter Schnurr,

Mehr

Infrastruktur für Web Intelligent Systems

Infrastruktur für Web Intelligent Systems Infrastruktur für Web Intelligent Systems Thema: Business Intelligence Teil II: Data Mining & Knowledge Discovery von Christian Merker Gliederung Web-Intelligent-Systeme Begriffsklärung Personalisiertes

Mehr

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN VERSION 1.0 OPTIMIERUNG VON ABFRAGEN IN MS SQL

Mehr

PROMAS Damit die Qualität immer stimmt. Prozessorientiertes Qualitäts- und Dokumenten-Management

PROMAS Damit die Qualität immer stimmt. Prozessorientiertes Qualitäts- und Dokumenten-Management PROMAS Damit die Qualität immer stimmt Prozessorientiertes Qualitäts- und Dokumenten-Management 2 Ordnung im eigenen Regelwerk sauber dokumentiert und zugänglich Jedes Unternehmen legt für seine Geschäftsprozesse

Mehr

Vom Intranet zum Knowledge Management

Vom Intranet zum Knowledge Management Vom Intranet zum Knowledge Management Die Veränderung der Informationskultur in Organisationen von Martin Kuppinger, Michael Woywode 1. Auflage Hanser München 2000 Verlag C.H. Beck im Internet: www.beck.de

Mehr

Wir schaffen Freiraum für Ihre Ideen.

Wir schaffen Freiraum für Ihre Ideen. Wir schaffen Freiraum für Ihre Ideen. Software für Macher. Die Welt dreht sich durch jene, die sich die Freiheit nehmen, neue Wege zu gehen. Unsere Vision Wir sind, was wir wissen. Dabei ist das Teilen

Mehr

Google. Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de

Google. Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de R. Ferber fb md h_da Informationsrechtstag 2009 h_da 2000-07-10 Folie 1 Google Reginald Ferber Hochschule Darmstadt Fachbereich Media, Studienbereich Informationswissenschaft reginald.ferber@h-da.de R.

Mehr

Cordaware bestinformed Neuerungen in Version 4 Copyright Cordaware Informationslogistik GmbH 2007

Cordaware bestinformed Neuerungen in Version 4 Copyright Cordaware Informationslogistik GmbH 2007 Änderungen ab Basis Edition: Interne Datenbank: Durch die Erweiterung der bestinformed Datenstruktur mit einer leistungsfähigen internen Datenbank werden zahlreiche Verbesserungen erzielt. Um die wichtigsten

Mehr

Digitale Signaturen für Ï Signaturzertifikate für geschützte email-kommunikation

Digitale Signaturen für Ï Signaturzertifikate für geschützte email-kommunikation Digitale Signaturen für Ï Signaturzertifikate für geschützte email-kommunikation Ein Großteil der heutigen Kommunikation geschieht per email. Kaum ein anderes Medium ist schneller und effizienter. Allerdings

Mehr

ONLINE-KATALOG DIGITALE PUPLIKATIONEN SEO. Textsuche. iphone. Zoom. Android. Webanalyse. Design. ipad. Offlineversion.

ONLINE-KATALOG DIGITALE PUPLIKATIONEN SEO. Textsuche. iphone. Zoom. Android. Webanalyse. Design. ipad. Offlineversion. ONLINE-KATALOG DIGITALE PUPLIKATIONEN Textsuche Zoom iphone Webanalyse ipad SEO Android Design Soziale Netzwerke Offlineversion Der KruseMedien Online-Katalog...verwandelt Ihre Printmedien wie z. B. Kataloge,

Mehr

Wie versendet man Newsletter mit einer Newsletter- Software?

Wie versendet man Newsletter mit einer Newsletter- Software? Diese Lektion teilt sich in 4 Bereiche auf. Diese sind: - Wie versendet man Newsletter mit einer Newsletter-Software? - die Auswahl des Absenders - die Formulierung des Betreffs - Umgang mit Bounces wenn

Mehr