Linked Open Data eröffnet neue Wege in der Forschung und Lehre an Universitäten

Größe: px
Ab Seite anzeigen:

Download "Linked Open Data eröffnet neue Wege in der Forschung und Lehre an Universitäten"

Transkript

1 Linked Open Data eröffnet neue Wege in der Forschung und Lehre an Universitäten Ausarbeitung zur Seminarreihe Semantische Technologien Julia Retzlaff, B. Sc. Betreut durch: Prof. Dr. Norbert Luttenberger Arbeitsgruppe Kommunikationssysteme, Institut für Informatik September 2013 Christian- Albrechts- Universität, Kiel

2 1 Einleitung Daten bilden die Grundlage der Wissenschaft. Sie sind das Ergebnis von wissenschaftlichen Experimenten. Sie dienen als Beleg für Annahmen. Der Begriff Daten ist in diesem Fall sehr umfassend zu verstehen, so zählen auch wissenschaftliche Ausarbeitungen, und nicht zuletzt die Informationen über die Forscher selbst zu den Daten, die von den Universitäten erhoben und verwaltet werden. Der Zugriff auf diese Daten, sowie die Speicherung dieser stellt eine große Hürde für die Wissenschaft dar. Oft existieren innerhalb einer Fakultät Absprachen über die Speicherung der Daten, jedoch nicht über diesen Rahmen hinaus. So ist es beispielsweise mit großem Aufwand verbunden, als Informatiker an die Forschungsdaten der Biologen zu gelangen. Gerade die Verknüpfung fächerübergreifender Inhalte und die Zugänglichkeit der Daten sowohl fakultätsübergreifend als auch universitätsübergreifend ist für die Entwicklung der Forschung und die Erschließung neuer Forschungsgebiete wichtig. Um dieses Ziel zu erreichen, kann das Prinzip der Linked Open Data genutzt werden. 2 Linked Open Data Mit dem Begriff Linked Open Data bezeichnet man Daten, die einer offenen Lizenz unterliegen und nach vorgegebenen Prinzipien (s. 2.1) untereinander verbunden sind. Sie werden im Internet publiziert und auf diese Weise öffentlich zugänglich gemacht. Das Prinzip der Linked Open Data ist ein Bestandteil im semantischen Web. Unter dem Begriff des semantischen Webs versteht man die Weiterentwicklung des World Wide Webs von dem Web of Documents hin zu dem Web of Data. Der Unterschied zwischen diesen Arten des Webs sind die Zielgruppen, für welche die Inhalte verständlich sein sollen. Während die Inhalte im Web of Documents nur für Menschen interpretierbar sind, sollen im Web of Data Inhalte sowohl von Menschen als auch von Maschinen interpretierbar sein. Im Web of Documents ist das Verlinken ganzer Dokumente die übliche Verfahrensweise, um Zusammenhänge zwischen Dokumenten herzustellen. Für das Web of Data ist diese Herangehensweise nicht ausreichend. Um die Bedeutung (Semantik) des beschriebenen Gegenstandes maschineninterpretierbar darzustellen, ist eine weitergefasste Verfahrensweise anzuwenden. Um die Vorgehensweise für eine große Zahl von Anwendern des Webs einfach und einheitlich zu halten, formulierte Sir Tim Berners-Lee, der Begründer des World Wide Web und Erfinder des Hypertext Markup Language(HTML), im Jahr 2006 die Linked Data Principles. 2

3 2.1 Linked Data Principles Tim Berners-Lee formulierte die Linked Data Principles als Leitlinien für die Veröffentlichung von Daten im Web of Data. In vier Schritten erklärt Berners-Lee die Grundlagen von Linked Data: Zugrunde liegt die Vorstellung, dass man ein Objekt neu als Linked Data beschreiben möchte. Der erste Schritt basiert auf der Nutzung eines Uniform Resource Identifiers (URI's) für das beschriebene Objekt. Der URI identifiziert das zu beschreibende Objekt. Im zweiten Schritt wird die Empfehlung auf einen URI weiter eingeschränkt. Das Hypertext Transfer Protocol (HTTP) kann deferenziert werden. Das Objekt, welches durch einen identifiziert wird, kann von jedem Benutzer des Webs und auch von Maschinen nachgeschlagen werden. Als dritten Schritt schlägt Tim Berners-Lee das Hinzufügen weiterer Informationen vor. Dies kann beispielsweise eine Beschreibung zu den dargestellten Objekten sein. Zur Beschreibung dient das Format des Ressource Description Frameworks (RDF). Das RDF ist ein Datenmodell für Metadaten, welches durch das World Wide Web Consortium (W3C) spezifiziert wurde. Es wurde entwickelt um Informationen für Computer interpretierbar zu machen. Durch vorgegebene Annotationen im RDF/XML Format wird eine Bedeutung zu Daten hinzugefügt. Im letzten Schritt der Linked Open Data Principles werden Verlinkungen zu anderen bereits nach diesen Prinzipien beschriebenen Objekten eingefügt. Durch dieses Vorgehen entsteht ein Verlinkungsnetz(Graph), welches die Bedeutungszusammenhänge enthält und maschineninterpretierbar ist Beispiel für die Anwendung der Linked Data Principles Als Beispielobjekt soll diese Ausarbeitung dienen. Sie soll als Linked Open Data veröffentlich werden. Zur Umsetzung des ersten und zweiten Schrittes muss eine erstellt werden. Unter diesem URI wird die Ausarbeitung abgelegt. Beispielsweise könnte im Namensraum der Arbeitsgruppe Kommunikationssysteme unter dem Identifier dieses Dokument erreichbar sein. Schritt 3 sieht das Hinzufügen von Informationen zu der Ausarbeitung vor. Diese werden im RDF Format hinzugefügt unter zur Hilfenahme des Vokabulare Dublin Core. Vokabulare, wie Dublin Core, Friend-of-a-Friend oder SKOS, bilden einen Wortschatz, der nach dem Modell von RDF gebildet wurde und von einer großen Gruppe von Programmierern verstanden wird. Die Angabe des Titels dieser Ausarbeitung Linked Open Data eröffnet neue Wege in der Forschung und Lehre an Universitäten ist ein Beispiel für eine zusätzliche Information zu der Ressource. Diese Information wird mit der Annotation dc:title versehen, welches die Bedeutung angibt, dass es sich um den Titel handelt bei der angegeben URI. Ein weiteres Beispiel dafür kann eine Annotation sein, in welcher angegeben wird, dass es sich um einen Foliensatz handelt, der zur 3

4 Seminarreihe Semantische Technologien gehört. Um den letzten Schritt der Prinzipien von Tim Berners-Lee umzusetzen, können Verlinkungen durchgeführt werden: Zum einen die Angabe, dass es sich bei der Autorin der Präsentationsfolien um Julia Retzlaff handelt. Wobei zur Identifikation der Person eine genutzt wird. Und zum anderen wird der Foliensatz mit einer bestehenden Datenmenge verlinkt. In diesem Fall mit der dbpedia.org hinter welcher sich die Beschreibung des Hauptthemas des Foliensatzes, nämlich Linked Open Data befindet. Ausarbeitung zur Seminarreihe Semantische Technologien dc:description Linked Open Data eröffnet neue Wege in der Forschung und Lehre an Universitäten dc:title dc:subject Linked_Open_Data dc:author julia_retzlaff.xhtml Bild 1: Diese Ausarbeitung veröffentlich mit Hilfe der Linked Data Principles. 2.2 Linked Open Data Cloud Die Linked Open Data Cloud ist das sichtbarste Produkt der Weiterentwicklung des Web of Documents hin zum Web of Data. Unter diesem Begriff fasst man alle Daten zusammen, die unter Anwendung der Linked Data Principles in Kombination mit einer offenen Lizenz publiziert wurden. Die Linked Open Data Cloud ist ein Produkt des Linked Open Data Projects. Dieses Projekt wurde im Januar 2007 gegründet. Es wird vom W3C unterstützt und ist offen, das heißt jeder kann an diesem Projekt teilnehmen. Die Mitglieder des Projektes unterstützen Menschen bzw. Organisationen bei der Veröffentlichung ihrer Daten in der Linked Open Data Cloud. Ziel ist es möglichst viele Daten für jeden frei zugänglich zu machen. Bereits fünf Monate nach der Gründung des Projektes bestand die Linked Open Data Cloud aus 12 Datenmengen. Die Datenmengen waren untereinander noch wenig verlinkt. In den folgenden Jahren wuchs die Anzahl der Datenmengen und auch die Zahl der Verlinkungen zwischen den Datenmengen stieg stark an. 4

5 Bis zum September 2011 wuchs die Linked Open Data Cloud auf 295 Datensets. Sie unterteilt sich zurzeit in 7 inhaltliche Gruppen: Der Bereich Goverment Data enthält Daten über Bevölkerungsentwicklung und Bevölkerungszusammensetzung. Diese Daten werden von den Regierungen der betreffenden Länder veröffentlicht. Im Medienbereich befinden sich unter anderem Verzeichnisse über Sänger und Interpreten. Im Publikationsbereich haben viele Bibliotheken ihre Datenbanken geöffnet. Die Life Science Data enthält beispielsweise Forschungsdaten aus Versuchen der Pharmaindustrie. In dem Bereich der Cross- Domain findet sich als bekanntestes Dataset die Dbpedia. Diese ist eine semantifizierte Version der Wikipedia. Im kleinen Bereich des user-generated Content befinden sich Datenmengen von einzelnen Benutzern. Viele stammen noch aus den Anfängen des Web of Data und enthalten beispielsweise semantifizierte Blogeinträge. Der Bereich Geographie bietet mit Geonames eine Datenmenge, die Städtenamen mit Ihren Koordinaten verbindet. Grundsätzlich sind die inhaltlichen Bereiche der veröffentlichten Daten genauso vielfältig, wie die Daten selbst. Im August 2013 umfasste die Cloud bereits 337 Datenmengen und es ist anzunehmen, dass die Cloud noch weiter wachsen wird. Tim Berners-Lee macht in einem Vortrag bei TED im Februar 2009 deutlich, dass der Nutzen der Linked Open Data umso größer wird, je mehr Daten in der Linked Open Data Cloud veröffentlicht werden. Bleibt die Frage, welchen Nutzen uns die veröffentlichten Datenmengen in der Linked Open Data Cloud bieten und wie wir diese für die Forschung und Lehre an Universitäten einsetzen können. Bild 2: Abbild der Linked Data Cloud vom Mai

6 Bild 3: Abbild der Linked Data Cloud vom September Zugriff auf Linked Open Data Eine Datenmenge der Linked Open Data Cloud kann man aus der Programmierer Sicht als Datenbank oder als Dokument begreifen. Daraus resultieren zwei unterschiedliche Zugriffsmechanismen auf die Datentriple innerhalb einer Datenmenge: die Dereferenzierung der URI's und die Anfrage mit SPARQL. Bevor man jedoch auf die Linked Open Data zugreift und die Daten extrahiert, um beispielsweise eine Webapplikation mit Inhalten aus der Linked Open Data Cloud anzureichern, muss man den richtigen Ansatzpunkt finden, in welchem Datensatz man die gewünschten Informationen findet. 3.1 Online Tools zur Orientierung in der Linked Open Data Cloud Um in der Linked Open Data Cloud die gewünschten Inhalte zu finden, gibt es eine Reihe von Online Tools: sindice, sig.ma und relfinder sind Beispiele dafür. 6

7 Exemplarisch wird hier das Tool Sindice näher betrachtet. In der Benutzeroberfläche von Sindice gibt es die Möglichkeit, nach einem oder mehreren Begriffen zu suchen. Das Ergebnis zu dieser Anfrage ist eine Liste von In dieser wird die Anzahl der Triple angegeben, die zu diesem Thema innerhalb der URI annotiert wurden. Zusätzlich bietet Sindice verschiedene Sichten auf die Datenmengen, die in der Ergebnisliste auftauchen. Beispielsweise lassen sich die Triple, welche zum Suchwort passen, zum einen als Liste anzeigen. Eine andere Ansicht ist die Graph Ansicht der Triple. Außerdem wird eine Liste der von dieser Datenmenge verwendeten Ontologien angezeigt. Damit kann der Suchende sich ein Bild über den beschriebenen Inhaltsbereich machen. Ist die passende Datenmenge gefunden, beispielsweise die dbpedia.org, so stellt sich vor dem Gebrauch der Inhalte die Frage der Verfügbarkeit dieser Datenmenge. Denn sowohl eine SPARQL- Anfrage als auch die Dereferenzierung einer richten sich immer an einen Server. Damit ist immer auch die Gefahr eines Ausfalls dieses Servers verbunden. Zur Überprüfung der Verfügbarkeit des betreffenden Servers bietet sich das Online Tool [http://labs.mondeca.com/sparqlendpointsstatus/index.html] an. Es bietet eine Übersicht über die SPARQL- Endpoint Verfügbarkeit. Das Tool betrachtet die Verfügbarkeit des jeweiligen Servers im Zeitraum der letzten 24 Stunden und zusätzlich im Zeitraum der letzten 7 Tage. Bei der Betrachtung der Verfügbarkeit der dbpedia.org, fällt als erstes auf, das die dbpedia in unterschiedliche SPARQL- Endpoints aufgeteilt ist. Je nach Region weisen diese SPARQL-Endpoints eine andere Verfügbarkeit auf. Ist ein verlässlicher Server mit dem passenden Inhalt für die Webapplikation gefunden, muss sich der Programmierer für eine Zugriffsart entscheiden. Bild 4: Ausschnitt der Webseite zur Überprüfung der Verfügbarkeit der SPARQL- Endpoints 3.2 Dereferenzierung der Entscheidet man sich für eine Dereferenzierung der durchzuführen, so kann man dazu beispielsweise das Kommandozeilentool curl oder die online Variante hurl 7

8 verwenden. Als Beispiel wird hier eine Dereferenzierung mit hurl.it durchgeführt mit einer DBpedia URL. hurl führt einen HTTP Request mit der angegeben URL durch. Die Beispiel-URL wird dazu in das vorgesehene URL Feld auf der Oberfläche von hurl.it eingefügt. Außerdem wird die Angabe gemacht, dass der Inhaltstyp, der bei der Anfrage zurückgegeben wird RDF+XML sein soll. Dies wird erreicht durch die Verwendung des Accept Feldes bei dem Request. Das Ergebnis dieser Anfrage sind die RDF Triple, die unter der verfügbar sind. 3.3 SPARQL- Anfrage Eine weiter Variante auf die Daten in der Linked Data Cloud zuzugreifen, ist die SPARQL- Anfrage. Der Begriff SPARQL ist ein rekursives Akronym und ist in der Langform als Sparql Protocol and RDF Query Language bekannt. SPARQL- Anfragen werden bereits von vielen gängigen Programmiersprachen, wie Java, PHP, Python oder C/C++ unterstützt. Für Java gibt es beispielsweise das Jena Semantic Web Framework, welches SPARQL- Anfragen aus einem Programm heraus ermöglicht. SPARQL ist eine Anfragesprache für RDF, wie man es von SQL für Datenbanken kennt. Grundsätzlich besteht eine solche Anfrage aus zwei Teilen, einmal aus dem Schlüsselwort SELECT und dem Schlüsselwort WHERE. Hinter dem WHERE wird das Anfrage-Pattern eingefügt. Dieses gibt an, was gefragt wird. Der SELECT Teil wird genutzt, um eine Einschränkung der Ergebnisse zu erwirken. Beispielsweise können die Anfragen darauf beschränkt sein, nur die Subjekte anzuzeigen. Zusätzlich zu diesen beiden Hauptbestandteilen einer SPARQL- Anfrage gibt es noch drei weitere Blöcke mit denen die Anfrage weiter eingegrenzt bzw. spezifiziert werden kann. Diese Teile sind im Gegensatz zu SELECT und WHERE optional. Vor dem Schlüsselwort SELECT gibt es die Möglichkeit, eine Prefixdeklaration vorzunehmen. Innerhalb dieser wird angegeben, mit welchem Vokabular die Anfrage gestellt wird und wie der Prefix dieses Vokabulares lautet. Vokabulare wie SKOS, FOAF oder Dublin Core sind zu verstehen als Wortschatz. Sie bilden die Grundlage, um in einer bestimmten Domaine beschreibende Verknüpfungen für Inhalte zur Verfügung zu stellen. Diese Vokabulare wurden mit Hilfe von RDF und OWL (Web- ontology Language) gebildet. Ein weiteres Pattern der SPARQL-Anfrage kann zwischen dem SELECT und dem WHERE- Pattern eingefügt werden. Dort kann angegeben werden, von welchem Datensatz die Anfrage getätigt werden soll, unterstützt durch die zwei Schlüsselwörter FROM < > und FROM NAMED < >. Hinter dem WHERE-Pattern lassen sich Schlüsselwörter einfügen, mit denen sich die Frage modifizieren lässt. Beispielsweise kann mit dem Schlüsselwort LIMIT die Anzahl der ausgegebenen Antworten begrenzt werden. Neben der hier beschriebenen Select- Anfrage, welche die Originalwerte vom SPARQL- Endpoint als Ergebnis in einer Tabelle ausgibt, gibt es noch drei weitere Formen für SPARQL- Anfragen: die Construct- Anfrage, die Ask- Anfrage und die Describe- 8

9 Anfrage. Jede dieser Anfragearten hat einen eigenen Anwendungsbereich. Die Construct- Anfrage wird genutzt, um die Informationen aus dem SPARQL- Endpoint in valides RDF zu transformieren. Die Ask- Anfrage im Gegensatz dazu liefert nur true oder false auf die gestellte Anfrage. Die Describe-Anfrage extrahiert einen RDF- Graphen aus dem Ergebnis der Anfrage an den SPARQL- Endpoint. Man wählt also die Struktur der SPARQL- Anfrage nach dem gewünschten Output aus und gelangt so an die Daten, die von der Datenmenge bereitgehalten werden. Prefixdeklaration (optional) PREFIX foo:<...> PREFIX bar:<...>... SELECT Einschränkung Anfragepattern Definition Datensatz (optional) Modifizierer für Anfrage (optional) FROM <...> FROM NAMED <...> WHERE { } GROUP BY... HAVING... ORDER BY... LIMIT... OFFSET.. BINDINGS... Anfrage Bild 5: Struktur einer Select-Anfrage Beispiel SPARQL- Anfrage an dbpedia.org SPARQL- Endpoint Es sollen alle Informationen herausgefunden werden, die die dbpedia.org über den Ort Kiel bereithält. Dazu werden in diesem Beispiel nur die beiden Schlüsselwörter SELECT und WHERE genutzt. SELECT wird mit dem Sternoperator versehen, das heißt alle durch das WHERE Schlüsselwort herausgefundenen Ergebnisse werden ausgegeben. Im Bereich des WHERE- Schlüsselwortes wird das Subjekt, nämlich <http://dbpedia.org/resource/kiel> angegeben. Dies gibt an nach welchem Subjekt mit der Anfrage gesucht werden soll. Hinter dem befindet sich ein?p und ein?o, 9

10 die als Platzhalter für die Antworten stehen. Als Ergebnis dieser Anfrage werden alle Prädikate und Objekte ausgegeben, die mit dem Subjekt Kiel verlinkt sind. Als Ergebnis auf die wie oben formulierte Anfrage an den SPARQL-Endpoint der dbpedia.org erhalten wir eine Tabelle, welche die Prädikate und Objekte beinhaltet. Der Inhalt muss nun noch in eine geeignete Repräsentationsform gebracht werden, aber die Rohdaten um eine Webapplikation damit zu ergänzen sind mit dieser Anfrage aus der Linked Open Data Cloud herausgefiltert worden. SELECT * WHERE { <http://dbpedia.org/resource/kiel>?p?o. } Bild 6: Quellcode zur Beispielanfrage aus VIVO Projekt: Anwendung von LOD an Universitäten Das VIVO Projekt wurde 2003 an der Cornell University Library gegründet und an der Cornell University implementiert. Es ist eine offene Software. Sie ist darauf ausgerichtet, Informationen über öffentliche Aspekte der wissenschaftlichen Forschung zu publizieren. Es verhilft Forschern, Fakultätsmitarbeitern und Studenten die richtigen Ansprechpartner zu finden und verbessert die Vernetzung der Wissenschaftler untereinander. Eine interdisziplinäre und fakultätsübergreifende Zusammenarbeit innerhalb der Universität wird durch VIVO ermöglicht. Bei der Implementierung wurde ein besonderes Augenmerk auf die Interoperabilität der Daten gelegt. Aus diesem Grund wurden semantische Technologien bei der Implementierung des Projektes eingesetzt. 4.1 Semantische Webanwendung VIVO ist ein Open Source Projekt, welches mit Hilfe des Jena Semantic Web Frameworks implementiert wurde. Es speichert alle Daten unter Verwendung des Ressource Description Frameworks (RDF) und entspricht damit dem internationalen Standard für den Austausch von Daten im Internet. Als Basisontologie nutzt das VIVO System die VIVO Ontologie VITRO. VITRO ist eine Verbindung vieler bereits existierender Ontologien. Diese Ontologien fokussieren sich darauf, Forscher und ihre Forschungsaktivitäten sowie ihre sozialen Netzwerke darzustellen. VITRO setzt sich wie 10

11 folgt zusammen: Die Ontologie VIVO CORE bildet die Kernontologie, sie wird erweitert durch die Ontologien FOAF, EVENT, BIBO, BFO und Science Resources. Die VIVO-Software bietet drei Werkzeuge für die Datenbearbeitung: den Ontologie Editor, den Inhaltseditor und die Webseite. Mit dem Ontologie Editor können neue Ontologien erstellt oder bereits bestehende importiert werden. Der Inhaltseditor dient dazu, Daten zu integrieren und zu editieren. Die Webseitenansicht präsentiert den Inhalt, welcher veröffentlicht wurde und lässt authentifizierte Nutzer ihre Inhalte, wie bei einem Content- Management- System bearbeiten. 4.2 Menschenlesbare Webpage Sobald die zu veröffentlichenden Daten in das VIVO System eingespeist sind, wird vom System eine öffentliche Webseite mit Unterseiten erstellt, die beispielsweise die Profile der Wissenschaftler beinhaltet. Diese menscheninterpretierbare Webpage ist vollständig anpassbar. Sowohl die angezeigten Themen als auch die Seiteninformationen. Zusätzlich werden alle Seiteninformationen mit Lucene (lucene.apache.org) indiziert. Die Seiten werden komplett durchsuchbar. Die Navigation auf den Webpages des ViVO Systems bietet dem User verschiedene Ansätze, den gewünschten Content zu finden. Schaut man sich die typische Aufteilung einer VIVO Webpage an, so offeriert das Hauptmenü Informationen über Personen, Institute, Forschung und Veranstaltungen. Zusätzlich zu dieser Navigation wird die oben erwähnte Stichwortsuche angeboten. Gibt man dort einen Suchbegriff ein, so werden mit dem Stichwort verwandte Beiträge angezeigt. Besonders zu beachten ist die Möglichkeit, die Suchergebnisse einzuschränken. Am Beispiel des Cornell University VIVO gibt es die Möglichkeit, die Suchergebnisse auf Personen, Kurse oder Veranstaltungen zu diesem Begriff einzuschränken. Diese Begrenzung ist nur möglich, da Annotationen die vorliegenden Texte in ihrer Bedeutung von anderen abgrenzen. Es handelt sich also um eine Errungenschaft aus der Semantifizierung der Daten. Eine weitere Methode, welche vom VIVO System erzeugt wurde, um sich auf der Webpage der Cornell University zurecht zu finden, wird als Browsen bezeichnet. Es gibt die Möglichkeit zwischen neun Hauptthemen auszuwählen, hinter denen man jeweils die aktuelle Anzahl der Einträge zu diesem Gebiet sieht. Wählt man zum Beispiel die Einträge hinter Person, so erscheinen verfeinerte Kriterien, wie beispielsweise Faculty Member oder Graduate Student. Ein Balken zeigt an, wie viele Einträge zu diesem Bedeutungspunkt vorhanden sind. Die Suchergebnisse des Unterpunktes sowie alle anderen Webpages kann man sich auch direkt als RDF ausgeben lassen. Personenprofile sowie Webpages über andere Inhalte können nach einer Authentifizierung von den Eigentümern selbst bearbeitet werden. So ist eine genaue Kontrolle und Bearbeitung der veröffentlichten Informationen durch den Forschenden selbst jederzeit möglich. Das Personenprofil enthält so beispielsweise nur freigegebene Inhalte des Forschenden. Schauen wir uns als Beispiel das Profil von Professor George Samuel Abawi von der Cornell University an. Es enthält nicht nur Informationen über 11

12 seinen Werdegang an der Cornell, sondern auch über seine Forschung und Lehre. Studenten bekommen so die Möglichkeit, sich über seine Lehrveranstaltungen zu informieren. Institutsfremde finden einen Ansprechpartner, und selbst Informationen über die einzelnen Publikationen werden bereitgestellt. Kritisch betrachtet könnte man an diesem Punkt sagen, dass alles ist doch auch mit einer herkömmlichen HTML basierten Webpage möglich. Eines jedoch hält das VIVO System noch als herausragende Funktion bereit: die Möglichkeit der Verwendung aller Daten in anderen Programmen. Diese Funktionalität ergibt sich aus der maschinenlesbaren Repräsentation der Daten. Im VIVO System der Cornell University gibt es derzeit drei Arten von Visualisierungen. Diese werden direkt live auf der Webpage erstellt. Zum einen ist das die Co-Autoren Visualisierung: Unser Beispiel-Professor hat 540 Publikationen geschrieben mit 47 Co-Autoren. Aus den sematifizierten Daten wird ein Graph erstellt, welcher von unserem Professoren ausgehend zu den einzelnen Co- Autoren eine Kante zeichnet. Die Ecke wird umso dicker und farbkräftiger, je mehr Publikationen der oder diejenige mit unserem Professor zusammen verfasst hat. Zusätzlich werden auch die Vernetzungen der Co-Autoren untereinander angezeigt. Ein Export des Graphen ist in GraphML oder als Bild möglich, womit eine Möglichkeit zum Export der Visualisierung besteht. Außerdem gibt es bei dieser Anwendung verschiedene weitere Möglichkeiten die Co-Autoren anzuordnen. Die Visualisierung der Co-Investigatoren ist ganz ähnlich aufgebaut zu der Visualisierung der Co-Autoren. Davon unabhängig ist die Visualisierung der Map of Science. Diese zeigt durch eine Landkarte der Forschungsgebiete an, wo das Forschungsgebiet der Person liegt. Die Landkarte wird aus den Informationen erstellt, welche über die Publikationen gemacht wurden. Durch farbige Kreise, welche je nach Anzahl der Publikationen in diesem Bereich auch in der Größe variieren, werden Forschungsschwerpunkte sichtbar. Visualisierungen, wie die oben aufgeführten, basieren auf den in das System eingespeisten Daten und es sind noch viele weitere Visualisierungen denkbar. Die Semantifizierung der Inhalte dient somit nicht nur der Maschinenlesbarkeit, sondern verbessert auch die Aktualität und Verständlichkeit der Inhalte für den Menschen. Grafiken werden live erstellt. Sie sind stets aktuell und müssen nicht überarbeitet und gepflegt werden. 12

13 Bild 7: Abbildung der Co-Authoren live generiert vom VIVO System. 13

14 Bild 8: "Map of Science" aus dem VIVO System der Cornell University. 4.3 Maschinenlesbare Daten Alle über das VIVO System publizierten Daten sind auch maschinenlesbar. Sie können, wie oben erwähnt, in anderen Anwendungen verwendet werden. Durch die Anwendung der Standards der Semantischen Web Technologien, die vom W3C veröffentlicht wurden, werden die Sachverhalte in ihren Einzelheiten modelliert. Eine Publikation wird dabei nicht als alleinstehende Entität gesehen, sondern unterteilt sich zum Beispiel in die Art der Publikation - Buch, Artikel, Journal; in den Autor, Editoren, Übersetzer. All diese feingliedrigen Einzelheiten bilden eine gut strukturierte Datenbasis. Alle Daten werden im RDF Format gespeichert. Zusätzlich sorgt das VIVO System dafür, dass für Daten persistente URI's verwendet werden. Dadurch werden Informationen direkt und verlässlich verlinkt. Die Benutzung einer VIVO Instanz, um Daten zu veröffentlichen macht diese Daten im Web feststellbar und nutzbar. Daten mit Hilfe des VIVO Systems zu veröffentlichen, ist ein Beitrag zur Linked Open Data Cloud. Die Daten können sowohl von einem anderen Server abgefragt werden über den SPARQL-Endpoint als auch direkt durch das Speichern der vorliegenden Webpage im RDF Format. Die RDF- Repräsentation der Daten sind unter derselben abgelegt wie die menschenlesbare HTML Version. Die so erlangten Daten können dann in einer Anwendung weiterverarbeitet werden, da durch die Speicherung im RDF Format 14

15 die Bedeutung der Daten für den Computer erschließbar ist. Beispielsweise kann diese Vorgehensweise für computergestützte Analysen genutzt werden oder um andere offene Daten im Web durch den Content zu ergänzen. 4.4 Aufsetzen eines institutseigenen VIVO Systems Jedes VIVO Projekt unterscheidet sich von jedem anderen. Die Anpassungsmöglichkeiten und auch die verschiedenen Umfänge der verwendeten Implementierung sind vom Institut selbst zu wählen. Die bisher an einem Institut bestehenden Datenbanken können für die Integration der Daten in das VIVO System herangezogen werden. VIVO zielt darauf ab die Daten aus den bestehenden Systemen des Instituts zu verwenden, damit kein Mehraufwand bei der Datenpflege entsteht. Dazu stellt man sich folgenden Aufbau so einer Infrastruktur vor: Es existiert ein VIVO Server, welcher als Schnittstelle zwischen den inneren Daten und Benutzern und zwischen den externen Benutzern und anderen Servern steht. Dieser VIVO Server stellt das System bereit und verarbeitet die gelieferten Daten zu einer menschenlesbaren Webpage und steht gleichzeitig als SPARQL- Endpoint zur Verfügung, falls ein anderer Server Daten im RDF Format abrufen möchte. Die innere Struktur, um dieses System zu speisen, setzt sich wie folgt zusammen: Zuallererst gibt es die Möglichkeit, Inhalt händisch einzutragen. Dies ist besonders in kleineren Organisationen und in Organisationen ohne vorhandene maschinenlesbare Datenhaltung denkbar. In diesem Punkt können beispielsweise die Institutsmitarbeiter ihre Profile anpassen oder neue Inhalte hinzufügen. Hat die betreffende Organisation jedoch bereits maschinenlesbare Daten auf anderen Systemen, so können durch Identifizierung der gebräuchlichen ID's die Daten direkt von diesen inneren Servern vom VIVO Server abgerufen werden. Wichtig ist jedoch zu bedenken, welche Informationen nach außen gelangen sollen bzw. dürfen. Da das VIVO System selbst keine langfristige Datenhaltung betreibt, muss die Organisation bei der Freigabe ihrer Daten eine Regelung über Identifizierer innerhalb der internen Datenhaltung finden. Diese müssen angeben, ob die Daten veröffentlicht werden dürfen. Jedes VIVO Projekt wird lokal verwaltet. Die offene Software des VIVO Systems, der Ontologie und die Dokumentationen sind zum Download (unter verfügbar. Sie wird ständig weiterentwickelt durch eine offene Community, die sich um das Projekt herum gegründet hat. Diese Software wird mit der BSD License, der Berkeley Software Distribution weitergegeben. Dies bedeutet für die Nutzung und Weiterentwicklung der Software, dass alle Erweiterungen wieder mit dieser Lizenz weitergegeben werden müssen. Zusätzlich muss die Angabe gemacht werden, dass die Software ursprünglich von der Cornell University stammt. 15

16 Bild 9: Aufbau einer institutseigenen VIVO Infrastruktur. 4.5 Verbreitung von VIVO Das VIVO System ist weltweit verbreitet. In 158 Ländern sind VIVO Systeme vorhanden. Innerhalb dieser Länder sind es zusammen 671 bekannte VIVO Projekte. Die meiste Anwendung findet diese Open Source Software in Amerika, sowie in Australien. In Europa hingehen gibt es nur vereinzelte bekannte öffentliche VIVO Systeme. In England, den Niederladen, Belgien, Polen und Ungarn sind vereinzelt VIVO Systeme aufgesetzt worden. In Deutschland existiert zurzeit kein öffentliches VIVO System. 5 Bewertung und Ausblick Das Veröffentlichen von Daten als Linked Open Data bietet dem Nutzer und auch dem Veröffentlicher selbst viele Vorteile. Im Gegensatz zur herkömmlichen Verfahrensweise der Veröffentlichung als Dokument, steht die Interpretierbarkeit durch Maschinen bei 16

17 diesem Ansatz im Vordergrund. Die Weiterverarbeitung und auch die Wiederverwertung der Daten ist durch die von Tim Berners-Lee aufgestellten Linked Data Principles und die vom W3C herausgegebenen Standards z.b. RDF, möglich. Die einheitliche und maschineninterpretierbare Struktur der gespeicherten Daten lässt eine computergestütze Verarbeitung zu. Die offenen Lizenzen, unter denen die Daten publiziert werden, machen einen Zugriff auf die Daten und deren Verwendung rechtlich möglich. Diese Vorteile sind besonders für die Daten von Universitäten interessant, da dort zum einen viele Daten erhoben und gespeichert werden müssen. Außerdem ist in Universitäten auch ein reger Austausch der Daten zur interdisziplinären Zusammenarbeit erwünscht. Dieser Austausch fördert die wissenschaftliche Entwicklung der Universität. Ein besonderes Augenmerk sollte darauf gelegt werden, welche Daten unter der offenen Lizenz veröffentlicht werden. Es existieren gerade im Forschungsbereich sicherheitsrelevante und forschungsrelevante Daten, die nicht ohne weiteres nach außen gelangen dürfen. Denkbar ist es für diese Art Daten nur eine universitätsinterne Zugänglichkeit zu gewähren oder die Daten zu einem Zeitpunkt in der Linked Data Cloud zu veröffentlichen, an dem die eigenen Forschungen bereits weit fortgeschritten oder abgeschlossen sind. Eine Anwendung der Linked Open Data an Universitäten ist das VIVO System. Es erleichtert das Publizieren von Daten in der Linked Open Data Cloud. Es zeigt eindrucksvoll, wie viele Anwendungsmöglichkeiten es für die nach den Linked Data Principles von Tim Berners-Lee veröffentlichten Daten geben kann. Es erleichtert die Suche nach Begriffen auf den Webseiten und ermöglicht eine programmgesteuerte Analyse von Daten eingebettet in die menschenlesbare Webpage. Diese Software ist sicherlich auch zur Anwendung an deutschen Universitäten geeignet. 17

18 Literartur- und Quellenverzeichnis Heath, T. Hepp, M. and Bicer, C. (eds.). Special Issue on Linked Data, International Journal on Semantic Web and Information Systems (IJSWIS). Tom Heath and Christian Bizer (2011) Linked Data: Evolving the Web into a Global Data Space (1st edition). Synthesis Lectures on the Semantic Web: Theory and Technology, 1:1, Morgan & Claypool. Chapter 3,6. Corson-Rikert, J., Krafft, D. B., Lowe, B.J.. VIVO: A Semantic Network of Researchers and Research Information as Linked Open Data Corson-Rikert, J.. (2012) VIVO System Architecture and Core Functions, VIVO Implementation Fest Kristi Holmes (2013) VIVO Benefits https://wiki.duraspace.org/display/vivo/vivo+benefits Hausenblas, Dr. Michael (2011) Consuming Linked Open Data from Theory to Practice, Tutorial at Web Science Doctoral Summer School 2011, Berners-Lee, Tim.(2009) The next web.(vortrag) Krafft, Cappadona, Devare, Lowe (eds.). VIVO: Enabling National Networking of Scientists Hausenblas, M.. Exploiting Linked Data For Building Web Applications, DERI, National University of Ireland, Galway 18

19 Bildverzeichnis Bild 1: Diese Ausarbeitung veröffentlich mit Hilfe der Linked Data Principles. Bild 2: Abbild der Linked Data Cloud vom Mai Bild 3: Abbild der Linked Data Cloud vom September Bild 4: Ausschnitt der Webseite zur Überprüfung der Verfügbarkeit der SPARQL- Endpoints, Bild 5: Struktur einer Select-Anfrage Bild 6: Quellcode zur Beispielanfrage aus Bild 7: Abbildung der Co-Authoren live generiert vom VIVO System. Bild 8: "Map of Science" aus dem VIVO System der Cornell University. Bild 9: Aufbau einer institutseigenen VIVO Infrastruktur. Bildauszug aus den Präsentationsfolien von VIVO: Enabling National Networking of Scientists, Michael Conlon, PhD, Principal Investigator, University of Florida 19

DSpace 5 und Linked (Open) Data. Pascal-Nicolas Becker Technische Universität Berlin German DSpace User Group Meeting 2014 Berlin, 28.

DSpace 5 und Linked (Open) Data. Pascal-Nicolas Becker Technische Universität Berlin German DSpace User Group Meeting 2014 Berlin, 28. DSpace 5 und Linked (Open) Data Pascal-Nicolas Becker Technische Universität Berlin German DSpace User Group Meeting 2014 Berlin, 28. Oktober 2014 Ausblick: DSpace 5 Metadaten für alle Objekte (Collections,

Mehr

Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien

Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien Lydia Unterdörfel, Björn Muschall Wissenschaftskommunikation im Semantischen Web (EFRE)

Mehr

Was sind Ontologie-Editoren?

Was sind Ontologie-Editoren? Was sind Ontologie-Editoren? Kurzeinführung Protégé Sonja von Mach und Jessica Otte Gliederung Ontologie Editoren- allgemein warum nutzen wofür nutzen Probleme Marktlage Einführung in die praktische Arbeit

Mehr

Verknüpfte Daten abfragen mit SPARQL. Thomas Tikwinski, W3C.DE/AT

Verknüpfte Daten abfragen mit SPARQL. Thomas Tikwinski, W3C.DE/AT Verknüpfte Daten abfragen mit SPARQL Thomas Tikwinski, W3C.DE/AT Agenda SPARQL Eine Anfragesprache für RDF Was ist eine SPARQL-Abfrage? Beispiel Arbeiten mit Variablen Komplexere Anfragen Filtern und sortieren

Mehr

Veranstalter: Lehrstuhl DBIS - Prof. Georg Lausen Betreuer: Thomas Hornung, Michael Schmidt 21.10.2008

Veranstalter: Lehrstuhl DBIS - Prof. Georg Lausen Betreuer: Thomas Hornung, Michael Schmidt 21.10.2008 Veranstalter: Lehrstuhl DBIS - Prof. Georg Lausen Betreuer: Thomas Hornung, Michael Schmidt 21.10.2008 Laut Studienordnung Master/Diplom: 16ECTS/15KP Entspricht: 480 Semesterstunden = 34h/Woche pp p.p.

Mehr

Projektgruppe. Knowledge Representation Persistence and Reasoning

Projektgruppe. Knowledge Representation Persistence and Reasoning Projektgruppe Seminarvortrag von Stefan Middeke Knowledge Representation Persistence and Reasoning 4. Juni 2010 Überblick Motivation Repräsentation der Daten Speicherung und Abfrage von Daten Folgerungen

Mehr

Linked Samian Ware: Potentiale von Linked Data in der Archäologie. Florian Thiery M.Sc.

Linked Samian Ware: Potentiale von Linked Data in der Archäologie. Florian Thiery M.Sc. Linked Samian Ware: Potentiale von Linked Data in der Archäologie Florian Thiery M.Sc. Linked Samian Ware: Potentiale von Linked Data in der Archäologie Workshop der AG CAA Tübingen 15.02.2014 Als Grundlage

Mehr

Mit Linked Open Data in die Zukunft

Mit Linked Open Data in die Zukunft Mit Linked Open Data in die Zukunft Hessischer Bibliothekartag, Langen 9.5.2011 Dr. Silke Schomburg 1. Open Data Linked Data 2 Open Knowledge A piece of knowledge is open if you are free to use, reuse,

Mehr

Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web. Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm.

Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web. Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm. Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm.de WissKI Das Projekt WissKI = Abk. Wissenschaftliche KommunikationsInfrastruktur

Mehr

Freie und vernetzte Daten:

Freie und vernetzte Daten: Freie und vernetzte Daten: Das Konzept des Linked Open Data und sein Einsatz beim RISM-OPAC KoFIM-Kolloquium an der Staatsbibliothek zu Berlin, 6. Oktober 2014 Jürgen Diet, Bayerische Staatsbibliothek

Mehr

Linked Open Cultural Heritage.

Linked Open Cultural Heritage. Linked Open Cultural Heritage. Herausforderungen, Risiken und Chancen der Datenvernetzung im Bereich des Kulturerbes. Georg Hohmann Germanisches Nationalmuseum Referat für Museums- und Kulturinformatik

Mehr

Agile Knowledge Engineering und Semantic Web - Aussen gut. Innen besser.

Agile Knowledge Engineering und Semantic Web - Aussen gut. Innen besser. Agile Knowledge Engineering und Semantic Web - Aussen gut. Innen besser. Thomas Riechert*, Christian Rau** Universität Leipzig * Agile Knowledge Engineering and Semantic Web und ** Lehrstuhl für Neuere

Mehr

Linked Cultural Heritage.

Linked Cultural Heritage. Linked Cultural Heritage. Herausforderungen und Chancen der Datenvernetzung im Bereich des Kulturerbes. Georg Hohmann Germanisches Nationalmuseum Referat für Museums- und Kulturinformatik Kornmarkt 1,

Mehr

Glossar. KML TP2, Informationsdienste

Glossar. KML TP2, Informationsdienste KML TP2, Informationsdienste BaseEngine Die BaseEngine ist für die Darstellung der gesamten Webseite verantwortlich. Sie sorgt z.b. für den Aufbau der Navigationsmenüs. Jedes VIP-Objekt ist automatisch

Mehr

Ressourcen-Beschreibung im Semantic Web

Ressourcen-Beschreibung im Semantic Web Ressourcen-Beschreibung im Semantic Web Cristina Vertan Inhaltsübersicht Wie sollen die Ressourcen für Semantic Web annotiert werden? Was ist und wie funktioniert RDF? Wie kodiert man RDF-Statements in

Mehr

Manuskripte für Europeana und neue Tools für Geisteswissenschaftler: Das DM2E-Projekt

Manuskripte für Europeana und neue Tools für Geisteswissenschaftler: Das DM2E-Projekt Manuskripte für Europeana und neue Tools für Geisteswissenschaftler: Das DM2E-Projekt Evelyn Dröge Institut für Bibliotheks- und Informationswissenschaft, Humboldt-Universität zu Berlin Vortrag auf der

Mehr

Empfehlungen für die Zukunft Mehrwerte für Ihre Daten. Prof. Felix Sasaki (Deutsches Forschungszentrum für Künstliche Intelligenz)

Empfehlungen für die Zukunft Mehrwerte für Ihre Daten. Prof. Felix Sasaki (Deutsches Forschungszentrum für Künstliche Intelligenz) Empfehlungen für die Zukunft Mehrwerte für Ihre Daten Prof. Felix Sasaki (Deutsches Forschungszentrum für Künstliche Intelligenz) 1 Daten bisher: unverknüpfte Silos Original Übersetzung Proprietäre Formate

Mehr

Java und XML 2. Java und XML

Java und XML 2. Java und XML Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Institut für Praktische Informatik und Medieninformatik Fachgebiet Telematik Java und XML Hauptseminar Telematik WS 2002/2003

Mehr

Recherchebericht. Eine URL (Uniform Resource Locator; dt. einheitlicher Quellenanzeiger ) lokalisiert eine Ressource, wie eine Website, und ihren Ort.

Recherchebericht. Eine URL (Uniform Resource Locator; dt. einheitlicher Quellenanzeiger ) lokalisiert eine Ressource, wie eine Website, und ihren Ort. Recherchebericht Begriffe: Ein Betriebssystem ist eine Software, die die Schnittstelle zwischen den Hardwarekomponenten und der Anwendungssoftware bildet. Es verwaltet die Hardwareressourcen, wie Arbeitsspeicher,

Mehr

Open Spending Visualisierung kommunaler Ausgabenprofile

Open Spending Visualisierung kommunaler Ausgabenprofile Open Spending Visualisierung kommunaler Ausgabenprofile Universität Leipzig Institut für Informatik Abteilung Betriebliche Informationssysteme Forschungsgruppe AKSW 10. 12. 2013 1 Motivation 2 Entstehung

Mehr

Repositorieninhalte als Linked Data bereitstellen. Pascal-Nicolas Becker Technische Universität Berlin 104. Bibliothekartag Nürnberg, 28.05.

Repositorieninhalte als Linked Data bereitstellen. Pascal-Nicolas Becker Technische Universität Berlin 104. Bibliothekartag Nürnberg, 28.05. Repositorieninhalte als Linked Data bereitstellen Pascal-Nicolas Becker Technische Universität Berlin 104. Bibliothekartag Nürnberg, 28.05.2015 Digitale Repositorien Ein Repositorium ist ein System zur

Mehr

Open Archives Initiative - Protocol for Metadata Harvesting (OAI-PMH)

Open Archives Initiative - Protocol for Metadata Harvesting (OAI-PMH) , XML LV BF23 (0F32) Open Archives Initiative - Protocol for Metadata Harvesting (OAI-PMH) Achim Oßwald FH Köln Institut für Informationswissenschaft Wintersemester 2010 (Stand: 3.12.10) 1/ 18 OAI-PMH

Mehr

Auch der eigene Katalog als Quelle: Zusammenführung von elektronischer und gedruckter Fassung; verschiedenen Auflagen usw.: Fließender Übergang zu

Auch der eigene Katalog als Quelle: Zusammenführung von elektronischer und gedruckter Fassung; verschiedenen Auflagen usw.: Fließender Übergang zu 1 2 3 4 Auch der eigene Katalog als Quelle: Zusammenführung von elektronischer und gedruckter Fassung; verschiedenen Auflagen usw.: Fließender Übergang zu FRBR 5 Begriff stammt aus: Coffmann, Steve: The

Mehr

Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos

Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos Semantic Wiki Eine Erweiterung des Wiki-Konzepts von Harald Cichos Seminar: Semantic Web Wintersemester 2005/2006 Universität Jena Seminarleiter: Prof. Dr. C. Beckstein, Dr. H. Sack, Dipl.-Inform. H. Peter

Mehr

Bericht BTI7311: Informatik Seminar Was sind Ontologien?

Bericht BTI7311: Informatik Seminar Was sind Ontologien? Bericht BTI7311: Informatik Seminar Was sind Ontologien? Inhaltsverzeichnis 1 Ontologien...3 1.1 Ontologien in der Philosophie...3 1.2 Ontologien in der Psychologie...3 1.3 Ontologien in der Informatik...3

Mehr

Ontologien und Ontologiesprachen

Ontologien und Ontologiesprachen Ontologien und Ontologiesprachen Semantische Datenintegration SoSe2005 Uni Bremen Yu Zhao Gliederung 1. Was ist Ontologie 2. Anwendungsgebiete 3. Ontologiesprachen 4. Entwicklung von Ontologien 5. Zusammenfassung

Mehr

RDF(a) und Microformats

RDF(a) und Microformats Weiterführende Themen zu Internet- und WWW-Technologien Hasso-Plattner-Institut 16. Mai 2011 1 Einführung Hintergrund Die Geschichte 2 RDF Ziel Repräsentationen Vokabularien 3 Microformats Motivation Beispiele

Mehr

Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien

Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien Lydia Unterdörfel, Björn Muschall Wissenschaftskommunikation im Semantischen Web Teilprojekt

Mehr

Projekt AGB-10 Fremdprojektanalyse

Projekt AGB-10 Fremdprojektanalyse Projekt AGB-10 Fremdprojektanalyse 17. Mai 2010 1 Inhaltsverzeichnis 1 Allgemeines 3 2 Produktübersicht 3 3 Grundsätzliche Struktur und Entwurfsprinzipien für das Gesamtsystem 3 3.1 Die Prefuse Library...............................

Mehr

Die virtuelle Forschungsumgebung WissKI

Die virtuelle Forschungsumgebung WissKI Die virtuelle Forschungsumgebung WissKI Georg Hohmann Deutsches Museum g.hohmann@deutsches-museum.de Das Projekt WissKI = Abk. Wissenschaftliche KommunikationsInfrastruktur Projektpartner Friedrich-Alexander-Universität

Mehr

Persistenzschicht in Collaborative Workspace

Persistenzschicht in Collaborative Workspace Persistenzschicht in Collaborative Workspace Mykhaylo Kabalkin 03.06.2006 Überblick Persistenz im Allgemeinen Collaborative Workspace Szenario Anforderungen Systemarchitektur Persistenzschicht Metadaten

Mehr

Semtation GmbH SemTalk

Semtation GmbH SemTalk Semtation GmbH SemTalk Christian Fillies Was ist SemTalk? Prozessmodellierung mit Visio2003 Viele Methoden (EPK, PROMET, FlowChart, KSA ), einfach an Kundenbedürfnisse anzupassen und zu erweitern HTML

Mehr

Die Deutsche Nationalbibliografie in der Linked Data Cloud

Die Deutsche Nationalbibliografie in der Linked Data Cloud Sarah Hartmann, Julia Hauser Die Deutsche Nationalbibliografie in der Linked Data Cloud 1 Die Deutsche Nationalbibliografie in der Linked Data Cloud 101. Bibliothekartag, 24. Mai 2012 Die Nationalbibliografie

Mehr

Dr. Christian Stein Ontologie-Design Die nächste Generation des Web für sich nutzen lernen

Dr. Christian Stein Ontologie-Design Die nächste Generation des Web für sich nutzen lernen Technische Universität Braunschweig Humboldt-Universität zu Berlin Projekt iglos Dr. Christian Stein Ontologie-Design Die nächste Generation des Web für sich nutzen lernen Dr. Christian Stein (christian.stein@hu-berlin.de)

Mehr

Einführung Software Domänenspezifische Anpassung Demo Ausblick. ERM mit OntoWiki. Andreas Nareike

Einführung Software Domänenspezifische Anpassung Demo Ausblick. ERM mit OntoWiki. Andreas Nareike Entwicklung eines Electronic Resource Management Systems für Bibliotheken auf Basis von Linked Data Technologien Institut für Informatik, UB Leipzig Universität Leipzig DINI AG KIM Workshop, 15 April 2014

Mehr

Die Nationalbibliografie als Linked Data Technische Aspekte des Linked Data Service der DNB

Die Nationalbibliografie als Linked Data Technische Aspekte des Linked Data Service der DNB Lars Svensson, Jürgen Kett, Deutsche Nationalbibliothek, Frankfurt a.m. Die Nationalbibliografie als Linked Data Technische Aspekte des Linked Data Service der DNB 1 Svensson, Kett: Die Nationalbibliografie

Mehr

Aufgaben. Bachelor Informationsmanagement / Modul Digitale Bibliothek (SS 2014) Dr. Jakob Voß 2014-03-03. CC-BY-SA / 2014-03-03 / Dr.

Aufgaben. Bachelor Informationsmanagement / Modul Digitale Bibliothek (SS 2014) Dr. Jakob Voß 2014-03-03. CC-BY-SA / 2014-03-03 / Dr. Aufgaben Bachelor Informationsmanagement Modul Digitale Bibliothek (SS 2014) Dr. Jakob Voß 2014-03-03 Aufgaben (1/24) Wo steht die Liste? Verlinkt in Moodle (Digitale Bibliothek, SoSe 2014, Voß) https:

Mehr

IAWWeb PDFManager. - Kurzanleitung -

IAWWeb PDFManager. - Kurzanleitung - IAWWeb PDFManager - Kurzanleitung - 1. Einleitung Dieses Dokument beschreibt kurz die grundlegenden Funktionen des PDFManager. Der PDF Manager dient zur Pflege des Dokumentenbestandes. Er kann über die

Mehr

Universität Leipzig Softwaretechnik Praktikum 2014 - xodx. Recherchebericht. Recherche zum Xodx-Projekt

Universität Leipzig Softwaretechnik Praktikum 2014 - xodx. Recherchebericht. Recherche zum Xodx-Projekt Universität Leipzig Softwaretechnik Praktikum 2014 - xodx Recherchebericht Recherche zum Xodx-Projekt Lukas Werner 4.1.2014 Inhaltsverzeichnis Begriffe... 2 Uniform Resource Identifier (URI)... 2 Feed...

Mehr

Cmsbox Kurzanleitung. Das Wichtigste in Kürze

Cmsbox Kurzanleitung. Das Wichtigste in Kürze Cmsbox Kurzanleitung Cmsbox Kurzanleitung Das Wichtigste in Kürze Die Benutzeroberfläche der cmsbox ist nahtlos in die Webseite integriert. Elemente wie Texte, Links oder Bilder werden direkt an Ort und

Mehr

Web Data Management Systeme

Web Data Management Systeme Web Data Management Systeme Seminar: Web-Qualitätsmanagement Arne Frenkel Agenda Einführung Suchsysteme Suchmaschinen & Meta-Suchmaschinen W3QS WebSQL WebLog Information Integration Systems Ariadne TSIMMIS

Mehr

1. Diigo.com. Pädagogische Hochschule Thurgau. Lehre Weiterbildung Forschung. 1.1. Anmeldung

1. Diigo.com. Pädagogische Hochschule Thurgau. Lehre Weiterbildung Forschung. 1.1. Anmeldung Pädagogische Hochschule Thurgau. Lehre Weiterbildung Forschung Prorektorat Forschung und Wissensmanagement Lars Nessensohn 1. Diigo.com Bewegt man sich im Internet, so arbeitet man früher oder später auch

Mehr

d e S I G n & d e v e L O P M e n T TYPO3 AdvAnced

d e S I G n & d e v e L O P M e n T TYPO3 AdvAnced DESIGN & DEVELOPMENT TYPO3 Advanced 1 Einleitung / Inhalt 2 / 13 Einleitung Dieses Dokument weist Sie durch die Funktion des Open Source CMS TYPO3. In wenigen, einfachen Schritten wird Ihnen bebildert

Mehr

Das Social Semantic Web

Das Social Semantic Web Das Social Semantic Web Treffpunkt für soziale und künstliche Intelligenz IT Businesstalk Vom Breitband zum Web 3.0 Salzburg, 14. Juni 2007 Dr. Sebastian Schaffert Salzburg Research Forschungsgesellschaft

Mehr

EOxServer & MapServer. Open Source Lösungen für Erdbeobachtungsdaten

EOxServer & MapServer. Open Source Lösungen für Erdbeobachtungsdaten EOxServer & MapServer Open Source Lösungen für Erdbeobachtungsdaten Wer ist EOX? (Was tun wir so & für wen?) Erdbeobachtung 101 Ofene Standards für Geoinformations Systeme MapServer EOxServer Wer ist

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

Skyfillers Hosted SharePoint. Kundenhandbuch

Skyfillers Hosted SharePoint. Kundenhandbuch Skyfillers Hosted SharePoint Kundenhandbuch Kundenhandbuch Inhalt Generell... 2 Online Zugang SharePoint Seite... 2 Benutzerpasswort ändern... 2 Zugriff & Einrichtung... 3 Windows... 3 SharePoint als

Mehr

Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile

Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile Übersetzung des Singapore Framework für Dublin-Core-Anwendungsprofile Identifier: http://www.kimforum.org/material/pdf/uebersetzung_singapore_20090213.pdf Title: Übersetzung des Singapore Framework für

Mehr

Anleitung zur Verwendung von Silverstripe 3.x

Anleitung zur Verwendung von Silverstripe 3.x Anleitung zur Verwendung von Silverstripe 3.x Inhaltsverzeichnis: 1. EINLEITUNG 2. ORIENTIERUNG 2.1 Anmelden am CMS 2.2 Die Elemente des Silverstripe CMS 2.3 Funktion des Seitenbaums 2.4 Navigieren mit

Mehr

Professorenkatalog. Biogramm Ein kurzer Biographischer Abriss, in unserem Falle vor allem Informationen über die Universitätslaufbahn.

Professorenkatalog. Biogramm Ein kurzer Biographischer Abriss, in unserem Falle vor allem Informationen über die Universitätslaufbahn. Seite 1 von 6 Aufgabenblatt 2 1. Begriffe Biogramm Ein kurzer Biographischer Abriss, in unserem Falle vor allem Informationen über die Universitätslaufbahn. Buchdruckfunktion Möglichkeit, statt der direkten

Mehr

Das Repositorium für Forschungsergebnisse der TU Berlin. Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10.

Das Repositorium für Forschungsergebnisse der TU Berlin. Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10. Das Repositorium für Forschungsergebnisse der TU Berlin Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10.2013 Forschungsdaten, Rohdaten, Primärdaten, Forschungsprimärdaten Unter

Mehr

Die On-line Präsenz des Tourismusverbands Innsbruck und seine Feriendörfer. Univ.-Prof. Dr. Dieter Fensel STI Innsbruck, University of Innsbruck

Die On-line Präsenz des Tourismusverbands Innsbruck und seine Feriendörfer. Univ.-Prof. Dr. Dieter Fensel STI Innsbruck, University of Innsbruck Die On-line Präsenz des Tourismusverbands Innsbruck und seine Feriendörfer Univ.-Prof. Dr. Dieter Fensel STI Innsbruck, University of Innsbruck Copyright 2008 STI INNSBRUCK www.sti-innsbruck.at 1 Der Hotelier

Mehr

Semantic Web Technologies I

Semantic Web Technologies I Semantic Web Technologies I Lehrveranstaltung im WS11/12 Dr. Elena Simperl PD Dr. Sebastian Rudolph M. Sc. Anees ul Mehdi Ontology Engineering Dr. Elena Simperl XML und URIs Einführung in RDF RDF Schema

Mehr

Semantic Markup für die Dokumentenklassifizierung. Seminarvortrag von Mirko Pracht

Semantic Markup für die Dokumentenklassifizierung. Seminarvortrag von Mirko Pracht Semantic Markup für die Dokumentenklassifizierung Seminarvortrag von Mirko Pracht Ziel des Vortrags Aufbau digitaler Bibliotheken Verbesserung Informationssuche Semantic Markup Gliederung 1. Grundlagen

Mehr

crm-now/ps Webforms Webdesigner Handbuch Erste Ausgabe

crm-now/ps Webforms Webdesigner Handbuch Erste Ausgabe crm-now/ps Webforms Webdesigner Handbuch Erste Ausgabe crm-now/ps Webforms: Webdesigner Handbuch Copyright 2006 crm-now Versionsgeschichte Version 01 2006-08-21 Release Version crm-now c/o im-netz Neue

Mehr

!!!!T!!! Systems!() Multimedia Solutions

!!!!T!!! Systems!() Multimedia Solutions Inhalt. Was ist das semantische Web? Wie findet man einen Arzttermin mit Hilfe des semantischen Web? Wie gibt man Inhalten einen Sinn? Welche Werkzeuge stehen zur Verfügung? Wo können strukturierte Inhalte

Mehr

tfacet: Hierarchisch-facettierte Exploration semantischer Daten mit Hilfe bekannter Interaktionskonzepte

tfacet: Hierarchisch-facettierte Exploration semantischer Daten mit Hilfe bekannter Interaktionskonzepte IVDW-Workshop 2011, Berlin (6. Oktober) Institut für Visualisierung und Interaktive Systeme tfacet: Hierarchisch-facettierte Exploration semantischer Daten mit Hilfe bekannter Interaktionskonzepte Philipp

Mehr

7 SharePoint Online und Office Web Apps verwenden

7 SharePoint Online und Office Web Apps verwenden 7 SharePoint Online und Office Web Apps verwenden Wenn Sie in Ihrem Office 365-Paket auch die SharePoint-Dienste integriert haben, so können Sie auf die Standard-Teamsite, die automatisch eingerichtet

Mehr

1. Einloggen 2. Auswahl der Seite 3. Bearbeitung der Seite

1. Einloggen 2. Auswahl der Seite 3. Bearbeitung der Seite 1. Einloggen 1 2. Auswahl der Seite 2 3. Bearbeitung der Seite 2 1. Einfügen neuer Unterseiten 3 2. Titelauswahl und Aussehen (Templates) 4 3. Links erstellen 5 4. Pdfs einfügen 7 5. Bilder einfügen 7

Mehr

Information Workbench Linked Data-Anwendungen im Unternehmen. Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations

Information Workbench Linked Data-Anwendungen im Unternehmen. Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations Information Workbench Linked Data-Anwendungen im Unternehmen Leipziger Semantic Web Tag, 5.5.2011 Peter Haase, fluid Operations Agenda Linked Data im Unternehmen Herausforderungen Die Information Workbench

Mehr

XML, Standards und andere Aktivitäten zur Formierung des Semantic Web

XML, Standards und andere Aktivitäten zur Formierung des Semantic Web XML, Standards und andere Aktivitäten zur Formierung des Semantic Web Mario Jeckle DaimlerChrysler Forschungszentrum Ulm mario.jeckle@daimlerchrysler.com mario@jeckle.de www.jeckle.de Organisation der

Mehr

InfoPoint vom 9. November 2011

InfoPoint vom 9. November 2011 InfoPoint vom 9. November 2011 Was ist Joomla? Theorie Installation Extensions Administration Demo Joomla ist ein modulares content management system (CMS) Es ermöglicht eine Website zu erstellen und online

Mehr

Entwicklung eines Infotyps (Planung)

Entwicklung eines Infotyps (Planung) Entwicklung eines Infotyps (Planung) HELP.PAXX Release 4.6C SAP AG Copyright Copyright 2001 SAP AG. Alle Rechte vorbehalten. Weitergabe und Vervielfältigung dieser Publikation oder von Teilen daraus sind,

Mehr

Semantic Web Services

Semantic Web Services Semantic Web Services Daniel Fischer TU Chemnitz - WS 2011/12 1 Gliederung (1) Web Services (2) Semantic Web Services: Motivation (3) Ontologien (4) Technologien 1. WSDL 2. SA-WSDL 3. WSMF / WSMO 4. OWL-S

Mehr

Cloud Data Management

Cloud Data Management 1 Cloud Data Management Dr. Martin Grund 2 Die Evolution des Web Web 1.0: Entstehung des World Wide Web 1989 (CERN) Tim Berners-Lee. 1991 weltweite Verbreitung Navigation zwischen statischen Seiten Keine

Mehr

Daniel Burckhardt / Thomas Meyer. Normdaten, Schnittstellen und RDF als Grundlage für die Vernetzung bibliographischer Fachinformationen

Daniel Burckhardt / Thomas Meyer. Normdaten, Schnittstellen und RDF als Grundlage für die Vernetzung bibliographischer Fachinformationen Daniel Burckhardt / Thomas Meyer Normdaten, Schnittstellen und RDF als Grundlage für die Vernetzung bibliographischer Fachinformationen Die geschichtswissenschaftliche Fachbibliographie der Zukunft moderne

Mehr

Komplexe Excel-Berichte mit APEX und jxls erstellen

Komplexe Excel-Berichte mit APEX und jxls erstellen Komplexe Excel-Berichte mit APEX und jxls erstellen Dietmar Aust Opal-Consulting Köln Schlüsselworte: Oracle APEX, MS Excel, jxls, Bericht, Template, Open Source Einleitung In fast jeder Webapplikation

Mehr

RDF und RDF Schema. Einführung in die Problematik Von HTML über XML zu RDF

RDF und RDF Schema. Einführung in die Problematik Von HTML über XML zu RDF RDF und RDF Schema Einführung in die Problematik Von HTML über XML zu RDF Kirsten Albrecht Roland Illig Probleme des HTML-basierten

Mehr

Proseminar: Website-Management-Systeme

Proseminar: Website-Management-Systeme Proseminar: Website-Management-Systeme Thema: Web: Apache/Roxen von Oliver Roeschke email: o_roesch@informatik.uni-kl.de Gliederung: 1.) kurze Einleitung 2.) Begriffsklärung 3.) Was ist ein Web? 4.) das

Mehr

TYPO3 Schritt für Schritt - Einführung für Redakteure

TYPO3 Schritt für Schritt - Einführung für Redakteure TYPO3 Version 4.0 Schritt für Schritt Einführung für Redakteure zeitwerk GmbH Basel - Schweiz http://www.zeitwerk.ch ++4161 383 8216 TYPO3_einfuehrung_redakteure.pdf - 07.07.2006 TYPO3 Schritt für Schritt

Mehr

WissKI. Arbeitstagung Gemeinsames Erschließen von Wissen in Museumssammlungen am Beispiel von Wikis

WissKI. Arbeitstagung Gemeinsames Erschließen von Wissen in Museumssammlungen am Beispiel von Wikis WissKI Arbeitstagung Gemeinsames Erschließen von Wissen in Museumssammlungen am Beispiel von Wikis Berlin 22. April 2015 Mark Fichtner Germanisches Nationalmuseum Nürnberg http://tw.rpi.edu/weblog/wp-content/uploads/2010/11/iswctagcloudnew.png

Mehr

Handbuch TweetMeetsMage

Handbuch TweetMeetsMage Handbuch TweetMeetsMage für Version 0.1.0 Handbuch Version 0.1 Zuletzt geändert 21.01.2012 Inhaltsverzeichnis 1 Einleitung... 3 1.1 Voraussetzungen... 3 1.2 Funktionsübersicht... 3 2 Installation... 4

Mehr

.TEL Eine innovative Nutzung des DNS

.TEL Eine innovative Nutzung des DNS .TEL Eineinnovative NutzungdesDNS 1 von 5 DAS KONZEPT Die.tel-Registry nutzt das Domain Name System (DNS) auf eine Weise, die Inhabern einer.tel-domain Unternehmen oder Einzelpersonen die Kontrolle in

Mehr

Technologische Entwicklung von GIS und Internet der letzten Jahre

Technologische Entwicklung von GIS und Internet der letzten Jahre Technologische Entwicklung von GIS und Internet der letzten Jahre 10. Seminar GIS & Internet 10. bis 12. September 2007 UniBwMünchen Dr. Christine Giger Übersicht GIS vor 30 Jahren GIS vor 20 Jahren GIS

Mehr

Aspekte der Nachhaltigkeit von Webressourcen: Services, Datenheterogenität und Identifizierbarkeit

Aspekte der Nachhaltigkeit von Webressourcen: Services, Datenheterogenität und Identifizierbarkeit Aspekte der Nachhaltigkeit von Webressourcen: Services, Datenheterogenität und Identifizierbarkeit, World Wide Web Consortium Folien: http://www.w3.org/2008/talks/1030-potsdam-fh-fs/slides.pdf Dieser Vortrag

Mehr

Materialien für Veranstalter

Materialien für Veranstalter HowTo Blog Seminardoku mittels Weblog Es gibt unterschiedliche Möglichkeiten zur Seminardokumentation und Mitwirkung der Ein Blog oder auch Web-Log, Wortkreuzung aus engl. World Wide Web und Log für Logbuch,

Mehr

Webseiten und Web-Apps grafisch gestalten mit HTML5 Canvas ohne Flash und sonstige Tools

Webseiten und Web-Apps grafisch gestalten mit HTML5 Canvas ohne Flash und sonstige Tools Webseiten und Web-Apps grafisch gestalten mit HTML5 Canvas ohne Flash und sonstige Tools 1 Kurze HTML-Geschichte Die HTML4-Spezifikation wurde im Dezember 1997 vorgelegt. Seitdem Stagnation! Das W3C arbeitete

Mehr

Easy Mobile Homepage. Nützliche Tipps für die Nutzung der Software. 2011 Die Software ist urheberrechtlich geschützte Freeware - all rights reserved

Easy Mobile Homepage. Nützliche Tipps für die Nutzung der Software. 2011 Die Software ist urheberrechtlich geschützte Freeware - all rights reserved Easy Mobile Homepage Nützliche Tipps für die Nutzung der Software Danke für Ihr Interesse! Danke für Ihr Interesse an unserer neuen Software und wir freuen uns darüber, dass Sie die Tutorials angefordert

Mehr

Präsentation des Dissertationsvorhabens Erste Schritte. Carola Carstens Hildesheim, 15. Oktober 2007

Präsentation des Dissertationsvorhabens Erste Schritte. Carola Carstens Hildesheim, 15. Oktober 2007 Präsentation des Dissertationsvorhabens Erste Schritte Carola Carstens Hildesheim, 15. Oktober 2007 Überblick Rahmenbedingungen Institut Thematische Interessen Erste Schritte Erfassung des State of the

Mehr

Ursprung des Internets und WWW

Ursprung des Internets und WWW Ursprung des Internets und WWW Ende der 60er Jahre des letzten Jahrtausends wurde in den USA die Agentur DARPA (Defense Advanced Research Projects Agency) gegründet, mit dem Ziel den Wissens und Informationsaustausch

Mehr

Linking Open Data: Anwendungen für Endanwender

Linking Open Data: Anwendungen für Endanwender Linking Open Data: Anwendungen für Endanwender Herbert Mühlburger (Graz University of Technology muehlburger@student.tugraz.at) Zusammenfassung Dieser Artikel beschäftigt sich mit Anwendungen, die das

Mehr

Die Unternehmensseite im Internet - pflegen ohne Programmierkenntnisse. Felix Kopp

Die Unternehmensseite im Internet - pflegen ohne Programmierkenntnisse. Felix Kopp Die Unternehmensseite im Internet - pflegen ohne Programmierkenntnisse Felix Kopp Orientierung Veröffentlichen und Aktualisieren ohne Programmierkenntnisse Bestehende Internet-Seite aktualisieren. oder

Mehr

5. Programmierschnittstellen für XML

5. Programmierschnittstellen für XML 5. Programmierschnittstellen für für Medientechnologen Dr. E. Schön Wintersemester 2015/16 Seite 146 Notwendigkeit: Programmierschnittstelle Zugriff auf -Daten durch Applikationen wiederverwendbare Schnittstellen

Mehr

5. Programmierschnittstellen für XML

5. Programmierschnittstellen für XML 5. Programmierschnittstellen für Grundlagen Dr. E. Schön FH Erfurt Sommersemester 2015 Seite 135 Programmierschnittstelle Notwendigkeit: Zugriff auf -Daten durch Applikationen wiederverwendbare Schnittstellen

Mehr

Schritt 1: Verwenden von Excel zum Erstellen von Verbindungen mit SQL Server-Daten

Schritt 1: Verwenden von Excel zum Erstellen von Verbindungen mit SQL Server-Daten 1 von 5 12.01.2013 17:59 SharePoint 2013 Veröffentlicht: 16.10.12 Zusammenfassung: Informationen zur Verwendung von Excel zum Erstellen und Freigeben von Verbindungen mit SQL Server-Daten, mit deren Hilfe

Mehr

KIM. www.kim-forum.org

KIM. www.kim-forum.org KIM www.kim-forum.org Interoperable Metadatenmodelle und Repositorien Stefanie Rühle Niedersächsische Staats- und Universitätsbibliothek Göttingen Mirjam Keßler Deutsche Nationalbibliothek KIM Ausgangslage

Mehr

http://www.jimdo.com Mit Jimdo eine Homepage erstellen Kapitel 16 Seite 1 Die eigene Homepage mit Jimdo http://benutzername.jimdo.com Der Benutzername

http://www.jimdo.com Mit Jimdo eine Homepage erstellen Kapitel 16 Seite 1 Die eigene Homepage mit Jimdo http://benutzername.jimdo.com Der Benutzername Kapitel 16 Seite 1 Die eigene Homepage mit Jimdo Mit Jimdo ist das Erstellen einer eigenen Homepage ganz besonders einfach. Auch ohne Vorkenntnisse gelingt es in kurzer Zeit, mit einer grafisch sehr ansprechenden

Mehr

Herzlich willkommen im Modul Informatik Grundlagen

Herzlich willkommen im Modul Informatik Grundlagen Herbstsemester 2010/2011 Herzlich willkommen im Modul Informatik Grundlagen Wirtschaftsingenieurwesen: 1. Semester Dozent: Martin Hüsler Fachhochschule Nordwestschweiz FHNW / Martin Hüsler 1 Ablauf: 1.

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Content Management Systeme auf dem Weg zum Semantic Web

Content Management Systeme auf dem Weg zum Semantic Web Content Management Systeme auf dem Weg zum Semantic Web Semantic Web baut auf der Anreicherung bestehender Datenbestände mit strukturierten Metadaten auf. Um die vieldiskutierten Vorteile von Semantic

Mehr

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de Configuration Management mit Verbosy 17.04.2013 OSDC 2013 Eric Lippmann Kurzvorstellung NETWAYS Expertise OPEN SOURCE SYSTEMS MANAGEMENT OPEN SOURCE DATA CENTER Monitoring & Reporting Configuration Management

Mehr

Linked Data und Semantic Webbasierte Funktionalität in Europeana

Linked Data und Semantic Webbasierte Funktionalität in Europeana Linked Data und Semantic Webbasierte Funktionalität in Europeana Semantic Web in Bibliotheken - SWIB09 Köln, 25. November 2009 Stefan Gradmann, Marlies Olensky Humboldt-Universität zu Berlin, Berlin School

Mehr

Programmieren von Webinformationssystemen

Programmieren von Webinformationssystemen Programmieren von Webinformationssystemen Wolfgang Gassler Databases and Information Systems (DBIS) Institute of Computer Science University of Innsbruck dbis-informatik.uibk.ac.at 1 HTML Hypertext Markup

Mehr

Visualisierung von Geodaten

Visualisierung von Geodaten Seminar: mobilegis Visualisierung von Geodaten Maria Selzer Agenda Einführung Datenformate Maps APIs Virtuelle Globen Zusammenfassung Einführung Visualisierung: graphische bzw. visuelle Darstellung von

Mehr

2.1 Grundlagen: Anmelden am TYPO3-Backend

2.1 Grundlagen: Anmelden am TYPO3-Backend 1 Grundlagen: Anmelden am TYPO3-Backend Zum Anmelden am TYPO3-Backend (dem Content Management System) tippen Sie in der Adresszeile Ihres Browsers (wir empfehlen Mozilla Firefox) hinter uni-bremen.de /typo3

Mehr

Das Studiengangsinformationssystem (SGIS)

Das Studiengangsinformationssystem (SGIS) Das Studiengangsinformationssystem (SGIS) Manual für Typo3-Redakteure Version 1.a Mai 2015 Kontakt: Referat 1.4 - Allgemeine Studienberatung und Career Service Christian Birringer, christian.birringer@uni-rostock.de

Mehr

Erklärung der Webalizer Statistik

Erklärung der Webalizer Statistik Webhost Linux Erklärung der Webalizer Statistik - 1 - Erklärung der Webalizer-Statistik Dieses Dokument beschreibt den Aufbau der Auswertung der Webserver-Statistiken. Die Auswertungen sind täglich ab

Mehr

Wahlmodul 335055 MI-IT-Workshop

Wahlmodul 335055 MI-IT-Workshop Wahlmodul 335055 MI-IT-Workshop Durchführung eines kleinen Softwareprojekts im Team Themen rings um Softwaresysteme: Hauptthema im SS2014: Frontend für ein Schutzrechteverwaltungssystem (Kooperation mit

Mehr

CARM-Server. Users Guide. Version 4.65. APIS Informationstechnologien GmbH

CARM-Server. Users Guide. Version 4.65. APIS Informationstechnologien GmbH CARM-Server Version 4.65 Users Guide APIS Informationstechnologien GmbH Einleitung... 1 Zugriff mit APIS IQ-Software... 1 Zugang konfigurieren... 1 Das CARM-Server-Menü... 1 Administration... 1 Remote-Konfiguration...

Mehr

Urbacher Computer-Forum

Urbacher Computer-Forum 28.05.12 Vortrag: Unsere Webseite u-g-o und allgemeine Internetbegriffe Website Als Website, Webpräsenz, Webangebot, Webauftritt oder auch Netzauftritt wird ein ganzes Projekt im World Wide Web bezeichnet,

Mehr