Stand: Ioannis Charalambakis, Tobias Beinert

Größe: px
Ab Seite anzeigen:

Download "Stand: Ioannis Charalambakis, Tobias Beinert"

Transkript

1 Qualität und Prozessoptimierung bei der Langzeitarchivierung von Websites: Konzeptuelle Überlegungen zur Steuerung des Ressourceneinsatzes bei der selektiven Webarchivierung Stand: Ioannis Charalambakis, Tobias Beinert

2 Inhaltsverzeichnis 1. Der Qualitätsbegriff bei der selektiven Webarchivierung Bestimmung von Preservation Levels Qualitätssicherung bei der Auswahl Nachträgliche Qualitätskontrolle Qualitätsmerkmale eines Zeitschnitts Abstufungen der nachträglichen Qualitätskontrolle Gewichtung der Qualitätsmerkmale Parameter der Qualitätskontrolle eines Zeitschnitts Parameter bei der Verbesserung und Wiederholung des Crawls Exemplarische Anwendung der Preservation Level Fazit Literatur Anlage: Glossar zur Webarchivierung

3 Hinweis: Dieses Dokument wurde im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen von der Bayerischen Staatsbibliothek erstellt. Eine Beschreibung des Projekts sowie eine Darstellung der Webarchivierung finden Sie unter: Ein umfassendes Glossar mit einer Erläuterung der verwendeten deutschen und englischen Fachbegriffe der Webarchivierung ist diesem Dokument als Anlage beigefügt. 1. Der Qualitätsbegriff bei der selektiven Webarchivierung Ein zentraler und viel diskutierter Begriff im Kontext der Webarchivierung ist der der Qualität. 1 Qualität bezieht sich dabei in der Regel auf den Gesamtbestand eines Webarchivs. Während in den Zeiten von handschriftlichen oder gedruckten Materialien die größtmögliche Vollständigkeit neben der Erschließung und Nutzbarkeit ein wesentliches Qualitätsmerkmal einer spezifischen Sammlung bzw. eines thematischen Bestandes einer Bibliothek oder einer Forschungseinrichtung war, ist angesichts der schieren Menge an Webangeboten, der systemimmanenten Beschränkung auf die Sammlung diskreter Zeitschnitte von Websites und den technischen Einschränkungen dieses Verfahrens der bislang vorherrschende Grundsatz von einer nahezu umfassenden Sammlungstätigkeit der Gedächtnisinstitutionen und folglich auch der Qualitätsbegriff zu überdenken. 2 Die Qualität eines Webarchivs als Ganzes, d.h. der gesamten Sammlung von Zeitschnitten unterschiedlicher Websites, könnte sich aus Sicht der Benutzer zunächst an mehreren Merkmalen festmachen lassen: Größe/Umfang des Bestandes (z.b. Anzahl der archivierten URLs, Anzahl der archivierten Zeitschnitte, Anzahl der archivierten Bytes), Frequenz und Regelmäßigkeit der Harvests, inhaltliche Relevanz, Repräsentativität und Kohärenz des Bestandes für bestimmte Themengebiete sowie Auffindbarkeit, Benutzbarkeit sowie Transparenz bezüglich der Entstehung und Entwicklung der Bestände. Nicht zuletzt hängt die Bewertung eines Webarchivs aber auch in entscheidendem Maße von der Qualität der einzelnen archivierten Zeitschnitte ab, da auch diese nur in sehr seltenen Ausnahmefällen 1:1 dem Originalangebot entsprechen werden. 3 Die Bestimmung bzw. Überprüfung der Qualität eines Zeitschnitts läuft daher in der Regel auf die wiederkehrende Beantwortung der Frage hinaus, wie gut gut genug ist oder welche Qualität einer Kopie für eine Aufnahme ins Archiv akzeptabel erscheint. 4 Als Anhaltspunkte für diese Form der Qualitätskontrolle lassen sich folgende, sich teilweise überschneidende Kriterien heranziehen: Vollständigkeit der zentralen Inhalte, Konsistenz, Funktionalität, Erhalt des Look and Feel. 5 Diese Qualitätskontrolle geschieht normalerweise nur im Kontext der selektiven Webarchivierung, beim sogenannten Domain Harvesting ist angesichts der dabei entstehenden Datenmengen eine Überprüfung der Qualität einzelner Archivkopien nicht möglich. 1 Vgl. u.a. Bingham, Nicola: Quality Assurance Paradigms in Web Archiving Pre and Post Legal Deposit. In: Alexandria 25/I-II (2014), S , und Reyes Ayala, Brenda; Phillips, Mark E.; Ko, Lauren: Current Quality Assurance Practices in Web Archiving. Web Archiving Project Verfügbar unter (Letzter Zugriff am ). 2 Vgl. Beinert, Tobias; Schoger, Astrid: Vernachlässigte Pflicht oder Sammlung aus Leidenschaft? Zum Stand der Webarchivierung in deutschen Bibliotheken. In: ZfBB 62 (2015), Nr.3/4, S , S. 175 ff. 3 Vgl. zu den grundsätzlichen Zielen, Grenzen und technischen Einschränkungen der Webarchivierung die Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, verfügbar unter: von Webseiten_WCT.pdf, S. 3,7. Zu den häufigsten Gründen für Unvollständigkeit von Archiven siehe Reyes Ayala, a.a.o., S.3, und (Letzter Zugriff am ). 4 Vgl. britishlibrary.typepad.co.uk/webarchive/2012/10/how-good-is-good-enough-quality-assurance-of-harvestedweb-resources.html (Letzter Zugriff am ) und Reyes Ayala, a.a.o., S Vgl. ausführlich zu den einzelnen Kriterien Kapitel

4 Auf internationaler Ebene kommt eine aktuelle Umfrage zu der Erkenntnis, dass diese Form der nachträglichen Qualitätskontrolle im Kontext der Webarchivierung bislang vornehmlich manuell und wenig automatisiert erfolgt und insgesamt noch mäßig dokumentiert ist, sodass noch kaum Best-Practice- Beispiele, messbare Qualitätskriterien und Metriken dazu entwickelt wurden, die sich ohne weiteres nachnutzen ließen. 6 Im Rahmen des Projekts Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen das am Referat Digitale Bibliothek/Münchener Digitalisierungszentrum der Bayerischen Staatsbibliothek durchgeführt wurde, lag der Fokus auf einer vorwiegend intellektuellen Qualitätskontrolle aller geharvesteten Zeitschnitte. Die zur Verfügung stehenden Möglichkeiten der Qualitätskontrolle und verbesserung mit dem im Projekt eingesetzten Web Curator Tool konnten ausführlich dokumentiert werden. Sie stehen als Handreichung für die Community zum freien Download zur Verfügung. 7 Die Qualitätskontrolle erwies sich in vielen Fällen als ein sehr aufwändiger und langwieriger Prozess, der ein Nachjustieren bzw. eine Nachbearbeitung sowie ein einzelfallbezogenes Abwägen bzw. eine Kompromissfindung erforderlich machte. Eine ausführliche Darstellung und Bewertung des Prozesses findet sich in einem separat vorgelegten Erfahrungsbericht. 8 Sowohl die oben genannte Umfrage als auch der Erfahrungsbericht belegen, dass die intellektuelle Qualitätskontrolle unabhängig von der eingesetzten Software ein zeit- und ressourcenaufwändiger, schlecht skalierender Prozess ist, der von geschultem, erfahrenem und IT-affinem Personal durchgeführt werden sollte. 9 Nachdem für die Webarchivierung in vielen Institutionen nach wie vor wenig Mitarbeiter zur Verfügung stehen und ein geringerer Personaleinsatz in der Qualitätssicherung ggf. einen höheren Personaleinsatz für die Auswahl archivierungswürdiger Websites ermöglicht d.h. geringere Qualität ggf. mit einer größeren Quantität im Archivbestand einhergeht, ist zu überlegen, wie der Aufwand für die Qualitätssicherung allgemein und die Qualitätskontrolle der Zeitschnitte im Besonderen richtig dosiert werden kann. Dazu sollen im Folgenden Anhaltspunkte gegeben und Überlegungen angestellt werden, wie der Prozess der Qualitätssicherung allgemein in der Webarchivierung grundsätzlich abgestuft gestaltet werden und so der Ressourceneinsatz angepasst an die jeweiligen institutionellen Rahmenbedingungen optimiert werden kann. Dabei werden vor allem die Möglichkeiten im Rahmen der nachträglichen Qualitätskontrolle betrachtet, das entsprechende Verfahren lässt sich wie folgt definieren: [ ] the process of examining the characteristics of websites captured by harvesting software before making a decision as to whether a website has been successfully captured to become a valid archival copy. 10 Zusätzlich werden auch die Möglichkeiten der Qualitätssicherung im Vorfeld der Durchführung eines Harvests betrachtet. 2. Bestimmung von Preservation Levels Eine grundsätzliche Maßnahme, die bereits bei der Konzeption der Webarchivierung in einer Einrichtung vorgenommen werden kann, ist die Festlegung von so genannten Preservation Levels. Die Preservation Level werden hier für die Bewertung der Bedeutung der zu archivierenden Websites im Kontext der jeweiligen Sammlung eingesetzt. Diese können als Grundlage für einen abgestuften Ressourceneinsatz bei der Qualitätssicherung herangezogen werden und so zur Priorisierung des 6 Vgl. Reyes Ayala, a.a.o., S Vgl. die Handbücher Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o. und Ausführliche Anleitung zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool verfügbar unter: Projekt_Webarchivierung/Anleitung_Qualitaetskontrolle_WCT.pdf. (Letzter Zugriff am ). 8 Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, verfügbar unter: Projekt_Webarchivierung/Webarchivierung_Qualitaet_und_Prozessoptimierung.pdf (Letzter Zugriff am ). 9 Vgl. Reyes Ayala, a.a.o. S. 3 u.19, und Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o., S Bingham, a.a.o., S

5 Personaleinsatzes beitragen. Entsprechend dem zugewiesenen Preservation Level wird anteilsmäßig mehr oder weniger Zeit in die Qualitätssicherung investiert (vgl. dazu Kapitel 4.2.). Da jede Institution diese Preservation Level nach ihren eigenen Rahmenbedingungen (z.b. rechtliche Verpflichtungen, Sammelprofil, Nutzeranforderungen) festlegen muss, werden im Folgenden exemplarisch drei Preservation Level dargestellt, wie sie für die Webarchivierung an der Bayerischen Staatsbibliothek zukünftig gestaltet werden können. Technische Gesichtspunkte bleiben dabei zunächst außen vor, entscheidend ist die inhaltliche Einordnung eines Webangebots durch den zuständigen fachlichen Koordinator. Preservation Level Qualitätsanspruch Was fällt darunter? Preservation Level 1 Hoch Websites aus dem Pflichtzugang (amtliche Veröffentlichungen) und Bavarica Preservation Level 2 Mittel Websites aus dem Bereich der Sammelschwerpunkte Preservation Level 3 Niedrig Weitere Websites mit wissenschaftlicher Relevanz Tabelle 1: Exemplarische Festlegung von Preservation Level 3. Qualitätssicherung bei der Auswahl Die Erkenntnisse des Projektes Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen beim retrospektiven Harvesting der in Academic Linkshare erschlossenen Internetressourcen haben gezeigt, dass bereits bei der Auswahl der zu archivierenden Websites bzw. bei der Festlegung der Parameter für einen Crawl wichtige Entscheidungen getroffen werden, die die Qualität der Archivkopie sowie den Aufwand für die Prüfung maßgeblich beeinflussen können. Dies betrifft zum einen das für die inhaltliche Auswahl der zu archivierenden Websites verantwortliche Personal, das in kurzen Schulungen dafür sensibilisiert wurde, welche Formen von Internetressourcen grundsätzlich für die Webarchivierung geeignet sind und welche technischen Einschränkungen dabei zu beachten sind 11, und das darauf hingewiesen wurde, dass die Archivierung normalerweise nicht auf der Ebene von Einzeldokumenten oder Webpages (Unterseiten) erfolgen sollte. Damit konnte der nachträgliche Arbeitsaufwand für den Ausschluss ungeeigneter Webangebote wie auch das Bearbeiten unbefriedigender Ergebnisse eines Crawls bereits im Vorfeld reduziert werden. Auch die technisch verantwortlichen Mitarbeiter (Crawl Engineers), die in der Regel Start und Durchführung der Crawls übernehmen, können durch präventive Maßnahmen den Aufwand für die nachträgliche Qualitätskontrolle eindämmen. Dazu zählen die Anpassung der Crawlereinstellungen vor der Durchführung des ersten Crawls oder das Browsen im Liveangebot zur Identifizierung problematischer Inhalte wie z.b. Multimediadateien, JavaScript, Flash oder Crawler Traps. Ebenso können Linkchecker wie Xenu s Link Sleuth eingesetzt werden, um im Vorfeld versteckte Links (z.b. zu Stylesheets) zu ermitteln, die dem Crawler zusätzlich mitgegeben werden können, damit bereits der erste Crawl ein möglichst hohes Maß an Vollständigkeit aufweist. 12 Eine weitere interessante Option ist die Nutzung des Online-Tools ArchiveReady ( das anhand der Kriterien Accessibility, Cohesion, Metadata und Standards Compliance die Archivierbarkeit von Websites automatisiert bewertet. Wird hier vorab ein schlechter Gesamtwert für eine zur Archivierung vorgesehene Website ermittelt, kann dies für den Crawl Engineer ein Anhaltspunkt für eine weitere Inspektion der Website, eine präventive Anpassung des Crawlers oder den Verzicht auf die Archivierung sein. Ein erster Praxisreport für das Tool liegt seitens des Literaturarchivs Marbach vor. 13 Ebenso kann die Frequenz der Zeitschnitterstellung zur Aufwandssteuerung eingesetzt werden: Die Frequenz sollte immer auf den Charakter der Website abgestimmt sein, die Archivierung eines Online- 11 Vgl. Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o., S. 3 u. 7, und Leitfaden zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, a.a.o., S Vgl. Reyes Ayala, a.a.o., S Vgl. Fritz, Steffen: Praxisreport. Verfahren zur Evaluierung der Archivierbarkeit von Webobjekten. In: ABI Technik 35/II (2015), S

6 Nachrichtenportals sollte idealerweise mindestens täglich durchgeführt werden, bei einer weitgehend statischen Website reicht hingegen ein jährlicher Rhythmus. Grundsätzlich wird in vielen Institutionen beim selektiven Harvesting viertel- oder halbjährlich ein Zeitschnitt einer Website archiviert. Das Vergrößern des Zeitabstands zwischen zwei Crawls bietet natürlich die Möglichkeit, die Zahl der Zeitschnitte und damit auch den Aufwand für die Qualitätssicherung zu reduzieren. Dies kann abgestuft nach Preservation Level erfolgen. 4. Nachträgliche Qualitätskontrolle 4.1 Qualitätsmerkmale eines Zeitschnitts Da die Archivkopien einer Website in der Regel nicht zu 100 Prozent dem Liveangebot entsprechen werden, haben sich in der Praxis vieler Institutionen zentrale Qualitätsmerkmale herauskristallisiert, die Anhaltspunkte zur Bewertung der Archivierungswürdigkeit eines Zeitschnitts im Rahmen der nachträglichen Qualitätskontrolle geben. Für archivierte Websites lassen sich in Anlehnung an die Konzepte der British Library 14 und des New York Art Resources Consortium 15 sowie der eigenen Erfahrungen vier zentrale Qualitätsmerkmale benennen: a) Vollständigkeit der zentralen Inhalte: Sind alle von den fachlichen Koordinatoren für inhaltlich wichtig befundenen Dokumente zugänglich, ggf. auch nicht im Original-Design (z.b. Fehlen von Images) oder nicht über alle Funktionalitäten des Originalangebots (z.b. nur über eine alphabetische Liste nicht über eine Suche)? So wird beispielsweise bei der Qualitätskontrolle eines Zeitschnitts einer amtlichen Website besonderes Augenmerk darauf gelegt, dass z.b. alle Veröffentlichungen im PDF- Format erfolgreich geharvestet werden konnten, während z.b. ein Fehlen von Videodateien als akzeptabel eingestuft wird. Die Ermittlung der Vollständigkeit eines Zeitschnitts erfolgt im Wesentlichen durch die Analyse der Logfiles des Harvestingstools, in der Regel ergänzt durch eine visuelle Kontrolle. b) Konsistenz: Inwieweit sind die Inhalte und ihre Verknüpfungen innerhalb des Originalangebots im Archiv enthalten? Wurden die unterschiedlichen Teile der Website innerhalb des gleichen Zeitraums archiviert (zeitliche Kohärenz) oder gibt es hier Abweichungen? Wurden zudem ungewollt externe Inhalte mitarchiviert? c) Erhalt der Funktionalität: In welchem Maß funktionieren die Navigation, der Zugang über ein Kalendarium oder eine interaktive Karte, die Wiedergabe, die Suchfunktionalitäten etc. innerhalb des zu archivierenden Zeitschnitts in gleicher Weise wie beim Originalangebot? d) Erhalt des Look and Feel: Entspricht die archivierte Ansicht derjenigen der Originalwebsite, können z.b. alle Images, Multimediadateien, Schriften und Stylesheets 16 auch im für die Nutzer zugänglichen Viewer der OpenWayback angezeigt werden? Hier kommt es durchaus vor, dass bestimmte Inhalte und Dateien zwar in einem Zeitschnitt vorhanden sind, derzeit aber aufgrund der Limitationen des eingesetzten Viewers nicht angezeigt werden können, ggf. aber zukünftig in weiterentwickelten Präsentationsformen darstellbar sind. Daher ist es wichtig, sich nicht auf eine rein visuelle Kontrolle zu beschränken, sondern in den zur Verfügung stehenden Logfiles das Vorhandensein aller Dateien zu überprüfen. In den meisten Fällen wird ein absolut originalgetreuer Erhalt des Look and Feel nicht möglich sein, da viele Websites heute via Mash-Ups eingebundene Inhalte (z.b. von YouTube, Twitter oder Googlemaps) aufweisen. Dabei ist der Prozess der Qualitätskontrolle grundsätzlich eine Annäherung an ein bestmögliches Ergebnis, da es in der Regel nicht möglich ist, mit den derzeit verfügbaren Crawlern die genannten Merkmale zu 100 Prozent zu erfüllen. 17 Er ist zudem einzelfallbezogen, d.h. die Archivierbarkeit der heute sehr heterogen gestalteten Webangebote sind jeweils aufgrund ihrer spezifischen Charakteristika zu bewerten und entziehen sich einer Qualitätskontrolle mit eindeutigen und harten Kriterien. Generell teilt die BSB hier daher auch die von anderen Institutionen vertretene, eher 14 Vgl. (Letzter Zugriff am ). 15 Vgl. (Letzter Zugriff am ). 16 a.a.o. 17 Vgl. zu den Grenzen der Webarchivierung die Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o. S. 3,7. 6

7 pragmatische Ansicht: [ ] an imperfect copy is better than no copy. 18 Die Ablehnung eines Zeitschnitts erfolgt derzeit nur, wenn die zentralen Inhalte nicht in das digitale Archiv übernommen werden können. Problematisch an der in Form eines Annäherungsprozesses durchgeführten Qualitätskontrolle ist die Tendenz, dass bei einer zu sorgfältigen Kontrolle und dem Nachjustieren bzw. der mehrmaligen Wiederholung eines Crawls zur Korrektur des Archivierungsergebnisses, teilweise erheblicher zeitlicher Mehraufwand entsteht, der letztlich aber nicht bzw. nur zu minimalen Verbesserungen führt. Im Rahmen der von der Bayerischen Staatsbibliothek durchgeführten Machbarkeitsstudie erwies sich die nachträgliche Qualitätskontrolle daher zum einen als der ressourcenintensivste Schritt im Prozess der Webarchivierung, zum anderen aber auch als der Schritt, der sich am schwersten zeitlich eingrenzen ließ. 19 Um den Ressourcenaufwand dennoch überschau- bzw. kontrollierbar zu halten, werden im Folgenden Überlegungen angestellt, wie einzelne Aspekte bzw. Teilschritte der Qualitätskontrolle in abgestufter Form gestaltet werden können und sich diese Abstufungen anhand der unterschiedlichen Preservation Level in der Praxis umsetzen lassen könnten Abstufungen der nachträglichen Qualitätskontrolle Anhand der vorliegenden ausführlichen Beschreibungen der Qualitätskontrolle 20 und des Erfahrungsberichts 21 konnten die unter angeführten Parameter als Stellschrauben identifiziert werden, anhand derer es grundsätzlich möglich ist, den Aufwand zu verringern. Gleichzeitig bedeutet ein verminderter Ressourceneinsatz in der Qualitätskontrolle, dass in diesem Annäherungsprozess an ein bestmöglichstes Resultat natürlich in der Regel ein weniger zufriedenstellendes Ergebnis erreicht werden wird Gewichtung der Qualitätsmerkmale Je nach Auftrag und Zielen eines Webarchivs als Ganzes bzw. festgelegtem Preservation Level für Teilsammlungen kann den Qualitätsmerkmalen eine unterschiedliche Priorität zugewiesen werden. Während für Websites mit einem hohen Preservation Level für alle vier oben genannten Merkmale ein hoher Anspruch verfolgt wird, könnte bei einem niedrig eingestuften Angebot z.b. das Merkmal des Look and Feel aus der qualitativen Bewertung gänzlich ausgeblendet werden. Für die Bayerische Staatsbibliothek ist das Qualitätsmerkmal der Vollständigkeit der zentralen Inhalte, in der Regel in Form von Textdokumenten, grundsätzlich hoch zu gewichten. Der Erhalt der Darstellung und Funktionalität einer Archivkopie fließen in den Bewertungsprozess hingegen für Objekte mit einem bestimmten Preservation Level nur mit einer niedrigeren Priorität ein. Andere Webarchive, die z.b. künstlerische Angebote oder Webliteratur sichern wollen, werden sicherlich die Kriterien Look and Feel sowie Funktionalität höher gewichten Parameter der Qualitätskontrolle eines Zeitschnitts Weitere Abstufungsmöglichkeiten ergeben sich aus den einzelnen Prozessschritten der Qualitätskontrolle eines Zeitschnitts, auf die ggf. verzichtet werden kann: a) Verzicht auf visuelle Kontrolle: Ein Prozessschritt, der im Rahmen der Bewertung der Qualität eines Zeitschnittes ggf. ebenfalls wegfallen kann, ist die visuelle Inspektion einer Archivkopie im Viewer. Das hieße, eine Überprüfung würde nur anhand der vom Crawler ausgelieferten Log-Files vorgenommen, die in der Regel ohnehin den ersten Schritt der Qualitätskontrolle bildet, ggf. ist hier auch eine weitere Beschränkung auf den so genannten Crawl Log sinnvoll. Dies bietet sich insbesondere an, wenn eine niedrigere Priorität für die Qualitätsmerkmale Funktionalität und Look and Feel definiert wurde. 18 Bingham, a.a.o., S Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o., S. 9f. 20 Vgl. Ausführliche Anleitung zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, a.a.o. 21 Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o. 7

8 b) Verzicht auf Vergleich mit der Live-Website: Ebenso kann der oftmals durchgeführte visuelle und funktionelle Abgleich eines Zeitschnitts mit dem Originalangebot entfallen, wenn eine entsprechend niedrigere Gewichtung gewählt wurde. c) Beschränkung auf Teilbereiche einer Website: Eine weitere Möglichkeit, den Aufwand zu reduzieren ist es, generell nur für bestimmte Elemente (z.b. die Startseite, PDF-Dateien) bzw. nur bis zu bestimmten (Unter-)ebenen einer Website eine Qualitätsüberprüfung durchzuführen. d) Festlegung eines zeitlichen Richtwerts für die Qualitätskontrolle: Schließlich bietet es sich an, für die Kontrolle von einzelnen Zeitschnitten grundsätzlich eine maximale Dauer festzulegen, ggf. auch mit abgestuften Zeitwerten, je nach Preservation Level. Nach Ablauf dieser Zeitspanne ist eine Entscheidung über die Archivierungstauglichkeit des Zeitschnitts verbindlich zu treffen. e) Frequenz der Kontrolle der Zeitschnitte: Es könnte ein Umstieg von einer vollständigen Qualitätskontrolle für alle Zeitschnitte auf ein Stichprobenverfahren angedacht werden. So ist beispielsweise denkbar, dass generell nur jeder zweite Zeitschnitt einer Website oder aber auch nur zufällig ausgewählte Zeitschnitte aus dem gesamten Archiv einer Qualitätsüberprüfung zugeführt werden. Ebenso könnte auf eine ausführliche Kontrolle eines Zeitschnitts verzichtet werden, wenn die Logdateien nur geringe Änderungen (z.b. bei der Anzahl der Dateien) im Vergleich zum vorhergehenden Crawl aufweisen Parameter bei der Verbesserung und Wiederholung des Crawls In sehr vielen Fällen wird derzeit ein Crawl ein- oder sogar mehrmals wiederholt, um durch veränderte Parameter ein verbessertes Ergebnis zu erreichen. Hier ließe sich beispielsweise eine maximale Anzahl an Wiederholungen definieren. Ebenso könnte auf die Wiederholung eines Crawls verzichtet werden, wenn die standardmäßig gesetzten Obergrenzen (Anzahl URLs, Datenvolumen) erreicht werden. Als Sonderfall ließe sich ein vollständiger Verzicht auf Wiederholung des Crawls festlegen: Für Websites mit einem bestimmten Preservation Level wird festgelegt, dass lediglich der bereits erstellte Zeitschnitt bearbeitet werden darf. Dort können ggf. noch ungewollt kopierte Inhalte ausgeschnitten werden und ggf. weitere URLs für zukünftige Crawls ergänzt werden, der Crawl für den aktuellen Zeitschnitt wird jedoch nicht wiederholt. Eine weitere Möglichkeit um die Ergebnisse eines Crawls zu verbessern, ist der Einsatz eines alternativen Crawlers (z.b. Umbra 22 oder WebRecorder.io 23 ), um mit Heritrix nicht zu erreichende Inhalte archivieren zu können. Dieser bislang von der Bayerischen Staatsbibliothek noch nicht praktizierte Ansatz bietet sich vor allem für interaktiv gestaltete Seiten und Inhalte aus sozialen Netzwerken mit einer hohen Erhaltungspriorität an. Einige Institutionen archivieren bereits zusätzlich zu den im WARC-Container gespeicherten Daten eines Crawls auch Screenshots von ausgewählten Teilen oder sogar Screencasts einer Website (z.b. der Startseite). 24 Dies ist vor allen in Fällen zu empfehlen, in denen großer Wert auf die Dokumentation der optischen Präsentation einer Website gelegt wird oder aber die Inhalte einer Website zu einem bestimmten Zeitpunkt authentisch zu dokumentieren sind. 5. Exemplarische Anwendung der Preservation Level Im Folgenden wird anhand der oben beschriebenen Preservation Level exemplarisch ein abgestuftes Raster für den Prozess Qualitätssicherung in der Webarchivierung an der Bayerischen Staatsbibliothek skizziert. 25 Dies ist natürlich für jede Institution je nach Auftrag, Sammlungszielen, Nutzerbedarf und Ressourcenlage individuell anzupassen, eine Abstimmung mit den inhaltlich für die 22 Vgl. (Letzter Zugriff am ). 23 Vgl. (Letzter Zugriff am ). 24 Vgl. z.b. und Fritz, Steffen: Von Spidern und Baggern: Tools im Projekt Netzliteratur, verfügbar unter: (Letzter Zugriff am ). 25 Vgl. zu den von der Bayerischen Staatsbibliothek gesammelten Zeiterfahrungswerten für die einzelnen Prozessschritte: Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o. 8

9 Sammlung verantwortlichen Personen sollte aber in jedem Falle vorgenommen werden. Zudem kann die Veröffentlichung eines derartigen Rasters auch die Transparenz gegenüber den Nutzern erhöhen und offenlegen, mit welchen Maßstäben welche Inhalte von Websites gesichert werden und so auch Lücken und Fehler in einem Webarchiv nach Außen nachvollziehbar machen. Prozessschritt QS PL 1 (hoch) PL 2 (mittel) PL 3 niedrig Frequenz der Zeitschnitte Halbjährlich Halbjährlich Halbjährlich Frequenz der Kontrolle Alle Alle Alle der Zeitschnitte Gewichtung der Qualitätsmerkmale Größtmögliche Qualität für alle vier Merkmale anzustreben Größtmögliche Qualität für Vollständigkeit der zentralen Inhalte und Konsistenz anzustreben, Funktionalität und Look and Feel mit geringerer Priorität Vollständigkeit der zentralen Inhalte und Konsistenz der Inhalte wichtig, Erhalt von Funktionalität und Look and Feel vernachlässigbar Verzicht auf visuelle Nein Nein Ja Kontrolle Verzicht auf Vergleich mit Nein Ja Ja der Live-Website Beschränkung auf Nein Nein Nein Teilbereiche einer Website Festlegung eines 30 Minuten 15 Minuten 8 Minuten Zeitlimits für die Qualitätssicherung Wiederholungen des Max. 3 Max. 1 Wiederholung Keine Wiederholung Crawles limitieren Wiederholungen Einsatz eines weiteren Nein Nein Nein Crawlers Ergänzung eines Crawls durch Screenshots/ Screencasts Nein Nein Nein Tabelle 2: Exemplarische Anwendung der Preservation Level 6. Fazit Insgesamt ist der Prozess der Qualitätssicherung bei der Webarchivierung derzeit noch schwer fassund standardisierbar. Die angestellten Überlegungen sollen einen Beitrag dazu leisten, anderen mit dieser Aufgabe befassten Institutionen unabhängig von den eingesetzten technischen Lösungen aufzuzeigen, mit welchen Parametern sich dieser Prozess im Kontext des selektiven Harvestings grundsätzlich strukturieren ließe und wie der Ressourceneinsatz besser kontrolliert werden kann. Zudem erhöht ein dokumentiertes Vorgehen bei der Qualitätssicherung die Transparenz bezüglich der Entstehung, Entwicklung und Qualität der Bestände gegenüber den Nutzern. Dies ermöglicht es ihnen, dieses Wissen in eine Nutzung der Archivbestände einfließen zu lassen. Es ist davon auszugehen, dass die Thematik der Qualitätssicherung die in der Webarchivierung aktiven Einrichtungen auch in den kommenden Jahren weiter beschäftigen wird, insbesondere wenn das Ziel einer Ausweitung der Nutzung von Webarchiven erreicht werden kann. In den letzten Jahren wurden erste Tools zur automatisierten bzw. semiautomatischen Qualitätskontrolle von Zeitschnitten entwickelt. 26 Allerdings scheinen diese bislang in der Praxis noch einen eher begrenzte Aufnahme erfahren zu haben, genutzt werden vor allem Reporting-Tools (z.b.für Crawl-Logs) und vorgefertigte Software zur allgemeinen Analyse von Websites (z.b. Xenu Link Sleuth, PhantomJS, and HTTPFox). 27 Der von Bingham vorgeschlagene Ansatz, verstärkt Nutzerrückmeldungen zur Qualität 26 Vgl. Bingham, a.a.o., S Vgl. Reyes Ayala, a.a.o., S. 8. 9

10 von Zeitschnitten zu sammeln und zu dokumentieren 28, ist eine weitere für die Zukunft zu berücksichtigende Option. 7. Literatur Bingham, Nicola: Quality Assurance Paradigms in Web Archiving Pre and Post Legal Deposit. In: Alexandria 25/I-II (2014), S Bragg, Molly / Kristine, Hanna: The web archiving life cycle model. Archive-It Team Online unter (Letzter Zugriff am ). Brügger, Niels: Archiving Websites. General Considerations and Strategies. Århus Online unter (Letzter Zugriff am ). Fritz, Steffen: Praxisreport. Verfahren zur Evaluierung der Archivierbarkeit von Webobjekten. In: ABI Technik 35/II (2015), S Fritz, Steffen: Von Spidern und Baggern: Tools im Projekt Netzliteratur, verfügbar unter: (Letzter Zugriff am ). Reyes Ayala Brenda; Phillips, Mark E.; Ko, Lauren: Current Quality Assurance Practices in Web Archiving. Web Archiving Project Online unter (Letzter Zugriff am ). 28 Vgl. Bingham, a.a.o., S

11 Anlage: Glossar zur Webarchivierung Archivierungsbewilligung Die Zustimmung des Inhabers der Nutzungsrechte einer Website zur Erstellung von Kopien, zur Archivierung und Zugänglichmachung der Archivkopien Synonym: Archivierungsgenehmigung, Genehmigung Archivierungsgenehmigung Siehe: Archivierungsbewilligung Crawl/ing Im Kontext der Webarchivierung synonym verwendet mit Harvest/ing Siehe: Harvest/ing. Crawl Engineer Ein im Themenbereich Webarchivierung erfahrener Experte, der für die Steuerung der Harvest-Prozesse, die Konfiguration der Webcrawler und die Qualitätskontrolle der Zeitschnitte verantwortlich ist. Crawler Siehe: Webcrawler Crawler Trap Verbund von Webpages, der bewirken kann, dass ein Webcrawler in einer Dauerschleife von Abfragen hängenbleibt oder sogar abstürzt. Oftmals vorsätzlich eingesetzt um Spambots zu behindern, kann eine Crawler Trap auch unabsichtlich durch dynamische Inhalte, wie z.b. Kalenderabfragen, verursacht werden. Genehmigung Siehe: Archivierungsbewilligung Harvest Authorisation Datensatz im Web Curator Tool für die Berechtigung zum Harvest und zur Archivierung einer Website, der aufgrund einer erteilten Archivierungsbewilligung angelegt wird. Harvest/ing 1. Technischer Vorgang zur Erstellung von Kopien einer Website bzw. eines definierten Ausschnitts des Webs mit Hilfe eines Webcrawlers. 2. Ergebnis dieses Vorgangs. Es wird unterschieden zwischen einem Domain Harvesting, das das gesamte Webangebot einer Domain (z.b. *.de) umfasst, dem selektiven Harvesting, das nur ausgewählte Websites speichert und dem sogenannten Event Harvesting, das Internetangebote zu einem bestimmten Ereignis (z.b. Bundestagswahl 2009) archiviert. Synonym: Crawl/ing Harvester Siehe: Webcrawler Heritrix Ein Open Source Webcrawler der speziell für die Archivierung von Websites vom Internet Archive entwickelt wurde. Heritrix ist der am häufigsten eingesetzte Webcrawler für die Webarchivierung und ist 11

12 Langzeitarchivierung OpenWayback Preservation Level Qualitätskontrolle Qualitätssicherung Schedule/r Seed Stylesheet Target Target Instance Teil verschiedener Tools zur Steuerung der Webarchivierung u.a. dem Web Curator Tool. Organisatorische und technische Maßnahmen zum Erhalt von Information in digitaler Form. Dies beinhaltet die Gewährleistung des Langzeiterhalts, der Langzeitverfügbarkeit sowie der Interpretierbarkeit digitaler Objekte zum Zwecke der Nutzung durch eine bestimmte Zielgruppe. Dabei bedeutet Langzeit: über Veränderungen in der Technik (Soft- und Hardware) und in der Zielgruppe hinweg (z.b. für künftige Generationen, auf unbegrenzte Zeit). Siehe: Wayback Mehrstufiges System zur Bewertung der Relevanz eines Objekts für die Langzeitarchivierung im Kontext der Sammlung. Die Bewertungen können auf inhaltlichen (z.b. Bavarica), rechtlichen (z.b. Pflichtzugang) bzw. formalen (z.b. Blogs) Kriterien beruhen. Überprüfung eines Harvests hinsichtlich der Kriterien: Vollständigkeit der zentralen Inhalte, Konsistenz, Erhalt der Funktionalität und Erhalt des Look and Feel vor der Freigabe zur Archivierung. Alle Maßnahmen zur Erzielung einer möglichst hohen Qualität bei der Langzeitarchivierung von Websites. Die Qualitätssicherung umfasst organisatorische und technische Maßnahmen z.b. die Festlegung von Preservation Levels, Analysen einer Website vor dem ersten Harvesting sowie die Überprüfungen im Rahmen der Qualitätskontrolle. Zeitplan zum erstmaligen und / oder wiederholten Harvest einer Website Eine URL, die einem Webcrawler als Startpunkt für das Erfassen von Inhalten vorgegeben wird. Teil einer Website, der für die Darstellung der Information zuständig ist. Ein Stylesheet interpretiert strukturierte Daten (in HTML, XHTML) und formatiert sie für die Bildschirmausgabe, die Ausgabe auf mobilen Geräten bzw. den Druck entsprechend der vorgegebenen Regeln. Datensatz, der die zu harvestende und zu archivierende Website im Web Curator Tool beschreibt. Dieser Datensatz enthält u.a. den Namen der Website, URLs, Schedule, ggf. weitere spezifische Parameter für den Webcrawler, eine Verknüpfung zur Harvest Authorisation. Datensatz im Web Curator Tool für einen erfolgten Harvest- Prozess. Dieser umfasst das Ergebnis des Harvest, verschiedene 12

13 URI URL WARC Wayback Web Curator Tool Webarchivierung Webcrawler Webharvest/ing Webpage Website Zeitschnitt Logfiles sowie weitere administrative Metadaten. Uniform Resource Identifier, identifiziert abstrakte oder physische Ressourcen wie z.b. Websites, Dateien, Webservices, - Adressen usw. im Internet. Uniform Resource Locator, eine Unterart der URI, identifiziert und lokalisiert eine Ressource über das verwendete Netzwerkprotokoll (beispielsweise HTTP oder FTP) und den Ort (engl. location) der Ressource in Computernetzwerken. Containerformat für die Speicherung von Ergebnissen des Harvest-Prozesses, enthält neben den Inhaltsdaten auch langzeitarchivierungsrelevante Metadaten. (ISO 28500:2009) Vom Internet Archive entwickelte Open-Source Software zur Darstellung von Zeitschnitten archivierter Websites. Sie wird unter dem Namen OpenWayback vom International Internet Preservation Consortium weiterentwickelt und gepflegt. Open-Source Tool für die Steuerung von Arbeitsprozessen der selektiven Webarchivierung: Einholen der Archivierungsbewilligung, Anlegen und Verwalten der Targets, Qualitätskontrolle und Freigabe der Target Instances für die Archivierung. Vorgang, einen definierten Ausschnitt des Web in systematischer Form zu kopieren, zu archivieren und auf Dauer zugänglich zu machen. Computerprogramm, das automatisch das Web durchsucht indem es Websites analysiert und enthaltene Verknüpfungen verfolgt. Eine Sonderform der Webcrawler sind Harvester (für Erntemaschine ), die die Inhalte der gefundenen Webpages möglichst vollständig herunterladen und speichern. Im Kontext der Webarchivierung werden diese aber synonym verwendet. Synonym: Crawler, Harvester Siehe: Harvest/ing. Ressource im Web, welche Text, Bilder, Audios, Videos und andere Objekte beinhalten kann, die von einem Webserver angeboten wird und mit einem Browser unter Angabe einer URL abgerufen werden kann. Sie ist Bestandteil einer Website. Inhaltlich und technisch abgrenzbare Sammlung zusammengehöriger, verknüpfter Webpages. Eine Website wird auf einem oder mehreren Host-Rechnern (Servern) gespeichert und in der Regel unter einer URL bereitgestellt. Kopie einer Website, die zu einem bestimmten Zeitpunkt von ei- 13

14 nem Crawler erstellt wurde. 14

Langzeitarchivierung von Websites durch Gedächtnisinstitutionen - Lessons learned -

Langzeitarchivierung von Websites durch Gedächtnisinstitutionen - Lessons learned - Langzeitarchivierung von Websites durch Gedächtnisinstitutionen - Lessons learned - Tobias Beinert, Bayerische Staatsbibliothek München, 10.03.2016 Der Ansatz der Bayerischen Staatsbibliothek Selektives

Mehr

Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT)

Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT) Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT) Stand: 09.03.2016 Ioannis Charalambakis, Tobias Beinert 1 Inhalt Inhalt... 2 Einleitung... 3 Ziele

Mehr

Klaus Kempf. Elektronische Pflichtablieferung für Amtsdruckschriften an der Bayerischen Staatsbibliothek

Klaus Kempf. Elektronische Pflichtablieferung für Amtsdruckschriften an der Bayerischen Staatsbibliothek Klaus Kempf Elektronische Pflichtablieferung für Amtsdruckschriften an der Bayerischen Staatsbibliothek Frühjahrstagung der Kommission für Landesbibliotheken Salzburg, 17. und 18. Mai 2018 Der Auftrag

Mehr

Webarchivierung im BSZ mit Archive-It

Webarchivierung im BSZ mit Archive-It Webarchivierung im BSZ mit Archive-It 107. Bibliothekartag Renate Hannemann 13.06.2018 Webarchivierung = Archivierung von Websites Websites sind digitale Informations- und Publikationsplattformen sind

Mehr

Was gehört eigentlich zur Datenübernahme bzw. zum Pre-Ingest bzw. zum Ingest?

Was gehört eigentlich zur Datenübernahme bzw. zum Pre-Ingest bzw. zum Ingest? Was gehört eigentlich zur Datenübernahme bzw. zum Pre-Ingest bzw. zum Ingest? Tobias Beinert nestor for newbies 13.10.2016 Open Archival Information System (OAIS) Informationsübernahme By caveman (via

Mehr

Webarchivierung im BSZ. Dr. Barbara Löhle Bibliotheksservice-Zentrum Baden-Württemberg Göppingen, 2. Mai 2012

Webarchivierung im BSZ. Dr. Barbara Löhle Bibliotheksservice-Zentrum Baden-Württemberg Göppingen, 2. Mai 2012 Webarchivierung im BSZ Dr. Barbara Löhle Bibliotheksservice-Zentrum Baden-Württemberg Göppingen, 2. Mai 2012 Inhalt Webarchivierung im BSZ als Teil der Langzeitarchivierung mittels SWBcontent SWBcontent

Mehr

Von Spidern und Baggern

Von Spidern und Baggern Von Spidern und Baggern Tools im Projekt Netzliteratur Steffen Fritz 01.12.2015 Steffen Fritz Von Spidern und Baggern 01.12.2015 1 / 31 Allgemein Werke Anzahl: 50 Zeitraum: 1995-2012 Typen: Hypertext,

Mehr

Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen und Archiven

Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen und Archiven Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen und Archiven Karsten Huth, Bundesarchiv Köln, 21.11.2008 Dinge, die es nicht gibt Die provisorische Lösung Dinge, die es gibt Erste Schritte

Mehr

Webarchivierung an der SUB Hamburg: Ziele, Erfahrungen, Perspektiven

Webarchivierung an der SUB Hamburg: Ziele, Erfahrungen, Perspektiven Webarchivierung an der SUB Hamburg: Ziele, Erfahrungen, Perspektiven Edgar Schumacher Staats- und Universitätsbibliothek Hamburg - Carl von Ossietzky 10. 03. 2016 2 Webarchivierung an der SUB Hamburg -

Mehr

Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen

Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen Karsten Huth, Bundesarchiv Leipzig, 2.3.2009 Dinge, die es nicht gibt Die provisorische Lösung Dinge, die es gibt Erste Schritte eines Konzepts

Mehr

Was ARNE alles gelernt hat!

Was ARNE alles gelernt hat! Was ARNE alles gelernt hat! Drei Jahre Webarchivierung beim Deutschen Bundestag Vortrag auf der Tagung des Arbeitskreises Archivierung von Unterlagen aus digitalen Systemen Frühjahrstagung der Fachgruppe

Mehr

Herausforderungen bei der Langzeitverfügbarkeit von

Herausforderungen bei der Langzeitverfügbarkeit von Tobias Steinke Herausforderungen bei der Langzeitverfügbarkeit von Webarchiven 1 10 Herausforderungen bei der Langzeitverfügbarkeit von Webarchiven 20. März 2012 Inhaltsverzeichnis 1. Digitale Langzeitarchivierung

Mehr

Langzeitarchivierungsmetadaten. in Rosetta

Langzeitarchivierungsmetadaten. in Rosetta Langzeitarchivierungsmetadaten in Rosetta Tobias Beinert, Bayerische Staatsbibliothek 06.06.2018 Langzeitarchivierung an der BSB Ab 2004: Aufbau des Bibliothekarischen Archivierungs- und Bereitstellungssystems

Mehr

Netzliteratur authentisch archivieren und verfügbar machen

Netzliteratur authentisch archivieren und verfügbar machen Netzliteratur authentisch archivieren und verfügbar machen Stephanie Kuch, M.A. Die Archivierung des Web als Mittel des digitalen Bestandsaufbaus: Eine Standortbestimmung, Workshop der Bayerischen Staatsbibliothek

Mehr

Nutzerverwaltung. Dokumentenversion Webtrekk GmbH

Nutzerverwaltung. Dokumentenversion Webtrekk GmbH Nutzerverwaltung Dokumentenversion 2.0 2014 Webtrekk GmbH Inhaltsverzeichnis 1 Funktionen der Nutzerverwaltung 2 Nutzer 3 Nutzergruppe 4 Nutzerrolle 5 Zuordnung von Nutzergruppe und Nutzerrolle 6 Elemente

Mehr

Dieser Artikel ist ein Auszug aus dem nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung

Dieser Artikel ist ein Auszug aus dem nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung Herausgeber: Heike Neuroth Hans Liegmann Achim Oßwald Regine Scheffel Mathias Jehn Im Auftrag von: nestor Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland

Mehr

DIN Information und Dokumentation Kriterien für vertrauenswürdige digitale Langzeitarchive. Astrid Schoger

DIN Information und Dokumentation Kriterien für vertrauenswürdige digitale Langzeitarchive. Astrid Schoger DIN 31644 Information und Dokumentation Kriterien für vertrauenswürdige digitale Langzeitarchive Astrid Schoger Einige Prämissen Ein digitales Langzeitarchiv ist vertrauenswürdig: wenn es gemäß seinen

Mehr

Anwendertreffen SWBcontent WLB Stuttgart. Renate Hannemann, Dr. Barbara Löhle, Stefan Wolf

Anwendertreffen SWBcontent WLB Stuttgart. Renate Hannemann, Dr. Barbara Löhle, Stefan Wolf Anwendertreffen SWBcontent 16.11.2011 WLB Stuttgart Renate Hannemann, Dr. Barbara Löhle, Stefan Wolf Inhalt Integration von Heritrix Qualitätssicherung bei der Migration der HTTrack Daten nach WARC 2 Integration

Mehr

Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen

Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen Stand: 20.04.2016 Ioannis Charalambakis, Tobias Beinert, Marcus Bitzl, Astrid Schoger 1

Mehr

38. Benutzerverwaltung

38. Benutzerverwaltung 38. Benutzerverwaltung Stellen Sie Standard-Variablen für jeden Benutzer individuell ein. Begrenzen Sie den Zugang für einzelne Benutzer zeitlich, z.b. für Praktikanten. Legen Sie fest, wie HVO2go und

Mehr

Herausgeber. Im Auftrag von. Kontakt. Heike Neuroth Hans Liegmann ( ) Achim Oßwald Regine Scheffel Mathias Jehn Stefan Strathmann

Herausgeber. Im Auftrag von. Kontakt. Heike Neuroth Hans Liegmann ( ) Achim Oßwald Regine Scheffel Mathias Jehn Stefan Strathmann Herausgeber Heike Neuroth Hans Liegmann ( ) Achim Oßwald Regine Scheffel Mathias Jehn Stefan Strathmann Im Auftrag von nestor Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler

Mehr

Tobias Steinke. Webarchivierung als internationale Aufgabe

Tobias Steinke. Webarchivierung als internationale Aufgabe Tobias Steinke Webarchivierung als internationale Aufgabe 1 9 Webarchivierung als internationale Aufgabe 25. Juni 2015 Inhaltsverzeichnis 1. Das Web als internationales Medium 2. Webarchive weltweit 3.

Mehr

März Leitfaden zur Einbindung von Inhalten der Berufsberatung auf Schulwebseiten

März Leitfaden zur Einbindung von Inhalten der Berufsberatung auf Schulwebseiten März 2018 Leitfaden zur Einbindung von Inhalten der Berufsberatung auf Schulwebseiten Impressum Bundesagentur für Arbeit Zentrale Geschäftsbereich Arbeitsmarkt Produktentwicklung Berufsberatung Regensburger

Mehr

Warum digitalisieren Kulturinstitutionen? Strategien und Aspekte digitaler Bewahrung und Vermittlung am Beispiel der Österreichischen Mediathek

Warum digitalisieren Kulturinstitutionen? Strategien und Aspekte digitaler Bewahrung und Vermittlung am Beispiel der Österreichischen Mediathek Warum digitalisieren Kulturinstitutionen? Strategien und Aspekte digitaler Bewahrung und Vermittlung am Beispiel der Österreichischen Mediathek Archiv / Sammlung Medienarchive sind eine Mischung zwischen

Mehr

Fachverfahren Webarchivierung : Geschäftsmodelle und ihre Unterstützung durch die Software SWBcontent

Fachverfahren Webarchivierung : Geschäftsmodelle und ihre Unterstützung durch die Software SWBcontent Fachverfahren Webarchivierung : Geschäftsmodelle und ihre Unterstützung durch die Software SWBcontent Stefan Wolf, BSZ nestor Praktikertag 2014 Hannover Geschäftsmodell was ist denn das? Wikipedia: Ein

Mehr

Langzeitarchivierungs-Policy der Deutschen Nationalbibliothek

Langzeitarchivierungs-Policy der Deutschen Nationalbibliothek Langzeitarchivierungs-Policy der Deutschen Nationalbibliothek Version 1.0 Stand: 15.2.2013 Im Auftrag der Deutschen Nationalbibliothek verantwortlich für das Dokument: Sabine Schrimpf und Tobias Steinke

Mehr

Strategien und Massnahmen der Schweizerischen Nationalbibliothek zur Langzeiterhaltung digitaler Daten

Strategien und Massnahmen der Schweizerischen Nationalbibliothek zur Langzeiterhaltung digitaler Daten Strategien und Massnahmen der Schweizerischen Nationalbibliothek zur Langzeiterhaltung digitaler Daten Berner Architekten-Treffen, 11. März 2011 Hansueli Locher Schweizerische Nationalbibliothek hansueli.locher@nb.admin.ch

Mehr

edoc Nutzerschulungen 2007

edoc Nutzerschulungen 2007 edoc Nutzerschulungen 2007 in München, edoc Support This work is licensed under a Creative Commons Attribution 2.0 Germany License http://creativecommons.org/licenses/by/2.0/de/ Agenda Modul 1: Publikationsdatenmanagement

Mehr

Möglichkeiten der - Archivierung für Exchange Server im Vergleich

Möglichkeiten der  - Archivierung für Exchange Server im Vergleich 1 5 Möglichkeiten der E-Mail- Archivierung für Exchange Server im Vergleich Mit Microsoft Exchange Server bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Fotos, Videos und Audios nicht öffentlich bereitstellen

Fotos, Videos und Audios nicht öffentlich bereitstellen HANDLUNGSANLEITUNG Fotos, Videos und Audios nicht öffentlich bereitstellen In der Vor- und Nachbereitung und während der Seminararbeit den Seminarteilnehmenden Fotos, Videos, Audios oder Textdokumente

Mehr

Ablieferungspflicht für Netzpublikationen

Ablieferungspflicht für Netzpublikationen Ablieferungspflicht für Netzpublikationen BONSAI - Tagung DIPF Deutsches Institut für Internationale Pädagogische Forschung - IZ Bildung Berlin - Berlin, d. 17.11.2008 Tzvetelin Nojarov nojarov@bbf.dipf.de

Mehr

Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten?

Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Search Engine Marketing SEA SEM = Search Engine Marketing Suchmaschinen-Marketing umfasst alle Maßnahmen zur Gewinnung von qualifizierten

Mehr

Praxiswissen Qualitätsmanagement. Interpretation der Anforderungen

Praxiswissen Qualitätsmanagement. Interpretation der Anforderungen Praxiswissen Qualitätsmanagement Interpretation der Anforderungen Die DIN EN 15224:2012 Praxiswissen Qualitätsmanagement Interpretation der Anforderungen Die DIN EN 15224:2012 Autoren: Dr. Christian Bamberg,

Mehr

Moodle-Kurs - Einführung

Moodle-Kurs - Einführung Moodle-Kurs - Einführung In Moodle-Kursen stellen Sie Online-Lerninhalte zur Verfügung. Kursformate THEMEN-Format: Der Kurs kann in 1 bis 52 nummerierte Abschnitte eingeteilt werden, die jeweils mit Arbeitsunterlagen

Mehr

Sammlung von Netzpublikationen an der Deutschen Nationalbibliothek

Sammlung von Netzpublikationen an der Deutschen Nationalbibliothek Sammlung von Netzpublikationen an der Deutschen Nationalbibliothek Gesetz über die Deutsche Nationalbibliothek, Pflichtablieferungsverordnung Sammelrichtlinien 1 Workshop "Langzeitarchivierung von Netzliteratur"

Mehr

Formatvalidierung bei Forschungsdaten: Wann und wozu?

Formatvalidierung bei Forschungsdaten: Wann und wozu? Formatvalidierung bei Forschungsdaten: Wann und wozu? 106. Deutscher Bibliothekartag Frankfurt am Main, 1. Juni 2017 Dr. Matthias Töwe, ETH-Bibliothek, ETH Zürich M. Töwe 01.06.2017 1 Überblick Formatidentifizierung

Mehr

Einführung in die Langzeitarchivierung

Einführung in die Langzeitarchivierung Einführung in die Langzeitarchivierung Dr. Katharina Ernst Erhaltung und Zugänglichkeit auf Dauer Folie 2 Digitale Information hält ewig oder fünf Jahre lang, je nachdem, was zuerst kommt (Jeff Rothenberg)

Mehr

Anleitung für die Managementbewertung

Anleitung für die Managementbewertung Anleitung für die Managementbewertung Managementbewertung 1 bedeutet: die Apothekenleitung analysiert jährlich die Unternehmenssituation ( funktioniert unser QM-System? ) und trifft dann auf Basis der

Mehr

Automatische Langzeitarchivierung

Automatische Langzeitarchivierung Automatische Langzeitarchivierung für die Digitalisierung mit Goobi Andreas Romeyke, Dr. H. Berthold, C. Beissert, J. Sachse, Fotos mit freundlicher Genehmigung von Jörg Sachse Sächsische Landesbibliothek,

Mehr

Checkliste: Konfiguration eines Datenraums nach einem Upgrade von Brainloop Secure Dataroom von Version 8.10 auf 8.20

Checkliste: Konfiguration eines Datenraums nach einem Upgrade von Brainloop Secure Dataroom von Version 8.10 auf 8.20 Checkliste: Konfiguration eines Datenraums nach einem Upgrade von Brainloop Secure Dataroom von Version 8.10 auf 8.20 Diese Checkliste hilft Ihnen bei der Überprüfung Ihrer individuellen Datenraum-Konfiguration

Mehr

Webarchiv Schweiz. verbindet Kompetenzen, Ressourcen und Websites. Barbara Signori 27. Mai 2013

Webarchiv Schweiz. verbindet Kompetenzen, Ressourcen und Websites. Barbara Signori 27. Mai 2013 Webarchiv Schweiz verbindet Kompetenzen, Ressourcen und Websites 27. Mai 2013 Inhalt Kompetenzen Ressourcen Websites 2 Was ist das Webarchiv Schweiz? eine Sammlung von relevanten Websites mit Bezug zur

Mehr

ÜBUNG. Einführung in das IT-Projektmanagement Dr. The Anh Vuong WS 2016/17. Thema... 2 Projekt Struktur... 3 AUFGABEN... 5

ÜBUNG. Einführung in das IT-Projektmanagement Dr. The Anh Vuong WS 2016/17. Thema... 2 Projekt Struktur... 3 AUFGABEN... 5 ÜBUNG Einführung in das IT-Projektmanagement Dr. The Anh Vuong WS 2016/17 Einleitung zur Projektarbeit Thema... 2 Projekt Struktur... 3 AUFGABEN... 5 2016 by Dr. The Anh Vuong Seite 1 Thema Beschluss der

Mehr

Hamburgisches Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze

Hamburgisches Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze HmbGGbM Hamburgisches Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze Vom 21. März 2005 HmbGVBl. Nr. 10, Dienstag, den 29. März 2005 S.75 79 4 Barrierefreiheit Barrierefrei

Mehr

Aufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent. München, BSB, Stefan Wolf BSZ Baden-Württemberg

Aufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent. München, BSB, Stefan Wolf BSZ Baden-Württemberg Aufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent München, BSB, 10.03.2016 Stefan Wolf BSZ Baden-Württemberg Damit fing alles an: Workshop "Langzeitverfügbarkeit digitaler Dokumente"

Mehr

V-Modell XT im Unternehmen "light" einführen?

V-Modell XT im Unternehmen light einführen? V-Modell XT im Unternehmen "light" einführen? VMEA-Tagung, 08.11.2018, Siegburg Wolfgang Kranz BK Training 81739 München Kosegartenpl. 9 Tel. +49 89 606003-01 Fax -02 mobil: +49 172 8488200 E-Mail: kranz.w@gmx.de

Mehr

Einrichtung der Google AdWords-Schnittstelle in Webtrekk

Einrichtung der Google AdWords-Schnittstelle in Webtrekk Einrichtung der Google AdWords-Schnittstelle in Webtrekk Inhalt 1 Allgemein...3 2 Was ermöglicht die Schnittstelle?...3 3 Was ist über die Schnittstelle erfassbar?...3 4 Vertaggung der finalen URLs in

Mehr

Preservation Planning im Digitalen Archiv Österreich. Hannes Kulovits

Preservation Planning im Digitalen Archiv Österreich. Hannes Kulovits Preservation Planning im Digitalen Archiv Österreich Hannes Kulovits 11.3.2015 Agenda Preservation Planning/Operations Synchronisation mit AIS Showcase Agenda Preservation Planning/Operations Synchronisation

Mehr

SWBregio. Handreichung. (Stand: )

SWBregio. Handreichung. (Stand: ) SWBregio Handreichung (Stand: 10.06.2016) Suche Suchen + Browsen: ohne Login Editieren: mit Login Suche: links- + rechts trunkiert 2 Erweiterte Suche Einfach ausprobieren! 3 Browsen Liste der Dokumentarten

Mehr

Arvato Systems Signer Guide für DocuSign

Arvato Systems Signer Guide für DocuSign Arvato Systems Gütersloh, Juni 2017 Inhaltsverzeichnis 1 Benutzerleitfaden zur Unterzeichnung mit DocuSign... 3 2 E-Mail-Benachrichtigung empfangen... 3 3 Dokument prüfen und signieren... 5 4 Weitere Optionen...

Mehr

Die vorliegende Anleitung zeigt Ihnen auf, wie Sie s in Ihrem Postfach löschen oder archivieren können. hslu.ch/helpdesk

Die vorliegende Anleitung zeigt Ihnen auf, wie Sie  s in Ihrem Postfach löschen oder archivieren können. hslu.ch/helpdesk IT Services Support Werftestrasse 4, Postfach 2969, CH-6002 Luzern T +41 41 228 21 21 hslu.ch/helpdesk, informatikhotline@hslu.ch Luzern, 24. Mai 2017 Seite 1/9 Archivierung mit Outlook 2016 (Windows)

Mehr

Datenaufbereitung im Vorfeld der Übernahme ins Archiv: Beispiel für einen Pre-Ingest-Workflow

Datenaufbereitung im Vorfeld der Übernahme ins Archiv: Beispiel für einen Pre-Ingest-Workflow Datenaufbereitung im Vorfeld der Übernahme ins Archiv: Beispiel für einen Pre-Ingest-Workflow Franziska Schwab Frankfurt a. M., 13. Oktober 2016 Nestor for Newbies Agenda mit Hintergrundgrafik 1. Digitale

Mehr

Generierung einer Whitelist (Positivliste) von Internetressourcen auf Basis bestehender Linksammlungen

Generierung einer Whitelist (Positivliste) von Internetressourcen auf Basis bestehender Linksammlungen Generierung einer Whitelist (Positivliste) von Internetressourcen auf Basis bestehender Linksammlungen Stand: 20.07.2010 Bearbeiter: joerg.simanowski@uni-rostock.de Der Zugang von Rechnern der Universitätsbibliothek

Mehr

Migration von Windows

Migration von Windows Migration von Windows auf elux RP4 Kurzanleitung Stand 2016-04-08 1. Voraussetzungen 2 2. Migrationsprozess 3 3. Optionale Parameter 4 4. Beispiele für den Aufruf von win2elux 5 2016 Unicon Software Entwicklungs-

Mehr

MindManager 11 für Mac eröffnet neue Möglichkeiten zur visuellen Erfassung, Verarbeitung und Weitergabe von Wissen

MindManager 11 für Mac eröffnet neue Möglichkeiten zur visuellen Erfassung, Verarbeitung und Weitergabe von Wissen MindManager 11 für Mac eröffnet neue Möglichkeiten zur visuellen Erfassung, Verarbeitung und Weitergabe von Wissen und ist die robusteste, flexibelste und benutzerfreundlichste Version der weltweit leistungsstärksten

Mehr

Fragenkatalog 2 CAF-Gütesiegel - Fragenkatalog für den CAF-Aktionsplan (Verbesserungsplan)

Fragenkatalog 2 CAF-Gütesiegel - Fragenkatalog für den CAF-Aktionsplan (Verbesserungsplan) Fragenkatalog 2 CAF-Gütesiegel - Fragenkatalog für den CAF-Aktionsplan (Verbesserungsplan) Der Fragenkatalog deckt die Schritte sieben bis neun ab, die in den Leitlinien zur Verbesserung von Organisationen

Mehr

1 PDF-Standards PDF/X Standards PDF/A Standards Erstellung einer PDF/A-1b Datei mit InDesign CS6... 2

1 PDF-Standards PDF/X Standards PDF/A Standards Erstellung einer PDF/A-1b Datei mit InDesign CS6... 2 I Inhaltsverzeichnis I Inhaltsverzeichnis 1 PDF-Standards... 1 1.1 PDF/X Standards... 1 1.2 PDF/A Standards... 1 2 Erstellung einer PDF/A-1b Datei mit InDesign CS6... 2 3 Erstellung einer PDF/X Datei mit

Mehr

Nutzen und Eigenschaften eines integrierten Prozessmodells (ipm)

Nutzen und Eigenschaften eines integrierten Prozessmodells (ipm) Nutzen und Eigenschaften eines integrierten Prozessmodells (ipm) Voraussetzungen im Unternehmen - Das Unternehmen will seine Marktposition festigen oder ausbauen. - Das Unternehmen verpflichtet sich zur

Mehr

Webarchivierung Workshop am Parlaments- und Parteiarchive

Webarchivierung Workshop am Parlaments- und Parteiarchive Webarchivierung Workshop am 20.03.2012 Parlaments- und Parteiarchive Aufgabenspektrum und Anforderungsprofile Dr. Renate Höpfinger 1. Sammlungsprofil, Sammelauftrag und Nutzergruppe a. Parlamentsarchive:

Mehr

SemTalk Services Stand: September 2015

SemTalk Services Stand: September 2015 SemTalk Services Stand: Was sind SemTalk Services? Navigation, Suche, Kommentierung, Reporting und andere Funktionalitäten über eine große Menge von Prozessen, Objekten und Dokumenten in veröffentlichten

Mehr

Ausgabe der Veranstaltungen

Ausgabe der Veranstaltungen 12 Ausgabe der Veranstaltungen Mit dem Veranstaltungsmodul können Sie Veranstaltungen auf gewünschten Seiten Ihrer Website intergrieren und ausgeben lassen. 2.1 Ausgabe von Veranstaltungen Klicken Sie

Mehr

Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten?

Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Search Engine Marketing SEM = Search Engine Marketing SEA SEO Suchmaschinen-Marketing umfasst alle Maßnahmen zur Gewinnung von qualifizierten

Mehr

5 KSWD Wiesbaden. Der URN-Service. der Deutschen Nationalbibliothek. Uta Ackermann, Deutsche Nationalbibliothek 1 5 KSWD

5 KSWD Wiesbaden. Der URN-Service. der Deutschen Nationalbibliothek. Uta Ackermann, Deutsche Nationalbibliothek 1 5 KSWD 5 KSWD Wiesbaden Der URN-Service der Deutschen Nationalbibliothek Uta Ackermann, Deutsche Nationalbibliothek 1 Überblick 1. Persistent Identifier in der DNB 2. Struktur und Funktion der URN 3. URN-Service

Mehr

Migration von Windows

Migration von Windows Migration von Windows auf elux RP5 Kurzanleitung Stand 2016-04-08 1. Voraussetzungen 2 2. Migrationsprozess 3 3. Optionale Parameter 4 4. Beispiele für den Aufruf von win2elux 5 2016 Unicon Software Entwicklungs-

Mehr

RADAR. ABLAGE & NACHNUTZUNG von FORSCHUNGSDATEN. Dr. Angelina Kraft. Technische Informationsbibliothek (TIB), Hannover

RADAR. ABLAGE & NACHNUTZUNG von FORSCHUNGSDATEN. Dr. Angelina Kraft. Technische Informationsbibliothek (TIB), Hannover RADAR ABLAGE & NACHNUTZUNG von FORSCHUNGSDATEN Dr. Angelina Kraft Technische Informationsbibliothek (TIB), Hannover 10.03.2016, Hamburg Agenda Übersicht Zielgruppen Geschäftsmodell Dienstleistungsmodell

Mehr

Kurzanleitung. Zeiterfassung. Version Datum 01/2017 Log. Adatis GmbH & Co. KG Seite 1 von 7

Kurzanleitung. Zeiterfassung. Version Datum 01/2017 Log. Adatis GmbH & Co. KG Seite 1 von 7 Kurzanleitung Zeiterfassung Version 1.000 Autor Sandra Gilge Datum 01/2017 Log Adatis GmbH & Co. KG Seite 1 von 7 Inhaltsverzeichnis 1. Einleitung 3 2. Mitarbeiter anlegen 3 3. Zeiterfassung aktivieren

Mehr

Digitalisieren Sie jetzt Ihre Geschäftsprozesse

Digitalisieren Sie jetzt Ihre Geschäftsprozesse Digitalisieren Sie jetzt Ihre Geschäftsprozesse Erfolgsfaktoren bei der Einführung eines DMS Transparenz und Nachvollziehbarkeit über alle Geschäftsprozesse hinweg starten Sie jetzt mit Hilfe eines DMS

Mehr

windream 6.5 What s New? windream GmbH, Bochum

windream 6.5 What s New? windream GmbH, Bochum windream 6.5 What s New? windream GmbH, Bochum windream GmbH Wasserstr.219 44799 Bochum Stand: 05/2016 6.5.0.1 Alle Rechte vorbehalten. Kein Teil dieser Beschreibung darf in irgendeiner Form (Druck, Fotokopie

Mehr

Persistent Identifier

Persistent Identifier Archivierung sozial- und wirtschaftswissenschaftlicher Datenbestände Persistent Identifier Nicole von der Hude, Deutsche Nationalbibliothek 1 Gesetzlicher Auftrag der DNB ursprünglich Deutsche Publikationen

Mehr

COPLANER - ERSTE SCHRITTE. Benutzerleitfaden. Verfasserin: Petra Hendrich COPLANER - ERSTE SCHRITTE!... 2 LOGIN UND EIGENE DATEN ÄNDERN!...

COPLANER - ERSTE SCHRITTE. Benutzerleitfaden. Verfasserin: Petra Hendrich COPLANER - ERSTE SCHRITTE!... 2 LOGIN UND EIGENE DATEN ÄNDERN!... COPLANER - ERSTE SCHRITTE Benutzerleitfaden Verfasserin: Petra Hendrich COPLANER - ERSTE SCHRITTE!... 2 LOGIN UND EIGENE DATEN ÄNDERN!... 2 DIE ROLLEN!... 4 DAS LINKE MENÜ!... 5 EINEN TERMIN ANLEGEN:!...

Mehr

Langzeitarchivierung digitale Bestandserhaltung. Dr. Astrid Schoger, 97. Deutscher Bibliothekartag Mannheim, 03. Juni 2008

Langzeitarchivierung digitale Bestandserhaltung. Dr. Astrid Schoger, 97. Deutscher Bibliothekartag Mannheim, 03. Juni 2008 Langzeitarchivierung digitale Bestandserhaltung Dr. Astrid Schoger, 97. Deutscher Bibliothekartag Mannheim, 03. Juni 2008 1 Inhalt Langzeitarchivierung: A. Erhaltung des digitalen Bestandes Digitaler Bestand

Mehr

Einreichung von Abschlussarbeiten

Einreichung von Abschlussarbeiten Einreichung von Abschlussarbeiten 1. Ab 1. Dezember 2014 werden die Abschlussarbeiten (wissenschaftliche und künstlerische Diplom- und Masterarbeiten, Dissertationen, Abschlussarbeiten des Universitätslehrganges

Mehr

Sourcing: Partnerwahl mit Excel?

Sourcing: Partnerwahl mit Excel? Sourcing: Partnerwahl mit Excel? Keyfacts über Sourcing - Externe Dienstleister können Finanzinstitute deutlich entlasten - Ohne klare Strategie drohen jedoch hohe zusätzliche Kosten - Bestehende Auswahlprozesse

Mehr

Gute-KiTa-Checkliste. Gesetzliche Anforderungen an die Umsetzung des KiTa-Qualitätsund Teilhabeverbesserungsgesetzes in den Ländern

Gute-KiTa-Checkliste. Gesetzliche Anforderungen an die Umsetzung des KiTa-Qualitätsund Teilhabeverbesserungsgesetzes in den Ländern Gute-KiTa-Checkliste Gesetzliche Anforderungen an die Umsetzung des KiTa-Qualitätsund Teilhabeverbesserungsgesetzes in den Ländern Seit dem 1. Januar 2019 sind wesentliche Teile des KiTa-Qualitäts- und

Mehr

BAS Repository. Uwe Reichel Institute of Phonetics and Speech Processing University of Munich. 31. März CLARIN WORKSHOP 2014: BAS Repository

BAS Repository. Uwe Reichel Institute of Phonetics and Speech Processing University of Munich. 31. März CLARIN WORKSHOP 2014: BAS Repository BAS Repository Institute of Phonetics and Speech Processing University of Munich 31. März 2014 Inhalt Was ist ein Daten-Repository? Wie kommen die Daten ins Repository? Wie kann man auf die Daten zugreifen?

Mehr

Werkzeuge für die Unterstützung von Autoren und Herausgebern von Open-Access-Publikationen

Werkzeuge für die Unterstützung von Autoren und Herausgebern von Open-Access-Publikationen Humboldt-Universität zu Berlin Jahreskolloquium 16. Mai 2006 Open Access an der Humboldt-Universität Werkzeuge für die Unterstützung von Autoren und Herausgebern von Open-Access-Publikationen Uwe Müller

Mehr

Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin. - Leitlinien -

Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin. - Leitlinien - Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin - Leitlinien - 1. Allgemeines Der Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin bietet Angehörigen der Hochschule

Mehr

Schulung SWBcontent. Stand 04.10.2011

Schulung SWBcontent. Stand 04.10.2011 Schulung SWBcontent Stand 04.10.2011 BOA Baden-Württembergisches Online-Archiv BOA sammelt, erschließt, präsentiert, archiviert Webseiten und Publikationen aus und über Baden-Württemberg Kooperation von

Mehr

Internetquellen Umgang mit Internetquellen in wissenschaftlichen Arbeiten

Internetquellen Umgang mit Internetquellen in wissenschaftlichen Arbeiten Internetquellen Umgang mit Internetquellen in wissenschaftlichen Arbeiten Tobias Bauer Stand: 11. Dezember 2016 Inhaltsverzeichnis 1. Einleitung 1 2. Internetquellen mit dem Internet Archiv 3 3. Einschränkungen

Mehr

BEST PRACTICE EINRICHTUNG UND VERWENDUNG VON IN PROJEKT PRO

BEST PRACTICE EINRICHTUNG UND VERWENDUNG VON  IN PROJEKT PRO GRUNDSÄTZLICHES Als zentrales Dokumentationsmedium unterstützt PROJEKT PRO alle projektrelevanten Entscheidungen und Übergaben. Für mehr Transparenz, eine effektive Arbeitsweise und Zeitersparnis bei wiederkehrenden

Mehr

Abgabe amtlicher Veröffentlichungen an Bibliotheken Wege der Ablieferung elektronischer amtlicher Veröffentlichungen

Abgabe amtlicher Veröffentlichungen an Bibliotheken Wege der Ablieferung elektronischer amtlicher Veröffentlichungen Abgabe amtlicher Veröffentlichungen an Bibliotheken Wege der Ablieferung elektronischer amtlicher Veröffentlichungen Informationsveranstaltung, 7. Juli 2009 BSB 7. Juli 2009 Programm Begrüßung durch den

Mehr

Was ist neu in ConSol CM?

Was ist neu in ConSol CM? Was ist neu in ConSol CM? Neue Funktionen und Verbesserungen in Version 6.11.1.1 Februar 2018, Produktmanagement ConSol CM Liebe ConSol-Kunden, liebe ConSol CM-Kunden, wir möchten Ihnen an dieser Stelle

Mehr

Trainingsmanagement Gutschein Management. Beschreibung

Trainingsmanagement Gutschein Management. Beschreibung Trainingsmanagement Beschreibung www.dastm.de info@dastm.de 1. Einführung... 2 2. Gutschein Funktionen... 3 2.1. Gutschein Menü... 3 2.2. Gutscheine anlegen... 4 Gutschein Kassenwirksam erfassen... 6 Gutschein

Mehr

ConSol CM/Outlook-Add-in Benutzerhandbuch für das ConSol CM/Outlook-Add-in

ConSol CM/Outlook-Add-in Benutzerhandbuch für das ConSol CM/Outlook-Add-in Benutzerhandbuch für das Status des Dokuments: Veröffentlicht Version des Dokuments: 1.1 CM/ ist eine geschützte Marke der ConSol Consulting & Solutions Software GmbH Benutzerhandbuch für das Inhalt 1

Mehr

Programm e-helvetica

Programm e-helvetica Programm e-helvetica VJBS Jahrestagung 2010, Basel, 11. Juni 2010 Inhalt Schweizerische Nationalbibliothek e-helvetica Persistente Identifikatoren Weiterführende Informationen 2 Schweizerische Nationalbibliothek

Mehr

Modell Bahn Verwaltung. Tutorial. Links. Min. Programm Version 0.65, März w w w. r f n e t. c h 1 / 11

Modell Bahn Verwaltung. Tutorial. Links. Min. Programm Version 0.65, März w w w. r f n e t. c h 1 / 11 Modell Bahn Verwaltung Tutorial Links Min. Programm Version 0.65, März 2015 Tutorial Version 04.01.2017 rfnet Software w w w. r f n e t. c h 1 / 11 Vorwort... 3 1 Links... 4 1.1 Einführung... 4 1.2 Link

Mehr

Einschränkung der Sichtbarkeit

Einschränkung der Sichtbarkeit Einschränkung der Sichtbarkeit Möchten Sie in speziellen Situationen bestimmte Bilder bei der Suche in der Ergebnismenge ausblenden oder möchten Sie den Nutzern Ihres Webservers nur ganz bestimmte Bilder

Mehr

Archivierung mit PDF und XPS. Formate, Standards und Prozessabläufe

Archivierung mit PDF und XPS. Formate, Standards und Prozessabläufe Archivierung mit PDF und XPS Formate, Standards und Prozessabläufe Dr. Hans Bärfuss PDF Tools AG Winterthur, 8. Mai 2007 Copyright 2007 PDF Tools AG 1 Inhalt Formate Anforderungen an ein Archivformat Ordnung

Mehr

Datenbank. Didaktischer Kommentar. Lernplattform

Datenbank. Didaktischer Kommentar. Lernplattform Lernplattform Datenbank Didaktischer Kommentar Eine Datenbank ermöglicht den Aufbau und die Darstellung strukturierter Sammlungen von Informationen und Dateien. Datensätze können direkt eingegeben oder

Mehr

Protokoll RiMEA-Projekt

Protokoll RiMEA-Projekt Datum: 08.02.2005 Ort: per Email Teilnehmer: RiMEA Initiatoren Verfasser: Tim Meyer-König Nathalie Waldau Thema: Beiträge zur Richtlinie 1.6.0 Verteiler: - RiMEA Initiatoren - RiMEA Mitglieder Besprochene

Mehr

Dokumenten Management (DMS)

Dokumenten Management (DMS) Uptime Services AG Brauerstrasse 4 CH-8004 Zürich Tel. +41 44 560 76 00 Fax +41 44 560 76 01 www.uptime.ch Dokumenten Management (DMS) Funktionalitäten 27. Dezember 2013 Inhaltsverzeichnis 1 ARTS DMS Option...

Mehr

Records im Kontext Kontextualisierung 2.0 mit Matterhorn METS. 19. AUdS-Tagung Wien, Tobias Wildi,

Records im Kontext Kontextualisierung 2.0 mit Matterhorn METS. 19. AUdS-Tagung Wien, Tobias Wildi, Records im Kontext Kontextualisierung 2.0 mit Matterhorn METS 19. AUdS-Tagung Wien, 10.3.2015 Tobias Wildi, t.wildi@docuteam.ch 1 «Records in Context» Ziel der EGAD bei der Überarbeitung der ICA- Standards:

Mehr

2.3 - Das Verwaltungsmodul moveon installieren - SQL-Version

2.3 - Das Verwaltungsmodul moveon installieren - SQL-Version 2.3 - Das Verwaltungsmodul moveon installieren - SQL-Version Das Verwaltungsmodul moveon besteht aus zwei Komponenten: dem moveon Client und der moveon Datenbank. Der moveon Client enthält alle Formulare,

Mehr

DER BESSER INFORMIERTE GEWINNT!

DER BESSER INFORMIERTE GEWINNT! KORAKTOR 4.15 KORAKTOR -SQL Neuigkeiten DER BESSER INFORMIERTE GEWINNT! Stand: 29.08.2007 Dimmel-Software GmbH Internet: www.dimmel.de Wilthener Str. 32 E-Mail: info@dimmel.de 02625 Bautzen Inhaltsverzeichnis

Mehr

Edoweb 3.0. Open Source-System für das elektronische Pflichtexemplar

Edoweb 3.0. Open Source-System für das elektronische Pflichtexemplar Edoweb 3.0 Open Source-System für das elektronische Pflichtexemplar Dr. Andres Quast, Hochschulbibliothekszentrum Nordrhein- Wes

Mehr

Evaluationskonzept. Pro Personal. Seite Copyright BBJ MEMBER OF THE UNIT CONSULTING GROUP. Copyright BBJ BBJ SERVIS GmbH

Evaluationskonzept. Pro Personal. Seite Copyright BBJ MEMBER OF THE UNIT CONSULTING GROUP. Copyright BBJ BBJ SERVIS GmbH Copyright BBJ BBJ SERVIS GmbH Evaluationskonzept Pro Personal Seite 1 Europäischer EUROPÄISCHE Sozialfonds UNION Artikel 6 Innovative Europäischer Maßnahmen Sozialfonds BBJ SERVIS GmbH Beratung, Projektmanagement

Mehr

Schulung advertzoom. advertzoom Release 2.1 Stand Januar 2012. advertzoom GmbH 2012 1 09.01.2012

Schulung advertzoom. advertzoom Release 2.1 Stand Januar 2012. advertzoom GmbH 2012 1 09.01.2012 Schulung advertzoom advertzoom Release 2.1 Stand Januar 2012 1 Aufbau der Schulung Anwenderschulung Online - Marketing - Kampagnen planen, bereitstellen und analysieren Fortgeschrittene Konfigurieren und

Mehr

LERNKARTEN / VOKABELTRAINER HANDREICHUNG (STAND: AUGUST 2013)

LERNKARTEN / VOKABELTRAINER HANDREICHUNG (STAND: AUGUST 2013) LERNKARTEN / VOKABELTRAINER HANDREICHUNG (STAND: AUGUST 2013) Seite 2, Lernkarten / Vokabeltrainer Inhalt Die Aktivität auf der Lernplattform anlegen... 3 Die Aktivität Lernkarten auf der Lernplattform...

Mehr

Risk Assessment Tool. kostenlos frei verfügbar Excel mbt. maschinenbautage. mechtersheimer. mbt / 32. MBT GbR. maschinenbautage.

Risk Assessment Tool. kostenlos frei verfügbar Excel mbt. maschinenbautage. mechtersheimer. mbt / 32. MBT GbR. maschinenbautage. Risk Assessment Tool kostenlos frei verfügbar Excel 2010 MBT GbR / 32 Warum? Hersteller müssen Risikobeurteilung durchführen KMU benutzen hauptsächlich Excel- Tabellen Software ist (teilweise) unvollständig

Mehr

Webarchiv Schweiz Einführung

Webarchiv Schweiz Einführung Webarchiv Schweiz Einführung Workshop Sammeln und Erschliessen von landeskundlich relevanten Websites 23. und 30. April 2008 in der Schweizerischen Nationalbibliothek, Bern Barbara Signori Themen Webarchiv

Mehr

Leistungsbeschreibung CSE Connect

Leistungsbeschreibung CSE Connect Leistungsbeschreibung CSE Connect 1. Allgemeine Beschreibungen Dräger CSE Connect ist eine Software Lösung zur Optimierung des Freigabeprozesses im Bereich Industrie und Mining. CSE Connect unterstützt

Mehr