Stand: Ioannis Charalambakis, Tobias Beinert
|
|
- Kirsten Diefenbach
- vor 7 Jahren
- Abrufe
Transkript
1 Qualität und Prozessoptimierung bei der Langzeitarchivierung von Websites: Konzeptuelle Überlegungen zur Steuerung des Ressourceneinsatzes bei der selektiven Webarchivierung Stand: Ioannis Charalambakis, Tobias Beinert
2 Inhaltsverzeichnis 1. Der Qualitätsbegriff bei der selektiven Webarchivierung Bestimmung von Preservation Levels Qualitätssicherung bei der Auswahl Nachträgliche Qualitätskontrolle Qualitätsmerkmale eines Zeitschnitts Abstufungen der nachträglichen Qualitätskontrolle Gewichtung der Qualitätsmerkmale Parameter der Qualitätskontrolle eines Zeitschnitts Parameter bei der Verbesserung und Wiederholung des Crawls Exemplarische Anwendung der Preservation Level Fazit Literatur Anlage: Glossar zur Webarchivierung
3 Hinweis: Dieses Dokument wurde im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen von der Bayerischen Staatsbibliothek erstellt. Eine Beschreibung des Projekts sowie eine Darstellung der Webarchivierung finden Sie unter: Ein umfassendes Glossar mit einer Erläuterung der verwendeten deutschen und englischen Fachbegriffe der Webarchivierung ist diesem Dokument als Anlage beigefügt. 1. Der Qualitätsbegriff bei der selektiven Webarchivierung Ein zentraler und viel diskutierter Begriff im Kontext der Webarchivierung ist der der Qualität. 1 Qualität bezieht sich dabei in der Regel auf den Gesamtbestand eines Webarchivs. Während in den Zeiten von handschriftlichen oder gedruckten Materialien die größtmögliche Vollständigkeit neben der Erschließung und Nutzbarkeit ein wesentliches Qualitätsmerkmal einer spezifischen Sammlung bzw. eines thematischen Bestandes einer Bibliothek oder einer Forschungseinrichtung war, ist angesichts der schieren Menge an Webangeboten, der systemimmanenten Beschränkung auf die Sammlung diskreter Zeitschnitte von Websites und den technischen Einschränkungen dieses Verfahrens der bislang vorherrschende Grundsatz von einer nahezu umfassenden Sammlungstätigkeit der Gedächtnisinstitutionen und folglich auch der Qualitätsbegriff zu überdenken. 2 Die Qualität eines Webarchivs als Ganzes, d.h. der gesamten Sammlung von Zeitschnitten unterschiedlicher Websites, könnte sich aus Sicht der Benutzer zunächst an mehreren Merkmalen festmachen lassen: Größe/Umfang des Bestandes (z.b. Anzahl der archivierten URLs, Anzahl der archivierten Zeitschnitte, Anzahl der archivierten Bytes), Frequenz und Regelmäßigkeit der Harvests, inhaltliche Relevanz, Repräsentativität und Kohärenz des Bestandes für bestimmte Themengebiete sowie Auffindbarkeit, Benutzbarkeit sowie Transparenz bezüglich der Entstehung und Entwicklung der Bestände. Nicht zuletzt hängt die Bewertung eines Webarchivs aber auch in entscheidendem Maße von der Qualität der einzelnen archivierten Zeitschnitte ab, da auch diese nur in sehr seltenen Ausnahmefällen 1:1 dem Originalangebot entsprechen werden. 3 Die Bestimmung bzw. Überprüfung der Qualität eines Zeitschnitts läuft daher in der Regel auf die wiederkehrende Beantwortung der Frage hinaus, wie gut gut genug ist oder welche Qualität einer Kopie für eine Aufnahme ins Archiv akzeptabel erscheint. 4 Als Anhaltspunkte für diese Form der Qualitätskontrolle lassen sich folgende, sich teilweise überschneidende Kriterien heranziehen: Vollständigkeit der zentralen Inhalte, Konsistenz, Funktionalität, Erhalt des Look and Feel. 5 Diese Qualitätskontrolle geschieht normalerweise nur im Kontext der selektiven Webarchivierung, beim sogenannten Domain Harvesting ist angesichts der dabei entstehenden Datenmengen eine Überprüfung der Qualität einzelner Archivkopien nicht möglich. 1 Vgl. u.a. Bingham, Nicola: Quality Assurance Paradigms in Web Archiving Pre and Post Legal Deposit. In: Alexandria 25/I-II (2014), S , und Reyes Ayala, Brenda; Phillips, Mark E.; Ko, Lauren: Current Quality Assurance Practices in Web Archiving. Web Archiving Project Verfügbar unter (Letzter Zugriff am ). 2 Vgl. Beinert, Tobias; Schoger, Astrid: Vernachlässigte Pflicht oder Sammlung aus Leidenschaft? Zum Stand der Webarchivierung in deutschen Bibliotheken. In: ZfBB 62 (2015), Nr.3/4, S , S. 175 ff. 3 Vgl. zu den grundsätzlichen Zielen, Grenzen und technischen Einschränkungen der Webarchivierung die Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, verfügbar unter: von Webseiten_WCT.pdf, S. 3,7. Zu den häufigsten Gründen für Unvollständigkeit von Archiven siehe Reyes Ayala, a.a.o., S.3, und (Letzter Zugriff am ). 4 Vgl. britishlibrary.typepad.co.uk/webarchive/2012/10/how-good-is-good-enough-quality-assurance-of-harvestedweb-resources.html (Letzter Zugriff am ) und Reyes Ayala, a.a.o., S Vgl. ausführlich zu den einzelnen Kriterien Kapitel
4 Auf internationaler Ebene kommt eine aktuelle Umfrage zu der Erkenntnis, dass diese Form der nachträglichen Qualitätskontrolle im Kontext der Webarchivierung bislang vornehmlich manuell und wenig automatisiert erfolgt und insgesamt noch mäßig dokumentiert ist, sodass noch kaum Best-Practice- Beispiele, messbare Qualitätskriterien und Metriken dazu entwickelt wurden, die sich ohne weiteres nachnutzen ließen. 6 Im Rahmen des Projekts Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen das am Referat Digitale Bibliothek/Münchener Digitalisierungszentrum der Bayerischen Staatsbibliothek durchgeführt wurde, lag der Fokus auf einer vorwiegend intellektuellen Qualitätskontrolle aller geharvesteten Zeitschnitte. Die zur Verfügung stehenden Möglichkeiten der Qualitätskontrolle und verbesserung mit dem im Projekt eingesetzten Web Curator Tool konnten ausführlich dokumentiert werden. Sie stehen als Handreichung für die Community zum freien Download zur Verfügung. 7 Die Qualitätskontrolle erwies sich in vielen Fällen als ein sehr aufwändiger und langwieriger Prozess, der ein Nachjustieren bzw. eine Nachbearbeitung sowie ein einzelfallbezogenes Abwägen bzw. eine Kompromissfindung erforderlich machte. Eine ausführliche Darstellung und Bewertung des Prozesses findet sich in einem separat vorgelegten Erfahrungsbericht. 8 Sowohl die oben genannte Umfrage als auch der Erfahrungsbericht belegen, dass die intellektuelle Qualitätskontrolle unabhängig von der eingesetzten Software ein zeit- und ressourcenaufwändiger, schlecht skalierender Prozess ist, der von geschultem, erfahrenem und IT-affinem Personal durchgeführt werden sollte. 9 Nachdem für die Webarchivierung in vielen Institutionen nach wie vor wenig Mitarbeiter zur Verfügung stehen und ein geringerer Personaleinsatz in der Qualitätssicherung ggf. einen höheren Personaleinsatz für die Auswahl archivierungswürdiger Websites ermöglicht d.h. geringere Qualität ggf. mit einer größeren Quantität im Archivbestand einhergeht, ist zu überlegen, wie der Aufwand für die Qualitätssicherung allgemein und die Qualitätskontrolle der Zeitschnitte im Besonderen richtig dosiert werden kann. Dazu sollen im Folgenden Anhaltspunkte gegeben und Überlegungen angestellt werden, wie der Prozess der Qualitätssicherung allgemein in der Webarchivierung grundsätzlich abgestuft gestaltet werden und so der Ressourceneinsatz angepasst an die jeweiligen institutionellen Rahmenbedingungen optimiert werden kann. Dabei werden vor allem die Möglichkeiten im Rahmen der nachträglichen Qualitätskontrolle betrachtet, das entsprechende Verfahren lässt sich wie folgt definieren: [ ] the process of examining the characteristics of websites captured by harvesting software before making a decision as to whether a website has been successfully captured to become a valid archival copy. 10 Zusätzlich werden auch die Möglichkeiten der Qualitätssicherung im Vorfeld der Durchführung eines Harvests betrachtet. 2. Bestimmung von Preservation Levels Eine grundsätzliche Maßnahme, die bereits bei der Konzeption der Webarchivierung in einer Einrichtung vorgenommen werden kann, ist die Festlegung von so genannten Preservation Levels. Die Preservation Level werden hier für die Bewertung der Bedeutung der zu archivierenden Websites im Kontext der jeweiligen Sammlung eingesetzt. Diese können als Grundlage für einen abgestuften Ressourceneinsatz bei der Qualitätssicherung herangezogen werden und so zur Priorisierung des 6 Vgl. Reyes Ayala, a.a.o., S Vgl. die Handbücher Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o. und Ausführliche Anleitung zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool verfügbar unter: Projekt_Webarchivierung/Anleitung_Qualitaetskontrolle_WCT.pdf. (Letzter Zugriff am ). 8 Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, verfügbar unter: Projekt_Webarchivierung/Webarchivierung_Qualitaet_und_Prozessoptimierung.pdf (Letzter Zugriff am ). 9 Vgl. Reyes Ayala, a.a.o. S. 3 u.19, und Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o., S Bingham, a.a.o., S
5 Personaleinsatzes beitragen. Entsprechend dem zugewiesenen Preservation Level wird anteilsmäßig mehr oder weniger Zeit in die Qualitätssicherung investiert (vgl. dazu Kapitel 4.2.). Da jede Institution diese Preservation Level nach ihren eigenen Rahmenbedingungen (z.b. rechtliche Verpflichtungen, Sammelprofil, Nutzeranforderungen) festlegen muss, werden im Folgenden exemplarisch drei Preservation Level dargestellt, wie sie für die Webarchivierung an der Bayerischen Staatsbibliothek zukünftig gestaltet werden können. Technische Gesichtspunkte bleiben dabei zunächst außen vor, entscheidend ist die inhaltliche Einordnung eines Webangebots durch den zuständigen fachlichen Koordinator. Preservation Level Qualitätsanspruch Was fällt darunter? Preservation Level 1 Hoch Websites aus dem Pflichtzugang (amtliche Veröffentlichungen) und Bavarica Preservation Level 2 Mittel Websites aus dem Bereich der Sammelschwerpunkte Preservation Level 3 Niedrig Weitere Websites mit wissenschaftlicher Relevanz Tabelle 1: Exemplarische Festlegung von Preservation Level 3. Qualitätssicherung bei der Auswahl Die Erkenntnisse des Projektes Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen beim retrospektiven Harvesting der in Academic Linkshare erschlossenen Internetressourcen haben gezeigt, dass bereits bei der Auswahl der zu archivierenden Websites bzw. bei der Festlegung der Parameter für einen Crawl wichtige Entscheidungen getroffen werden, die die Qualität der Archivkopie sowie den Aufwand für die Prüfung maßgeblich beeinflussen können. Dies betrifft zum einen das für die inhaltliche Auswahl der zu archivierenden Websites verantwortliche Personal, das in kurzen Schulungen dafür sensibilisiert wurde, welche Formen von Internetressourcen grundsätzlich für die Webarchivierung geeignet sind und welche technischen Einschränkungen dabei zu beachten sind 11, und das darauf hingewiesen wurde, dass die Archivierung normalerweise nicht auf der Ebene von Einzeldokumenten oder Webpages (Unterseiten) erfolgen sollte. Damit konnte der nachträgliche Arbeitsaufwand für den Ausschluss ungeeigneter Webangebote wie auch das Bearbeiten unbefriedigender Ergebnisse eines Crawls bereits im Vorfeld reduziert werden. Auch die technisch verantwortlichen Mitarbeiter (Crawl Engineers), die in der Regel Start und Durchführung der Crawls übernehmen, können durch präventive Maßnahmen den Aufwand für die nachträgliche Qualitätskontrolle eindämmen. Dazu zählen die Anpassung der Crawlereinstellungen vor der Durchführung des ersten Crawls oder das Browsen im Liveangebot zur Identifizierung problematischer Inhalte wie z.b. Multimediadateien, JavaScript, Flash oder Crawler Traps. Ebenso können Linkchecker wie Xenu s Link Sleuth eingesetzt werden, um im Vorfeld versteckte Links (z.b. zu Stylesheets) zu ermitteln, die dem Crawler zusätzlich mitgegeben werden können, damit bereits der erste Crawl ein möglichst hohes Maß an Vollständigkeit aufweist. 12 Eine weitere interessante Option ist die Nutzung des Online-Tools ArchiveReady ( das anhand der Kriterien Accessibility, Cohesion, Metadata und Standards Compliance die Archivierbarkeit von Websites automatisiert bewertet. Wird hier vorab ein schlechter Gesamtwert für eine zur Archivierung vorgesehene Website ermittelt, kann dies für den Crawl Engineer ein Anhaltspunkt für eine weitere Inspektion der Website, eine präventive Anpassung des Crawlers oder den Verzicht auf die Archivierung sein. Ein erster Praxisreport für das Tool liegt seitens des Literaturarchivs Marbach vor. 13 Ebenso kann die Frequenz der Zeitschnitterstellung zur Aufwandssteuerung eingesetzt werden: Die Frequenz sollte immer auf den Charakter der Website abgestimmt sein, die Archivierung eines Online- 11 Vgl. Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o., S. 3 u. 7, und Leitfaden zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, a.a.o., S Vgl. Reyes Ayala, a.a.o., S Vgl. Fritz, Steffen: Praxisreport. Verfahren zur Evaluierung der Archivierbarkeit von Webobjekten. In: ABI Technik 35/II (2015), S
6 Nachrichtenportals sollte idealerweise mindestens täglich durchgeführt werden, bei einer weitgehend statischen Website reicht hingegen ein jährlicher Rhythmus. Grundsätzlich wird in vielen Institutionen beim selektiven Harvesting viertel- oder halbjährlich ein Zeitschnitt einer Website archiviert. Das Vergrößern des Zeitabstands zwischen zwei Crawls bietet natürlich die Möglichkeit, die Zahl der Zeitschnitte und damit auch den Aufwand für die Qualitätssicherung zu reduzieren. Dies kann abgestuft nach Preservation Level erfolgen. 4. Nachträgliche Qualitätskontrolle 4.1 Qualitätsmerkmale eines Zeitschnitts Da die Archivkopien einer Website in der Regel nicht zu 100 Prozent dem Liveangebot entsprechen werden, haben sich in der Praxis vieler Institutionen zentrale Qualitätsmerkmale herauskristallisiert, die Anhaltspunkte zur Bewertung der Archivierungswürdigkeit eines Zeitschnitts im Rahmen der nachträglichen Qualitätskontrolle geben. Für archivierte Websites lassen sich in Anlehnung an die Konzepte der British Library 14 und des New York Art Resources Consortium 15 sowie der eigenen Erfahrungen vier zentrale Qualitätsmerkmale benennen: a) Vollständigkeit der zentralen Inhalte: Sind alle von den fachlichen Koordinatoren für inhaltlich wichtig befundenen Dokumente zugänglich, ggf. auch nicht im Original-Design (z.b. Fehlen von Images) oder nicht über alle Funktionalitäten des Originalangebots (z.b. nur über eine alphabetische Liste nicht über eine Suche)? So wird beispielsweise bei der Qualitätskontrolle eines Zeitschnitts einer amtlichen Website besonderes Augenmerk darauf gelegt, dass z.b. alle Veröffentlichungen im PDF- Format erfolgreich geharvestet werden konnten, während z.b. ein Fehlen von Videodateien als akzeptabel eingestuft wird. Die Ermittlung der Vollständigkeit eines Zeitschnitts erfolgt im Wesentlichen durch die Analyse der Logfiles des Harvestingstools, in der Regel ergänzt durch eine visuelle Kontrolle. b) Konsistenz: Inwieweit sind die Inhalte und ihre Verknüpfungen innerhalb des Originalangebots im Archiv enthalten? Wurden die unterschiedlichen Teile der Website innerhalb des gleichen Zeitraums archiviert (zeitliche Kohärenz) oder gibt es hier Abweichungen? Wurden zudem ungewollt externe Inhalte mitarchiviert? c) Erhalt der Funktionalität: In welchem Maß funktionieren die Navigation, der Zugang über ein Kalendarium oder eine interaktive Karte, die Wiedergabe, die Suchfunktionalitäten etc. innerhalb des zu archivierenden Zeitschnitts in gleicher Weise wie beim Originalangebot? d) Erhalt des Look and Feel: Entspricht die archivierte Ansicht derjenigen der Originalwebsite, können z.b. alle Images, Multimediadateien, Schriften und Stylesheets 16 auch im für die Nutzer zugänglichen Viewer der OpenWayback angezeigt werden? Hier kommt es durchaus vor, dass bestimmte Inhalte und Dateien zwar in einem Zeitschnitt vorhanden sind, derzeit aber aufgrund der Limitationen des eingesetzten Viewers nicht angezeigt werden können, ggf. aber zukünftig in weiterentwickelten Präsentationsformen darstellbar sind. Daher ist es wichtig, sich nicht auf eine rein visuelle Kontrolle zu beschränken, sondern in den zur Verfügung stehenden Logfiles das Vorhandensein aller Dateien zu überprüfen. In den meisten Fällen wird ein absolut originalgetreuer Erhalt des Look and Feel nicht möglich sein, da viele Websites heute via Mash-Ups eingebundene Inhalte (z.b. von YouTube, Twitter oder Googlemaps) aufweisen. Dabei ist der Prozess der Qualitätskontrolle grundsätzlich eine Annäherung an ein bestmögliches Ergebnis, da es in der Regel nicht möglich ist, mit den derzeit verfügbaren Crawlern die genannten Merkmale zu 100 Prozent zu erfüllen. 17 Er ist zudem einzelfallbezogen, d.h. die Archivierbarkeit der heute sehr heterogen gestalteten Webangebote sind jeweils aufgrund ihrer spezifischen Charakteristika zu bewerten und entziehen sich einer Qualitätskontrolle mit eindeutigen und harten Kriterien. Generell teilt die BSB hier daher auch die von anderen Institutionen vertretene, eher 14 Vgl. (Letzter Zugriff am ). 15 Vgl. (Letzter Zugriff am ). 16 a.a.o. 17 Vgl. zu den Grenzen der Webarchivierung die Ausführliche Anleitung für die Archivierung von Websites mit der Software Web Curator Tool, a.a.o. S. 3,7. 6
7 pragmatische Ansicht: [ ] an imperfect copy is better than no copy. 18 Die Ablehnung eines Zeitschnitts erfolgt derzeit nur, wenn die zentralen Inhalte nicht in das digitale Archiv übernommen werden können. Problematisch an der in Form eines Annäherungsprozesses durchgeführten Qualitätskontrolle ist die Tendenz, dass bei einer zu sorgfältigen Kontrolle und dem Nachjustieren bzw. der mehrmaligen Wiederholung eines Crawls zur Korrektur des Archivierungsergebnisses, teilweise erheblicher zeitlicher Mehraufwand entsteht, der letztlich aber nicht bzw. nur zu minimalen Verbesserungen führt. Im Rahmen der von der Bayerischen Staatsbibliothek durchgeführten Machbarkeitsstudie erwies sich die nachträgliche Qualitätskontrolle daher zum einen als der ressourcenintensivste Schritt im Prozess der Webarchivierung, zum anderen aber auch als der Schritt, der sich am schwersten zeitlich eingrenzen ließ. 19 Um den Ressourcenaufwand dennoch überschau- bzw. kontrollierbar zu halten, werden im Folgenden Überlegungen angestellt, wie einzelne Aspekte bzw. Teilschritte der Qualitätskontrolle in abgestufter Form gestaltet werden können und sich diese Abstufungen anhand der unterschiedlichen Preservation Level in der Praxis umsetzen lassen könnten Abstufungen der nachträglichen Qualitätskontrolle Anhand der vorliegenden ausführlichen Beschreibungen der Qualitätskontrolle 20 und des Erfahrungsberichts 21 konnten die unter angeführten Parameter als Stellschrauben identifiziert werden, anhand derer es grundsätzlich möglich ist, den Aufwand zu verringern. Gleichzeitig bedeutet ein verminderter Ressourceneinsatz in der Qualitätskontrolle, dass in diesem Annäherungsprozess an ein bestmöglichstes Resultat natürlich in der Regel ein weniger zufriedenstellendes Ergebnis erreicht werden wird Gewichtung der Qualitätsmerkmale Je nach Auftrag und Zielen eines Webarchivs als Ganzes bzw. festgelegtem Preservation Level für Teilsammlungen kann den Qualitätsmerkmalen eine unterschiedliche Priorität zugewiesen werden. Während für Websites mit einem hohen Preservation Level für alle vier oben genannten Merkmale ein hoher Anspruch verfolgt wird, könnte bei einem niedrig eingestuften Angebot z.b. das Merkmal des Look and Feel aus der qualitativen Bewertung gänzlich ausgeblendet werden. Für die Bayerische Staatsbibliothek ist das Qualitätsmerkmal der Vollständigkeit der zentralen Inhalte, in der Regel in Form von Textdokumenten, grundsätzlich hoch zu gewichten. Der Erhalt der Darstellung und Funktionalität einer Archivkopie fließen in den Bewertungsprozess hingegen für Objekte mit einem bestimmten Preservation Level nur mit einer niedrigeren Priorität ein. Andere Webarchive, die z.b. künstlerische Angebote oder Webliteratur sichern wollen, werden sicherlich die Kriterien Look and Feel sowie Funktionalität höher gewichten Parameter der Qualitätskontrolle eines Zeitschnitts Weitere Abstufungsmöglichkeiten ergeben sich aus den einzelnen Prozessschritten der Qualitätskontrolle eines Zeitschnitts, auf die ggf. verzichtet werden kann: a) Verzicht auf visuelle Kontrolle: Ein Prozessschritt, der im Rahmen der Bewertung der Qualität eines Zeitschnittes ggf. ebenfalls wegfallen kann, ist die visuelle Inspektion einer Archivkopie im Viewer. Das hieße, eine Überprüfung würde nur anhand der vom Crawler ausgelieferten Log-Files vorgenommen, die in der Regel ohnehin den ersten Schritt der Qualitätskontrolle bildet, ggf. ist hier auch eine weitere Beschränkung auf den so genannten Crawl Log sinnvoll. Dies bietet sich insbesondere an, wenn eine niedrigere Priorität für die Qualitätsmerkmale Funktionalität und Look and Feel definiert wurde. 18 Bingham, a.a.o., S Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o., S. 9f. 20 Vgl. Ausführliche Anleitung zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool, a.a.o. 21 Vgl. Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o. 7
8 b) Verzicht auf Vergleich mit der Live-Website: Ebenso kann der oftmals durchgeführte visuelle und funktionelle Abgleich eines Zeitschnitts mit dem Originalangebot entfallen, wenn eine entsprechend niedrigere Gewichtung gewählt wurde. c) Beschränkung auf Teilbereiche einer Website: Eine weitere Möglichkeit, den Aufwand zu reduzieren ist es, generell nur für bestimmte Elemente (z.b. die Startseite, PDF-Dateien) bzw. nur bis zu bestimmten (Unter-)ebenen einer Website eine Qualitätsüberprüfung durchzuführen. d) Festlegung eines zeitlichen Richtwerts für die Qualitätskontrolle: Schließlich bietet es sich an, für die Kontrolle von einzelnen Zeitschnitten grundsätzlich eine maximale Dauer festzulegen, ggf. auch mit abgestuften Zeitwerten, je nach Preservation Level. Nach Ablauf dieser Zeitspanne ist eine Entscheidung über die Archivierungstauglichkeit des Zeitschnitts verbindlich zu treffen. e) Frequenz der Kontrolle der Zeitschnitte: Es könnte ein Umstieg von einer vollständigen Qualitätskontrolle für alle Zeitschnitte auf ein Stichprobenverfahren angedacht werden. So ist beispielsweise denkbar, dass generell nur jeder zweite Zeitschnitt einer Website oder aber auch nur zufällig ausgewählte Zeitschnitte aus dem gesamten Archiv einer Qualitätsüberprüfung zugeführt werden. Ebenso könnte auf eine ausführliche Kontrolle eines Zeitschnitts verzichtet werden, wenn die Logdateien nur geringe Änderungen (z.b. bei der Anzahl der Dateien) im Vergleich zum vorhergehenden Crawl aufweisen Parameter bei der Verbesserung und Wiederholung des Crawls In sehr vielen Fällen wird derzeit ein Crawl ein- oder sogar mehrmals wiederholt, um durch veränderte Parameter ein verbessertes Ergebnis zu erreichen. Hier ließe sich beispielsweise eine maximale Anzahl an Wiederholungen definieren. Ebenso könnte auf die Wiederholung eines Crawls verzichtet werden, wenn die standardmäßig gesetzten Obergrenzen (Anzahl URLs, Datenvolumen) erreicht werden. Als Sonderfall ließe sich ein vollständiger Verzicht auf Wiederholung des Crawls festlegen: Für Websites mit einem bestimmten Preservation Level wird festgelegt, dass lediglich der bereits erstellte Zeitschnitt bearbeitet werden darf. Dort können ggf. noch ungewollt kopierte Inhalte ausgeschnitten werden und ggf. weitere URLs für zukünftige Crawls ergänzt werden, der Crawl für den aktuellen Zeitschnitt wird jedoch nicht wiederholt. Eine weitere Möglichkeit um die Ergebnisse eines Crawls zu verbessern, ist der Einsatz eines alternativen Crawlers (z.b. Umbra 22 oder WebRecorder.io 23 ), um mit Heritrix nicht zu erreichende Inhalte archivieren zu können. Dieser bislang von der Bayerischen Staatsbibliothek noch nicht praktizierte Ansatz bietet sich vor allem für interaktiv gestaltete Seiten und Inhalte aus sozialen Netzwerken mit einer hohen Erhaltungspriorität an. Einige Institutionen archivieren bereits zusätzlich zu den im WARC-Container gespeicherten Daten eines Crawls auch Screenshots von ausgewählten Teilen oder sogar Screencasts einer Website (z.b. der Startseite). 24 Dies ist vor allen in Fällen zu empfehlen, in denen großer Wert auf die Dokumentation der optischen Präsentation einer Website gelegt wird oder aber die Inhalte einer Website zu einem bestimmten Zeitpunkt authentisch zu dokumentieren sind. 5. Exemplarische Anwendung der Preservation Level Im Folgenden wird anhand der oben beschriebenen Preservation Level exemplarisch ein abgestuftes Raster für den Prozess Qualitätssicherung in der Webarchivierung an der Bayerischen Staatsbibliothek skizziert. 25 Dies ist natürlich für jede Institution je nach Auftrag, Sammlungszielen, Nutzerbedarf und Ressourcenlage individuell anzupassen, eine Abstimmung mit den inhaltlich für die 22 Vgl. (Letzter Zugriff am ). 23 Vgl. (Letzter Zugriff am ). 24 Vgl. z.b. und Fritz, Steffen: Von Spidern und Baggern: Tools im Projekt Netzliteratur, verfügbar unter: (Letzter Zugriff am ). 25 Vgl. zu den von der Bayerischen Staatsbibliothek gesammelten Zeiterfahrungswerten für die einzelnen Prozessschritte: Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen, a.a.o. 8
9 Sammlung verantwortlichen Personen sollte aber in jedem Falle vorgenommen werden. Zudem kann die Veröffentlichung eines derartigen Rasters auch die Transparenz gegenüber den Nutzern erhöhen und offenlegen, mit welchen Maßstäben welche Inhalte von Websites gesichert werden und so auch Lücken und Fehler in einem Webarchiv nach Außen nachvollziehbar machen. Prozessschritt QS PL 1 (hoch) PL 2 (mittel) PL 3 niedrig Frequenz der Zeitschnitte Halbjährlich Halbjährlich Halbjährlich Frequenz der Kontrolle Alle Alle Alle der Zeitschnitte Gewichtung der Qualitätsmerkmale Größtmögliche Qualität für alle vier Merkmale anzustreben Größtmögliche Qualität für Vollständigkeit der zentralen Inhalte und Konsistenz anzustreben, Funktionalität und Look and Feel mit geringerer Priorität Vollständigkeit der zentralen Inhalte und Konsistenz der Inhalte wichtig, Erhalt von Funktionalität und Look and Feel vernachlässigbar Verzicht auf visuelle Nein Nein Ja Kontrolle Verzicht auf Vergleich mit Nein Ja Ja der Live-Website Beschränkung auf Nein Nein Nein Teilbereiche einer Website Festlegung eines 30 Minuten 15 Minuten 8 Minuten Zeitlimits für die Qualitätssicherung Wiederholungen des Max. 3 Max. 1 Wiederholung Keine Wiederholung Crawles limitieren Wiederholungen Einsatz eines weiteren Nein Nein Nein Crawlers Ergänzung eines Crawls durch Screenshots/ Screencasts Nein Nein Nein Tabelle 2: Exemplarische Anwendung der Preservation Level 6. Fazit Insgesamt ist der Prozess der Qualitätssicherung bei der Webarchivierung derzeit noch schwer fassund standardisierbar. Die angestellten Überlegungen sollen einen Beitrag dazu leisten, anderen mit dieser Aufgabe befassten Institutionen unabhängig von den eingesetzten technischen Lösungen aufzuzeigen, mit welchen Parametern sich dieser Prozess im Kontext des selektiven Harvestings grundsätzlich strukturieren ließe und wie der Ressourceneinsatz besser kontrolliert werden kann. Zudem erhöht ein dokumentiertes Vorgehen bei der Qualitätssicherung die Transparenz bezüglich der Entstehung, Entwicklung und Qualität der Bestände gegenüber den Nutzern. Dies ermöglicht es ihnen, dieses Wissen in eine Nutzung der Archivbestände einfließen zu lassen. Es ist davon auszugehen, dass die Thematik der Qualitätssicherung die in der Webarchivierung aktiven Einrichtungen auch in den kommenden Jahren weiter beschäftigen wird, insbesondere wenn das Ziel einer Ausweitung der Nutzung von Webarchiven erreicht werden kann. In den letzten Jahren wurden erste Tools zur automatisierten bzw. semiautomatischen Qualitätskontrolle von Zeitschnitten entwickelt. 26 Allerdings scheinen diese bislang in der Praxis noch einen eher begrenzte Aufnahme erfahren zu haben, genutzt werden vor allem Reporting-Tools (z.b.für Crawl-Logs) und vorgefertigte Software zur allgemeinen Analyse von Websites (z.b. Xenu Link Sleuth, PhantomJS, and HTTPFox). 27 Der von Bingham vorgeschlagene Ansatz, verstärkt Nutzerrückmeldungen zur Qualität 26 Vgl. Bingham, a.a.o., S Vgl. Reyes Ayala, a.a.o., S. 8. 9
10 von Zeitschnitten zu sammeln und zu dokumentieren 28, ist eine weitere für die Zukunft zu berücksichtigende Option. 7. Literatur Bingham, Nicola: Quality Assurance Paradigms in Web Archiving Pre and Post Legal Deposit. In: Alexandria 25/I-II (2014), S Bragg, Molly / Kristine, Hanna: The web archiving life cycle model. Archive-It Team Online unter (Letzter Zugriff am ). Brügger, Niels: Archiving Websites. General Considerations and Strategies. Århus Online unter (Letzter Zugriff am ). Fritz, Steffen: Praxisreport. Verfahren zur Evaluierung der Archivierbarkeit von Webobjekten. In: ABI Technik 35/II (2015), S Fritz, Steffen: Von Spidern und Baggern: Tools im Projekt Netzliteratur, verfügbar unter: (Letzter Zugriff am ). Reyes Ayala Brenda; Phillips, Mark E.; Ko, Lauren: Current Quality Assurance Practices in Web Archiving. Web Archiving Project Online unter (Letzter Zugriff am ). 28 Vgl. Bingham, a.a.o., S
11 Anlage: Glossar zur Webarchivierung Archivierungsbewilligung Die Zustimmung des Inhabers der Nutzungsrechte einer Website zur Erstellung von Kopien, zur Archivierung und Zugänglichmachung der Archivkopien Synonym: Archivierungsgenehmigung, Genehmigung Archivierungsgenehmigung Siehe: Archivierungsbewilligung Crawl/ing Im Kontext der Webarchivierung synonym verwendet mit Harvest/ing Siehe: Harvest/ing. Crawl Engineer Ein im Themenbereich Webarchivierung erfahrener Experte, der für die Steuerung der Harvest-Prozesse, die Konfiguration der Webcrawler und die Qualitätskontrolle der Zeitschnitte verantwortlich ist. Crawler Siehe: Webcrawler Crawler Trap Verbund von Webpages, der bewirken kann, dass ein Webcrawler in einer Dauerschleife von Abfragen hängenbleibt oder sogar abstürzt. Oftmals vorsätzlich eingesetzt um Spambots zu behindern, kann eine Crawler Trap auch unabsichtlich durch dynamische Inhalte, wie z.b. Kalenderabfragen, verursacht werden. Genehmigung Siehe: Archivierungsbewilligung Harvest Authorisation Datensatz im Web Curator Tool für die Berechtigung zum Harvest und zur Archivierung einer Website, der aufgrund einer erteilten Archivierungsbewilligung angelegt wird. Harvest/ing 1. Technischer Vorgang zur Erstellung von Kopien einer Website bzw. eines definierten Ausschnitts des Webs mit Hilfe eines Webcrawlers. 2. Ergebnis dieses Vorgangs. Es wird unterschieden zwischen einem Domain Harvesting, das das gesamte Webangebot einer Domain (z.b. *.de) umfasst, dem selektiven Harvesting, das nur ausgewählte Websites speichert und dem sogenannten Event Harvesting, das Internetangebote zu einem bestimmten Ereignis (z.b. Bundestagswahl 2009) archiviert. Synonym: Crawl/ing Harvester Siehe: Webcrawler Heritrix Ein Open Source Webcrawler der speziell für die Archivierung von Websites vom Internet Archive entwickelt wurde. Heritrix ist der am häufigsten eingesetzte Webcrawler für die Webarchivierung und ist 11
12 Langzeitarchivierung OpenWayback Preservation Level Qualitätskontrolle Qualitätssicherung Schedule/r Seed Stylesheet Target Target Instance Teil verschiedener Tools zur Steuerung der Webarchivierung u.a. dem Web Curator Tool. Organisatorische und technische Maßnahmen zum Erhalt von Information in digitaler Form. Dies beinhaltet die Gewährleistung des Langzeiterhalts, der Langzeitverfügbarkeit sowie der Interpretierbarkeit digitaler Objekte zum Zwecke der Nutzung durch eine bestimmte Zielgruppe. Dabei bedeutet Langzeit: über Veränderungen in der Technik (Soft- und Hardware) und in der Zielgruppe hinweg (z.b. für künftige Generationen, auf unbegrenzte Zeit). Siehe: Wayback Mehrstufiges System zur Bewertung der Relevanz eines Objekts für die Langzeitarchivierung im Kontext der Sammlung. Die Bewertungen können auf inhaltlichen (z.b. Bavarica), rechtlichen (z.b. Pflichtzugang) bzw. formalen (z.b. Blogs) Kriterien beruhen. Überprüfung eines Harvests hinsichtlich der Kriterien: Vollständigkeit der zentralen Inhalte, Konsistenz, Erhalt der Funktionalität und Erhalt des Look and Feel vor der Freigabe zur Archivierung. Alle Maßnahmen zur Erzielung einer möglichst hohen Qualität bei der Langzeitarchivierung von Websites. Die Qualitätssicherung umfasst organisatorische und technische Maßnahmen z.b. die Festlegung von Preservation Levels, Analysen einer Website vor dem ersten Harvesting sowie die Überprüfungen im Rahmen der Qualitätskontrolle. Zeitplan zum erstmaligen und / oder wiederholten Harvest einer Website Eine URL, die einem Webcrawler als Startpunkt für das Erfassen von Inhalten vorgegeben wird. Teil einer Website, der für die Darstellung der Information zuständig ist. Ein Stylesheet interpretiert strukturierte Daten (in HTML, XHTML) und formatiert sie für die Bildschirmausgabe, die Ausgabe auf mobilen Geräten bzw. den Druck entsprechend der vorgegebenen Regeln. Datensatz, der die zu harvestende und zu archivierende Website im Web Curator Tool beschreibt. Dieser Datensatz enthält u.a. den Namen der Website, URLs, Schedule, ggf. weitere spezifische Parameter für den Webcrawler, eine Verknüpfung zur Harvest Authorisation. Datensatz im Web Curator Tool für einen erfolgten Harvest- Prozess. Dieser umfasst das Ergebnis des Harvest, verschiedene 12
13 URI URL WARC Wayback Web Curator Tool Webarchivierung Webcrawler Webharvest/ing Webpage Website Zeitschnitt Logfiles sowie weitere administrative Metadaten. Uniform Resource Identifier, identifiziert abstrakte oder physische Ressourcen wie z.b. Websites, Dateien, Webservices, - Adressen usw. im Internet. Uniform Resource Locator, eine Unterart der URI, identifiziert und lokalisiert eine Ressource über das verwendete Netzwerkprotokoll (beispielsweise HTTP oder FTP) und den Ort (engl. location) der Ressource in Computernetzwerken. Containerformat für die Speicherung von Ergebnissen des Harvest-Prozesses, enthält neben den Inhaltsdaten auch langzeitarchivierungsrelevante Metadaten. (ISO 28500:2009) Vom Internet Archive entwickelte Open-Source Software zur Darstellung von Zeitschnitten archivierter Websites. Sie wird unter dem Namen OpenWayback vom International Internet Preservation Consortium weiterentwickelt und gepflegt. Open-Source Tool für die Steuerung von Arbeitsprozessen der selektiven Webarchivierung: Einholen der Archivierungsbewilligung, Anlegen und Verwalten der Targets, Qualitätskontrolle und Freigabe der Target Instances für die Archivierung. Vorgang, einen definierten Ausschnitt des Web in systematischer Form zu kopieren, zu archivieren und auf Dauer zugänglich zu machen. Computerprogramm, das automatisch das Web durchsucht indem es Websites analysiert und enthaltene Verknüpfungen verfolgt. Eine Sonderform der Webcrawler sind Harvester (für Erntemaschine ), die die Inhalte der gefundenen Webpages möglichst vollständig herunterladen und speichern. Im Kontext der Webarchivierung werden diese aber synonym verwendet. Synonym: Crawler, Harvester Siehe: Harvest/ing. Ressource im Web, welche Text, Bilder, Audios, Videos und andere Objekte beinhalten kann, die von einem Webserver angeboten wird und mit einem Browser unter Angabe einer URL abgerufen werden kann. Sie ist Bestandteil einer Website. Inhaltlich und technisch abgrenzbare Sammlung zusammengehöriger, verknüpfter Webpages. Eine Website wird auf einem oder mehreren Host-Rechnern (Servern) gespeichert und in der Regel unter einer URL bereitgestellt. Kopie einer Website, die zu einem bestimmten Zeitpunkt von ei- 13
14 nem Crawler erstellt wurde. 14
Langzeitarchivierung von Websites durch Gedächtnisinstitutionen - Lessons learned -
Langzeitarchivierung von Websites durch Gedächtnisinstitutionen - Lessons learned - Tobias Beinert, Bayerische Staatsbibliothek München, 10.03.2016 Der Ansatz der Bayerischen Staatsbibliothek Selektives
MehrAusführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT)
Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT) Stand: 09.03.2016 Ioannis Charalambakis, Tobias Beinert 1 Inhalt Inhalt... 2 Einleitung... 3 Ziele
MehrKlaus Kempf. Elektronische Pflichtablieferung für Amtsdruckschriften an der Bayerischen Staatsbibliothek
Klaus Kempf Elektronische Pflichtablieferung für Amtsdruckschriften an der Bayerischen Staatsbibliothek Frühjahrstagung der Kommission für Landesbibliotheken Salzburg, 17. und 18. Mai 2018 Der Auftrag
MehrWebarchivierung im BSZ mit Archive-It
Webarchivierung im BSZ mit Archive-It 107. Bibliothekartag Renate Hannemann 13.06.2018 Webarchivierung = Archivierung von Websites Websites sind digitale Informations- und Publikationsplattformen sind
MehrWas gehört eigentlich zur Datenübernahme bzw. zum Pre-Ingest bzw. zum Ingest?
Was gehört eigentlich zur Datenübernahme bzw. zum Pre-Ingest bzw. zum Ingest? Tobias Beinert nestor for newbies 13.10.2016 Open Archival Information System (OAIS) Informationsübernahme By caveman (via
MehrWebarchivierung im BSZ. Dr. Barbara Löhle Bibliotheksservice-Zentrum Baden-Württemberg Göppingen, 2. Mai 2012
Webarchivierung im BSZ Dr. Barbara Löhle Bibliotheksservice-Zentrum Baden-Württemberg Göppingen, 2. Mai 2012 Inhalt Webarchivierung im BSZ als Teil der Langzeitarchivierung mittels SWBcontent SWBcontent
MehrVon Spidern und Baggern
Von Spidern und Baggern Tools im Projekt Netzliteratur Steffen Fritz 01.12.2015 Steffen Fritz Von Spidern und Baggern 01.12.2015 1 / 31 Allgemein Werke Anzahl: 50 Zeitraum: 1995-2012 Typen: Hypertext,
MehrAnsätze zur Konzeptionierung der Langzeitarchivierung in Museen und Archiven
Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen und Archiven Karsten Huth, Bundesarchiv Köln, 21.11.2008 Dinge, die es nicht gibt Die provisorische Lösung Dinge, die es gibt Erste Schritte
MehrWebarchivierung an der SUB Hamburg: Ziele, Erfahrungen, Perspektiven
Webarchivierung an der SUB Hamburg: Ziele, Erfahrungen, Perspektiven Edgar Schumacher Staats- und Universitätsbibliothek Hamburg - Carl von Ossietzky 10. 03. 2016 2 Webarchivierung an der SUB Hamburg -
MehrAnsätze zur Konzeptionierung der Langzeitarchivierung in Museen
Ansätze zur Konzeptionierung der Langzeitarchivierung in Museen Karsten Huth, Bundesarchiv Leipzig, 2.3.2009 Dinge, die es nicht gibt Die provisorische Lösung Dinge, die es gibt Erste Schritte eines Konzepts
MehrWas ARNE alles gelernt hat!
Was ARNE alles gelernt hat! Drei Jahre Webarchivierung beim Deutschen Bundestag Vortrag auf der Tagung des Arbeitskreises Archivierung von Unterlagen aus digitalen Systemen Frühjahrstagung der Fachgruppe
MehrHerausforderungen bei der Langzeitverfügbarkeit von
Tobias Steinke Herausforderungen bei der Langzeitverfügbarkeit von Webarchiven 1 10 Herausforderungen bei der Langzeitverfügbarkeit von Webarchiven 20. März 2012 Inhaltsverzeichnis 1. Digitale Langzeitarchivierung
MehrLangzeitarchivierungsmetadaten. in Rosetta
Langzeitarchivierungsmetadaten in Rosetta Tobias Beinert, Bayerische Staatsbibliothek 06.06.2018 Langzeitarchivierung an der BSB Ab 2004: Aufbau des Bibliothekarischen Archivierungs- und Bereitstellungssystems
MehrNetzliteratur authentisch archivieren und verfügbar machen
Netzliteratur authentisch archivieren und verfügbar machen Stephanie Kuch, M.A. Die Archivierung des Web als Mittel des digitalen Bestandsaufbaus: Eine Standortbestimmung, Workshop der Bayerischen Staatsbibliothek
MehrNutzerverwaltung. Dokumentenversion Webtrekk GmbH
Nutzerverwaltung Dokumentenversion 2.0 2014 Webtrekk GmbH Inhaltsverzeichnis 1 Funktionen der Nutzerverwaltung 2 Nutzer 3 Nutzergruppe 4 Nutzerrolle 5 Zuordnung von Nutzergruppe und Nutzerrolle 6 Elemente
MehrDieser Artikel ist ein Auszug aus dem nestor Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung
Herausgeber: Heike Neuroth Hans Liegmann Achim Oßwald Regine Scheffel Mathias Jehn Im Auftrag von: nestor Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland
MehrDIN Information und Dokumentation Kriterien für vertrauenswürdige digitale Langzeitarchive. Astrid Schoger
DIN 31644 Information und Dokumentation Kriterien für vertrauenswürdige digitale Langzeitarchive Astrid Schoger Einige Prämissen Ein digitales Langzeitarchiv ist vertrauenswürdig: wenn es gemäß seinen
MehrAnwendertreffen SWBcontent WLB Stuttgart. Renate Hannemann, Dr. Barbara Löhle, Stefan Wolf
Anwendertreffen SWBcontent 16.11.2011 WLB Stuttgart Renate Hannemann, Dr. Barbara Löhle, Stefan Wolf Inhalt Integration von Heritrix Qualitätssicherung bei der Migration der HTTrack Daten nach WARC 2 Integration
MehrErfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen
Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen Stand: 20.04.2016 Ioannis Charalambakis, Tobias Beinert, Marcus Bitzl, Astrid Schoger 1
Mehr38. Benutzerverwaltung
38. Benutzerverwaltung Stellen Sie Standard-Variablen für jeden Benutzer individuell ein. Begrenzen Sie den Zugang für einzelne Benutzer zeitlich, z.b. für Praktikanten. Legen Sie fest, wie HVO2go und
MehrHerausgeber. Im Auftrag von. Kontakt. Heike Neuroth Hans Liegmann ( ) Achim Oßwald Regine Scheffel Mathias Jehn Stefan Strathmann
Herausgeber Heike Neuroth Hans Liegmann ( ) Achim Oßwald Regine Scheffel Mathias Jehn Stefan Strathmann Im Auftrag von nestor Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler
MehrTobias Steinke. Webarchivierung als internationale Aufgabe
Tobias Steinke Webarchivierung als internationale Aufgabe 1 9 Webarchivierung als internationale Aufgabe 25. Juni 2015 Inhaltsverzeichnis 1. Das Web als internationales Medium 2. Webarchive weltweit 3.
MehrMärz Leitfaden zur Einbindung von Inhalten der Berufsberatung auf Schulwebseiten
März 2018 Leitfaden zur Einbindung von Inhalten der Berufsberatung auf Schulwebseiten Impressum Bundesagentur für Arbeit Zentrale Geschäftsbereich Arbeitsmarkt Produktentwicklung Berufsberatung Regensburger
MehrWarum digitalisieren Kulturinstitutionen? Strategien und Aspekte digitaler Bewahrung und Vermittlung am Beispiel der Österreichischen Mediathek
Warum digitalisieren Kulturinstitutionen? Strategien und Aspekte digitaler Bewahrung und Vermittlung am Beispiel der Österreichischen Mediathek Archiv / Sammlung Medienarchive sind eine Mischung zwischen
MehrFachverfahren Webarchivierung : Geschäftsmodelle und ihre Unterstützung durch die Software SWBcontent
Fachverfahren Webarchivierung : Geschäftsmodelle und ihre Unterstützung durch die Software SWBcontent Stefan Wolf, BSZ nestor Praktikertag 2014 Hannover Geschäftsmodell was ist denn das? Wikipedia: Ein
MehrLangzeitarchivierungs-Policy der Deutschen Nationalbibliothek
Langzeitarchivierungs-Policy der Deutschen Nationalbibliothek Version 1.0 Stand: 15.2.2013 Im Auftrag der Deutschen Nationalbibliothek verantwortlich für das Dokument: Sabine Schrimpf und Tobias Steinke
MehrStrategien und Massnahmen der Schweizerischen Nationalbibliothek zur Langzeiterhaltung digitaler Daten
Strategien und Massnahmen der Schweizerischen Nationalbibliothek zur Langzeiterhaltung digitaler Daten Berner Architekten-Treffen, 11. März 2011 Hansueli Locher Schweizerische Nationalbibliothek hansueli.locher@nb.admin.ch
Mehredoc Nutzerschulungen 2007
edoc Nutzerschulungen 2007 in München, edoc Support This work is licensed under a Creative Commons Attribution 2.0 Germany License http://creativecommons.org/licenses/by/2.0/de/ Agenda Modul 1: Publikationsdatenmanagement
MehrMöglichkeiten der - Archivierung für Exchange Server im Vergleich
1 5 Möglichkeiten der E-Mail- Archivierung für Exchange Server im Vergleich Mit Microsoft Exchange Server bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung
MehrFotos, Videos und Audios nicht öffentlich bereitstellen
HANDLUNGSANLEITUNG Fotos, Videos und Audios nicht öffentlich bereitstellen In der Vor- und Nachbereitung und während der Seminararbeit den Seminarteilnehmenden Fotos, Videos, Audios oder Textdokumente
MehrAblieferungspflicht für Netzpublikationen
Ablieferungspflicht für Netzpublikationen BONSAI - Tagung DIPF Deutsches Institut für Internationale Pädagogische Forschung - IZ Bildung Berlin - Berlin, d. 17.11.2008 Tzvetelin Nojarov nojarov@bbf.dipf.de
MehrSuchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten?
Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Search Engine Marketing SEA SEM = Search Engine Marketing Suchmaschinen-Marketing umfasst alle Maßnahmen zur Gewinnung von qualifizierten
MehrPraxiswissen Qualitätsmanagement. Interpretation der Anforderungen
Praxiswissen Qualitätsmanagement Interpretation der Anforderungen Die DIN EN 15224:2012 Praxiswissen Qualitätsmanagement Interpretation der Anforderungen Die DIN EN 15224:2012 Autoren: Dr. Christian Bamberg,
MehrMoodle-Kurs - Einführung
Moodle-Kurs - Einführung In Moodle-Kursen stellen Sie Online-Lerninhalte zur Verfügung. Kursformate THEMEN-Format: Der Kurs kann in 1 bis 52 nummerierte Abschnitte eingeteilt werden, die jeweils mit Arbeitsunterlagen
MehrSammlung von Netzpublikationen an der Deutschen Nationalbibliothek
Sammlung von Netzpublikationen an der Deutschen Nationalbibliothek Gesetz über die Deutsche Nationalbibliothek, Pflichtablieferungsverordnung Sammelrichtlinien 1 Workshop "Langzeitarchivierung von Netzliteratur"
MehrFormatvalidierung bei Forschungsdaten: Wann und wozu?
Formatvalidierung bei Forschungsdaten: Wann und wozu? 106. Deutscher Bibliothekartag Frankfurt am Main, 1. Juni 2017 Dr. Matthias Töwe, ETH-Bibliothek, ETH Zürich M. Töwe 01.06.2017 1 Überblick Formatidentifizierung
MehrEinführung in die Langzeitarchivierung
Einführung in die Langzeitarchivierung Dr. Katharina Ernst Erhaltung und Zugänglichkeit auf Dauer Folie 2 Digitale Information hält ewig oder fünf Jahre lang, je nachdem, was zuerst kommt (Jeff Rothenberg)
MehrAnleitung für die Managementbewertung
Anleitung für die Managementbewertung Managementbewertung 1 bedeutet: die Apothekenleitung analysiert jährlich die Unternehmenssituation ( funktioniert unser QM-System? ) und trifft dann auf Basis der
MehrAutomatische Langzeitarchivierung
Automatische Langzeitarchivierung für die Digitalisierung mit Goobi Andreas Romeyke, Dr. H. Berthold, C. Beissert, J. Sachse, Fotos mit freundlicher Genehmigung von Jörg Sachse Sächsische Landesbibliothek,
MehrCheckliste: Konfiguration eines Datenraums nach einem Upgrade von Brainloop Secure Dataroom von Version 8.10 auf 8.20
Checkliste: Konfiguration eines Datenraums nach einem Upgrade von Brainloop Secure Dataroom von Version 8.10 auf 8.20 Diese Checkliste hilft Ihnen bei der Überprüfung Ihrer individuellen Datenraum-Konfiguration
MehrWebarchiv Schweiz. verbindet Kompetenzen, Ressourcen und Websites. Barbara Signori 27. Mai 2013
Webarchiv Schweiz verbindet Kompetenzen, Ressourcen und Websites 27. Mai 2013 Inhalt Kompetenzen Ressourcen Websites 2 Was ist das Webarchiv Schweiz? eine Sammlung von relevanten Websites mit Bezug zur
MehrÜBUNG. Einführung in das IT-Projektmanagement Dr. The Anh Vuong WS 2016/17. Thema... 2 Projekt Struktur... 3 AUFGABEN... 5
ÜBUNG Einführung in das IT-Projektmanagement Dr. The Anh Vuong WS 2016/17 Einleitung zur Projektarbeit Thema... 2 Projekt Struktur... 3 AUFGABEN... 5 2016 by Dr. The Anh Vuong Seite 1 Thema Beschluss der
MehrHamburgisches Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze
HmbGGbM Hamburgisches Gesetz zur Gleichstellung behinderter Menschen und zur Änderung anderer Gesetze Vom 21. März 2005 HmbGVBl. Nr. 10, Dienstag, den 29. März 2005 S.75 79 4 Barrierefreiheit Barrierefrei
MehrAufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent. München, BSB, Stefan Wolf BSZ Baden-Württemberg
Aufgabenteilung und Partnerschaft bei der Webarchivierung mit SWBcontent München, BSB, 10.03.2016 Stefan Wolf BSZ Baden-Württemberg Damit fing alles an: Workshop "Langzeitverfügbarkeit digitaler Dokumente"
MehrV-Modell XT im Unternehmen "light" einführen?
V-Modell XT im Unternehmen "light" einführen? VMEA-Tagung, 08.11.2018, Siegburg Wolfgang Kranz BK Training 81739 München Kosegartenpl. 9 Tel. +49 89 606003-01 Fax -02 mobil: +49 172 8488200 E-Mail: kranz.w@gmx.de
MehrEinrichtung der Google AdWords-Schnittstelle in Webtrekk
Einrichtung der Google AdWords-Schnittstelle in Webtrekk Inhalt 1 Allgemein...3 2 Was ermöglicht die Schnittstelle?...3 3 Was ist über die Schnittstelle erfassbar?...3 4 Vertaggung der finalen URLs in
MehrPreservation Planning im Digitalen Archiv Österreich. Hannes Kulovits
Preservation Planning im Digitalen Archiv Österreich Hannes Kulovits 11.3.2015 Agenda Preservation Planning/Operations Synchronisation mit AIS Showcase Agenda Preservation Planning/Operations Synchronisation
MehrSWBregio. Handreichung. (Stand: )
SWBregio Handreichung (Stand: 10.06.2016) Suche Suchen + Browsen: ohne Login Editieren: mit Login Suche: links- + rechts trunkiert 2 Erweiterte Suche Einfach ausprobieren! 3 Browsen Liste der Dokumentarten
MehrArvato Systems Signer Guide für DocuSign
Arvato Systems Gütersloh, Juni 2017 Inhaltsverzeichnis 1 Benutzerleitfaden zur Unterzeichnung mit DocuSign... 3 2 E-Mail-Benachrichtigung empfangen... 3 3 Dokument prüfen und signieren... 5 4 Weitere Optionen...
MehrDie vorliegende Anleitung zeigt Ihnen auf, wie Sie s in Ihrem Postfach löschen oder archivieren können. hslu.ch/helpdesk
IT Services Support Werftestrasse 4, Postfach 2969, CH-6002 Luzern T +41 41 228 21 21 hslu.ch/helpdesk, informatikhotline@hslu.ch Luzern, 24. Mai 2017 Seite 1/9 Archivierung mit Outlook 2016 (Windows)
MehrDatenaufbereitung im Vorfeld der Übernahme ins Archiv: Beispiel für einen Pre-Ingest-Workflow
Datenaufbereitung im Vorfeld der Übernahme ins Archiv: Beispiel für einen Pre-Ingest-Workflow Franziska Schwab Frankfurt a. M., 13. Oktober 2016 Nestor for Newbies Agenda mit Hintergrundgrafik 1. Digitale
MehrGenerierung einer Whitelist (Positivliste) von Internetressourcen auf Basis bestehender Linksammlungen
Generierung einer Whitelist (Positivliste) von Internetressourcen auf Basis bestehender Linksammlungen Stand: 20.07.2010 Bearbeiter: joerg.simanowski@uni-rostock.de Der Zugang von Rechnern der Universitätsbibliothek
MehrMigration von Windows
Migration von Windows auf elux RP4 Kurzanleitung Stand 2016-04-08 1. Voraussetzungen 2 2. Migrationsprozess 3 3. Optionale Parameter 4 4. Beispiele für den Aufruf von win2elux 5 2016 Unicon Software Entwicklungs-
MehrMindManager 11 für Mac eröffnet neue Möglichkeiten zur visuellen Erfassung, Verarbeitung und Weitergabe von Wissen
MindManager 11 für Mac eröffnet neue Möglichkeiten zur visuellen Erfassung, Verarbeitung und Weitergabe von Wissen und ist die robusteste, flexibelste und benutzerfreundlichste Version der weltweit leistungsstärksten
MehrFragenkatalog 2 CAF-Gütesiegel - Fragenkatalog für den CAF-Aktionsplan (Verbesserungsplan)
Fragenkatalog 2 CAF-Gütesiegel - Fragenkatalog für den CAF-Aktionsplan (Verbesserungsplan) Der Fragenkatalog deckt die Schritte sieben bis neun ab, die in den Leitlinien zur Verbesserung von Organisationen
Mehr1 PDF-Standards PDF/X Standards PDF/A Standards Erstellung einer PDF/A-1b Datei mit InDesign CS6... 2
I Inhaltsverzeichnis I Inhaltsverzeichnis 1 PDF-Standards... 1 1.1 PDF/X Standards... 1 1.2 PDF/A Standards... 1 2 Erstellung einer PDF/A-1b Datei mit InDesign CS6... 2 3 Erstellung einer PDF/X Datei mit
MehrNutzen und Eigenschaften eines integrierten Prozessmodells (ipm)
Nutzen und Eigenschaften eines integrierten Prozessmodells (ipm) Voraussetzungen im Unternehmen - Das Unternehmen will seine Marktposition festigen oder ausbauen. - Das Unternehmen verpflichtet sich zur
MehrWebarchivierung Workshop am Parlaments- und Parteiarchive
Webarchivierung Workshop am 20.03.2012 Parlaments- und Parteiarchive Aufgabenspektrum und Anforderungsprofile Dr. Renate Höpfinger 1. Sammlungsprofil, Sammelauftrag und Nutzergruppe a. Parlamentsarchive:
MehrSemTalk Services Stand: September 2015
SemTalk Services Stand: Was sind SemTalk Services? Navigation, Suche, Kommentierung, Reporting und andere Funktionalitäten über eine große Menge von Prozessen, Objekten und Dokumenten in veröffentlichten
MehrAusgabe der Veranstaltungen
12 Ausgabe der Veranstaltungen Mit dem Veranstaltungsmodul können Sie Veranstaltungen auf gewünschten Seiten Ihrer Website intergrieren und ausgeben lassen. 2.1 Ausgabe von Veranstaltungen Klicken Sie
MehrSuchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten?
Suchmaschinenoptimierung (SEO) Die Grundlagen was Sie wissen sollten? Search Engine Marketing SEM = Search Engine Marketing SEA SEO Suchmaschinen-Marketing umfasst alle Maßnahmen zur Gewinnung von qualifizierten
Mehr5 KSWD Wiesbaden. Der URN-Service. der Deutschen Nationalbibliothek. Uta Ackermann, Deutsche Nationalbibliothek 1 5 KSWD
5 KSWD Wiesbaden Der URN-Service der Deutschen Nationalbibliothek Uta Ackermann, Deutsche Nationalbibliothek 1 Überblick 1. Persistent Identifier in der DNB 2. Struktur und Funktion der URN 3. URN-Service
MehrMigration von Windows
Migration von Windows auf elux RP5 Kurzanleitung Stand 2016-04-08 1. Voraussetzungen 2 2. Migrationsprozess 3 3. Optionale Parameter 4 4. Beispiele für den Aufruf von win2elux 5 2016 Unicon Software Entwicklungs-
MehrRADAR. ABLAGE & NACHNUTZUNG von FORSCHUNGSDATEN. Dr. Angelina Kraft. Technische Informationsbibliothek (TIB), Hannover
RADAR ABLAGE & NACHNUTZUNG von FORSCHUNGSDATEN Dr. Angelina Kraft Technische Informationsbibliothek (TIB), Hannover 10.03.2016, Hamburg Agenda Übersicht Zielgruppen Geschäftsmodell Dienstleistungsmodell
MehrKurzanleitung. Zeiterfassung. Version Datum 01/2017 Log. Adatis GmbH & Co. KG Seite 1 von 7
Kurzanleitung Zeiterfassung Version 1.000 Autor Sandra Gilge Datum 01/2017 Log Adatis GmbH & Co. KG Seite 1 von 7 Inhaltsverzeichnis 1. Einleitung 3 2. Mitarbeiter anlegen 3 3. Zeiterfassung aktivieren
MehrDigitalisieren Sie jetzt Ihre Geschäftsprozesse
Digitalisieren Sie jetzt Ihre Geschäftsprozesse Erfolgsfaktoren bei der Einführung eines DMS Transparenz und Nachvollziehbarkeit über alle Geschäftsprozesse hinweg starten Sie jetzt mit Hilfe eines DMS
Mehrwindream 6.5 What s New? windream GmbH, Bochum
windream 6.5 What s New? windream GmbH, Bochum windream GmbH Wasserstr.219 44799 Bochum Stand: 05/2016 6.5.0.1 Alle Rechte vorbehalten. Kein Teil dieser Beschreibung darf in irgendeiner Form (Druck, Fotokopie
MehrPersistent Identifier
Archivierung sozial- und wirtschaftswissenschaftlicher Datenbestände Persistent Identifier Nicole von der Hude, Deutsche Nationalbibliothek 1 Gesetzlicher Auftrag der DNB ursprünglich Deutsche Publikationen
MehrCOPLANER - ERSTE SCHRITTE. Benutzerleitfaden. Verfasserin: Petra Hendrich COPLANER - ERSTE SCHRITTE!... 2 LOGIN UND EIGENE DATEN ÄNDERN!...
COPLANER - ERSTE SCHRITTE Benutzerleitfaden Verfasserin: Petra Hendrich COPLANER - ERSTE SCHRITTE!... 2 LOGIN UND EIGENE DATEN ÄNDERN!... 2 DIE ROLLEN!... 4 DAS LINKE MENÜ!... 5 EINEN TERMIN ANLEGEN:!...
MehrLangzeitarchivierung digitale Bestandserhaltung. Dr. Astrid Schoger, 97. Deutscher Bibliothekartag Mannheim, 03. Juni 2008
Langzeitarchivierung digitale Bestandserhaltung Dr. Astrid Schoger, 97. Deutscher Bibliothekartag Mannheim, 03. Juni 2008 1 Inhalt Langzeitarchivierung: A. Erhaltung des digitalen Bestandes Digitaler Bestand
MehrEinreichung von Abschlussarbeiten
Einreichung von Abschlussarbeiten 1. Ab 1. Dezember 2014 werden die Abschlussarbeiten (wissenschaftliche und künstlerische Diplom- und Masterarbeiten, Dissertationen, Abschlussarbeiten des Universitätslehrganges
MehrSourcing: Partnerwahl mit Excel?
Sourcing: Partnerwahl mit Excel? Keyfacts über Sourcing - Externe Dienstleister können Finanzinstitute deutlich entlasten - Ohne klare Strategie drohen jedoch hohe zusätzliche Kosten - Bestehende Auswahlprozesse
MehrGute-KiTa-Checkliste. Gesetzliche Anforderungen an die Umsetzung des KiTa-Qualitätsund Teilhabeverbesserungsgesetzes in den Ländern
Gute-KiTa-Checkliste Gesetzliche Anforderungen an die Umsetzung des KiTa-Qualitätsund Teilhabeverbesserungsgesetzes in den Ländern Seit dem 1. Januar 2019 sind wesentliche Teile des KiTa-Qualitäts- und
MehrBAS Repository. Uwe Reichel Institute of Phonetics and Speech Processing University of Munich. 31. März CLARIN WORKSHOP 2014: BAS Repository
BAS Repository Institute of Phonetics and Speech Processing University of Munich 31. März 2014 Inhalt Was ist ein Daten-Repository? Wie kommen die Daten ins Repository? Wie kann man auf die Daten zugreifen?
MehrWerkzeuge für die Unterstützung von Autoren und Herausgebern von Open-Access-Publikationen
Humboldt-Universität zu Berlin Jahreskolloquium 16. Mai 2006 Open Access an der Humboldt-Universität Werkzeuge für die Unterstützung von Autoren und Herausgebern von Open-Access-Publikationen Uwe Müller
MehrDokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin. - Leitlinien -
Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin - Leitlinien - 1. Allgemeines Der Dokumenten- und Publikationsserver der Alice Salomon Hochschule Berlin bietet Angehörigen der Hochschule
MehrSchulung SWBcontent. Stand 04.10.2011
Schulung SWBcontent Stand 04.10.2011 BOA Baden-Württembergisches Online-Archiv BOA sammelt, erschließt, präsentiert, archiviert Webseiten und Publikationen aus und über Baden-Württemberg Kooperation von
MehrInternetquellen Umgang mit Internetquellen in wissenschaftlichen Arbeiten
Internetquellen Umgang mit Internetquellen in wissenschaftlichen Arbeiten Tobias Bauer Stand: 11. Dezember 2016 Inhaltsverzeichnis 1. Einleitung 1 2. Internetquellen mit dem Internet Archiv 3 3. Einschränkungen
MehrBEST PRACTICE EINRICHTUNG UND VERWENDUNG VON IN PROJEKT PRO
GRUNDSÄTZLICHES Als zentrales Dokumentationsmedium unterstützt PROJEKT PRO alle projektrelevanten Entscheidungen und Übergaben. Für mehr Transparenz, eine effektive Arbeitsweise und Zeitersparnis bei wiederkehrenden
MehrAbgabe amtlicher Veröffentlichungen an Bibliotheken Wege der Ablieferung elektronischer amtlicher Veröffentlichungen
Abgabe amtlicher Veröffentlichungen an Bibliotheken Wege der Ablieferung elektronischer amtlicher Veröffentlichungen Informationsveranstaltung, 7. Juli 2009 BSB 7. Juli 2009 Programm Begrüßung durch den
MehrWas ist neu in ConSol CM?
Was ist neu in ConSol CM? Neue Funktionen und Verbesserungen in Version 6.11.1.1 Februar 2018, Produktmanagement ConSol CM Liebe ConSol-Kunden, liebe ConSol CM-Kunden, wir möchten Ihnen an dieser Stelle
MehrTrainingsmanagement Gutschein Management. Beschreibung
Trainingsmanagement Beschreibung www.dastm.de info@dastm.de 1. Einführung... 2 2. Gutschein Funktionen... 3 2.1. Gutschein Menü... 3 2.2. Gutscheine anlegen... 4 Gutschein Kassenwirksam erfassen... 6 Gutschein
MehrConSol CM/Outlook-Add-in Benutzerhandbuch für das ConSol CM/Outlook-Add-in
Benutzerhandbuch für das Status des Dokuments: Veröffentlicht Version des Dokuments: 1.1 CM/ ist eine geschützte Marke der ConSol Consulting & Solutions Software GmbH Benutzerhandbuch für das Inhalt 1
MehrProgramm e-helvetica
Programm e-helvetica VJBS Jahrestagung 2010, Basel, 11. Juni 2010 Inhalt Schweizerische Nationalbibliothek e-helvetica Persistente Identifikatoren Weiterführende Informationen 2 Schweizerische Nationalbibliothek
MehrModell Bahn Verwaltung. Tutorial. Links. Min. Programm Version 0.65, März w w w. r f n e t. c h 1 / 11
Modell Bahn Verwaltung Tutorial Links Min. Programm Version 0.65, März 2015 Tutorial Version 04.01.2017 rfnet Software w w w. r f n e t. c h 1 / 11 Vorwort... 3 1 Links... 4 1.1 Einführung... 4 1.2 Link
MehrEinschränkung der Sichtbarkeit
Einschränkung der Sichtbarkeit Möchten Sie in speziellen Situationen bestimmte Bilder bei der Suche in der Ergebnismenge ausblenden oder möchten Sie den Nutzern Ihres Webservers nur ganz bestimmte Bilder
MehrArchivierung mit PDF und XPS. Formate, Standards und Prozessabläufe
Archivierung mit PDF und XPS Formate, Standards und Prozessabläufe Dr. Hans Bärfuss PDF Tools AG Winterthur, 8. Mai 2007 Copyright 2007 PDF Tools AG 1 Inhalt Formate Anforderungen an ein Archivformat Ordnung
MehrDatenbank. Didaktischer Kommentar. Lernplattform
Lernplattform Datenbank Didaktischer Kommentar Eine Datenbank ermöglicht den Aufbau und die Darstellung strukturierter Sammlungen von Informationen und Dateien. Datensätze können direkt eingegeben oder
MehrProtokoll RiMEA-Projekt
Datum: 08.02.2005 Ort: per Email Teilnehmer: RiMEA Initiatoren Verfasser: Tim Meyer-König Nathalie Waldau Thema: Beiträge zur Richtlinie 1.6.0 Verteiler: - RiMEA Initiatoren - RiMEA Mitglieder Besprochene
MehrDokumenten Management (DMS)
Uptime Services AG Brauerstrasse 4 CH-8004 Zürich Tel. +41 44 560 76 00 Fax +41 44 560 76 01 www.uptime.ch Dokumenten Management (DMS) Funktionalitäten 27. Dezember 2013 Inhaltsverzeichnis 1 ARTS DMS Option...
MehrRecords im Kontext Kontextualisierung 2.0 mit Matterhorn METS. 19. AUdS-Tagung Wien, Tobias Wildi,
Records im Kontext Kontextualisierung 2.0 mit Matterhorn METS 19. AUdS-Tagung Wien, 10.3.2015 Tobias Wildi, t.wildi@docuteam.ch 1 «Records in Context» Ziel der EGAD bei der Überarbeitung der ICA- Standards:
Mehr2.3 - Das Verwaltungsmodul moveon installieren - SQL-Version
2.3 - Das Verwaltungsmodul moveon installieren - SQL-Version Das Verwaltungsmodul moveon besteht aus zwei Komponenten: dem moveon Client und der moveon Datenbank. Der moveon Client enthält alle Formulare,
MehrDER BESSER INFORMIERTE GEWINNT!
KORAKTOR 4.15 KORAKTOR -SQL Neuigkeiten DER BESSER INFORMIERTE GEWINNT! Stand: 29.08.2007 Dimmel-Software GmbH Internet: www.dimmel.de Wilthener Str. 32 E-Mail: info@dimmel.de 02625 Bautzen Inhaltsverzeichnis
MehrEdoweb 3.0. Open Source-System für das elektronische Pflichtexemplar
Edoweb 3.0 Open Source-System für das elektronische Pflichtexemplar Dr. Andres Quast, Hochschulbibliothekszentrum Nordrhein- Wes
MehrEvaluationskonzept. Pro Personal. Seite Copyright BBJ MEMBER OF THE UNIT CONSULTING GROUP. Copyright BBJ BBJ SERVIS GmbH
Copyright BBJ BBJ SERVIS GmbH Evaluationskonzept Pro Personal Seite 1 Europäischer EUROPÄISCHE Sozialfonds UNION Artikel 6 Innovative Europäischer Maßnahmen Sozialfonds BBJ SERVIS GmbH Beratung, Projektmanagement
MehrSchulung advertzoom. advertzoom Release 2.1 Stand Januar 2012. advertzoom GmbH 2012 1 09.01.2012
Schulung advertzoom advertzoom Release 2.1 Stand Januar 2012 1 Aufbau der Schulung Anwenderschulung Online - Marketing - Kampagnen planen, bereitstellen und analysieren Fortgeschrittene Konfigurieren und
MehrLERNKARTEN / VOKABELTRAINER HANDREICHUNG (STAND: AUGUST 2013)
LERNKARTEN / VOKABELTRAINER HANDREICHUNG (STAND: AUGUST 2013) Seite 2, Lernkarten / Vokabeltrainer Inhalt Die Aktivität auf der Lernplattform anlegen... 3 Die Aktivität Lernkarten auf der Lernplattform...
MehrRisk Assessment Tool. kostenlos frei verfügbar Excel mbt. maschinenbautage. mechtersheimer. mbt / 32. MBT GbR. maschinenbautage.
Risk Assessment Tool kostenlos frei verfügbar Excel 2010 MBT GbR / 32 Warum? Hersteller müssen Risikobeurteilung durchführen KMU benutzen hauptsächlich Excel- Tabellen Software ist (teilweise) unvollständig
MehrWebarchiv Schweiz Einführung
Webarchiv Schweiz Einführung Workshop Sammeln und Erschliessen von landeskundlich relevanten Websites 23. und 30. April 2008 in der Schweizerischen Nationalbibliothek, Bern Barbara Signori Themen Webarchiv
MehrLeistungsbeschreibung CSE Connect
Leistungsbeschreibung CSE Connect 1. Allgemeine Beschreibungen Dräger CSE Connect ist eine Software Lösung zur Optimierung des Freigabeprozesses im Bereich Industrie und Mining. CSE Connect unterstützt
Mehr