Konzeptstudie E-Archiving

Größe: px
Ab Seite anzeigen:

Download "Konzeptstudie E-Archiving"

Transkript

1 Konsortium der Schweizer Hochschulbibliotheken Version 1.2 Zürich, 2005

2 im Auftrag der Schweizerischen Universitätskonferenz Matthias Töwe unter Mitarbeit von Arlette Piguet 2005 Konsortium der Schweizer Hochschulbibliotheken E-Archiving c/o ETH-Bibliothek Rämistrasse 101 CH-8092 Zürich Alle angegebenen Internet-Verknüpfungen ohne Datumsangabe wurden im Dezember 2004 zuletzt überprüft. 2

3 Inhaltsverzeichnis 1. Kurzfassung Ausgangslage Dauerhafter Zugriff auf elektronische Zeitschriften Langzeitarchivierung elektronischer Daten Retrodigitalisierung von Zeitschriften Koordination Dokumentenserver Verteilte Archivierung gedruckter Zeitschriften Institutionalisierung Ausgangslage Allgemeine Situation von E-Medien in Bibliotheken Wachsende Verfügbarkeit Veränderungen im Publikationsverhalten Definition der in der Studie behandelten Dokumenttypen Elektronische Zeitschriften Graue Literatur Digitalisierte Zeitschriften Lizenzen für den Online-Zugriff Print und online E-only bzw. online und Print Inhalt der Lizenzverträge Dauerhafter Zugriff und Archivklauseln Eigenschaften digitaler Objekte Authentizität und Kontrolle Keine Abnutzung bei begrenzter Haltbarkeit Infrastruktur und Abhängigkeiten Dauerhafter Zugriff und Langzeitarchivierung Dauerhafter Zugriff Dauerhafter Zugriff auf lizenzierte Inhalte Dauerhafter Zugriff auf graue Literatur der Hochschulen Langzeitarchivierung digitaler Objekte Alterung von Speichermedien Veralten der Technik (Technological obsolescence) Gedruckte Zeitschriften Retrodigitalisierung Technischer Prozess Nutzen der Digitalisierung Digitalisierung als Massnahme der Bestandeserhaltung? Erhaltung der Digitalisate Technische Fragen: Zugriff Speicherung Oberfläche und Nutzung Authentizität Zugriffskontrolle Schreibzugriff Lesezugriff Dauerhafte Adressierung URN-Schemata Technische Lösungsansätze: Langzeiterhaltung Datenarchäologie Computermuseum Standardformate PDF und PDF/A TIFF (Tagged Image File Format)

4 5.3.3 XML (extensible Markup Language) und andere Auszeichnungssprachen ASCII Migration Emulation Universal Virtual Computer (UVC) Zeitkapseln und Viewpaths Dokumentation, Verzeichnisse und Repositorien Format-Verzeichnisse (Format Registries) Software-Repositorien Bedarf bei den Bibliotheken: Ergebnisse einer Umfrage Zusammenfassung Strategische Fragen für die Hochschulbibliotheken Zukünftige Rolle der Hochschulbibliotheken Vermittlung des Zugangs zu Information Gedächtnisfunktion Open Access und Publikationsdienstleistungen Technisches Know-how Open Source Software Kontrolle Kooperation Eigenleistungen der Bibliotheken Konzept für die Schweiz Vergleich mit internationalen Projekten Ausgangslage in der Schweiz Bibliotheken Hochschulen Konsortium Zielsetzung Gesichtspunkte für die Teilprojekte Dauerhafter Zugriff auf kommerziell erworbene Inhalte Differenzierung der Inhalte Risikoabschätzung und Prioritäten Szenarien für die Sicherung des Zugriffs Fortgesetzter Zugriff beim ursprünglichen Anbieter Eigene lokale oder regionale Installation Zugriff über Drittanbieter Dokumentenlieferung Verlagspolitik Empfehlungen für die Zugangssicherung bei Zeitschriften Langzeitarchivierung Rechtliche Gesichtspunkte der Archivierung Funktionale Konzepte Szenarien für Aufgabenverteilung und Verantwortlichkeiten Kostenhinweise Langzeitarchivierung Langzeitarchivierung von anderen Daten Finanzierungsmodelle Anreize Empfehlungen für die Langzeitarchivierung Verteilte Archivierung gedruckter Zeitschriften Ziele Beispiele Schritte für die Durchführung im Konsortium Empfehlungen für die verteilte Printarchivierung Open Access und Dokumentenserver Offener Zugang zu formal in Zeitschriften publizierten Artikeln (Pre- und Postprint- Archivierung durch den Autor)

5 8.8.2 Publikation von Zeitschriften mit offenem Zugang Allgemeine Dokumentenserver der Hochschulen Empfehlungen Eigene Digitalisierungen Vorgehen Übersicht der Teilprojekte Empfehlungen für die Bibliotheken Lizenzvereinbarungen Klärung des eigenen Auftrages Dokumentation Formate Aktive Kontaktpflege und Akquisition Zentrale Kontrolle im Bibliothekswesen einer Hochschule Dokumentenserver Zusammenfassung der Gesamtstrategie Strategie: Institutionelle Ausrichtung Inhaltliche Strategie Zugriff Erweiterte Zugänglichkeit Archivierung Ausblick Referenzen Weiterführende Literatur Anhang I: Umfrage bei den Bibliotheken Auswertung des Fragebogens Bestand elektronischer Zeitschriften (Abschnitt 4. der Umfrage) E-only-Lizenzierung (Abschnitt 5. der Umfrage) Gedruckte Bestände (Abschnitt 6. der Umfrage) Archivierungsauftrag (Abschnitt 7. der Umfrage) Archivierung gedruckter Zeitschriften (Abschnitt 8. der Umfrage) Langfristiger Zugang zu elektronischen Zeitschriften (Abschnitt 9) Offener Zugang und institutionelle Dokumentenspeicher (Abschnitt 10) Digitalisierung vorhandener Bestände (Abschnitt 11 der Umfrage) Weitere verwandte Projekte oder Massnahmen (Abschnitt 12) Fragebogen mit Antworten Anhang II: DSpace Testinstallation: Ergebnisse Warum DSpace? Durchführung der Tests Ergebnisse Bedienung Struktur Metadaten Skalierbarkeit Suchfunktionen und Indices Weitere Detailprobleme Arbeitsabläufe/Workflow-Konzept Langzeitarchivierung Open Source, Support und weitere Entwicklung Fazit Weiteres Vorgehen Anhang IIIa: Ein Vergleich der Systeme GetInfo, OPUS, MILESS und MyCoRe Anhang IIIb: Ein Vergleich der drei Systeme DSpace, EPrints und CDSWare Anhang IV: Musterformulierungen für Vereinbarungen zur elektronischen Archivierung in den Lizenzverträgen des Konsortiums Einführung Auszüge aus internationalen Muster-Lizenzvereinbarungen

6 16.3 Musterformulierungen für Einzelregelungen Anhang V: Das Umfeld des E-Archiving-Projektes des Konsortiums der Schweizer Hochschulbibliotheken

7 1. Kurzfassung Die vorliegende Studie stellt die grundsätzlichen Herausforderungen der elektronischen Archivierung dar und entwirft ein Gesamtkonzept für die langfristige Behandlung elektronischer Informationsquellen in den Schweizer Hochschulbibliotheken. Sie enthält Vorschläge, wie die Schweizer Hochschulbibliotheken im Hinblick auf bestimmte besonders relevante Dokumenttypen im Rahmen des Projektes E-Archiving von 2005 bis 2007 aktiv werden sollten und ordnet diese Aktivitäten in eine umfassendere Strategie ein. Die Dokumenttypen sind: Inhalte elektronischer Zeitschriften von kommerziellen Anbietern, die durch Bezugsverträge (Abonnement oder Lizenz) erworben wurden. Graue Literatur der Hochschulen (Manuskripte, Hochschulschriften, Lehr- und Lernmaterialien etc.) mit der Perspektive von Open Access. Nachträglich digitalisierte oder noch zu digitalisierende wissenschaftliche Zeitschriften. Wegen des hybriden Charakters der grossen Mehrzahl von Periodika sind auch gedruckte Zeitschriften in die Überlegungen einzubeziehen. Das Arbeitsfeld ist damit im Vergleich zu anderen Projekten sehr breit gesteckt. Die Beziehung der einzelnen Teile untereinander hat sich als sehr fruchtbar erwiesen, da sie alle um die Gesichtspunkte Zugänglichkeit zu wissenschaftlicher Information und langfristige Archivierung gruppiert sind. Es wird auch zukünftig hilfreich sein, keinen der Bereiche ganz aus den Augen zu lassen. Es darf jedoch nicht die Illusion bestehen, dass bei der praktischen Umsetzung alle Einzelteile auch nur annähernd mit gleicher Intensität betrieben werden könnten. 1.1 Ausgangslage Wissenschaftliche Bibliotheken weltweit sind heute hybride Einrichtungen mit umfassenden Angeboten von traditionellen, meist gedruckten Inhalten und von elektronischen Daten. Dies wird auf lange Sicht so bleiben, auch wenn einzelne Produkte nur noch elektronisch erstellt werden und bestimmte Bibliotheken bei Neuanschaffungen mit grossem Nachdruck auf einen Bezug in rein elektronischer Form setzen. Die Studie kommentiert Stärken und Schwächen bestimmter Angebote, soweit diese sich auf das Thema auswirken. Es ist nicht ihr Gegenstand, die Entwicklung hin zu elektronischen Angeboten insgesamt zu bewerten. Dies ist Sache der Bibliotheken im Austausch mit ihren Kundinnen und Kunden. Die Initiative für Veränderungen sollte jedoch nicht den Verlagen und anderen Anbietern überlassen werden, deren Interessen naturgemäss nicht mit denen von Nutzerinnen und Nutzern und Bibliotheken übereinstimmen müssen. Die anerkannte Stärke von wissenschaftlichen Bibliotheken liegt beim Umgang mit Inhalten, ihrer Auswahl, ihrer Erschliessung und ihrer dauerhaften Bereitstellung. Diese sollte der 7

8 Ausgangspunkt für die Ausrichtung des Engagements von Bibliotheken auch bei elektronischen Daten sein. Für ein Konzept zum E-Archiving bedeutet dies, dass der Versuchung zu widerstehen ist, alle Aktivitäten rund um die elektronische Speicherung und Archivierung zur Aufgabe der Bibliotheken zu erklären. Ohne Zweifel müssen Hochschulbibliotheken sich darum kümmern, wie sie den Zugriff auf die von ihnen erworbenen Inhalte sichern und diese langfristig erhalten. Sie müssen aber nicht alle Aufgaben selbst oder gar allein bewältigen. Obwohl die Kosten für Zugriffserhaltung und Archivierung nur geschätzt werden können, besteht Einigkeit, dass Untätigkeit zum jetzigen Zeitpunkt diese Kosten in der Zukunft massiv erhöhen wird. Zudem dürfte im Regelfall das Ergebnis nachträglicher Eingriffe qualitativ schlechter ausfallen als das Resultat rechtzeitiger Massnahmen. Das gesamte Publikations- und Informationswesen befindet sich in dynamischer Entwicklung. Es ist fast sicher, dass nicht alle Entscheidungen, die heute im Hinblick auf die elektronische Archivierung getroffen werden, richtig sind. Zum jetzigen Zeitpunkt ist es darum nötig, auch mit einem gewissen Risiko praktische Erfahrungen zu sammeln, die ein genaueres Urteil erlauben. Mit einiger Wahrscheinlichkeit werden den Bibliotheken sonst bestimmte Entscheidungen über kurz oder lang von aussen aufgezwungen, und zwar nicht zu ihrem Vorteil oder zum Nutzen ihrer Kundinnen und Kunden. Dies gilt ebenso für die Bewegung für den Offenen Zugang zu wissenschaftlicher Information (Open Access): Es gibt viel Optimismus, interessante Experimente, aber auch begründete Zweifel und offene Fragen. Ignorieren lässt sich diese Bewegung jedoch nicht. 1.2 Dauerhafter Zugriff auf elektronische Zeitschriften Die Sicherung des Zugriffs auf Inhalte in elektronischer Form ist das Hauptinteresse der Hochschulbibliotheken und ihrer Benutzerschaft. Sie ist nicht gleichzusetzen mit der Langzeitarchivierung digitaler Objekte. Die Debatte über die Notwendigkeit und die Möglichkeit zur Sicherung des dauerhaften Zugriffs auf elektronische Zeitschriften über das Ende der jeweiligen Lizenzvereinbarungen hinaus wird vor allem im Hinblick auf die spürbare Abhängigkeit von wenigen kommerziellen Grossverlagen dominiert, die die Mehrheit der von den Bibliotheken bereitgestellten Titel liefern. Zu berücksichtigen sind jedoch ebenso zahlreiche mittlere und kleine Verlage, die den Rest des Angebotes hervorbringen. Prinzipielle Möglichkeiten zur Zugriffssicherung sind: Weiterer Zugriff beim Verlag auf die erworbenen Jahrgänge. Spätestens nach Ablauf einiger Jahre wird dieser kostenpflichtig. Lokales Hosting der erworbenen Jahrgänge an mindestens einem Ort in der Schweiz mit dem entsprechenden Betriebsaufwand. Verträge mit Drittanbietern, die auf Basis der früheren Lizenzen einen kostenpflichtigen Zugriff ermöglichen. Bezug über Dokumentenlieferdienste. Keine dieser Lösungen kommt für alle Anbieter oder alle Bibliotheken einzeln in Frage. Es wird mit hoher Sicherheit kombinierte Ansätze aus verschiedenen Richtungen geben müssen. Die längerfristigen Kosten sind dabei ein wesentlicher Aspekt, sie dürfen jedoch 8

9 nicht ohne weitere Überlegung den Ausschlag geben, da die Lösungswege weder gleichwertig noch austauschbar sind. Eigene Printarchive werden im Zusammenhang mit dem Zugriff auf elektronische Inhalte nicht explizit diskutiert. Unter Gesichtspunkten des zeit- und ortsabhängigen Zugriffs bleiben zu viele Wünsche offen, und die gedruckten Exemplare werden nicht als vollwertiger Ersatz für einen verlorenen elektronischen Zugang betrachtet. Selbstverständlich müssen gedruckte Titel dort verfügbar bleiben, wo dies die bevorzugte Nutzungsform ist. Sie sind auf jeden Fall Bestandteil der Langzeitarchivierung. In einem differenzierten Konzept hat das Printarchiv vor allem dort seinen Platz, wo niedrige Nutzungszahlen erwartet werden, die den Aufwand für eine elektronische Bereitstellung nicht rechtfertigen. Dagegen kann es im Bereich von grossen Bibliotheken mit einem bestimmten Versorgungsauftrag einen Zwang geben, die von ihnen erworbenen Inhalte tatsächlich selbst zu speichern und bereitzuhalten. Aus ihrer Sicht ist es problematisch, sich auf die Zusagen Dritter verlassen zu müssen. Sie sehen sich vielmehr in der Pflicht, tatsächlich den Bestand aufzubauen und verfügbar zu halten, der ihrem Auftrag entspricht. In diesem Fall reicht eine simple Abwägung der über die Jahre in der Regel sinkenden Nachfrage gegenüber den anfallenden Kosten für die fortgesetzte elektronische Bereitstellung nicht mehr aus. Es werden darum die folgenden Massnahmen vorgeschlagen (ausführliche Version siehe Kap ): Detailkonzept für ein verteiltes System von (zwei oder) drei Servern, das geeignet ist, kommerzielle Inhalte von Verlagen zu übernehmen und bereitzustellen (inkl. Spiegelung). Vorgesehen ist eine Aufteilung nach Verlagen. Aufbau zunächst eines Servers, nach Möglichkeit noch Ende 2005/Anfang 2006 o o Wo es möglich ist, sollen Anforderungen der Langzeitarchivierung bereits berücksichtigt werden. Definition von Kriterien für die Datenübernahme. Parallele Prüfung der Möglichkeit für die Einbindung von Backfiles. Davon unabhängige Testinstallation von LOCKSS durch interessierte Partner. Anhand der praktischen Umsetzung vertiefte Aufwandsschätzung und Formulierung einer Strategie für die langfristige Trägerschaft. Bei positivem Ergebnis Ergänzung der beiden fehlenden Installationen in 2006/ Langzeitarchivierung elektronischer Daten Die Frage der Langzeitarchivierung betrifft alle digitalen Daten unabhängig von ihrem Ursprung. Technische Prozesse, die zur Lösung vorgeschlagen werden, befinden sich noch im Stadium von Experiment und Forschung. Dementsprechend gibt es keine verlässlichen und allgemein anerkannten Schätzungen zu den Kosten dieser Verfahren. In der Schweiz ist 9

10 bei der Landesbibliothek und dem Bundesarchiv jeweils Hardware beschafft worden, die die Speicherbasis für die Langzeitarchivierung bildet. Die Prozesse, die auf dieser Basis die Aufnahme, Ausgabe und vor allem die Erhaltung der Daten in einem interpretierbaren Zustand ermöglichen, müssen noch entwickelt werden. Ungeachtet der tatsächlichen Zugriffsmöglichkeiten ist zu erwarten, dass die Langzeiterhaltung elektronischer Daten mit nationalem Bezug zukünftig bei praktisch allen Nationalbibliotheken durchgeführt werden wird. Die ausführlichen Empfehlungen befinden sich im Kapitel Bis auf weiteres wird keine eigene Infrastruktur der Hochschulbibliotheken zur Langzeitarchivierung im Sinne der Archivinstallation der SLB aufgebaut. Beim Aufbau eines Systems für die Zugriffssicherung (vgl ) sind die Anforderungen der Langzeitarchivierung zu berücksichtigen. Dies erleichtert die Übernahme in ein Archiv oder die Weiterentwicklung zu einem Archiv. Vertiefung der Kontakte mit der Schweizerischen Landesbibliothek. Prüfung von Möglichkeiten der Zusammenarbeit (konkret z.b. URN-Vergabe, Metadaten, strategische Planung der Erhaltung (Preservation Management) sowie die Entwicklung eines OAIS-konformen Systems bzw. von Komponenten). Hier liegt ein besonderes Interesse der Hochschulbibliotheken bei der Nutzung von Inhalten ( Access im OAIS-Modell, vgl. Kapitel ). Anhand der nationalen und internationalen Erfahrungen vertiefte Aufwandsschätzung für die Optionen (eigenes System, Beteiligung bei Systemen anderer Einrichtungen, Drittanbieter ). 1.4 Retrodigitalisierung von Zeitschriften Bei der nachträglichen Digitalisierung der Inhalte von gedruckt vorliegenden Zeitschriften steht wiederum der Zugriff im Mittelpunkt, da die digitale Form eine erleichterte zeit- und ortsunabhängige Verbreitung erlaubt. Die Retrodigitalisierung ist zunächst kein Mittel der Langzeitarchivierung von Inhalten. Dies wird jedoch zunehmend der Fall sein, wenn vertrauenswürdige Methoden entwickelt werden, um digitale Daten über lange Zeit stabil und lesbar zu erhalten. Im Rahmen dieses Projektes werden Inhalte aus drei mathematischen Zeitschriften digitalisiert. Für die ausführlichen Empfehlungen siehe Kapitel Abschluss der begonnenen Arbeiten zur Online-Bereitstellung der drei Mathematikzeitschriften: L Enseignement Mathématique, Commentarii Mathematici Helvetici, Elemente der Mathematik in Für die dauerhafte Präsentation der digitalisierten Inhalte ist eine Lösung zu finden, die eine Perspektive für die Zeit nach dem Projektende bietet. Auswertung der Ergebnisse und Erfahrungen für eine Nachnutzung in Projekten der Partnerbibliotheken. Unterhalt der gewählten Software, solange Interesse besteht. Im Projekt möglich maximal bis Projektende 2007, danach durch die Partner (Bibliotheken und Herausgeber). 10

11 Insgesamt soll die ressourcenintensive Digitalisierung im Projekt nicht prioritär weitergeführt werden. 1.5 Koordination Dokumentenserver Dokumentenserver der Hochschulen stellen ein Mittel dar, um die Zugänglichkeit und Sichtbarkeit wissenschaftlicher Information zu verbessern. Sie sind ein wichtiges Instrument für beide Konzepte der Open Access-Bewegung. Es sind dies die Selbstarchivierung von Preund Postprints von herkömmlichen Publikationen sowie die Bereitstellung von eigenen Publikationen mit freiem Zugriff. Erst die Gewährleistung der Verfügbarkeit dieser Dokumente über lange Zeit schafft das nötige Vertrauen in diese Publikationsform als Alternative zum traditionellen Modell. Die ausführliche Fassung der Empfehlungen steht im Kapitel Im Jahr 2005 soll mit interessierten Partnern die gemeinsame Nutzung eines Dokumentenservers erprobt werden. Einholen verbindlicher Interessenbekundungen für Metadaten bzw. Inhaltsspeicherung. Es werden Partner gesucht, die den Aufbau aktiv mittragen (Teilnahme an Arbeitsgruppen, Anpassungen am eigenen Server). Es ist zu vereinbaren, welche Daten gespeichert werden sollen. Das betrifft sowohl die inhaltliche Auswahl als auch formale Fragen (welche Metadaten etc.). Die Möglichkeiten zur Zusammenarbeit mit vorhandenen Servern, insbesondere dem des RERO, müssen geprüft werden. Die Nutzung eines kommerziellen Dienstes wird nicht weiterverfolgt. Postprints bieten die beste Aussicht, schnell nennenswerte Zahlen von relevanten Dokumenten zusammenzutragen. Voraussetzung dafür ist, dass parallel zum technischen Aufbau in den einzelnen Bibliotheken Massnahmen vor Ort geplant werden, wie die Autoren lokal an ihrer Hochschule zur Teilnahme motiviert werden können. Die Form der Zusammenarbeit sollte geregelt sein. Dabei ist darauf zu achten, dass Abläufe und Vereinbarungen sich auch für den Fall anpassen lassen, dass nach Projektende keine zentrale Einrichtung mehr besteht. 1.6 Verteilte Archivierung gedruckter Zeitschriften Die verteilte Archivierung gedruckter Zeitschriften ergänzt einerseits die Bemühungen um Versorgungssicherheit, die für die elektronischen Angebote unternommen werden. Andererseits ermöglicht sie es, die Belastung durch die Menge des Materials auf die Partner zu verteilen und schliesslich auch den Bezug von Zeitschriften enger zu koordinieren. Zu den ausführlichen Empfehlungen siehe Kapitel In der zweiten Hälfte des Jahres 2005 sollen erste Schritte gemäss dem Ablauf unter unternommen werden. 11

12 Es soll modellhaft für ein begrenztes Ensemble von gedruckten Zeitschriften (z.b. eines Verlages) die Verteilung der zu archivierenden Titel auf die Bibliotheken erfolgen. Wenn Abbestellungen bereits für 2006 aufgrund einer koordinierten Archivierung möglich sein sollen, dann muss dieser Projektteil entsprechend vorgezogen und zu Lasten anderer Arbeiten prioritär behandelt werden. Hierüber ist zu entscheiden. 1.7 Institutionalisierung Zur Vorbereitung und Umsetzung der in der Studie ausgeführten Massnahmen wird kein Aufbau grundsätzlich neuer Strukturen angestrebt. Die Koordination erfolgt durch das Projektpersonal an der Geschäftsstelle. Technische Installationen werden bei den Konsortialpartnern mit Unterstützung aus dem Projekt eingerichtet oder in Zusammenarbeit mit weiteren Partnern realisiert. Nach Ende der Projektlaufzeit soll in enger Verbindung mit der Geschäftsstelle des Konsortiums eine gewisse Koordination weiterhin gewährleistet werden. Bereits im laufenden Projekt sind Mechanismen für eine inhaltliche Meinungsbildung und Entscheidungsfindung unter den Bibliotheken zu erproben. 12

13 2. Ausgangslage Die Bereitstellung des langfristigen Zugangs zu wissenschaftlicher Information gehört zu den traditionellen Aufgaben von Bibliotheken, die sich mit dem Aufkommen von elektronischen Daten nicht prinzipiell verändert haben. Unabhängig davon, ob es sich bei den bereitgestellten elektronischen Ressourcen um erworbene kommerzielle Verlagspublikationen, um graue Literatur oder um Ergebnisse von Digitalisierungen handelt, müssen die Bibliotheken den langfristigen Zugriff auch auf diese Publikationen sicherstellen sowie deren Lesbarkeit garantieren. Diese neuartigen Aufgaben stellen die wissenschaftlichen Bibliotheken zukünftig vor grosse Herausforderungen. Die bisher weltweit geführten Diskussionen und angestossenen Projekte beweisen, dass sich wissenschaftliche Bibliotheken, Nationalbibliotheken sowie weitere so genannte Gedächtnisorganisationen dieser Herausforderung stellen. 2.1 Allgemeine Situation von E-Medien in Bibliotheken Wachsende Verfügbarkeit Um die grosse Nachfrage der Benutzerinnen und Benutzer nach online abrufbaren Informationen befriedigen zu können, setzen sich wissenschaftliche Bibliotheken seit Jahren intensiv ein für die Bereitstellung eines umfangreichen und qualitativ hochwertigen Angebotes an E-Ressourcen, das parallel oder zusätzlich zu den traditionellen und nach wie vor bedeutenden Beständen in gedruckter Form ausgebaut wurde. So stellen die Bibliotheken Fachdatenbanken, Nachschlagewerke sowie zunehmend mehr E-Journals und elektronische Bücher, sogenannte E-Books, und auch Bilder und Karten online einer definierten Nutzerschaft zur Verfügung. Darüber hinaus wird mit gezielten Digitalisierungsmassnahmen die Zugänglichkeit von bisher nur in gedruckter Form vorliegenden Texten und Bildern verbessert. Personalisierbare Portale sowie eine sinnvolle Verknüpfung der einzelnen Ressourcen helfen den Kundinnen und Kunden, die gewünschten Informationen gezielt aufzufinden. Um die immer kostspieligeren Informationen effizienter und kostengünstiger bereitstellen zu können, haben sich die Bibliotheken bereits vor mehreren Jahren zu Einkaufsgemeinschaften zusammengeschlossen oder bestehende Kooperationsaktivitäten auf die gemeinsame Erwerbung von E-Ressourcen ausgeweitet. Das Konsortium der Schweizer Hochschulbibliotheken erwirbt nun seit über vier Jahren mit Erfolg kooperativ Datenbanken, Nachschlagewerke und elektronische Zeitschriften. Dank einer umfangreichen Zusatzfinanzierung durch den Bund für die Jahre konnte das elektronische Informationsangebot an allen Schweizer Hochschulen und Fachhochschulen erheblich ausgebaut werden. 13

14 2.1.2 Veränderungen im Publikationsverhalten Mit der zunehmenden Nutzung des Internet hat sich das Informations-, Kommunikations- und Publikationsverhalten der Wissenschaftler auf diversen Ebenen stark verändert. Immer mehr Wissenschaftler nutzen das World Wide Web 1 als freie Publikationsplattform. Als Endziel wird gar die Vision formuliert, dass schlussendlich die gesamte Web-Community eine Gemeinschaft von Systemanbietern bildet. Eines der ältesten und erfolgreichsten Beispiele dieser Bewegung für den freien Zugang (Open Access) zu wissenschaftlichen Publikationen ist das E-Print-Archiv von P.H. Ginsparg im Fachbereich Physik 2. Bereits 1991 forderte er die Wissenschaftler in der theoretischen Hochenergiephysik auf, so genannte Preprints, d.h. Manuskripte von Aufsätzen, die noch keinen Begutachtungsprozess durchlaufen haben, im Internet zu veröffentlichen. Die Texte wurden suchbar gemacht und kostenlos weltweit öffentlich zur Verfügung gestellt. Dieser Publikationsweg für die schnelle Verfügbarkeit von wissenschaftlichen Beiträgen wird heute zunehmend von Hochschulen und deren Bibliotheken mit dem Aufbau von Dokumentenservern oder Institutional Repositories verfolgt. Viele Dokumentenserver wurden primär mit dem Ziel der freien Verbreitung von Dissertationen in elektronischer Form aufgebaut. Aufgrund der bekannten Unzufriedenheit mit dem konventionellen Zeitschriftensystem sind Forscher zusätzlich daran interessiert, auf diesem Weg auch weitere Forschungsergebnisse (u. a. Preprints) möglichst schnell und kostenlos über das Internet zur Verfügung stellen zu können. Eine qualitative Aufwertung dieser Publikationswege wird ermöglicht durch die wachsende Offenheit der Verlage für die Verbreitung von Postprints, also von begutachteten Manuskripten über diese Plattformen (vgl. Kap ). Hiermit besteht die Möglichkeit, die Zugänglichkeit und Verbreitung von wissenschaftlichen Inhalten zu verbessern, ohne das gesamte traditionelle Publikationsmodell von vorneherein und gegen den Widerstand von Verlagen in Frage zu stellen. Noch einen Schritt weiter gehen Bestrebungen zur Publikation ganzer Zeitschriften nach den Prinzipien von Open Access (vgl. Kap ). Bibliotheken sind hier vereinzelt bereits aktiv, und es wird grosses Potential für ihren Einsatz gesehen (vgl. z.b. (Halle 2004)). Ob dieses neue Publikationsmodell wie von den Akteuren angestrebt teure Zeitschriften tatsächlich ersetzen und die Kosten der Informationskette bei mindestens gleich bleibender Qualität nachhaltig senken kann, ist zurzeit noch völlig offen. In diesem veränderten Umfeld mit neuen Mitspielern und dem schnellen und permanenten technologischen Wandel stehen auch die Hochschulbibliotheken seit einigen Jahren vor neuen Herausforderungen und Chancen für die nachhaltige Informationsversorgung der Wissenschaftlerinnen, Wissenschaftler und Studierenden. Die zunehmende Abhängigkeit von umfangreichen Infrastruktureinrichtungen ist offensichtlich. Nur mit geeigneten Massnahmen und weiteren Innovationen wird es den Bibliotheken gelingen, die heterogenen Informationsquellen in ein Gesamtangebot zu integrieren und sie möglichst zeit- und ortsunabhängig ihren Zielgruppen auch langfristig zugänglich zu machen. 1 Das World Wide Web stellt genauso genommen lediglich einen Dienst im Internet dar und ist mit diesem nicht synonym. 2 Früher Los Alamos-Preprint-Server, heute ArXiv an der Cornell University: 14

15 Auch wenn die dauerhafte Zugriffssicherung und die langfristige Archivierung digitaler Daten ein bisher ungelöstes Problem darstellt, sollten die Bibliotheken jetzt kooperieren, um mit den knappen Ressourcen die organisatorischen, rechtlichen und technischen Fragen für den langfristigen Zugang und die Archivierung von digitalen Objekten vorzubereiten. Aus diesem Grund darf das E-Archiving Projekt als äusserst bedeutendes Kooperationsprojekt der Schweizer Hochschulbibliotheken für die nachhaltige Informationsversorgung des universitären Bereichs mit elektronischen Informationsressourcen die bezeichnet werden. 2.2 Definition der in der Studie behandelten Dokumenttypen Für die Sicherung von wissenschaftlichen Erkenntnissen ist es essentiell, die Zugänglichkeit und Lesbarkeit von Primärinformationen für kommende Generationen zu bewahren. Bibliotheken und verwandte Einrichtungen können zu diesem Ziel einen Beitrag leisten. Traditionell liegen ihre Kompetenzen im Umgang mit publiziertem Wissen. Für andere Aufgaben (z.b. s) sind weitere Partner prädestiniert, vor allem Archive und Rechenzentren von Hochschulen. Das Projekt E-Archiving des Schweizer Konsortiums beschränkt sich darum auf die folgenden Publikationstypen, die eng mit der bisherigen Arbeit der Geschäftsstelle verknüpft sind: Elektronische Zeitschriften unter Berücksichtigung ihrer gedruckten Pendants Graue Literatur der Hochschulen Digitalisierte Zeitschriften. Die drei Dokumenttypen werden im Folgenden kurz vorgestellt Elektronische Zeitschriften Trotz einiger früherer Experimente mit rein elektronischen Zeitschriften ohne gedrucktes Pendant haben sich etwa in der Mitte der Neunziger Jahre vor allem diejenigen elektronischen Zeitschriften durchgesetzt, die als Parallelpublikationen gedruckter Titel angeboten wurden. Dies war Ausdruck eines gewissen Misstrauens angesichts der Flüchtigkeit des elektronischen Mediums, mehr noch aber eine damit verknüpfte Prestigefrage: Was dauerhaft schwarz auf weiss gedruckt ist, wird als offizieller und als dauerhaft nachprüfbar angesehen. Da ein Nebeneinander von gedruckten und elektronischen Ausgaben dauerhaft kaum tragbar sein dürfte, besteht ein Bedarf dafür, der erfolgreichen elektronischen Version mit Hilfe einer dauerhaften Archivierung auch im Hinblick auf die Verlässlichkeit und Nachprüfbarkeit einen Stellenwert zu verschaffen, der dem gedruckter Zeitschriften vergleichbar ist. Angesichts weitgehend elektronischer Publikationsprozesse war es bereits zu einem Zeitpunkt vor allem eine Frage der Verlagspolitik, ob eine Version als Hauptpublikation gelten sollte (für eine ausführliche Darstellung siehe (Keller 2001)). Diese Frage muss inzwischen angesichts zunehmender inhaltlicher Unterschiede von gedruckter und elektronischer Version wiederum anders beantwortet werden. Dabei betreffen die Unterschiede in aller Regel nicht den Inhalt einzelner Artikel, sondern eine Zeitschrift als Ganzes: Informationen zum Herausgebergremium, Werbung und ähnliches werden häufig nicht in die elektronische Version aufgenommen. Sie sind für die zeitnahe Nutzung durch die jeweilige 15

16 Fachwissenschaft auch nicht nötig, sie werden aber u. U. wichtige Quellen für eine spätere historische Aufarbeitung der heutigen Forschung. Andererseits wird die Online-Version gelegentlich mit Zusatzmaterial angereichert, das die Autoren zur Verfügung gestellt haben. Dies wird allerdings häufig mit Hilfe von Verknüpfungen zu Quellen ausserhalb der eigentlichen Dokumente erreicht. Die entsprechenden Verknüpfungen lassen sich auch in einer Druckversion angeben, wo ihr aktueller Wert aber durch den Medienbruch gemindert ist. Auf längere Sicht kann dann generell nicht mehr von der Funktionsfähigkeit der Verknüpfungen ausgegangen werden, wenn ihr Inhalt nicht zusammen mit dem verweisenden Dokument archiviert wurde. Das Konsortium der Schweizer Hochschulbibliotheken hat mittlerweile mit 15 wissenschaftlichen Verlagen Lizenzverträge für den Zugriff auf die elektronischen Ausgaben der jeweiligen Verlagstitel abgeschlossen. Mittlerweile stehen den Wissenschaftlerinnen und Wissenschaftlern sowie den Studierenden an den Schweizer Hochschulen über die Konsortialverträge rund Titel online am eigenen Arbeitsplatz zur Verfügung (vgl. Tabelle 1). Vor allem auch die kleineren Bibliotheken konnten Dank der Konsortialverträge das eigene, bisher oft nur in gedruckter Form vorhandene Titelangebot vor Ort beträchtlich erweitern. Verlag Zugriff ab Jahrgang Anzahl verfügbare Titel AAAS (American Association for the Advancement of Science) ACS (American Chemical Society) Alle Jahrgänge 34 BioMed Central? 31 Blackwell (Blackwell Synergy) Elsevier (Science Direct) Emerald IOP (Institute of Physics) Alle Jahrgänge 37 JSTOR Alle Jahrgänge 490 Kluwer Academic Publishers Kluwer Law International?? 19 LWW (Lippincott Williams & Wilkins; 120 SAGE (Cambridge Scientific Abstracts)?? 64 NPG (Nature Publishing Group) Springer (Springer LINK) Wiley (Wiley InterScience) Tabelle 1: Im Schweizer Konsortium aktuell lizenzierte elektronische Zeitschriften [Stand Ende 2004]. Solange das Konsortium diese Lizenzen jährlich erneuern kann, ist zumindest nach heutigem Ermessen vor allem für diese Titel und Inhalte das Risiko für den Verlust des 16

17 Zugriffs relativ klein. Ist aber der Zugriff auf einst erworbene Inhalte auch dann noch gesichert, wenn die Lizenz nicht mehr erneuert werden kann? Welche Alternativen bieten sich für die Bibliotheken, wenn der Verlag den Zugriff nach Ablauf einer Lizenz nicht mehr gewährt? Erhalten alle Bibliotheken weiterhin auf alle Titel eines Verlages Zugriff? Wer kann die langfristige Lesbarkeit der Daten garantieren? Diese noch nicht beantworteten Fragen zeigen, dass für die Sicherstellung des Zugriffs auf einst erworbene Inhalte bereits heute Antworten gefunden und Lösungen vorbereitet werden müssen, um schliesslich auch die langfristige Lesbarkeit der Daten angehen zu können. Es drängt sich im vorliegenden Konzept auf, Verlagsangebote zu berücksichtigen, die in den vergangenen Jahren über das Konsortium lizenziert worden sind. Mit einer Lösung für den Zugriff auf die Titel dieser Anbieter kann ein grosser Teil des laufenden Angebotes auch der grösseren Bibliotheken abgesichert werden. Ausserhalb des Konsortiums beziehen alle Bibliotheken Titel von einer mehr oder weniger grossen Zahl von weiteren Verlagen. Hierbei handelt es sich häufig um kleinere Anbieter, deren Publikationen zum Teil dennoch internationale Bedeutung und Verbreitung besitzen sowie um zahlreiche Anbieter mit eher regionaler Bedeutung und Verbreitung (vgl. hierzu auch Kap ). Es sei bereits an dieser Stelle darauf hingewiesen, dass für die Angebote kleiner Verlage die Bedenken noch verstärkt gelten, die bereits allgemein für die Konsortialverlage genannt wurden: Eigene vertrauenswürdige Lösungen für dauerhaften Zugriff oder gar Archivierung sind zum Teil nicht vorhanden und wegen mangelnder Ressourcen auch zukünftig nicht zu erwarten Graue Literatur Die neuen Publikations- und Kommunikationswege für die Verbreitung von Informationen über das Internet sowie die Open Access-Bewegung haben die graue Literatur, d.h. Inhalte die nicht formell veröffentlicht werden, für die Verbreitung von wissenschaftlichen Informationen vermehrt ins Blickfeld gerückt. Mit dem Aufbau von Dokumentenservern haben Hochschulen und Hochschulbibliotheken in den letzten paar Jahren eine erste Grundlage für alternative Publikationsformen geschaffen. Im Sinne der vorliegenden Studie umfasst die graue Literatur zunächst alle Arten von digitalen Dokumenten, die von Angehörigen der Hochschulen produziert werden. Damit sind Habilitationen, Dissertationen und die Manuskripte wissenschaftlicher Artikel ebenso eingeschlossen wie Studienarbeiten und Vorlesungsmaterialien. An dieser Auflistung lassen sich bereits zwei grundlegende Probleme beim Umgang mit grauer Literatur ablesen. Schon bei den wenigen genannten Beispielen erheben sich Fragen nach der Dauerhaftigkeit, die angestrebt oder erwartet wird: Zum Teil sind es aktuelle Arbeitsmaterialien, die im kommenden Semester oder Studienjahr durch eine aktualisierte Form ersetzt werden, zum Teil sind es wissenschaftliche Arbeiten, die dauerhaft überprüfbar bleiben sollen. Damit verbunden ist die noch wichtigere Frage nach der Qualität der Inhalte. Bei der sehr offenen Definition finden sich hier Arbeiten, die eine Qualitätskontrolle durchlaufen haben (Dissertationen und nach Begutachtung akzeptierte Manuskripte (Postprints)), neben solchen, die eine Einzelperson öffentlich macht, ohne dass eine inhaltliche Bewertung durch Dritte erfolgt wäre. 17

18 Die Fragen von Qualität und inhaltlicher Dauerhaftigkeit können nicht durch die elektronische Archivierung beantwortet werden. Es muss vielmehr im Vorwege von den betroffenen Institutionen eine bewusste Entscheidung getroffen werden, welche Materialien in welcher Weise behandelt werden sollen. An mehreren Schweizer Hochschulbibliotheken wurden in den letzten Jahren Dokumentenserver mit mehr oder weniger grossem Erfolg auf- und ausgebaut. Eine Qualitätskontrolle für die Inhalte und die gesicherte Archivierung sind Voraussetzung für ernstzunehmende Open Access -Angebote, an denen vermehrt Interesse aus Wissenschaft und Hochschulleitung besteht. Da nur die Dissertationen in den Auftrag der SLB als Nationalbibliothek (vgl. Projekt e-helvetica ) fallen, soll im Rahmen des E-Archiving Projektes die graue Literatur ebenfalls behandelt werden Digitalisierte Zeitschriften Im Zusammenhang mit der Digitalisierung wird ab und zu die Vision geäussert, alle Bibliotheksinhalte sollten online im Volltext zugänglich gemacht werden. Diese Vorstellung setzt sich sowohl über alle fachlichen Unterschiede hinweg als auch über eine Unterscheidung der sehr verschiedenen Dokumenttypen, die eine Bibliothek ausmachen. Angesichts begrenzter finanzieller Mittel ist in der Realität wohl für sehr lange Zeit davon auszugehen, dass immer Entscheidungen darüber getroffen werden müssen, ob oder zumindest, mit welcher Priorität Dokumente digitalisiert werden sollen. Insbesondere wird zu bewerten sein, ob bei wenig genutzten gedruckten Dokumenten durch eine zusätzliche Online-Bereitstellung wirklich eine intensivere oder wesentlich vereinfachte Nutzung erwartet werden kann oder ob der Inhalt dies gar nicht wahrscheinlich macht. Die Digitalisierung von zurückliegenden Jahrgängen von Zeitschriften ist bisher vor allem von grösseren Verlagen für ihre eigenen Zeitschriftentitel vorgenommen worden. Das Ziel war jeweils, eine verbesserte Zugänglichkeit zu erreichen, um diese Inhalte in neuer Form ein weiteres Mal kommerziell verwerten zu können. Dies geschieht entweder durch separate Lizenzierung der zurückliegenden Jahrgänge ( Backfiles ) oder implizit durch die gesteigerte Attraktivität des Gesamtangebotes in Verbindung mit der Lizenz für aktuelle Jahrgänge. Ohne Aussicht auf solche Bemühungen verbleiben insbesondere Zeitschriften von kleineren Anbietern, bei denen es sich häufig um nicht-kommerzielle Fachgesellschaften handelt. Solche Titel sind unter anderem Gegenstand von gleichfalls nicht-kommerziellen Digitalisierungsprojekten wie JSTOR 3 in den USA oder DIGIZeitschriften 4 in Deutschland. Dabei muss daran erinnert werden, dass solche Projekte trotz einer Anschubfinanzierung aus Projekten (hier: Andrew W. Mellon Foundation bzw. Deutsche Forschungsgemeinschaft DFG) im weiteren Ausbau und Betrieb erhebliche Kosten verursachen. Beide Projekte müssen nach einer Anschubfinanzierung durch Projektmittel für die Nutzung ihrer Angebote Gebühren erheben, um ihr wirtschaftliches Überleben zu sichern. Im Rahmen eines Pilotprojektes wurden drei Titel aus dem Fach Mathematik ausgewählt, die digitalisiert und online einem möglichst breiten Nutzerkreis zur Verfügung gestellt werden sollen (vgl. hierzu Kap. 8.9). 3 JSTOR Journal Storage: 4 DIGIZeitschriften e.v.: 18

19 2.3 Lizenzen für den Online-Zugriff Konsortium der Schweizer Hochschulbibliotheken Verglichen mit Printmedien bieten elektronische Ressourcen einige Vorteile. A. Keller erwähnt als Vorteile von elektronischen Zeitschriften u. a. die orts- und zeitunabhängige Verfügbarkeit, den schnelleren und einfacheren Zugriff sowie die guten Suchmöglichkeiten (Keller 2001). Seit der Einführung von elektronischen Medien ist für die Bibliotheken die Abhängigkeit von der technischen Infrastruktur gewachsen und die Erwerbung aufwendiger geworden. Der bisher übliche Kauf von Medien findet im Bereich von elektronischen Publikationen nur noch selten statt. Vom Anbieter müssen Zugriffs- und Nutzungsrechte erworben werden, die während der Nutzungszeit verwaltet und danach neu ausgehandelt werden müssen. Die Lizenzmodelle für den Erwerb bzw. den Zugriff auf elektronische Medien sind organisatorisch und vertraglich komplex, vor allem wenn im Verbund von mehreren Einrichtungen gehandelt wird. Eine wesentliche Aufgabe der zentralen Geschäftsstelle des Schweizer Konsortiums ist es, geeignete Lizenzverträge für elektronische Ressourcen auszuhandeln, die speziell bei den Volltexten nicht nur die aktuelle, sondern auch die langfristige Zugänglichkeit und die Archivierung von elektronischen Medien für die Schweizer Hochschulbibliotheken gewährleisten. Im Folgenden werden die für Konsortien relevanten Geschäfts- und Lizenzmodelle für elektronische Zeitschriften kurz skizziert, da sie essentielle Grundlage für das langfristige Zugriffsrecht auf einst erworbene Daten darstellen Print und online Mit der gemeinsamen Erwerbung von elektronischen Zeitschriften kann die einzelne Bibliothek das eigene Angebot in der Regel massiv erweitern. Seit Beginn der Konsortialverträge in der Schweiz wurde die Mehrzahl Verträge mit wissenschaftlichen Verlagen, wie etwa Springer, Elsevier oder Wiley, nach folgendem Modell abgeschlossen: Ausgangsbasis für das Kalkulations- und Lizenzmodell bilden alle aktuell oder im Vorjahr laufenden Printabonnements an den einzelnen Institutionen oder genauer: Das in ihnen gebundene Kostenvolumen. In der Regel bestehen enge Beschränkungen oder völlige Verbote für Abbestellungen von Abonnements, die dieses Volumen schmälern. Das Konsortium bezahlt einen bestimmten Aufpreis, je nach Verlag zwischen ca. 8% und 15%, auf das gesamte Kostenvolumen. Dieser Aufpreis ist in geeigneter Weise auf die teilnehmenden lnstitutionen zu verteilen. Damit erhalten alle Konsortialpartner bzw. deren Nutzerschaft Zugriff auf definierte Jahrgänge von allen Titeln, die mindestens ein Mal im Konsortium abonniert sind (cross access). Häufig ist in der Zusatzgebühr auch der so genannte additional access enthalten, d.h. die Partner erhalten Zugriff auf das gesamte Verlagspaket und damit auch auf jene Titel, die bisher keine Bibliothek abonniert hatte. Immer häufiger verlangen die Verlage für den additional access eine Zusatzgebühr. 19

20 2.3.2 E-only bzw. online und Print Immer mehr Verlage bieten die Option an, die Inhalte nur noch in elektronischer Form zu erwerben und hierbei ganz oder teilweise auf die gedruckten Ausgaben zu verzichten. Auch diese Lizenzen werden häufig nach dem oben beschriebenen Modell abgeschlossen. Für den elektronischen Inhalt wird der Preis gegenüber der gedruckten Ausgabe im günstigsten Fall um 10% reduziert. So können beispielsweise beim Verlag Elsevier einzelne Titel zu 90% des Printpreises als E-Only bezogen werden. Die reale Kostenersparnis für die einzelne Bibliothek ist jedoch geringer, da für elektronische Medien eine höhere Mehrwertsteuer abgeführt werden muss als für Printmedien, bei denen der reduzierte Satz gilt. Der zusätzliche Bezug von gedruckten Exemplaren ist zu einem reduzierten Preis möglich Inhalt der Lizenzverträge Zu den Grundangaben in einem Lizenzvertrag zwischen Verlag und der Bibliothek bzw. dem Konsortium gehören u.a. die Definition der Inhalte, die Gegenstand des Vertrages sind, die online verfügbaren Titel, die Vertragsdauer, der zugriffsberechtigte Nutzerkreis, die Nutzungsrechte sowie weitere Rechte und Pflichten der Vertragspartner. Zugriffsberechtigt sind im Allgemeinen die Angehörigen, d.h. das wissenschaftliche Personal sowie die Studierenden der einzelnen Partner sowie die Besucher der jeweiligen Bibliotheken (Campuslizenz). Von Verlag zu Verlag unterschiedlich geregelt ist, ab welchem Jahrgang der Zugriff auf die lizenzierten Titel gewährt wird. Die Grenze wird häufig gezogen zwischen den Jahrgängen , d.h. bei jenen Jahrgängen, ab denen die Titel elektronisch zur Verfügung gestellt wurden. Es existieren jedoch auch andere Regelungen. Die American Chemical Society oder das Institute of Physics beispielsweise gewähren den Zugriff auf ein Rolling File von 10 Jahren. Immer häufiger digitalisieren die Verlage zurückliegende bisher nicht online verfügbare Jahrgänge. Diese müssen aber separat erworben bzw. lizenziert werden. In der Regel wird eine einmalige Gebühr erhoben. Einige Preismodelle sehen zusätzlich eine jährliche, laufende Gebühr vor. Bisher haben nur einzelne Schweizer Hochschulbibliotheken solche Backfiles erworben, und zwar unabhängig vom Konsortium in Einzelverträgen. Der Vollständigkeit halber sollen auch noch die Lizenzmodell für den Titel Science und die Mehrzahl der Titel der Nature Publishing Group erwähnt werden. Hierbei handelt es sich nicht um eigentliche Konsortialmodelle. Die Preise für den Online-Zugriff stehen in Relation zur Grösse der institutionellen Lizenznehmer. Bezahlt wird nach Anzahl der zugriffsberechtigten Nutzerinnen und Nutzer für die von jeder Institution ausgewählten Titel. Hierbei beschränkt sich der Nutzerkreis bei der Mehrzahl der Nature-Titel auf die relevanten Fachgebiete. Diese Gebühren sind unabhängig von den Printabonnements, ein cross und ein additional access wird nicht gewährt. Mit dem gemeinsamen Einkauf profitieren die Bibliotheken von einem Rabatt auf die Gebühr jeder einzelnen Institution Dauerhafter Zugriff und Archivklauseln Nicht nur in der Schweiz, sondern auch weltweit sind die wissenschaftlichen Bibliotheken allerdings zurückhaltend mit dem vollständigen Verzicht auf die parallelen Printausgaben. Ein wesentlicher Grund dafür sind die weltweit mangelnden Erfahrungen hinsichtlich der 20

21 langfristigen Verfügbarkeit und Lesbarkeit elektronischer Inhalte. Hat eine Bibliothek auch dann noch Zugriff auf einst erworbene Inhalte, wenn sie den Lizenzvertrag nicht mehr fortführen kann? Die Bibliotheken versuchen heute, zumindest die wesentlichen Grundlagen für mögliche Zukunftsszenarien in den mit den Verlagen vereinbarten Lizenzverträgen festzuschreiben. Das Einfügen einer so genannten Archivklausel in den Lizenzvereinbarungen für elektronische Zeitschriften ist mittlerweile zum Standard geworden. Internationale Verbände wie ARL 5, ICOLC 6, IFLA 7 oder LIBER 8 haben entsprechende allgemeine Empfehlungen für die Formulierung der Vertragstexte veröffentlicht (vgl. hierzu auch Kapitel 16 (Anhang IV)). Wird der Zugriff auf dieselben Inhalte auch nach Vertragsende vom Verlag gewährt? Ziel der Vereinbarungen mit dem Verlag hinsichtlich des langfristigen Zugriffs ist es, den Bibliotheken ohne grössere Zusatzkosten das Recht für den dauerhaften Zugriff auf die einst erworbenen Daten zu garantieren sowie die Option für die eigene Archivierung offen zu lassen. Eine klare Festlegung der Verantwortlichkeit für die Archivierung und Langzeitverfügbarkeit wird gefordert. Hinsichtlich technischer Spezifikationen, wie beispielsweise dem Lieferformat der Volltexte oder dem formalen Lieferumfang, sind allzu detaillierte Regelungen nicht sinnvoll, da sie für die Zukunft eine Einschränkung bedeuten könnten. Diese Regelungen in den heutigen Lizenzverträgen sollten folgende Fragen beantworten (für weitere Details (vgl. Kap ): 1. Auf welche Inhalte (Titel, Jahrgänge) hat das Konsortium bzw. die einzelne Bibliothek nach Vertragsende langfristig Zugriff? 2. Wird der Zugriff weiterhin über den Verlagsserver gewährt? Falls ja, zu welchen Bedingungen? 3. Liefert der Verlag auf Wunsch die definierten Daten und Metadaten dem Konsortium? Was sind hier die Bedingungen? In den Archivrechten ist in der Regel der in vielen Konsortialverträgen enthaltene cross access und additional access nicht enthalten, d.h. der Zugriff umfasst für die einzelnen Konsortialpartner nur jene Titel, für die der Inhalt über eigene Abonnements erworben wurde. In der Regel sind nur die während der Vertragslaufzeit erschienenen Jahrgänge eingeschlossen, in einigen Fällen auch der gesamte nativ digital publizierte Inhalt bis maximal zum Jahrgang 1995 zurück. Die ICOLC 9 schiebt die Übernahme der Verantwortung für die Archivierung und den langfristigen Zugriff auf die Daten grundsätzlich den Verlagen zu. Dass sich die gewinnorientierten Verlage in Zukunft ohne wirtschaftliches Eigeninteresse aktiv mit der Archivierung beschäftigen, ist eher unwahrscheinlich. Die ICOLC fordert die Verlage denn 5 ARL (Association of Research Libraries): Principles for Licensing Electronic Resources (http://www.arl.org/scomm/licensing/principles.html) von ICOLC (International Coalition of Library Consortia): Statement of Current Perspective and Preferred Practices for the Selection and Purchase of Electronic Information von 1998 mit Update 2001 (http://www.lib.uwaterloo.ca/staff/irmc/icolcstatement.doc). 7 IFLA (International Federation of Library Associations Committee on Copyright and other Legal Matters (CLM)): Licensing Principles (http://www.ifla.org/v/ebpb/copy.htm) von LIBER (Ligue des Bibliothèques Européennes de Recherche) : Licensing Principles (http://www.kb.dk/liber/currentinitiatives/licensing.htm) von ICOLC (International Coalition of Library Consortia): 21

22 auch auf, die einzelnen Bibliotheken, Konsortien, Nationalbibliotheken oder Dritte nicht am Aufbau von alternativen Lösungen für die Archivierung von elektronischen Daten zu hindern. Die Erfahrung des Schweizer Konsortiums lehrt, dass grundsätzlich nicht alle Verlage bereit sind, die Volltexte oder im besten Fall auch die Metadaten auszuliefern. Mittlerweile liefern über 70 Verlage ihre Daten an OCLC 10, wie beispielsweise Blackwell und Emerald. OCLC bezeichnet sich selbst als vertrauenswürdiges Archiv. Gegen Entrichten einer geringen Gebühr erhalten die Bibliotheken und ihre Nutzerinnen und Nutzer via OCLC ECO 11 Zugriff auf einst erworbene Titel und Jahrgänge. Allerdings gewährt dieser Drittanbieter den Bibliotheken nur ein Zugriffsrecht, das nach Vertragsende wiederum erlischt. Wechselt ein Verlag den Besitzer, kann sich die Archivierungspolitik für die publizierten Titel entsprechend ändern. So sind beispielsweise die Titel von Academic Press nur bis zum Jahr 2002 via OCLC ECO abfragbar. Mit dem Verlagswechsel sind sie nun via Science Direct verfügbar und fallen damit unter die Archivierungspolitik von Elsevier. Bereits diese Ausführungen deuten an, dass sich die Bibliotheken bis heute noch auf keine verbindliche und erprobte Strategie für die Sicherung des langfristigen Zugriffs auf die lizenzierten E-Journals verlassen können. Aus diesem Grund wird in dieser Studie auch die Frage diskutiert, ob sich die Bibliotheken für die Zukunft rüsten sollen, indem sie ihre eigenen digitalen Archive aufbauen. Grundsätzlich gelten ähnliche Überlegungen auch für bibliographische Datenbanken: An ihnen wird mehrheitlich nur ein Nutzungsrecht vereinbart und kein Erwerb der lizenzierten Daten. Für einzelne Produkte bestehen unter dem Dach des Konsortiums Installationen in der Schweiz, die sich bewährt haben. Eine lokale Installation ist jedoch nicht automatisch gleichbedeutend mit dem Erwerb der Daten. In denjenigen Fällen, in denen Daten tatsächlich gekauft werden, ist weitgehend offen, wie sie nach dem Ende der jeweiligen Lizenz für die Zugriffsoberfläche genutzt werden sollen. 2.4 Eigenschaften digitaler Objekte Objekte, die in digitaler Form vorliegen, bieten in der Praxis der täglichen Nutzung offensichtliche Vorteile gegenüber solchen in traditionellen Formaten. Sie können mit der entsprechenden Infrastruktur weitgehend unabhängig von räumlichen und zeitlichen Beschränkungen benutzt und gegebenenfalls bearbeitet werden. Auch eine regelmässige intensive Verwendung hat keine Abnutzung am Objekt selbst zur Folge 12 und bei Bedarf lassen sich in kurzer Zeit beliebig viele Kopien in unveränderter Qualität erstellen. Alle diese angesprochenen Vorteile lassen bei näherer Betrachtung schnell erkennen, dass sie aus der Sicht von Bibliotheken, Archiven und verwandten Einrichtungen Probleme aufwerfen. Dabei handelt es sich um sehr grundsätzliche Fragen, die bereits ab der Erzeugung eines Objektes relevant sind. Durch die Erweiterung des Blickwinkels auf längere Zeiträume verschärfen sie sich jedoch weiter und entziehen sich umso mehr einer Kontrolle. 10 OCLC (Online Computer Library Center): 11 OCLC ECO (OCLC Electronic Collections Online): 12 Dies bezieht sich jedoch nur auf das digitale Objekt die Träger werden sehr wohl abgenutzt, vergleiche auch

23 2.4.1 Authentizität und Kontrolle Konsortium der Schweizer Hochschulbibliotheken Digitale Objekte können prinzipiell relativ leicht verändert werden, und zwar willentlich und unfreiwillig. Je grösser die Zahl derer ist, die potentiell Zugriff auf ein Objekt haben, um so mehr besteht das Risiko, dass solche Veränderungen stattfinden. Dabei kann es sich um Änderungen im Sinne inhaltlicher oder formaler Überarbeitungen handeln, also um neue Versionen eines Objekts. Es können aber auch verfälschende Manipulationen erfolgen. Damit ist die Authentizität der Objekte nicht gewährleistet: Ein Objekt kann etwas anderes sein als es vorgibt. Technische Massnahmen müssen ergriffen werden, um entsprechende Veränderungen zu verhindern oder zumindest zu erkennen. Im Falle berechtigter Überarbeitungen ist festzulegen, wie sie behandelt werden sollen. Neben dieser technischen und organisatorischen Sicht hat die Möglichkeit zur Veränderung, Weiterverwendung und Vervielfältigung entscheidende rechtliche und wirtschaftliche Konsequenzen. Bibliotheken müssen als Vertragspartner kommerzieller Anbieter gewährleisten können, dass die von ihnen weitervermittelten Inhalte nur in der vertragsgemäss vereinbarten Art und Weise genutzt werden, d.h. auch nur von hierzu berechtigten Personen. Bei elektronischen Publikationen besteht viel stärker die Gefahr, dass einerseits Inhalte aus den unterschiedlichsten Gründen fehlen, dass aber andererseits diese Mängel für die Endnutzerschaft oft nicht festzustellen sind. Damit wird die bewusste Entscheidung unmöglich gemacht, den fehlenden Inhalt an anderer Stelle zu beschaffen (Covi and Cragin 2004) Keine Abnutzung bei begrenzter Haltbarkeit Die Möglichkeit zur beliebigen Vervielfältigung und Benutzung scheint digitale Objekte weitgehend immun zu machen gegen die Risiken, die physischen Objekten wie Büchern drohen. Beschädigung oder Verlust durch Benutzerinnen und Benutzer oder äussere Einflüsse wie Feuer oder Wasser lassen sich durch mehrfache Speicherung weitgehend ausschliessen. Demgegenüber gibt es weniger augenfällige Bedrohungen für den Bestand und mehr noch für die Nutzbarkeit digitaler Objekte. Gemeinsam ist diesen Gefahren, dass sie im Gegensatz zu spektakulären Verlusten physischer Bestände unbemerkt erheblichen Schaden anrichten können. Dies liegt wiederum in der Natur digitaler Objekte: Sie können als Ganzes für eine normale Benutzung unbrauchbar werden, wenn an entscheidender Stelle ein Bit fehlt oder verändert wird. Solche Verluste können ohne spezielle Einwirkung mit der Zeit eintreten, da die Speichermedien für digitale Information aus physikalischen und/oder chemischen Gründen nur eine begrenzte Stabilität aufweisen. Information kann so durch Entmagnetisierung oder Zersetzung von Trägern verloren gehen. Bezogen auf das einzelne digitale Objekt verläuft dieser Verlust schlagartig, und es gibt kein Analogon zum Verbleichen eines Druckwerks, das währenddessen noch lange lesbar bleibt. Darüberhinaus können Objekte für die Benutzung sogar dann unbrauchbar werden, wenn die eigentlichen Dateien immer noch vollständig und in der Originalform gespeichert vorhanden ist. Der Grund liegt darin, dass digitale Objekte für den Menschen nicht direkt interpretierbar sind. Sie weisen vielfältige Abhängigkeiten von einer komplexen Umgebung auf, die leider häufig nicht transparent sind. 23

24 2.4.3 Infrastruktur und Abhängigkeiten Wie unter 2.4 erwähnt erfordert die orts- und zeitunabhängige Nutzung elektronischer Daten den Zugriff auf eine entsprechende Infrastruktur. Es liegt heute nahe, hier vor allem an einen Computer mit Internetanschluss zu denken. Es gibt jedoch neben dieser greifbaren Infrastruktur weitere Bedingungen, die erfüllt sein müssen, um Daten sinnvoll nutzen zu können. Digitale Daten sind für uns Menschen ohne weiteres nicht interpretierbar. Wir benötigen hierzu technische Geräte ( Hardware ), die die Abfolge von Bits ( Bitstream ) aus einem Speicher auslesen und zu einer für uns verständlichen Form verarbeiten können. Die Art und Weise, in der die interpretierbare Information in der Datei codiert ist, wird definiert durch Dateiformate. Die Umwandlung der in dieser Weise codierten Daten in eine Form, die für uns verständlich ist, ist Aufgabe von Anwendungsprogrammen ( Software ), und zwar in der Regel von jenen Programmen, die auch für die Erstellung der entsprechenden Dateien verwendet wurden. Anwendungsprogramme benötigen als Rückgrat für ihre Ausführung wiederum eine andere Art von Software, nämlich ein Betriebssystem, das die Kommunikation mit der Hardware gewährleistet. Das Problem für die Praxis besteht darin, dass sich alle genannten Bestandteile der Kette vom Speicher zum Menschen durch die technische Weiterentwicklung verändern. Dies kann innerhalb recht kurzer Zeiträume (Jahre) dazu führen, dass die Glieder der Kette Hardware Betriebssystem Anwendungsprogramm Objekt nicht mehr miteinander kompatibel sind. In diesem Fall kann die entsprechende Datei nicht mehr in der gewohnten Form benutzt werden. Im Hinblick auf die dauerhafte Benutzbarkeit digitaler Daten ist dies jedoch nur ein Faktor, der zu berücksichtigen ist. Eine detaillierte Diskussion findet sich in

25 3. Dauerhafter Zugriff und Langzeitarchivierung Zu den traditionellen Aufgaben, die Bibliotheken und vergleichbare Einrichtungen für Ihre Kundinnen und Kunden wahrnehmen, gehört die langfristige Aufbewahrung der von ihnen erworbenen Dokumente und deren dauerhafte Bereitstellung für die Nutzung. Dabei sind als Kundinnen und Kunden sowohl die eigentlichen Endnutzerinnen und Endnutzer zu sehen als auch die Institutionen, für deren Angehörige und in deren Auftrag vor allem wissenschaftliche Bibliotheken ihre Dienstleistungen erbringen. Wie oben beschrieben haben sich wissenschaftliche Bibliotheken in den vergangenen Jahren durch ihr starkes Engagement für die elektronische Informationsvermittlung verändert. Dass sich Bibliotheken auf dem Terrain elektronischer Informationen überhaupt so erfolgreich und mit einer gewissen Selbstverständlichkeit als Vermittler etablieren konnten, hat auch mit der Erwartung und dem Vertrauen zu tun, dass sie ihre traditionellen Aufgaben des Bewahrens und Bereitstellens im digitalen Informationszeitalter weiter wahrnehmen können und wahrnehmen werden. Explizit gemacht wurde diese Erwartung bisher vor allem bei Nationalbibliotheken durch die bereits erfolgten oder in Vorbereitung befindlichen Erweiterungen ihrer jeweiligen Aufträge (vgl ). Einen entsprechenden Anspruch vertreten auch die Bibliotheken selbst. Für die Schweizer Hochschulbibliotheken konnte dies in einer Umfrage im Rahmen der vorliegenden Studie bestätigt werden (vgl. 6). Im Folgenden soll dargestellt werden, auf welche Schwierigkeiten dieser Anspruch stösst und wie mögliche Lösungsansätze aussehen könnten. Es hat sich für eine detaillierte Diskussion als nützlich erwiesen, im Hinblick auf die längerfristige Speicherung elektronischer Daten die beiden Aspekte des Zugriffs und der Erhaltung zu unterscheiden, die unterschiedliche Hintergründe haben und je nach Ausgangslage der betroffenen Institution(en) verschiedene Antworten erfordern können. Dies ist jedoch nicht als Vorentscheidung für zukünftig organisatorisch bzw. technisch getrennte Lösungen zu verstehen. Vielmehr sollen so die verschiedenen Aufgaben transparenter dargestellt werden können, die relativ häufig in nicht zutreffender Weise gleichgesetzt und gelegentlich zusätzlich mit Aspekten der Retrodigitalisierung (vgl. 3.4) vermischt werden. 3.1 Dauerhafter Zugriff Solange Bibliotheken ihren Kundinnen und Kunden primär Dokumente auf physischen Trägern zur Verfügung stellten, wurden diese in aller Regel durch Kauf zum dauerhaften Verbleib in der Bibliothek erworben. Mit diesem Erwerb waren auch Rechte der Bibliotheken für die Ausleihe an Kundinnen und Kunden verbunden. Bei elektronischen Informationen gelten überwiegend andere Geschäfts- und Vertragsmodelle. Es werden Lizenzverträge abgeschlossen, die es den Bibliothekskundinnen und -kunden gestatten, während eines definierten Zeitraumes (in der Regel ein Jahr) auf einen definierten Datenbestand inklusive des Zuwachses im Vertragsjahr zuzugreifen. Alle anderen Vertragsbedingungen differieren stark nach Anbieter und Produkt. So kann der Vertrag alle verfügbaren früheren Jahrgänge des Datenbestandes einschliessen oder nur jeweils eine 25

26 bestimmte Anzahl dieser Jahrgänge ( Rolling File ) umfassen. Dann sind in jedem Vertragsjahr z.b. nur die jüngsten zehn Jahrgänge freigegeben. Spätestens hier wird der Unterschied zum traditionellen Modell offensichtlich: Der für die Kundinnen und Kunden durch die Bibliothek bereitgestellte und vermittelte Inhalt ist entkoppelt vom Bestand, den die Bibliothek besitzt. Dieser Zustand ist mit den Erwartungen an die Bibliotheken und mit ihrem eigenen Anspruch nicht gut vereinbar Dauerhafter Zugriff auf lizenzierte Inhalte Im Folgenden verstehen wir unter dauerhaftem Zugriff vor allem das Recht und die praktische Möglichkeit, auf einmal erworbene Inhalte auch dann weiterhin zugreifen zu können, wenn vorherige Lizenzverträge o. ä. ausgelaufen sind. Als im engeren Sinne erworben gilt dabei der Datenbestand derjenigen Jahrgänge, während deren Erscheinen der Lizenzvertrag gegolten hat. Je nach Vertrag gelten jedoch auch andere Kriterien. Rechtliche Fragen dominieren, da nicht alles, was technisch möglich ist, auch rechtlich zulässig ist. In gewissen Bereichen wirft die Umsetzung von rechtlichen Anforderungen ihrerseits technische Fragen auf. Wichtige Fragen sind: 1 Für welche Inhalte bestehen vertraglich Rechte nach Lizenzende, z.b. für welche Jahrgänge welcher Zeitschrift? 2 Was umfassen diese Rechte: 3 Kontinuierlichen Zugriff beim Anbieter? 3.1 Übernahme der Inhaltsdaten in geeignetem Format auf eigenen Server? 3.2 Übernahme der Metadaten in geeignetem Format auf eigenen Server? 3.3 Weiternutzung bzw. Übernahme der Abfrage- und Anzeigesoftware des Anbieters? 3.4 Besteht eine Verpflichtung oder Berechtigung zu Aktualisierungen? Inhalt/Metadaten: Muss/kann der Rückzug von Artikeln durch Autor oder Verlag nachvollzogen werden? Technisch: Aktualisierung von Abfrage- und Anzeigesoftware? 3.5 Welche Dauer ist gewährleistet? 3.6 Kosten (einmalig/wiederkehrend, kostendeckend/gewinnorientiert)? 3.7 Möglichkeit zur Kooperation mit anderen Einrichtungen: Darf weiteren Institutionen gemäss ihrer ebenso per Lizenz erworbenen Berechtigung der Zugang gewährt werden? 4 Können Archivdaten (Inhalt und Metadaten) weiterer Jahrgänge erworben werden? 4.1 Gelten hierfür Pauschalen oder eine jährliche Gebühr? 26

27 5 Bestehen in der eigenen Institution die notwendigen technischen und personellen Voraussetzungen, um einen dauerhaften Zugang zu ermöglichen oder können sie mit vertretbarem Aufwand geschaffen werden? Bereits in dieser knappen Aufzählung wird deutlich, dass das Problem des dauerhaften Zugriffs nicht hauptsächlich aus technischen Fragen besteht. Vielmehr sind es inhaltliche, organisatorische, rechtliche und wirtschaftliche Aspekte, die der Klärung bedürfen. Technische Lösungen sind selbstverständlich von grosser Bedeutung für alle denkbaren Optionen. Bevor jedoch z.b. eine technische Zugriffskontrolle realisiert werden kann, die nur berechtigte Nutzungen zulässt, muss zunächst abgeklärt werden, wer gemäss den vereinbarten Bedingungen überhaupt als berechtigte Nutzerin oder Nutzer welcher Inhalte zu betrachten ist. Früher oder später sind es dann nicht mehr die rechtlichen Vorgaben, die die Zugriffsmöglichkeiten beschränken, sondern zunehmende technische Probleme verhindern den Zugang auch zu jenen Daten, zu denen ein Zugriffsrecht besteht. Zu diesem Zeitpunkt muss die eigentliche Langzeitarchivierung bereits greifen, wenn Informationsverluste vermieden werden sollen (siehe 3.2). Insofern ist es angebracht, die Sicherung des Zugriffs und die Langzeitarchivierung im engeren Sinne als zwei komplementäre Aufgaben zu begreifen, die sich je nach Zeitpunkt in unterschiedlicher Gewichtung ergänzen müssen. Der fortgesetzte Zugriff beim Verlag wird in Kapitel diskutiert. Konkrete Empfehlungen zum Inhalt von Lizenzvereinbarungen im Hinblick auf die Sicherung des Zugriffs bzw. auf eine Datenübernahme finden sich im Anhang IV (Kapitel 16). Zu warnen ist in diesem Zusammenhang vor zu detaillierten Vereinbarungen, die später nur noch schwierig verhandelbar sind Dauerhafter Zugriff auf graue Literatur der Hochschulen Neben den oben beschriebenen Inhalten, die über Lizenzverträge (seltener durch Kauf) erworben werden, gibt es innerhalb von Hochschulen und Forschungseinrichtungen in der Regel eine umfangreiche Produktion an grauer Literatur. Die Literaturproduktion wissenschaftlicher Einrichtungen umfasst einerseits Dokumente wie Dissertationen, die einen besonderen Status besitzen, und andererseits de facto alles, was innerhalb der Einrichtung in Forschung und Lehre als Dokument erstellt wird und nicht als formale Publikation erscheint und vertrieben wird. Formen wie Pre- und Postprints von wissenschaftlichen Artikeln gehören ebenfalls in diese Kategorie. Bei Preprints handelt es sich um Versionen von Zeitschriftenartikeln, die noch nicht den Begutachtungsprozess ( Peer review ) einer wissenschaftlichen Zeitschrift durchlaufen haben. Sie können somit von der später publizierten Version abweichen. Ein Postprint ist demgegenüber diejenige Version eines Artikels, die als Ergebnis des Begutachtungsprozesses zur Veröffentlichung angenommen wurde und damit inhaltlich mit dem publizierten und zitierbaren Artikel übereinstimmt. In der äusseren Erscheinung kann es aber in Abhängigkeit vom Produktionsprozess Unterschiede geben. Die Bereitstellung von Pre- oder bevorzugt Postprints auf Servern in Hochschulen und Forschungseinrichtungen zur freien Benutzung ( Selbstarchivierung durch den Autor / author self archiving ) ist ein Standbein der Open Access Bewegung und findet in diesem Zusammenhang zunehmend Beachtung. Die 27

28 Selbstarchivierung ist in dieser Form gebunden an die Existenz einer parallelen formalen Publikation (vgl. Kapitel 8.8.1). Der Wert derartiger Sammlungen von mehr oder weniger informellen (Parallel-)Publikationen hängt sehr stark davon ab, ob sie in ähnlich zuverlässiger Weise über längere Zeit verfügbar bleiben wie traditionelle Verlagsveröffentlichungen. Die Zugriffskontrolle sollte sich hier einfacher gestalten, auch wenn es Dokumente geben wird, die nur für den internen Gebrauch einer Einrichtung bestimmt sind. Bei Pre- und Postprints sind allerdings andersartige Beschränkungen zu beachten, die z. T. von den Verlagen verhängt werden (vgl. Kapitel 8.8.1). 3.2 Langzeitarchivierung digitaler Objekte Auch die eigentliche Langzeitarchivierung digitaler Objekte ist eine komplexe Aufgabe mit organisatorischen und rechtlichen Gesichtspunkten. Ungeklärte technische Fragen beanspruchen hier aber deutlich mehr Raum, weshalb die Gefahr besteht, sich nur auf diese zu konzentrieren. Im Folgenden werden zunächst die technischen Ursachen ausführlich erläutert, die die Langzeitarchivierung zu einem Problem machen. Danach werden grundsätzliche technische Lösungskonzepte dargestellt. Es wird jeweils versucht, diese technische Sicht in den Gesamtzusammenhang der Langzeitarchivierung einzuordnen Alterung von Speichermedien Zur passiven Speicherung digitaler Daten, d.h. zur Speicherung ohne elektrische Versorgung, werden heute praktisch nur zwei Prinzipien breit genutzt. Auf Disketten, Speicherbändern und Festplatten sind auf Trägern metallhaltige Schichten aufgebracht, deren Magnetisierung lokal zwischen zwei Zuständen verändert werden kann. Auf Medien wie CD-ROM oder DVD werden in eine verspiegelte Kunststoffschicht Vertiefungen eingearbeitet. Sie werden auf optischem Wege mit einem Laserstrahl ausgelesen, dessen Reflexion von der Oberfläche einen anderen Zustand ( 1 ) markiert als die Reflexion aus einer Vertiefung ( 0 ). Keines dieser Speichermedien ist länger als wenige Jahrzehnte stabil, die meisten im normalen Gebrauch sogar nur wenige Jahre. Die Wirkung des Erdmagnetfeldes und anderer elektromagnetischer Felder in unser Lebensumgebung beschleunigen den Verlust der kontrollierten Magnetisierung. Zusätzlich unterliegen die Kunststoffträger einer Alterung, die auch optische Speicherplatten trifft und sie je nach Produktqualität und Behandlung mehr oder weniger rasch schädigt. Hier ist zusätzlich die Verbindung der reflektierenden Metallschicht mit dem Trägermaterial eine Schwachstelle. Natürlich können entsprechende Prozesse durch unsachgemässe Lagerung (hohe Temperaturen, hohe Luftfeuchtigkeit) beschleunigt werden. Auch eine intensive Nutzung hat Auswirkungen auf die Haltbarkeit des Mediums. Diese Effekte sind lange bekannt und können umgangen werden, indem vorhandene Daten regelmässig ausgelesen und auf neue Speicher des gleichen Typs kopiert werden. Sofern 28

29 die betreffenden Daten schon auf einem entsprechend ausgelegten Speichersystem vorhanden sind, kann dieser Prozess des Auffrischens ( Refreshing ) weitgehend automatisiert ausgeführt werden. Aus diesem Grunde streben Bibliotheken in der Regel an, Daten von Disketten- und CD-ROM-Beilagen zu lösen und in leistungsfähige Speicher einzulesen, die eine solche Automatisierung erlauben. Dies ist etwa auch ein Bestandteil des Projektes e-helvetica 13 der Schweizerischen Landesbibliothek. Technisch darf die physische Alterung der Speichermedien damit als prinzipiell beherrschtes Problem gelten. Eine Herausforderung liegt insbesondere bei der zuverlässigen Organisation des Kopierprozesses, der regelmässig zu wiederholen ist, und zwar mit zunehmend grösseren Datenmengen im Terabyte 14 Bereich. Nicht ausser Acht bleiben kann die Problematik von Kopiersperren und anderen Massnahmen zum Schutz von Urheber- und Verbreitungsrechten (DRM Digital Rights Management bzw. ERM Electronic Rights Management). Technisch ist es in der Regel möglich, solche Sperren zu umgehen. Es gibt jedoch in der Urheberrechtsgesetzgebung verschiedener Länder Bestimmungen, die eine solche Umgehung ausdrücklich untersagen. Es ist zumindest unklar, ob die traditionellen Bibliotheksprivilegien zur Wahrnehmung ihres Erhaltungsauftrages den Bibliotheken eine Ausnahme von solchen Regelungen erlauben. In der Schweiz befindet sich zur Zeit eine Teilrevision des Urheberrechtsgesetzes in der Vernehmlassung, die ein solches Umgehungsverbot für Kopiersperren enthält 15. Mögliche Konsequenzen für die Bibliotheken sind noch nicht vollständig klar. Aus prinzipiellen Gründen und wegen des damit verbundenen Aufwandes verzichten manche Projekte ganz auf die Speicherung von Objekten mit irgendeiner Form von technischem Rights Management. Auch ohne solche technischen Hürden ist das Kopieren und Umwandeln zu Erhaltungszwecken gemäss rechtlichen Vorgaben problematisch: Verschiedene nationale Gesetzgebungen gestatten dies Bibliotheken und Archiven zwar ausdrücklich, jedoch nur dann, wenn das Originalformat bereits veraltet und überholt ist (Ayre and Muir 2004) Veralten der Technik (Technological obsolescence) Die bekanntermassen rasch fortschreitende Entwicklung bestimmter Bereiche der Computertechnik hat zu immer leistungsfähigeren Komponenten geführt. Bekannt und illustrativ ist das Wachstum der Anzahl von Transistoren auf einem Computerchip, die sich alle 18 bis 24 Monate verdoppelt. Dieser Zusammenhang wurde 1965 von Gordon Moore (Intel) formuliert (Moore 1965) und hat als Moore s Law oder mooresches Gesetz bis heute Gültigkeit. Die Dynamik der Entwicklung hat eine Kehrseite, die sich bei der privaten Computernutzung ohne weiteres offenbart: Was heute hochaktuell ist, wird in Kürze überholt sein. Dies wäre zu verschmerzen, wenn dies nur bedeuten würde, dass die eigene Hardware nicht mehr die leistungsfähigste/beste/schnellste auf dem Markt wäre. Im Hinblick auf die Langzeitarchivierung gibt es aber verdecktere Probleme. Zwar gibt es auch Bereiche und vor allem 13 Projekt e-helvetica: Terabyte = Gigabyte = Megabyte; Standarddiskette: 1,44 Megabyte 15 EJPD schickt Vorentwurf in die Vernehmlassung, : 29

30 grundlegende Prinzipien, die erhebliche Lebensdauern aufweisen, doch wird die Stabilität und Funktionsfähigkeit der Gesamtsysteme durch die Lebensdauer der kurzlebigsten Komponente limitiert: Wenn ihr Nachfolgeprodukt nicht mehr vollständig kompatibel ist mit anderen Teilen des Systems, dann kann die Gesamtfunktion beeinträchtigt sein. Die folgende Darstellung gilt grundsätzlich für alle Arten von digitalen Objekten. Je nach deren besonderen Eigenschaften können bestimmte Punkte mehr oder weniger Bedeutung haben. Dies leuchtet umgehend ein, wenn man eine weltweit eingesetzte Standardsoftware vergleicht mit einem wissenschaftlichen Hilfsprogramm, das im Rahmen einer Doktorarbeit an einer Hochschule entsteht. Nutzer- und Anbieterinteressen sowie der Bedarf und das Potential für eine langfristige Erhaltung sind hier trotz gleicher technischer Fragen zweifellos unterschiedlich Speichermedien Während es unter um die Haltbarkeit des einzelnen Datenträgers ging, geht es hier um die Lebensdauer der technischen Konzepte von Speichermedien. Das illustrativste Beispiel für den hier angesprochenen Wandel sind mobile Datenträger wie Disketten. Sie haben sich rein äusserlich vom 8 Zoll-Format (IBM, 1971) über 5,25 Zoll (Shugart, 1976) auf 3,5 Zoll (Sony, vor 1984; ISO ,2 von 1989) verkleinert. Eine Reihe anderer Formate, die nur von einzelnen Herstellern benutzt wurden, ist hierbei noch gar nicht berücksichtigt. Bereits jedes dieser physischen Formate erfordert jeweils ein geeignetes Laufwerk, um die gespeicherte Information wieder auslesen zu können. Zusätzlich jedoch haben sich auch noch die Speicherdichten auf den Disketten geändert. So können 3,5 Zoll Disketten eingerichtet sein für einseitiges oder beidseitiges Beschreiben sowie für Speicherung mit hoher Dichte ( high density, HD) oder exotischer - mit extra hoher Dichte ( extra high density, ED). Im Fall der 3,5 Zoll-Diskette sind bestimmte Laufwerke zwar in gewissem Masse kompatibel für das Lesen der verschiedenen Speicherdichten, es besteht jedoch ein Risiko von Datenverlust, wenn eine Diskette für eine andere als die vorgesehene Speicherdichte formatiert wird. Damit ergeben sich mehrere Komplikationen: 30 Die begrenzte Haltbarkeit des einzelnen Datenträgers erfordert frühzeitiges Handeln zumindest im Sinne eines Auffrischens durch Speicherung auf gleichartigen Trägern. Die Lebensdauer des technischen Standards (sofern es sich überhaupt um einen formalen Standard handelt) ist begrenzt und erfordert nach absehbarer Zeit einen Medienwechsel. Die beschränkte Funktionsdauer des einzelnen Laufwerks verengt den Zeitraum zusätzlich, innerhalb dessen ein Lesen der gespeicherten Daten ohne Zusatzaufwand möglich ist. Einerseits gefährden physische Defekte einen längerfristigen problemlosen Betrieb, andererseits fehlt beim Wechsel zu neueren Betriebssystemen häufig die Unterstützung veralteter Laufwerke durch aktualisierte Treiberprogramme. Dies betrifft die Möglichkeit zum Auffrischen ebenso wie die zu einem Medienwechsel. In den Bibliotheken sind Disketten vor allem in nennenswerter Zahl als Beilage zu Büchern vertreten, so dass sie einen Teil des Themas Langzeiterhaltung darstellen (vgl. e- Helvetica 13 ). Im Rahmen dieser Studie wurden sie jedoch nicht näher betrachtet, da sie für die Inhalte, die über das Konsortium bezogen werden, keine Rolle spielen.

31 Das Veralten technischer Konzepte lässt sich am Beispiel der Disketten anschaulich darstellen. Ganz entsprechende Probleme (Haltbarkeit, Lebensdauer des Standards, Funktionsfähigkeit benötigter Geräte) gelten aber für alle Speichermedien unabhängig vom technischen Prinzip (optisch oder magnetisch), d.h. auch für solche, die in Unternehmen und Institutionen für sehr grosse Datenmengen benutzt werden. So sind nicht alle früheren Formate von Magnetbändern, die gerade zur sicheren Langzeitspeicherung eingesetzt wurden und werden, heute überhaupt noch lesbar, weil die passenden Lesegeräte fehlen. Bekannt und real sind die Verluste der NASA, die nicht mehr direkt zugreifen kann auf wertvolle Daten früherer Raumfahrtmissionen. Als konkretes Beispiel werden häufig Satellitenbilder brasilianischer Regenwälder aus den Siebzigerjahren genannt, die heute wertvolle Vergleichsdaten liefern könnten ((1995), S.31). Damit ist auch angesprochen, warum dieser Zugriff überhaupt so wichtig ist: Wo Daten einen zeitgebundenen Zustand abbilden, können sie prinzipiell nicht nachträglich neu erstellt werden. In anderen Fällen wäre dies möglich, würde aber hohen Aufwand erfordern. Als Gegenmassnahme gegen den Verlust durch Veralten von Speichermedien und Lesegeräten ist wiederum ein Auslesen und Neuschreiben der Daten auf ein aktuelles und dennoch als stabil eingeschätztes Medium vorzusehen. Dies muss koordiniert mit den für das Refreshing benötigten Kopiervorgängen geschehen (vgl ). Die oben bereits angesprochenen wissenschaftlichen Primärdaten sind nicht Gegenstand der vorliegenden Studie. Der Umgang mit diesen Daten wird jedoch z.b. in den Hochschulen gleichfalls zu klären sein: Welche Einrichtung stellt eine entsprechende Infrastruktur zur Verfügung und was müssen die Wissenschaftler tun, um eine regelgerechte Speicherung und nötigenfalls auch Langzeiterhaltung zu ermöglichen. Es ist denkbar, dass in vielen Bereichen eine Speicherung für z.b. 10 Jahre ausreichend ist, um während dieser Zeit publizierte Ergebnisse belegen zu können. Entsprechende Forderungen werden nach Betrugsfällen der jüngsten Vergangenheit von verschiedenen Forschungs- und Förderorganisationen erhoben. In manchen Fällen, z.b. im Bereich von Raumfahrt und Astronomie sind Beobachtungen und Vergleiche über sehr lange Zeiträume jedoch relevant und der Wert einer Einzelmessung nicht absehbar. Konsequenterweise engagieren sich die NASA wie auch andere grosse Wissenschaftsorganisationen heute im Bereich der Langzeiterhaltung elektronischer (Mess-)Daten 16. Es wird für die Bibliotheken der jeweiligen Institutionen eine wichtige Aufgabe sein, ihre eigene Rolle für die geordnete Speicherung und bedarfsgerechte Archivierung zu definieren und auszufüllen. Das heisst nicht, dass es die Bibliotheken sein müssen, die sich dieser Daten annehmen sollen. Es soll an dieser Stelle darauf hingewiesen werden, dass es unter günstigen Bedingungen und zu einem frühen Zeitpunkt durchaus möglich sein kann, Daten von unlesbar gewordenen Medien zurückzugewinnen. Dies ist aber in jedem Fall ausserordentlich aufwendig, weil es sich bei dieser Art von digitaler Archäologie (vgl. 5.1) immer um eine Einzelfallbearbeitung handelt. Zudem werden normalerweise nicht alle Daten zurückgewonnen. Dieser Weg kann daher nur im Ausnahmefall beschritten werden und bietet keinerlei Gewähr für den Erfolg. Für die in Frage stehenden Datenmengen ist es nach heutigem Stand völlig unrealistisch, sich womöglich auf derartige Methoden für den Notfall zu verlassen. 16 Consultative Committee on Space Data Systems (CCSDS): 31

32 Geräteplattform (Hardware), Betriebssystem und Programme Mit einiger Selbstverständlichkeit erneuern Firmen, Institutionen und Privatpersonen die von ihnen eingesetzten Geräte der Informationstechnik. Auf diese Weise können im Normalfall höhere Leistungen erreicht werden. Diese höhere Geräteleistung wird für leistungsfähigere Betriebssysteme und Anwendungsprogramme benötigt bzw. regt erst deren Entwicklung an. Dabei kann leicht übersehen werden, dass die Beschleunigung und Leistungssteigerung nicht einfach eine ständige Fortschreibung auf der gleichen konzeptionellen Basis ist, sondern tiefgreifende Veränderungen im Inneren des Computers bedeuten kann. Dies ist solange unproblematisch, wie Hard- und Software (Programme und Betriebssystem) in miteinander kompatiblen Versionen zur Verfügung stehen. Bei Programmen, die aktuell im Gebrauch stehen, wird logischerweise sehr schnell bemerkt, wenn sie nach einem Wechsel von Hardware oder Betriebssystem nicht mehr ordnungsgemäss funktionieren. In der Regel sind entsprechende Unverträglichkeiten bereits im Vorwege bekannt. Es entsteht dagegen zwangsläufig ein Problem, wenn Programme aus irgendwelchen Gründen nicht mehr für ein neues Betriebssystem angepasst werden (Fall C in Abbildung 1). Ein solcher Entwicklungsbruch kann verschiedene Ursachen haben: Ein kommerzieller Anbieter kann seine Geschäftspolitik oder sein technisches Konzept verändern. Ein Programm, dass von Profis oder Laien für einen ganz bestimmten Anwendungsfall geschrieben wurde, hat seinen unmittelbaren Zweck erfüllt und wird längere Zeit oder gar nicht mehr benötigt. Analog gilt dies auch für Betriebssysteme, die jeweils auf eine bestimmte Hardware-Umgebung angewiesen sind (Fall D in Abbildung 1). Zwar ist die Zahl von Betriebssystemen viel kleiner als die der Anwendungsprogramme. Dies bedeutet umgekehrt jedoch, dass von jedem Wechsel des Betriebssystems die Funktionsfähigkeit einer Vielzahl von Programmen betroffen ist. Es kann vorkommen, dass ein Programm oder ein Betriebssystem trotz der fortschreitenden Entwicklung lokal in der richtigen Umgebung weiterbetrieben wird, weil keine anderen Bedürfnisse vorliegen. In diesem Fall bleibt eine in sich zunächst funktionsfähige Insel zurück, die von der äusseren Weiterentwicklung abgeschnitten wird. Das kann dazu führen, dass alles, was in dieser Umgebung erarbeitet wird, auch nur noch hier korrekt dargestellt und bearbeitet werden kann (vergleiche auch ). Eine solche technologische Insel kann im Umkehrschluss auch planvoll und mit Absicht erzeugt und konserviert werden, wie später gezeigt werden wird. 32

33 Abbildung 1: Mögliche Kompatibilitätsprobleme in der funktionalen Kette Hardware Betriebssystem Anwendungsprogramm Datei. In diesem Beispiel ist nur in der links gezeigten Konstellation A eine Verwendung und Bearbeitung des Dokumentes gewährleistet Programme und Dateien Unter wurde auf die Bedeutung hingewiesen, die der technischen Beziehung zwischen Hardware und Software zukommt. Um eine voll funktionsfähige Umgebung zu erreichen, müssen schliesslich noch alle benötigten Dateien in einem von der jeweiligen Software unterstützen Format vorliegen (Fall A in Abbildung 1). Diese Bedingung kann erstaunlich schnell verletzt werden, da viele Dateien, die zu einem bestimmten Zeitpunkt für einen bestimmten Zweck erstellt worden sind, später nicht mehr angesehen oder gar bearbeitet werden. Erst durch das Bearbeiten und Abspeichern in einer späteren Programmversion kann eine Datei aber in ihrem Dateiformat auf den aktuellen Stand gebracht werden, sofern die nötige Abwärtskompatibilität der neuen Version gegeben ist. Unterbleibt ein solcher Schritt über mehrere Programmgenerationen hinweg, dann kann es je nach Software bereits nach wenigen Jahren Schwierigkeiten mit dem ordnungsgemässen Öffnen und mit der Anzeige einer Datei geben (Fall B in Abbildung 1). Dabei wird es in manchen Fällen möglich sein, die Datei mit Einschränkungen bei Funktionen und Darstellung in einem anderen Programm oder einer anderen Programmversion zumindest anzuzeigen. Dies ist insbesondere dann keine ausreichende Option, wenn nicht von vorneherein absehbar ist, für welchen Zweck die Objekte wiederverwendet werden sollen. Um sich als Endnutzerin oder Endnutzer die genannten Beispiele zu verdeutlichen, ist es nützlich, den eigenen Büroarbeitsplatz zu betrachten im Hinblick auf ein gängiges Textverarbeitungsprogramm wie Microsoft Word. Hier kann man feststellen, dass einige 33

34 Dokumente regelmässig benutzt werden, viele andere hingegen nach der Erstellung und Benutzung unberührt liegen bleiben. Dies wäre unproblematisch für Dokumente, die definitiv nicht mehr benötigt werden, und zwar weder, um sie erneut zu verwenden noch um sie als Beleg zu archivieren. Besteht hingegen eine Verpflichtung oder sonstiger Bedarf, die Dokumente für eine nicht vorher festgelegte Zeit aufzubewahren und danach wieder nutzen zu können, dann erfordert dies bewusste Entscheidungen und Massnahmen bereits bei der Erstellung der Dokumente Grundsätzliche Konsequenzen Es gehört zur Tätigkeit von Bibliotheken und anderen sogenannten Gedächtnisorganisationen, sorgfältige Auswahlentscheidungen zu treffen hinsichtlich der Materialien, die dauerhaft aufbewahrt werden sollen. Die Möglichkeit, dies zu entscheiden, hat aber ihre Grenzen, und es ist vielfach nötig, Objekte für eine potentielle spätere Nutzung zu erhalten, die in ihrer Intensität und ihren Bedürfnissen noch nicht abschätzbar ist. Dies ist hat bereits bisher für alle traditionellen Medien gegolten. Selbstverständlich verlangt auch die Erhaltung gedruckter Bestände die vorausschauende Wahl und Einhaltung geeigneter Bedingungen sowie weitere Eingriffe. Sind diese Bedingungen jedoch einmal in befriedigender Weise festgelegt, dann kann das Material lange Phasen überstehen, in denen ihm wenig Aufmerksamkeit geschenkt wird ( benign neglect ): Es wird nicht plötzlich verschwinden oder unzugänglich werden, selbst wenn z.b. saures Papier absehbar zerfällt. Bereits bei der traditionellen Bestandeserhaltung gilt, dass vorausschauende Massnahmen Aufwand und Kosten in der Zukunft reduzieren können. Die Erhaltung digitaler Daten erfordert jedoch aufgrund der dargestellten Zusammenhänge ein hohes Mass an kontinuierlicher Aktivität bereits über weitaus kürzere Zeiträume (Jahre) hinweg, und zwar bereits prospektiv, wo immer dies möglich ist. Es sind darum früh im Lebenszyklus eines Objektes Entscheidungen zu fällen, ob und wie es über längere Zeit verfügbar gemacht und erhalten werden soll. Eine Vernachlässigung über längere Zeit muss nicht immer einen Totalverlust von Daten bedeuten, Teilverluste sind aber praktisch sicher. Das Verlustrisiko wächst mit der Zeit, und in jedem Fall steigen Aufwand und Kosten, die anfallen, wenn nachträgliche Rettungsmassnahmen zu ergreifen sind. Dieser Zusammenhang entspricht wiederum Erfahrungen in der Bestandeserhaltung analoger Medien. 3.3 Gedruckte Zeitschriften Die Rolle der gedruckten Ausgaben von Zeitschriften im Zusammenhang mit der Langzeitarchivierung wird seit längerem diskutiert (Keller 2001). Eine verbreitete Einschätzung besagt, dass die parallele Veröffentlichung elektronischer und gedruckter Ausgaben der gleichen Zeitschriften eine Übergangserscheinung ist. Je nach Fach gibt es jedoch unterschiedliche Beobachtungen in Bezug auf die Erwartungen der Benutzerinnen und Benutzer und ihr Nutzungsverhalten (vgl. auch Anmerkungen zu Abschnitt 5 und 6 der Umfrage (Kap und ). Ein wichtiges Argument für die Beibehaltung gedruckter Ausgaben war bisher die Auffassung, dass nur die gedruckte und damit nachträglich praktisch nicht mehr veränderbare Version einer wissenschaftlichen Veröffentlichung die volle Anerkennung als copy of record, also als dauerhafte Aufzeichnung besitzt. Aus diesem Grunde war die Archivierung der gedruckten Zeitschriften bisher weitgehend 34

35 unbestritten und auch in der Umfrage kam dies zum Ausdruck im Wunsch, ein Exemplar gedruckter Zeitschriften in der Schweiz zu archivieren. Dies ist allerdings auch dahingehend zu verstehen, dass es zunehmend als ausreichend angesehen wird nur noch ein Exemplar der gedruckten Titel als Garant einer minimalen Versorgungssicherheit im eigenen Land zu wissen. Selbstverständlich gibt es klare wirtschaftliche Gründe für die damit verbundene Bereinigung von Mehrfachexemplaren zwischen den Schweizer Hochschulbibliotheken. Vor dem Hintergrund der technischen Entwicklung der vergangenen Jahre wird es nun möglich, die entsprechenden Konsequenzen zu ziehen, ohne dass sich das Dienstleistungsangebot für einen grossen Teil der Kundinnen und Kunden verschlechtert: Je nach Fach nutzt bereits eine Mehrheit von ihnen vorrangig die elektronische Version und ist somit nicht mehr auf ein physisch greifbares Original 17 vor Ort angewiesen. Die bestehenden fachspezifischen Unterschiede dürfen dabei nicht ignoriert werden. Modelle für eine koordinierte verteilte Archivierung gedruckter Zeitschriftenbestände werden später diskutiert werden (vgl. Kapitel 8.6.8). Mit der Weiterentwicklung elektronischer Zeitschriften zu funktional komplexeren und vernetzten Gebilden zeichnet sich ab, dass die Aufbewahrung einer zugehörigen gedruckten Version in der Zukunft immer weniger in der Lage sein dürfte, den angebotenen Inhalt in angemessener Form vollständig wiederzugeben: Es könnte sich längerfristig nur noch um inhaltlich sehr ähnliche Publikationen und nicht mehr um identische Kopien handeln. Die Geschwindigkeit, mit der diese Entwicklung erfolgt, wurde häufig überschätzt, und bis jetzt bilden Abweichungen zwischen den Versionen der publizierten Artikel weiterhin eine Ausnahme. Gebrauch gemacht wird dagegen gelegentlich von der Möglichkeit, Zusatzmaterial bereitzustellen, das formal und z. T. auch inhaltlich den Rahmen der eigentlichen Publikation sprengt. Mit diesem Bewusstsein bleibt die Archivierung gedruckter Originale weiterhin sinnvoll: Während bestimmte Zusatzangebote (z.b. Videos) tatsächlich der elektronischen Archivierung überlassen werden müssen, kann mit der Archivierung der gedruckten Version noch für einige Zeit ein grosser Teil des formell publizierten Inhalts angemessen erfasst und erhalten werden. Dies ist allein schon deshalb wünschenswert, weil ein physisch vorhandenes Exemplar es auch in Zukunft erlauben wird, durch Digitalisierung eine elektronische Kopie des darin enthaltenen Inhaltes zu erstellen. Ein bemerkenswertes Beispiel für diese Sichtweise ist das Bemühen des Center for Research Libraries in den USA, einen kompletten Bestand aller in JSTOR 18 digitalisierten Titel zusammenzustellen und dauerhaft zu erhalten. Natürlich hat dieser Ansatz auch eine zweite Seite: Ein solcher konsolidierter gemeinsamer Bestand würde es den einzelnen Bibliotheken gestatten, Bestände auszuscheiden, die bei Ihnen nicht mehr regelmässig benutzt werden. Der Natur des JSTOR-Projektes entsprechend handelt es sich bei diesen Zeitschriften bisher vor allem um ältere Titel und Jahrgänge. Nach und nach werden die jüngeren Jahrgänge angeschlossen. Ausdrücklich nicht angestrebt wird die Archivierung von Ausdrucken aus Zeitschriften, die überhaupt nur in elektronischer Form herausgegeben werden. Auf die Erhaltungsprobleme von Druckzeitschriften aus der Zeit von 1850 bis über die Mitte des 20. Jahrhunderts hinaus wird hier nicht eingegangen, da diese Bestände nichts mit der 17 Es ist nicht mehr in allen Fällen sinnvoll, von der Druckversion als Original zu sprechen. Dennoch entspricht dies noch weitgehend der subjektiven Wahrnehmung und Bewertung. 18 JSTOR (Journal Storage): 35

36 Erhaltung nativ elektronischer Zeitschrifteninhalte zu tun haben. Gelegentlich wird aber umgekehrt für die Erhaltung der Inhalte aus jenen Beständen eine Massendigitalisierung angeregt, die im Gegensatz zur Massenentsäuerung nicht das physische Objekt, sondern dessen Inhalt in Form einer digitalen Reproduktion erhalten würde (vgl. 3.4). 3.4 Retrodigitalisierung An dieser Stelle wird ausdrücklich der eigentlich nur begrenzt einleuchtende Begriff Retrodigitalisierung verwendet, um einigen verbreiteten Missverständnissen vorzubeugen. Es ist jedoch genau der gleiche Prozess gemeint, der an anderer Stelle lediglich als Digitalisierung bezeichnet wird 19. Er ist zu unterscheiden vom elektronischen Publizieren, das technisch betrachtet ohne ein analoges Original auskommt und vom elektronischen Archivieren, das zunächst nichts damit zu tun hat, wie ein digitales Objekt erstellt wurde. Im vorliegenden Bericht ist häufig ohne weitere Differenzierung von elektronischen Daten die Rede, da die Herkunft dieser Daten unter dem Gesichtspunkt der Erhaltung oft gar keine Rolle spielt: Es müssen unabhängig von Herkunft und Produktionsweg die gleichen Probleme gelöst werden. Bei Fragen, die z.b. den komfortablen Zugriff betreffen, lohnt es sich jedoch, verschiedene Arten von Dokumenten zu unterscheiden und die konzeptionellen Unterschiede zu verstehen. Unter 3.1 wurden praktisch nur solche Inhalte behandelt, die von Anfang an in digitaler Form erstellt wurden, z.b. die laufende Produktion von Verlagen oder aktuelle graue Dokumente. Qualitativ und quantitativ spielen daneben aber auch digitale Objekte eine Rolle, die erst nachträglich auf der Grundlage eines analog vorliegenden Originals erstellt wurden. Dies betrifft z.b. die Jahrgänge von Zeitschriften, die vor Anfang/Mitte der Neunziger Jahre veröffentlicht wurden (typischerweise vor 1995/1996): Sie sind heute z. T. nahtlos ins aktuelle Zeitschriftenangebot von Verlagen integriert und erreichen auch vergleichbare Funktionalität. Der Weg zu diesem Resultat ist jedoch ein anderer als bei nativ digitalen Dokumenten. Bei der Digitalisierung aus Sicht des E-Archiving-Projektes liegt das Augenmerk wiederum auf Zeitschriften. Dies entspricht einer Ergänzung der bisherigen Tätigkeit der Geschäftsstelle mit dem Ziel, den Bedarf und die Möglichkeit für attraktive Online-Angebote noch nicht elektronisch verfügbarer Zeitschrifteninhalte zu prüfen. Die Attraktivität eines solchen Angebotes dürfte dabei stark von der Tiefe und Qualität der Erschliessung abhängen. Genau diese ist es aber auch, die einen grossen Teil der Kosten verursacht. Eine hochwertige Erschliessung begrenzt ganz konkret die Menge an Inhalt, die digitalisiert werden kann, und nicht in jedem Fall ist eine vertiefte Erschliessung gleich wichtig. So verzichten zwei sehr grosse Digitalisierungsvorhaben (Internetarchive, Google, vgl. Kapitel ) auf die Erfassung wesentlicher Metadaten und versuchen, durch reine Volltextextraktion zu den gewünschten Sucherfolgen zu kommen. Dadurch sind viele Bedürfnisse abgedeckt. Die Möglichkeiten, die mit Hilfe von sorgfältig erfassten Metadaten bereitgestellt werden, stehen dann nicht zu Verfügung. 19 In einem übergreifenden Sinne wird auch die wachsende Ausbreitung und Bedeutung der digitalen Medien und Dienste als Digitalisierung bezeichnet. In der vorliegenden Arbeit wird dies vermieden, und die Digitalisierung bezeichnet nur die Erzeugung digitaler Kopien von analogen Vorlagen. 36

37 Im Unterschied dazu sind Projekte in den Bibliotheken vor Ort in aller Regel auf die Digitalisierung von seltenen oder einmaligen Spezialbeständen wie Handschriften und alten Drucken und von landeskundlichen Inhalten ausgerichtet gewesen (12.1.8). Solche Projekte entfalten vor allem dann einen Mehrwert, wenn sie von einer hochwertigen Erschliessung begleitet werden oder selbst eingesetzt werden, um ein vorhandenes beschreibendes Werk um neue Funktionen zu ergänzen Technischer Prozess Ausgangsobjekt für eine Digitalisierung kann prinzipiell jedes Objekt sein, das als zweidimensional angesehen werden kann, z.b. Handschriften, Alte Drucke, Karten, Bilder, Bücher, Zeitungen und Zeitschriften. In Museen wird gelegentlich von der Digitalisierung dreidimensionaler Objekte gesprochen. Damit ist zumeist ein Abtasten der räumlichen Umrisse dieser Objekte gemeint, das die Berechnung exakter dreidimensionaler Modelle im Computer erlaubt. Sie ist jedoch nicht begrenzt auf solche Objekte, sondern mit einer anderen technischen Basis auch anwendbar für Ton- und Bilddokumente. Die Digitalisierung von gedruckten Textinhalten führt immer über die digitale Abtastung des Bildes jeder Seite (Scanning). Dieses digitale Abbild zeigt die vorhandene Information zwar vollständig, aber nur als ein Bild je Seite, in dem keine Bestandteile unterschieden werden können. Technisch gesehen liegt zu diesem Zeitpunkt kein Text vor. Das digitale Abbild kann in dieser Form im Grunde nur betrachtet werden. Eine Nutzung für eine mehr oder weniger komfortable Suche o. ä. ist auf dieser Stufe nicht möglich. Sie kann aber erreicht werden durch eine Nachbearbeitung, die aus den reinen Seitenbildern den eigentlichen Textinhalt ausliest. Voraussetzung hierfür ist die Ausführung einer optischen Zeichenerkennung (OCR, Optical Character Recognition). Je nach Bedarf kann der Textinhalt, der auf diese Weise gewonnen wurde, für sich allein verwendet werden, wenn nur der Inhalt von Interesse ist. Er muss jedoch mit dem jeweiligen Bild verbunden bleiben, wenn weiterhin Wert gelegt wird auf die äussere Erscheinung des Originals bei gleichzeitiger Nutzbarkeit des Inhaltes Nutzen der Digitalisierung Die Digitalisierung ist unumstritten in ihrer Leistung, die Zugänglichkeit von Material dramatisch zu verbessern: Werke, die vorher nur vor Ort in der Bibliothek konsultiert werden konnten, können in digitaler Form technisch gesehen weltweit genutzt werden, sofern dies gewünscht ist. In Abhängigkeit von der technischen Umsetzung können sie konkret auch die Nutzungsmöglichkeiten von Literatur durch Sehbehinderte verbessern, die sich im Idealfall den gesamten Inhalt am Computer akustisch wiedergeben lassen können 21. Hierfür reicht wiederum die Bereitstellung von Bildern nicht aus, sondern es müssen auch reine Textversionen des Inhalts bereitgestellt werden. 20 Ein Beispiel für die letztere Vorgehensweise ist der Online-Katalog Griechischer Geist aus Basler Pressen : 21 Zugang für alle Schweizerische Stiftung zur behindertengerechten Technologienutzung: 37

38 Ziel der Bereitstellung einer hochwertigen digitalen Kopie eines Werkes kann es sein, die Belastung des Originals durch eine intensive physische Nutzung zu verringern. Ob dies Ziel wirklich erreicht wird, hängt allerdings vom Dokumenttyp und von der Handhabung in der Bibliothek ab, da die erhöhte Sichtbarkeit der Kopien auch zu erhöhter Nachfrage nach dem Original führen kann (Zotter 2003). Es darf allerdings nicht übersehen werden, dass dies für Handschriften mit ihren besonderen Eigenschaften eine ganz andere Frage ist als für eine neuzeitliche Zeitschrift: Bei einer Zeitschrift ist das Artefakt in aller Regel zweitrangig. Je nach Art des Originals können auch Zusatzfunktionen angeboten werden, die das Original prinzipiell nicht bieten kann, z.b. die erwähnten Suchfunktionen oder die Erstellung von Indices. Selbstverständlich hängen sowohl Bedürfnisse als auch Möglichkeiten stark vom Typ des Originals ab: Die Zeichenerkennung funktioniert für neuzeitlichen Drucke in Antiqua- Schriften überzeugend, für Fraktur jedoch noch merklich schlechter Digitalisierung als Massnahme der Bestandeserhaltung? Trotz ihrer überzeugenden Vorteile bei der Zugänglichkeit werden Digitalisate noch nicht umfassend als Alternative zum Mikrofilm als Sekundärform für die Langzeitarchivierung akzeptiert (z.b. (Lusenet 2003) und immer noch weitgehend gültig (Smith 1999)). Die Gründe für die Zurückhaltung sind vor dem Hintergrund der unter 2.4 und 3.2 dargestellten Punkte unmittelbar einleuchtend: Solange der Nachweis oder zumindest die Überzeugung fehlt, dass die digitalen Daten selber dauerhaft erhalten werden können, erscheinen sie als Sekundärform für gefährdete Originale mit dem Ziel der Erhaltung nicht sinnvoll. Mit der US-amerikanischen Association of Research Libraries (ARL) hat jedoch im Sommer 2004 eine namhafte Bibliotheksorganisation für die Anerkennung der Digitalisierung als Sekundärformat für die Langzeitarchivierung Stellung bezogen (Arthur, Byrne et al. 2004). Die ARL möchte es offensichtlich nicht bei der bisher praktizierten Zurückhaltung belassen, sondern die Diskussion darüber in Gang bringen, welche Regeln und Standards einzuhalten sind, um die Langzeitarchivierung in digitaler Form für bestimmte Materialien zu einer echten Alternative zu machen. Zur Begründung heisst es unter anderem, dass die verfügbaren Methoden zur Erhaltung über kürzere Zeiträume hinweg bereits heute gewährleisten, dass man die Zeit bis zur langfristigen Lösung der Erhaltung überbrücken kann. Ferner gestatten hochwertige Digitalisate die Herstellung von physischen Reproduktionen der Originale. Bei Dokumenten, bei denen das physische Artefakt nicht von überragendem Interesse ist, wird die Digitalisierung als Mittel der Erhaltung der Inhalte an Bedeutung gewinnen. Insbesondere Zeitschriften und Zeitungen, die vom Papierzerfall bedroht sind und zudem noch sehr umfangreich sein können, fallen in diese Kategorie. Dabei steht die Digitalisierung in Konkurrenz mit der Erstellung von Mikroformen oder von Fotokopien und mit der Massenentsäuerung des Materials Erhaltung der Digitalisate Während die Digitalisate selber aus heutiger Sicht also hauptsächlich der Verbesserung der Zugänglichkeit dienen, wird selbstverständlich angestrebt, dass die mit hohem Aufwand erstellten Digitalisate dauerhaft erhalten werden und zugänglich bleiben. Technisch gesehen unterliegen sie dabei den gleichen Problemen wie andere digitale Objekte. Unterschiede 38

39 begründen sich zumeist aus ihrem Charakter als Sekundärform. So muss zum Beispiel das digitale Seitenbild mit dem vorhandenen Textinhalt aus der Zeichenerkennung verbunden bleiben. 39

40 4. Technische Fragen: Zugriff Es soll an dieser Stelle kurz das Missverständnis kommentiert werden, es handle sich bei den Problemen von dauerhaftem Zugriff und Langzeiterhaltung um rein technische Fragen, für die auch eine technische Lösung erwartet werden darf. Richtig ist, dass alle diskutierten Lösungsansätze naturgemäss eine erhebliche technische Komponente aufweisen werden, um angemessen mit dem technisch geprägten digitalen Objekt umgehen zu können. Dieser technische Kern muss eingebettet sein in ein tragfähiges und funktionales institutionelles Umfeld. Die Technik stellt in diesem Sinne das unentbehrliche Werkzeug zur Verfügung, das im Rahmen einer sinnvollen Gesamtorganisation der Erhaltungsprozesse konkrete Aufgaben erfüllt. Für diesen organisatorischen Aufbau ist das Engagement von Bibliothekarinnen und Bibliothekaren von grosser Bedeutung. Sie müssen eine Vorstellung davon entwickeln, welche Inhalte warum, für wen und in welcher Form erhalten werden sollen. 4.1 Speicherung Als Speicherung soll das Schreiben von Informationen in Bitform verstanden werden, das eine mehr oder weniger dauerhafte Präsenz der entsprechenden Bits auf einem Datenträger zur Folge hat. Die Speicherung ist nicht gleichbedeutend mit Archivierung oder Langzeiterhaltung, sie ist jedoch eine notwendige Voraussetzung dafür, dass diese möglich wird. In der Diskussion um dauerhaften Zugriff und Langzeiterhaltung wird gelegentlich die Behauptung geäussert, da Speicherplatz billig geworden sei, seien die Probleme doch viel einfacher zu lösen. Es trifft zu, dass die Preise in Bezug auf eine gleichbleibende Grösse von Speicherplatz in den vergangenen Jahren stark gefallen sind, und zwar in unterschiedlichem Mass für Massenspeicher und Arbeitsspeicher. Nicht zu übersehen ist jedoch, dass währenddessen auch der Bedarf an Speicherplatz massiv gewachsen ist und weiter wächst. Hochwertige Lösungen für qualitativ und quantitativ anspruchsvolle Aufgaben haben weiterhin ihren Preis. Für die Fragen von dauerhaftem Zugriff und Langzeiterhaltung kann nur festgestellt werden, dass sie kaum durch Limitierungen beim verfügbaren Speicherplatz oder Arbeitsspeicher eingeschränkt sein werden. Für eine eigentliche Lösung der offenen Fragen ist die Verfügbarkeit von Speicherplatz sicher eine erfreuliche Erleichterung, sie leistet aber keinen konzeptionellen Beitrag. Auch wenn der technische Speicherplatz sich verbilligt haben mag, gilt dies im übrigen nicht für die qualifizierte Ausführung der Speicherung und Datenpflege: Mehr und mehr sind auch die Rechenzentren öffentlicher Einrichtungen dazu verpflichtet, untereinander Leistungen wie die Bereitstellung von Speicherplatz und die Betreuung der entsprechenden Backups zu verrechnen. Dies sind wiederkehrende Kosten, die langfristig budgetiert werden müssen. Anhaltspunkte zu den Kosten bieten die Angaben unter Die Menge von Daten, mit der umgegangen werden muss, hängt sehr stark von den betreffenden Dokumenten bzw. Inhalten ab. Für die im Rahmen der Studie besonders 40

41 relevanten Zeitschrifteninhalte bietet das edepot 22 der Königlichen Bibliothek der Niederlande in Den Haag mit seinen praktischen Erfahrungen einen sehr guten Anhaltspunkt: 2003 waren im Depot 1,6 Millionen Zeitschriftenartikel (aus Zeitschriften) gespeichert und beanspruchten 1,2 Terabyte 23 Speicherplatz. Die Prognose für 2004 nimmt 4,5 Millionen Artikel (2.600 Zeitschriftentitel) auf 3,0 Terabyte an (Steenbakkers 2004). Dabei ist zu beachten, dass es sich hier hauptsächlich um Titel eines Verlages handelt, vorzugsweise im PDF-Format. Je nach fachlicher Ausrichtung variieren zudem auch die typischen Artikellängen. Die technische Basis dieses Systems soll skalierbar sein auf 500 Terabyte. Bei der Speicherung aller Titel, die derzeit über das Konsortium lizenziert sind, ist mit einem vergleichbaren Datenaufkommen im einstelligen Terabyte-Bereich zu rechnen. Eine Hochrechnung für die z. Zt. mehr als Titel im Konsortium mit den Zahlen von 2004 ergibt einen Platzbedarf von mehr als 4,6 Terabyte. Die Hochrechnung auf Titelbasis ist allerdings sicher nicht verlässlich: Es sind verschiedene Verlage zu berücksichtigen und es bestehen in der Regel keine Archivrechte für den jeweils vorhandenen Bestand an nachträglich digitalisierten älteren Jahrgängen ( Backfiles ), den die Königliche Bibliothek erfassen kann. Diese müssten gegebenenfalls zusätzlich erworben werden. Eine Ausdehnung der Speicherung auf die Verlage, mit denen in den einzelnen Hochschulbibliotheken lokal Lizenzvereinbarungen bestehen, würde den Datenbestand vermutlich nicht massiv vergrössern. Die blosse Speicherung solcher Datenmengen stellt für geeignete Massenspeicher kein prinzipielles Problem dar. In bestimmten Forschungsprojekten von Atmosphären- und Teilchenphysik etwa fällt jährlich ein Vielfaches dieser Menge an und muss gespeichert werden ((1995), S.23 und 27). Hingegen erfordert der rasche Zugriff auf die gespeicherten Daten neben der entsprechenden Rechenleistung ein eigentliches Datenmanagement. Auch hierfür sind erprobte kommerzielle Lösungen erhältlich. Sie ermöglichen eine sinnvolle Kombination von Datenspeichern für eine eigentliche schnelle Online-Bereitstellung (in der Regel Festplatten) mit solchen für eine verzögerte sogenannte Nearline-Bereitstellung (ab Magnetbändern oder WORM 24 -Speichern). Selbstverständlich sind unabhängig hiervon Backup-Funktionen vorhanden. Angesichts der Datenmengen, die nicht nur gespeichert, sondern regelmässig auch bewegt werden müssen können interne (und externe) Verbindungen für den Datentransfer zu Engpässen eines Systems werden. Ebenfalls erprobt sind Mechanismen, die eine regelmässige Auffrischung der geschriebenen Bits vornehmen ( Refreshing ). Somit sollte es möglich sein, die Speicherung der reinen Abfolge von Bits zu gewährleisten. Bei sorgfältiger Planung der notwendigen Massnahmen sollte dies auch über den Wechsel der Hardwarebasis hinweg möglich sein. 22 edepot, Koninklijke Bibliotheek, Den Haag: (Zugriff ) 23 1 Terabyte = Gigabyte = Megabyte; Standarddiskette: 1,44 Megabyte 24 WORM: Write Once, Read Many optisches Speichermedium, das nur einmal beschrieben werden kann und dann nur noch Lesezugriff gestattet. 41

42 4.2 Oberfläche und Nutzung Die geordnete Speicherung von digitalen Objekten auf einem Server unter eigener Kontrolle gewährleistet zunächst nur, dass diese Daten für eine Nutzung prinzipiell zur Verfügung stehen. Die eigentliche Nutzung kann jedoch nur auf einem sehr rudimentären Niveau erfolgen, indem man sich z.b. durch eine Ordnerhierarchie hindurcharbeitet. Der Komfort, den moderne Benutzungs- und Suchoberflächen von Verlagen bieten und den die Benutzerschaft gewohnt ist, fehlt (Blättern in diversen Indices, Suche über verschiedenste Felder). Er kann nur erreicht werden, indem umfangreiche Metadaten erfasst und verwaltet werden. Im Idealfall liegen diese Metadaten mit den verfügbaren Inhaltsdaten zusammen vor und müssen lediglich von einer Such- und Präsentationssoftware neu aufbereitet werden (Aufbau von Indices usw.). Die entsprechende Software kann in der Regel nicht oder nur gegen Bezahlung vom Anbieter der Inhalte übernommen werden. Sie ist dann zumeist nur auf die Daten dieses einen Verlages ausgerichtet. Die Verwendung solcher proprietärer Software würde also bedeuten, für die Inhalte jedes Verlages ein eigenes Angebot aufzubauen und wäre entsprechend ineffizient. Es gibt vereinzelt kommerzielle Produkte, die den Anspruch erheben, ohne weiteres die Metadaten von mehreren Verlagen korrekt verarbeiten zu können 25. Hierbei muss üblicherweise mit erheblichen Kosten gerechnet werden. Interessant ist in diesem Zusammenhang das Beispiel einer weitgehend selbst entworfenen Hardwareinstallation des Los Alamos National Laboratory, die trotz des hohen eigenen Engagements eine modifizierte Version dieser kommerziellen Software einsetzt (Giacomo, Martinez et al. 2003). Als Alternative ist angeregt worden, für die Suche im Inhalt eines Servers auf eine Sammlung der Metadaten mit Hilfe des Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH 26, siehe auch Kapitel ) zurückzugreifen (Bennett, Conway et al. 2002). Es gibt daneben eine Reihe von Open Source-Software-Projekten, die im Kern vorrangig auf den Betrieb von Dokumentenspeichern im Sinne von Institutional Repositories abzielen (nähere Informationen folgen unter ). Einige der betreffenden Produkte bieten einen erheblichen Funktionsumfang für den Umgang mit Metadaten. Aufgrund ihrer Ausrichtung auf ein Angebot an grauer Literatur sind die meisten dieser Programme aber nicht in der Lage, Hierarchien befriedigend abzubilden, was für die sinnvolle Bedienung bei Zeitschriften zwingend nötig ist. Die Entwicklung in diesem Bereich ist keinesfalls abgeschlossen und es darf erwartet werden, dass weitere Verbesserungen folgen werden, wenn genügend Interesse besteht. 4.3 Authentizität Die leichte und im Normalfall spurlose Manipulierbarkeit elektronischer Objekte ist einer ihrer unschätzbaren Vorteile für die tägliche Arbeit. Zugleich stellt diese Eigenschaft ein Problem dar, wann immer ein solches Objekt Dokumentcharakter haben soll, also einen Sachverhalt dokumentieren und damit dauerhaft und zweifelsfrei nachvollziehbar machen soll. 25 Z.B. ENCompass Solutions, Endeavor Information Systems Inc.:

43 Authentizität ist in diesem Zusammenhang die Übereinstimmung eines Objektes mit einem definierten Originalzustand bzw. mit den Eigenschaften, die man diesem Objekt zuschreibt. Die Glaubwürdigkeit der einzelnen Dokumente ist Voraussetzung für die Glaubwürdigkeit und Akzeptanz der Angebote und Institutionen, die sich auf elektronische Dokumente abstützen. Das Problem des Nachweises der Authentizität ist nicht beschränkt auf digitale Medien, sondern tritt ebenso bei Mikroformen und analogen Dokumenten auf. Dort ist es jedoch nicht gepaart mit einer ähnlich leichten Veränderbarkeit. Unter den Eingriffen, die die Authentizität beeinträchtigen, sind unerwünschte Veränderungen durch technische Fehler oder absichtliche verfälschende Manipulationen zu unterscheiden von der Erstellung von Überarbeitungen und neuen Fassungen. Die ersteren sollen möglichst verhindert oder zumindest entdeckt werden, während die letzteren zu einer geordneten Versionierung führen sollen. Es ist in diesem Fall die Absicht, durch die Aufbewahrung verschiedener gekennzeichneter Versionen auch die Bearbeitung eines Objektes nachvollziehbar zu machen. Dies ist vor allem für Dokumente im engeren Sinne wichtig. Diese bilden normalerweise den Schwerpunkt der Sammeltätigkeit von Bibliotheken und sind insofern als Regelfall anzusehen. Dabei erscheint es als sinnvoll, den Gepflogenheiten bei gedruckten Dokumenten zu folgen: Es werden nicht alle unzähligen Bearbeitungsversionen aufbewahrt, die während des Entstehungsprozesses anfallen. Stattdessen werden lediglich die definierten Versionen erfasst, die einer bearbeiteten neuen Auflage eines Druckwerks entsprechen würden. Dies ist bereits nicht mehr eine rein technische Frage, sondern ist sorgfältig im jeweiligen Arbeitsablauf zu verankern. Die Technik muss z.b. verhindern, dass vorhandene Dateien versehentlich mit neuem Inhalt unter gleichem Namen überschrieben werden können. Voraussetzung hierfür ist eine eindeutige Identifizierung des Objektes, die mit einer blossen Benennung nicht zu erreichen ist. Eine Möglichkeit hierzu ist die Berechnung einer kryptographischen Prüfsumme, die nach allen praktischen Massstäben ein digitales Objekt eindeutig zu identifizieren vermag. Diese Identifizierung des Objektes selbst ist nicht zu verwechseln mit der dauerhaften Benennung mit Hilfe eines sogenannten Persistent Identifiers (vgl. 4.5). Ein häufig verwendeter Typ von Prüfsumme ist die sogenannte MD5-Prüfsumme ( Message Digest ). Ein sogenannter Hash 27 -Algorithmus sorgt dafür, dass aus dem Objekt eine Zeichenfolge fester Länge berechnet wird, die bereits bei einer minimalen Veränderung des Objektes völlig anders aussehen würde. Der Vorgang ist reproduzierbar, d.h. das gleiche Objekt wird immer die gleiche Prüfsumme wie einen Fingerabdruck erhalten. Der Prozess ist aber nicht umkehrbar, d.h. es ist nicht möglich, aus der Prüfsumme auf Merkmale des Objektes zu schliessen. Es kann somit nur die Identität bestätigt oder nicht bestätigt werden: Eine Aussage über die Art von Abweichungen ist nicht möglich. 27 Aus dem Englischen: to hash hacken, zerhacken 43

44 Abbildung 2: Vergleichsmöglichkeiten mit Hilfe einer Prüfsumme. A: Bestätigung der Vollständigkeit und Richtigkeit einer Kopie, B: Feststellung einer abweichenden Kopie, C: Bestätigung der Nicht- Identität eines angeblichen Originals, D: Nachweis der Bearbeitung gegenüber dem Original. Damit sind verschiedene Anwendungen möglich (vgl. Abbildung 2): Es kann überprüft werden, ob ein Objekt nachträglich verändert wurde, sofern die Prüfsumme der Originalversion vorliegt. Damit wird es möglich, Beschädigungen oder Manipulationen zu bemerken. Im gleichen Sinne kann beim Vorliegen zweier Objekte ihre Identität untereinander oder mit einem Original verglichen werden. Auf diese Art ist auch zu entscheiden, ob bei gleicher Benennung eine neue Version vorliegt, die als zusätzliches Objekt, aber mit Bezug zum Original zu verwalten ist. Neben der Absicherung gegen Veränderungen kann der Vergleich von Prüfsummen auch zur Kontrolle auf Dubletten herangezogen werden: Bei der Eingabe eines neuen Objektes in einen Speicher kann dessen Prüfsumme mit den Prüfsummen der vorhandenen Objekte verglichen werden, um die Aufnahme unnötiger Dubletten auszuschliessen, die unter abweichenden Namen auftreten. Die Prüfsumme kann nicht mehr herangezogen werden, wenn es gilt, ein digitales Objekt zu vergleichen mit dem Objekt, das als Produkt einer Umwandlung des ursprünglichen Objekts 44

45 erhalten wird (vgl. etwa die Migration, Kapitel 5.4). Die Prüfsumme ist also ungeeignet, um den Erfolg einer solchen Massnahme oder die Unversehrtheit des Inhalts zu bestätigen. 4.4 Zugriffskontrolle Die Kontrolle des Zugriffs auf digitale Objekte in einem Speicher muss drei Funktionen erfüllen: Sie muss zunächst feststellen, wer woher auf ein Objekt zuzugreifen versucht (Identifizierung). Dies ist verbunden mit einer Überprüfung, ob diese Identität zutrifft (Authentifizierung). Schliesslich müssen gezielt diejenigen Zugriffsrechte gewährt werden können, die der anfragenden Person z.b. aufgrund einer Gruppenzugehörigkeit zustehen (Autorisierung) Schreibzugriff Als grundlegendste Sicherheitsmassnahme gegen unbefugte Eingriffe sind die Zugriffsmöglichkeiten auf Daten in einem Speichersystem zu beschränken auf berechtigte Personen. Das klingt zunächst trivial. Während der lesende Zugriff lediglich für lizenzvertraglich geschützte oder mit Schutzfristen versehene Inhalte begrenzt werden muss, sollte die Möglichkeit zum (Über-)Schreiben von Information so eng wie möglich beschränkt und kontrolliert sein. So ist es zwar üblich, dass Autoren selber neue Inhalte für ein System anmelden und bereitstellen können. Diese Inhalte gelangen aber normalerweise nicht direkt in den eigentlichen Speicher, sondern müssen explizit von berechtigten Personen zugelassen werden. Dies sind Bedingungen, die zwar technisch umgesetzt werden müssen, die aber vor allem im jeweiligen Arbeitsablauf definiert und verankert werden müssen. Hier deutet sich bereits an, dass eine Speicher- und Archivinfrastruktur unterschiedliche Ebenen der Zugänglichkeit und der Sicherheit umfassen kann. Verschiedene Konzepte gehen von solch einem geschichteten Aufbau aus, wobei das Ausmass an Zugänglichkeit im gleichen Masse sinkt wie der Anspruch an Sicherheit und dauerhafte Erhaltung wächst (vgl. z.b. (Shirky 2002)). Für die sicherste und dunkelste Schicht wird in diesem Fall sogar eine physische Abtrennung vorgeschlagen, die es unmöglicht macht, sich Zugang zu den Daten zu verschaffen ( Air gap ) Lesezugriff Im Allgemeinen ist es das Ziel von Bibliotheken, ihre Bestände möglichst vollständig dem grösstmöglichen Benutzerkreis zugänglich zu machen. Bibliotheken konnten sich dabei bisher auf traditionelle Privilegien stützen, die es ihnen erlaubten, Bestände an Dritte auszuleihen. Bei gedruckten Dokumenten ist die Anzahl an gleichzeitigen Zugriffen auf ein Dokument durch die Bindung an einen physischen Träger in aller Regel auf jeweils eine Nutzung beschränkt. Aus der Sicht von Verlagen und anderen Anbietern stellt dies einen gewissen Kontrollmechanismus dar, der ihre Interessen an der Verwertung schützt. Bereits die Möglichkeit der Reproduktion als Fotokopie oder in jüngerer Zeit als digitaler Scan für die Dokumentenlieferung hat diese Kontrolle zum Missfallen der Verlage aufgeweicht (Cronau and Sprang 2004). Sie versuchen deshalb mit anderen Mechanismen, den Zugriff auf die von ihnen vertriebenen Daten zu kontrollieren und zu begrenzen. 45

46 Je nach Anbieter variiert die Praxis. Es gibt weiterhin Angebote, bei denen nur eine definierte Zahl von gleichzeitigen Benutzungen ( Simultaneous users ) vorgesehen ist. Im Normalfall werden jedoch heute in Konsortien sogenannte Site-licences vereinbart (Lizenzen für einen campusweiten Zugang), die eine beliebige Anzahl von gleichzeitigen Benutzungen zulassen, sofern nur Angehörigen der jeweiligen Institution die Nutzung ermöglicht wird. Die Kontrolle diese Berechtigungen erfolgt nur noch selten per Passwort, und zwar vornehmlich dann, wenn andere Lösungen technisch ausscheiden. Die komfortablere Variante besteht nämlich in einer Erkennung der IP 28 -Adresse des jeweils zugreifenden Computers. Die Adresse lässt erkennen, ob sich ein Arbeitsplatz innerhalb des Rechnernetzes einer Organisation befindet, deren Angehörige die Berechtigung haben, auf bestimmte Inhalte zuzugreifen. Die Methode an sich ist erprobt und zuverlässig. In der Praxis kommt es regelmässig zu Problemen, wenn die Rechneradressen bei einer Änderung nicht korrekt nachgeführt werden sowie bei Konstellationen, in denen die IP-Adressen nach aussen nicht sichtbar sind. Dies ist z.b. der Fall, wenn das Netzwerk einer Institution aus Sicherheitsgründen durch einen Proxy-Server vom Internet getrennt ist. Nach aussen ist dann ohne weiteres nur die IP-Adresse des Proxy- Servers sichtbar. Für die Dauer des Zugriffs auf lizenzierte Inhalte beim Verlag besteht für die Bibliotheken lediglich die Notwendigkeit, eventuelle Änderungen in den IP-Adressdaten weiterzumelden. Der jeweilige Anbieter muss dann dafür sorgen, dass die berechtigten Nutzerinnen und Nutzer als solche erkannt werden. Sobald Inhalte nicht mehr beim Verlag abgefragt werden, sondern in einem noch zu definierenden Speichersystem der Bibliothek(en), verschiebt sich die Verantwortung für die Kontrolle der Berechtigung beim Online-Zugriff hin zu den Einrichtungen, die die Infrastruktur betreiben. Sie müssen gegenüber den Anbietern gewährleisten, dass der Zugriff differenziert gewährt wird für diejenigen Jahrgänge, deren Inhalt die einzelnen Institutionen erworben hatten. Dies kann sehr aufwendig werden, wenn man sich die Vielzahl an Variationsmöglichkeiten klarmacht: Jede einzelne Bibliothek lizenziert unterschiedliche Produkte über das Konsortium und verfügt über einen unterschiedlichen Bestand an Abonnements gedruckter Zeitschriften. Die Dauer der Teilnahme an der Konsortiallizenz mit einem Verlag variiert von Bibliothek zu Bibliothek. In mehreren Bibliotheken bestehen zusätzliche Ansprüche auf bestimmte Inhalte, die z.b. auf ältere Einzelverträge dieser Häuser zurückgehen. Zusätzlich wurden lokal ältere Jahrgänge von elektronischen Zeitschriften erworben (Backfiles). Es sind neben den Konsortiumsverlagen eventuell auch Daten anderer Verlage zu berücksichtigen, die nicht vor Ort in den einzelnen Bibliotheken archiviert werden sollen. Titel wechseln den Verlag. 28 IP: Internetprotokoll Übertragungsprotokoll, das u.a. für die Adressierung von Daten sorgt, die über das Internet transportiert werden 46

47 Im Ergebnis bedeutet dies für die Zugriffskontrolle für verschiedene Verlagsangebote: Für jeden der Anbieter, die in einem Speichersystem berücksichtigt werden sollen, muss die speichernde Institution wegen der stärker differenzierten Berechtigungen sogar mehr Aufwand treiben, als es jeder Verlag einzeln bisher nur für sein Angebot tut! Dies vermehrt die Anzahl möglicher Fehlerquellen. Alternativen zur relativ starren Kontrolle von Berechtigungen mittels IP-Adresse sind in Entwicklung. Für die Schweiz ist insbesondere das Projekt SWITCHaai 29 von Bedeutung. Hier wird eine Authentifizierungs- und Autorisierungsinfrastruktur (Authentication and Autorisation Infrastructure (AAI) aufgebaut. Ziel ist es, den Benutzerinnen und Benutzern nach einmaliger Authentifizierung ohne weitere Passworte o.ä. Zugriff auf alle Ressourcen gewähren zu können, für die sie eine Zugangsberechtigung haben (Autorisierung). Die AAI nimmt dabei die Authentifizierung vor und ordnet der festgestellten Identität der Person die ihr zustehenden Berechtigungen zu. Im endgültigen Zustand soll dieses System freizügig zwischen den Schweizer Hochschulen und Forschungseinrichtungen funktionieren, d.h. eine eindeutig identifizierte Person kann unabhängig von ihrem Aufenthaltsort auf all jene Ressourcen zugreifen, die ihr zuvor zugeordnet worden sind. Ressourcen sind dabei weit gefasst und können Bibliotheksangebote, Verwaltungsdienstleistungen der Hochschule oder Angebote Dritter sein, die als Partner anerkannt worden sind. Das Projekt stützt sich technisch ab auf die Middleware Shibboleth Dauerhafte Adressierung Das Problem der dauerhaften Adressierung ist Bibliotheken vertraut: Nicht am Standort ist eine gefürchtete Meldung, weil sie verschiedenes bedeuten kann bis hin zum Totalverlust. Sie wird sich zwar weit häufiger auf ein Buch beziehen, das aus Unachtsamkeit an einen anderen Ort verstellt worden ist. Für denjenigen, der den Band sucht, kommt auch dies jedoch bis auf weiteres einem Totalverlust gleich, weil ihm das Buch nicht zugänglich ist. Ganz entsprechend verhält es sich mit digitalen Objekten. Die Adresse, unter der ein digitales Objekt abgelegt ist, hängt nicht von der Integrität des betreffenden Objektes ab. Ein vollständig intaktes Dokument kann unauffindbar werden, wenn es nicht mehr unter der gewohnten Adresse aufgerufen werden kann. Umgekehrt wirkt sich die Adressierung nicht auf die Integrität des Objektes aus: Trotz eines Versagens der bisherigen Adresse kann das Objekt völlig in Ordnung sein. Die weitaus meisten Adressen, die im World Wide Web benutzt werden, sind URLs (Uniform Resource Locators). Sie bestehen aus drei Teilen und enthalten die Information, die zum Auffinden eines Objektes an einem bestimmten Speicherort benötigt wird: <Protokoll>:// <Web-Server>/ <Pfad im Dateisystem des Servers> lib.consortium.ch/ external_files/workshop_mai_2004_d_pdf.pdf Aus der täglichen Arbeit ist unmittelbar bekannt, wie schnell eine Datei an einen anderen Ort verschoben werden kann oder ein Ordner umbenannt wird, weil sich der Bedarf geändert hat. Genau diese Massnahmen gefährden die Beständigkeit von URLs als Adressen. 29 SWITCHaai: 30 Shibboleth als Internet2-Projekt: 47

48 Es ist nützlich sich klarzumachen, dass Unbeständigkeit kein Merkmal ist, das die URLs aus sich heraus besitzen (Berners-Lee 1998). Sie können im Prinzip beliebig lange Gültigkeit behalten. Änderungen werden im Gegenteil aktiv von Menschen vorgenommen, wenn neue Anforderungen und Wünsche dies nötig machen. Im Umkehrschluss bedeutet dies, dass URLs vorausschauend gewählt werden sollten, damit sie möglichst wenig von nachträglichen Veränderungen betroffen sind. Diese Vorausschau hat natürlich Grenzen. Als Ausweg werden verschiedene Arten von sogenannten persistenten Identifikatoren ( Persistent identifiers ) diskutiert und in unterschiedlichem Masse angewandt. Sie weisen eine gemeinsame Grundidee auf, nämlich die Einschaltung einer zentralen Instanz ( Resolver, Auflöser), die den Bezug zwischen dem Namen eines Objektes und seinem Speicherort herstellt. Dadurch erreichen die meisten Modelle eine Entkopplung des Namens (Uniform Resource Name, URN) eines Objektes von seinem Speicherort auf einem bestimmten Server. Genau besehen wird bei diesem Konzept das Problem der korrekten Adressierung vor allem verlagert und auf eine Verbindung reduziert: Damit der Name eines Objektes zur richtigen Adresse aufgelöst werden kann, muss dem auflösenden System ( Resolver ) der jeweilige Speicherort zuvor mitgeteilt werden. Bei Verweisen auf normale URLs muss bei einer Änderung des Speicherortes jeder dieser Verweise im World Wide Web einzeln aktualisiert werden, da er bereits die gesamte Information zum Speicherort enthält (vgl. Abbildung 3). Abbildung 3: Auswirkung der unterschiedlichen Konzepte von Uniform Resource Locator und Uniform Resource Name bei einer Änderung des Speicherortes eines digitalen Objektes. 48

49 Die Verwendung eines URN 31 sieht hingegen nur einen einzigen Verweis auf den tatsächlichen Speicherort vor, und zwar denjenigen von der auflösenden Instanz her. Alle anderen Verweise auf das Objekt verweisen nur auf diesen Resolver. Darum müssen Änderungen nur an dieser einen Stelle erfolgen, und alle anderen Verweise bleiben gültig (vgl. Abbildung 3). Damit ist zugleich klar, dass auch bei Verwendung eines URN eine aktive Pflege an dieser Stelle notwendig ist: Kein Bezug zum Speicherort ist aus sich selbst heraus dauerhaft stabil URN-Schemata Im Folgenden werden die wichtigsten Umsetzungen des URN-Konzeptes kurz aufgelistet (vgl. hierzu z.b. (Borghoff, Rödig et al. 2003), S.100ff). Formal genügen auch URL dem Konzept: Der Resolver ist in diesem Fall das Domain Name System (DNS), das einen für den Menschen mehr oder weniger intuitiv verständlichen Domänennamen (z.b. auflöst zur IP-Adresse des entsprechenden Servers Digital Object Identifier (DOI) Digital Object Identifier (DOI) werden speziell für Zeitschriftenartikel angewandt. Hier bestand unter anderem das Interesse, publikationsreife Artikel bereits online anbieten und zitierfähig machen zu machen, bevor die Seitenzahlen des Beitrages im gedruckten Heft feststanden, die sonst im Zitat anzugeben sind. Damit schaffen DOIs natürlich auch die Voraussetzung, um Artikel eindeutig zitieren zu können, die gar nicht in gedruckter Form veröffentlicht werden. Träger von DOI ist die DOI-Foundation, die sich durch Beiträge ihrer Mitglieder finanziert. Die Vergabe von DOI ist somit nicht kostenfrei, sondern an diese Mitgliedschaft gebunden. Ein DOI setzt sich zusammen aus einem Präfix und einem Suffix. Das Präfix verweist auf eine Identifikationsnummer des Verlages im Resolver-Verzeichnis. Auf dieser Basis wird eine Anfrage nach einem DOI an den richtigen Anbieter weitergeleitet, der dann auf Grundlage der im Suffix enthaltenen internen Identifikation des gewünschten Artikels diesen auffinden kann. <Verzeichnis.Verlagscode>/ <interne Identifikation> DOI: / s Ein DOI kann von Standardbrowsern heute noch nicht ohne weiteres korrekt interpretiert, d.h. an den Resolver geschickt werden, um als Antwort die Adresse der Datenquelle zu erhalten. Hierzu bedarf es entweder eines speziellen Plug-Ins für den Browser oder der Nutzung eines DOI Proxy-Servers 32, der dem Browser die zutreffende Adresse liefert, ohne dass er zwischen dem Browser und dem Objekt steht (zur Bedeutung dieser Tatsache siehe auch 4.4.2). DOIs bleiben zunächst wirksam, solange der entsprechende Inhalt beim Verlag genutzt werden kann und die Verknüpfungen pflegt. Wird der Inhalt dagegen zusätzlich auf den 31 Der Begriff URN bezeichnet gleichermassen das allgemeine Konzept einer Namensgebung, die den Speicherort nicht explizit angibt und andererseits eines von mehreren Schemata, das dieses Konzept umsetzt. Hier ist das Grundkonzept gemeint. 32 Die Eingabe für das Beispiel lautet dann: 49

50 Server z.b. einer Bibliothek verschoben, dann muss der Auflösungsmechanismus die Benutzenden zu der für sie bestimmten Kopie führen. Die Abfrage eines DOI sollte in diesem Fall die Angehörigen einer Hochschule zu der Kopie bei ihrer Einrichtung führen, andere Anfragen jedoch zum Verlag leiten. Diese Aufgabe wird als das Problem der appropriate copy diskutiert und kann gelöst werden (Beit-Arie, Blake et al. 2001). Der Auflösungsmechanismus von DOI bedient sich des Handle-Systems Handle-System Das Handle-System der CNRI (Corporation of National Research Initiatives) stellt unter anderem die Grundlage für die Verwendung von DOI dar. Es gelten darum im Wesentlichen die gleichen Angaben wie für DOI. Anders als DOI ist das Handle-System jedoch nicht auf einen bestimmten Dokumenttyp ausgerichtet. Die Auflösung der Bezeichnungen kann wiederum unter Nutzung eines Proxy-Servers erfolgen 33. <namengebende Institution>/ <interne Identifikation> hdl: / 4007 Das Handle-System wird auch in der Dokumentenserver-Software DSpace (Tansley, Bass et al. 2003) von MIT und Hewlett-Packard unterstützt Uniform Resource Name Hier handelt es sich nicht um das Konzept des URN allgemein, sondern um eine konkrete Umsetzung, die den gleichen Namen trägt. Unter anderem wird sie von mehreren Nationalbibliotheken angewandt. Nützlich zum Verständnis ist das Konzept der Schweizerischen Landesbibliothek (Bättig and Locher 2003). Im Folgenden wird ein Beispiel eines von der SLB vergebenen URN gezeigt. Der Namensraum NBN (National Bibliography Number) wird dabei von allen beteiligten Nationalbibliotheken genutzt und durch eine Länderkennung in Unternamensräume gegliedert. <Namensraum NBN:Land>: <Vergabestelle>- <interne Identifikation> urn: nbn:ch: bel In ihrer gegenwärtigen Form sind die URNs der Nationalbibliotheken nur für statische Objekte geeignet, die allerdings aus mehreren Teilen bestehen können. Die Auflösung für in der Schweiz vergebene URNs kann in einem Dienst der Deutschen Bibliothek demonstriert werden 34. Ein weiteres Schweizer Beispiel für die Verwendung von URNs findet sich im Informationsportal der Bundeskanzlei zur öffentlichen Verwaltung in der Schweiz 35. Es weist im Vergleich zu den URNs, die von Bibliotheken vergeben werden, konzeptionelle Unterschiede auf, vor allem im Hinblick auf eine Nutzung zur Abbildung hierarchischer Zusammenhänge PURL Die vorhergehenden Ausführungen lassen erkennen, dass sich trotz gleicher Zielrichtung noch kein Standard klar durchgesetzt hat. Dieser Umstand wird als eine Ursache für die 33 Die Eingabe für das Beispiel lautet dann: 34 Link zur Demonstration des URN-Resolvers der DDB unter 35 Informationsportal der Bundeskanzlei unter 50

51 bisher geringe Verbreitung von persistenten Identifikatoren angeführt ((Borghoff, Rödig et al. 2003), S.102). Aus diesem Grund wurden von OCLC (Online Computer Library Center, Inc.) als Zwischenlösung sogenannte Persistent URLs (PURLs) vorgeschlagen und umgesetzt 36. Hierbei handelt es sich um URLs, denen durch eine Umleitung der Anfrage Dauerhaftigkeit verliehen wird. Ein normaler URL adressiert das aufzufindende Objekt direkt an seinem aktuellen Speicherort. Ein PURL enthält innerhalb eines URL die Adresse eines Resolvers und den Namen der gesuchten Ressource. Der Aufruf eines PURL bewirkt, dass die Anfrage zunächst an den Resolver gelangt. Dieser prüft, welche aktuelle Adresse das gesuchte Objekt hat und gibt den entsprechenden URL an den anfragenden Computer zurück. Mit diesem URL wird dann das Objekt direkt am aktuellen Speicherort angesprochen (siehe Abbildung 4). Abbildung 4: Informationaustausch beim Aufruf eines Objekts unter Verwendung eines PURL. Die Kommunikation nutzt das Standardprotokoll HTTP (Hypertext Transfer Protocol) des World Wide Web. Das Ergebnis entspricht der Darstellung in Abbildung 3. Der entscheidende Unterschied zu URNs liegt darin, dass PURLs von Standard-Webbrowsern ohne weiteres verarbeitet werden können: Es ist weder Zusatzsoftware nötig noch müssen andere Modifikationen auf Nutzerseite vorgenommen werden. Ein ähnliches Ziel wird durch die unter und erwähnte Verwendung von Proxy-Servern erreicht. Der Einsatz solcher Server stellt in diesen Fällen aber ein Hilfsmittel dar, das nicht Teil des eigentlichen Konzeptes von URNs ist. PURLs können unabhängig von OCLC vergeben werden. 36 Weitere Informationen zu PURLs unter 51

52 52

53 5. Technische Lösungsansätze: Langzeiterhaltung Die verschiedenen technischen Methoden, die untersucht werden, um digitale Information langfristig nutzbar erhalten zu können, unterscheiden sich unter anderem nach dem Zeitpunkt, an dem erste Massnahmen ergriffen werden. Auch sind sie verschieden zu bewerten, je nachdem, ob eine grosse Menge gleichartiger Daten betrachtet wird oder viele Formate mit unterschiedlichen Eigenschaften vorliegen. Die bereits diskutierten Fragen von Authentizität, Zugriffskontrolle, Adressierung usw. bleiben unvermindert relevant. Da nicht alle Methoden das gleiche Ergebnis liefern, besteht ein Bedarf zu definieren, welche Verluste an Eigenschaften oder Funktion digitaler Objekte in Kauf genommen werden können. Dies ist ausserordentlich schwierig, da davon ausgegangen werden muss, dass Daten, die in einem bestimmten Zusammenhang erzeugt worden sind, in der Zukunft in anderem Zusammenhang und auf andere Art genutzt werden könnten. Es fehlt ein Instrumentarium, das solche Umnutzungen erleichtern würde ((Hedstrom, Ross et al. 2003), S.20). Ein Dilemma liegt darin, dass der Erfolg bestimmter Massnahmen erst im Ernstfall nach ihrer Anwendung beurteilt werden kann. Die Chancen für erfolgreiche Umsetzungen müssen durch Forschungen in der Gegenwart gesteigert werden. Die meisten Bibliotheken werden sich dieser Aufgabe nicht selber in grösserem Umfang annehmen können. Umso wichtiger ist es, dass sie ihrem Interesse an Arbeiten zu diesen Themen im Verbund mit weiteren Partnern Rechnung tragen: Nicht zuletzt bestehen in den meisten Hochschulen Institute oder Departemente für Informatik, Informationstechnik und verwandte Bereiche, die das Potential für Forschung in diesem Bereich haben. 5.1 Datenarchäologie Unter dem Begriff Datenarchäologie werden die Methoden zusammengefasst, die angewandt werden, um nicht mehr zugängliche Daten in digitaler Form lesen und nutzen zu können. Die Zugänglichkeit kann dabei physisch oder logisch beeinträchtigt sein (Ross and Gow 1999). Bei physischen Problemen kann z.b. ein beschädigter Datenträger nicht mehr gelesen werden. Bei logischen Problemen kann etwa zunächst nicht festgestellt werden, in welchem Format Daten vorliegen und mit welcher Software sie gelesen werden können. So kann es sein, dass Daten, die als Abfolge von Bits in ihrer ursprünglichen Form korrekt vorliegen, dennoch unverständlich sind. Der Einsatz dieser Methoden ist je nach Zustand und Alter der unzugänglichen Daten unterschiedlich aufwendig. Bei physischen Leseproblemen können auch hochempfindliche physikalische Methoden zur Anwendung kommen wie die Magnetkraftmikroskopie. Damit deutet sich aber bereits an, dass es sich hierbei nicht um die Behandlung grosser Massen von Datenträgern handeln kann. Dieser Aufwand kann vermutlich auch langfristig nur gerechtfertigt werden, wenn es um Daten geht, die für die Existenz eines Unternehmens entscheidend sind oder Beweiswert haben oder die einen hohen Wert in kultureller oder historischer Sicht darstellen. 53

54 Wenn nichts als die zu lesenden Daten vorhanden ist, entsteht naturgemäss ein grösserer Aufwand, als wenn weitere Informationen verfügbar sind über Art und Eigenschaften der Daten. Wenn diese Angabe für eine grosse, gleichartige Menge digitaler Objekte neu beschafft werden müssen, ist der Einsatz entsprechend aufwendiger Methoden sicher eher zu rechtfertigen als eine Einzelfallbehandlung. Insofern geben die Erfahrungen der Datenarchäologie sehr nützliche Hinweise dafür, welche Vorkehrungen heute getroffen werden müssen, um in der Zukunft diese Art von Archäologie entweder überflüssig zu machen oder sie zumindest sehr zu vereinfachen: Eine umfassende und dauerhafte Dokumentation von Formaten und Programmen erspart es zu einem späteren Zeitpunkt, diese Angaben zurückzugewinnen und auf Umwegen zu erschliessen. Dabei reicht es nicht, diese Dokumentation an einem Ort zu erstellen und abzulegen, sondern sie muss auch noch mit den betreffenden Objekten in Verbindung gebracht werden können: Ein Objekt sollte idealerweise selbst darüber Auskunft geben können, was es ist und wie es zu behandeln ist bzw. wo sich entsprechende Informationen finden lassen. Dann ist es möglich, gezielt Massnahmen zu ergreifen, z.b. indem eine überholte Software auf einem emulierten Betriebssystem lauffähig gemacht wird (zur Emulation siehe 5.5). Hilfreich ist es dabei, wenn die Dokumentation in unmittelbar für den Menschen lesbarer Form vorliegt (vgl. Kapitel 5.8). 5.2 Computermuseum Das Veralten der technischen Basis bei allen Teilen der Hardware (z.b. Rechner und Laufwerke) wurde als ein Problem bei der langfristigen Nutzung und Erhaltung digitaler Daten angegeben. Als logische Konsequenz ist daher vorgeschlagen worden, Hardware zu archivieren, die es später gestatten würde, auf überholte Speichermedien zuzugreifen und überholte Software auf ebenso überholter Hardware laufen zu lassen. Bei näherer Betrachtung kann dieses Konzept eines Computermuseums keine Lösung sein: 54 Eine simple museale Aufbewahrung von Geräten reicht nicht aus: Sie müssten auf unabsehbare Zeit zuverlässig gewartet und voll betriebsfähig gehalten werden. Selbst das Vorhandensein eines unbegrenzten Ersatzteillagers löst das Problem nicht, weil physikalische Prozesse mit der Zeit zwingend zum Funktionsverlust verschiedener Komponenten führen. Die Zahl der erforderlichen Geräte würde sehr rasch wachsen. Eine umfassende Dokumentation der wechselseitigen Abhängigkeiten von Hard- und Software wäre nötig. Fehler würden Daten zusätzlich gefährden. Eine solche Dokumentation ist allerdings generell eine Voraussetzung für den Erfolg von Erhaltungsstrategien und keine Eigenheit des Computermuseums. Eine oder wenige solcher Einrichtungen könnten ihre Aufgaben jeweils nur ortsgebunden erfüllen. Alle Anforderungen gemeinsam würden entsprechende Projekte zumindest sehr aufwendig machen. Hinsichtlich der Nutzung überholter Speichermedien kommt jedoch hinzu, dass die Erfolgsaussichten für die Möglichkeit zum Auslesen von Daten bereits durch die physikalischen Eigenschaften der Träger limitiert sind: Es wird innerhalb einiger Jahre ein

55 Punkt erreicht, an dem auch ein Originallaufwerk nicht mehr in der Lage ist, alle Daten vom passenden Speichermedium zu lesen, weil diese bereits verloren gegangen ist. Demgegenüber kann es durchaus sinnvoll sein, für einige Jahre Geräte aufzubewahren, die nicht mehr im regulären Betrieb benötigt werden, aber mit begrenztem Aufwand funktionsfähig gehalten werden können. Auf diese Weise ist es möglich, noch für einige Zeit auf unkompliziertem Wege Daten zu lesen und zu kopieren, die aus anderen Quellen verspätet auftauchen und intakt sind. In diese Richtung zielt auch ein Vorschlag, verstärkt zu untersuchen, wie aufbewahrte Peripheriegeräte (Laufwerke, Anzeigen) mit neuerer Hardware kommunizieren können (Hedstrom, Ross et al. 2003). Eine bessere Hilfe wären allerdings Laufwerke auf dem Stand der Technik, die überholte Datenträger weiterhin lesen können. Bezogen auf die Bereitstellung einer überholten Hardwareplattform für überholte Software kann das Computermuseum zudem in gewissem Sinne auf einer virtuellen Ebene realisiert werden: Die unter 5.5 diskutierte Emulation versucht im Grunde genau dies. 5.3 Standardformate Die Definition und Einhaltung offener, internationaler und gut dokumentierter Standards kann helfen, zumindest einige absehbare Probleme der Langzeiterhaltung zu mildern. Zeitweise sieht es allerdings so aus, als gäbe es bereits eher zu viele als zu wenige solcher Standards. Während bei den Massnahmen für die Archivierung die Vielfalt technischer Lösungen als eine gewisse Sicherheit gegen grundsätzliche Irrtümer gilt, überwiegt bei den Formaten das Interesse an einer sinnvollen Standardisierung, um bereits bei der Dokumenterstellung günstige Voraussetzungen für die spätere Langzeiterhaltung zu schaffen. Zentrale Bedeutung kommt den Standards bei den Dateiformaten digitaler Objekte zu, die gespeichert und archiviert werden sollen. Bibliotheken können bisher nur beschränkt Einfluss darauf nehmen, in welchen Dateiformaten sie Inhalte beziehen. Um trotzdem eine gewisse Einheitlichkeit zu erreichen, müssen unter Umständen die eingereichten Beiträge von der Bibliothek in das von ihr bevorzugte Format umgewandelt werden. Dies sollte nur geschehen, wenn dabei keine unvertretbaren Veränderungen oder Qualitätsverluste auftreten. Grundsätzlich sollten Formate mit Blick auf die Archivierung folgende Eigenschaften besitzen: Offene Spezifikation: o Die technischen Charakteristika des Formats müssen vollständig offengelegt sein. Diese Offenheit darf nicht durch Patente oder Firmengeheimnisse beschränkt sein (nicht-proprietärer Charakter). o Syntaktische Spezifikation: Korrekte Codierung des Formats muss bekannt sein. o Semantische Spezifikation: Bedeutungszuordnung zu den Auszeichnungstags muss bekannt sein. 55

56 o In sich vollständige Spezifikation, die nicht auf andere Quellen Bezug nehmen darf, die nicht in ihr enthalten sind. Sie soll zudem medienunabhängig zur Verfügung stehen, also auch in nicht-digitaler Form. Standardisierung durch eine internationale Organisation: Sie stellt sicher, dass sich alle Informationen auf das gleiche Format beziehen und keine unerkannten Abweichungen auftreten (siehe dazu aber z.b ). Weite Verbreitung und Akzeptanz: Je mehr Inhalt in einem Format vorliegt, desto grösser ist der Druck auf Forschung und Markt, Lösungen zu finden. Verzicht auf kryptographische Techniken, die die Handhabung beeinträchtigen. Idealerweise gar keine Datenkompression. Wenn sie unvermeidlich ist, dann darf sie nur als verlustfreier Prozess ausgeführt werden. Aus heutiger Sicht wird angenommen, dass kein Format länger als 10 Jahre Bestand haben wird. Selbst beim scheinbaren Gegenbeispiel ASCII gibt es bei der Verwendung des erweiterten Zeichensatzes Darstellungsprobleme beim Wechsel zwischen der Microsoft- und UNIX-Welt. Es sind also eindeutige Definitionen und Standards nötig. Im Folgenden werden drei Dateiformate betrachtet, die für die Archivierung herangezogen oder zumindest intensiv diskutiert werden. Darüber hinaus können für weitere Objektarten Standardformate genannt werden (Borghoff, Rödig et al. 2003). Dabei ist ein Hauptgesichtspunkt, dass Standardformate allgemein eine längere Lebensdauer haben. Ihre Eignung für die Archivierung kann davon abgesehen aber unterschiedlich sein. Insbesondere für zusammengesetzte Objekte fehlen Standards PDF und PDF/A Bibliotheken sind heute am häufigsten mit Textdokumenten im PDF-Format konfrontiert (Portable Document Format). Dieses Format wird sehr geschätzt, da es die äussere Erscheinung von Dokumenten bei der Übergabe an andere Computer bewahrt. Zudem ist die Anzeige-Software Acrobat Reader von der Firma Adobe frei erhältlich, was zur weltweiten Verbreitung des Formates massgeblich beigetragen hat. PDF erfüllt die oben formulierten Anforderungen jedoch nur teilweise. Es ist kein wirklicher Standard, sondern nur ein ausserordentlich weit verbreitetes Format, das von der Firma Adobe definiert und weiterentwickelt wird. Es wurde bisher regelmässig die Format- Spezifikation der vorletzten Programmversion offengelegt. Eine Verpflichtung hierzu besteht logischerweise nicht und Adobe könnte dies jederzeit stoppen. Zudem erlaubt die Software auch Kompressionen und gewisse kryptographische Massnahmen, das Einbetten anderer Dateien und Verweise auf Zeichensätze und Inhalte ausserhalb der jeweiligen Datei. Ferner gibt es Werkzeuge verschiedener Hersteller, die PDF-Dateien erstellen können. Dies kann zu Inkonsistenzen führen. Es sind darum Bemühungen in Gange, auf der Basis des PDF- Formates einen ISO-Standard PDF/A zu definieren, der eine Untermenge von Eigenschaften des PDF-Formates umfasst, um die Archivtauglichkeit des Formates zu verbessern. Der Bedarf hierfür wird noch stärker, wenn die umfangreichen neuen Funktionen 56

57 betrachtet werden, die in der Version 7.0 der Adobe Acrobat Software Anfang 2005 verfügbar sein sollen 37. Hintergrund der Entwicklung dieses Standards sind die Bedürfnisse, die vom Administrative Office of the U.S. Courts (AOUSC) angemeldet wurden. US-Gerichte akzeptieren Unterlagen in elektronischer Form, und zur Erhaltung des Layouts (v.a. der Paginierung) wird als Abgabeformat PDF gefordert. Es erfüllt aber ohne weitere Vorgaben nicht den Anspruch der Gerichte. Dieser gründet sich auf die Pflicht zur Archivierung z. T. über 40 Jahre mit einer Übergabe an das Nationalarchiv NARA. So muss die äussere Erscheinung dauerhaft wiedergegeben werden können und weitere Eigenschaften erhalten werden. Die entsprechenden Fragen dürften sich über kurz oder lang weltweit stellen. So haben kürzlich auch deutsche Gerichte Verfahren zur elektronischen Abgabe von Unterlagen als Anhänge zu elektronischen Nachrichten eingerichtet 38 und Schweizer e-government 39 -Aktivitäten könnten längerfristig ähnliche Wege gehen. Der Ansatz, der von den Gremien der ISO gewählt wurde, stützt sich auf die offengelegte Spezifikation 1.4 und definiert Untermengen von PDF-Komponenten, deren Benutzung bei der Dateierstellung als zwingend, empfohlen oder verboten eingestuft wird. Es wird also kein neues Dateiformat definiert, sondern lediglich die Benutzung des vorhandenen PDF reglementiert. Der Standard bezieht sich ausdrücklich nicht auf die Konvertierung von Papier-Dokumenten zu PDF. Es werden zwei zulässige Niveaus der Konformität unterschieden (voll und minimal). Ziel aller Vorgaben ist es, die Benutzung der PDF Dateien möglichst unabhängig zu machen von Plattformen und Software und möglichst zugänglich für direkte Analyse und Lesbarkeit (device independence). alle Informationen und Ressourcen in der Datei zu vereinigen, die nötig sind für die verlässliche und vorhersagbare Interpretation und Wiedergabe (self-containment). möglichst umfassende deskriptive, administrative, strukturelle und technische Metadaten im Dokument selber vorzuhalten (self-documentation). Der Entwurf eines Standards für PDF/A ist für eine zweite internationale Vernehmlassungsrunde ( Committee Draft Ballot ) freigegeben worden. Die Publikation als Standard ist für Frühjahr 2005 angekündigt 40. Grundsätzlich gehen mit den angegebenen Beschränkungen attraktive Eigenschaften neuer PDF-Versionen verloren, insbesondere Multimedia-Elemente. So ist z.b. der Gebrauch der transparent -Funktion untersagt, und es darf keine verborgenen Inhalte geben. Adobe (und auch andere Hersteller) sind an der Ausarbeitung des Standards beteiligt. Angeblich wird Adobe eine Option PDF/A nach Verabschiedung des Standards in seiner Software anbieten. PDF/A hat seinen Ursprung in den Bedürfnissen von eigentlichen Archiven. Die Gerichte, die den Anstoss zu dieser Entwicklung gaben, können natürlich ihren Kundinnen und Kunden Elektronisches Gerichts- und Verwaltungspostfach: 39 E-Government-Strategie des Bundes: 40 Die ISO-Website nennt den , was überraschend spät wäre (Zugriff am ). 57

58 entsprechende Vorgaben machen. Es ist darum schwierig, die Akzeptanz in weniger reglementierbaren Bereichen abzuschätzen. Die Mehrzahl der PDF-Dokumente, mit denen Bibliotheken konfrontiert werden, macht nur in geringem Umfang von den umfangreichen Funktionalitäten Gebrauch, die mit diesem Standard eingeschränkt werden. Der Wunsch nach einer Beseitigung der Zweifel an PDF als Archivierungsformat ist so stark, dass eine Verbreitung wahrscheinlich ist. Sie kann von den Bibliotheken unterstützt werden, die für ihre eigenen Dokumentenserver entsprechende Auflagen machen können. Bei Dokumenten, die von Verlagen geliefert werden, stellen sich bestimmte Fragen nicht. Dennoch kann PDF/A auch hier noch zu einer Vereinheitlichung beitragen. Die Verwendung von PDF/A bewirkt allein selbstverständlich keine Archivierung, sondern kann diese nur erleichtern. Die Gruppe, die den Standard PDF/A erarbeitet hat, wird sich auch damit beschäftigen, Spezifikationen zu formulieren, die ein Archivformat ganz allgemein erfüllen muss. Unabhängig von den Anstrengungen um eine Beschränkung der Funktionalitäten hat PDF einen prinzipiellen Nachteil: Das Datenformat dieses Dateiformates ist binär, d.h. seine Codierung besteht nicht aus Textzeichen und kann nur mit geeigneter Software als Inhalt interpretiert werden. Es ist darum nicht in einem einfachen Texteditor darstellbar oder bearbeitbar. Im Unterschied dazu gibt es Dateiformate, deren Daten im Textformat gespeichert werden (vgl ). Aus dem gleichen Grund bewältigt PDF zwar die Darstellung von Dokumenten hervorragend, kann aber nicht in der gleichen Tiefe auch ihre Struktur erfassen TIFF (Tagged Image File Format) TIFF ist ein Format zur Speicherung von Rastergraphiken. So werden die Masteraufnahmen bei der Digitalisierung in der Regel in TIFF-Dateien erfasst. Zu den Vorzügen von TIFF gehört, dass es über relativ lange Zeit eine aufbauende Entwicklung erfahren hat. Dies bedeutet, dass die neueren Spezifikationen die jeweils früheren mit einschliessen. Bei Beschränkung auf die Formate, die bereits in früheren Spezifikationen enthalten waren, besteht somit im Allgemeinen (Borghoff, Rödig et al. 2003) Abwärts- und Aufwärtskompatibilität. Für eine gewisse Unübersichtlichkeit sorgt die Vielfalt an Erweiterungen zu diesem Format (vgl ). Auch TIFF-Dateien werden in binärer Form gespeichert und nicht in Form von Textzeichen, die für den Menschen immer noch interpretierbar wären (vgl ) XML (extensible Markup Language) und andere Auszeichnungssprachen XML Bei XML und seinen Verwandten handelt es sich um Sprachen, die die Struktur eines Dokumentes und die Funktion seiner einzelnen Elemente sehr detailliert beschreiben können. Gebräuchlich ist dies bisher vor allem für Textdokumente, jedoch können auch Vektorgraphik, mathematische Formeln oder gesprochene Sprache oder anderes codiert 58

59 werden (Borghoff, Rödig et al. 2003). XML ist ein offener Standard, der vom World Wide Web-Consortium (W3C) 41 definiert wurde 42. Gemeinsam ist dieser Gruppe von Auszeichnungssprachen (Markup Languages), dass sie die Beschreibung des Dokumentes in Form von Textzeichen erfassen. Bei einem Textdokument erscheint in dieser Form die Auszeichnung für ein Element (Tag) zusammen mit seinem Inhalt. Dies ist eine grosse Stärke dieser Formate: Sie bleiben auf diesem Niveau der Codierung mit hoher Wahrscheinlichkeit sehr lange lesbar und stellen keine hohen Ansprüche an spezielle proprietäre Anwendungsprogramme. Im Falle von XML ist die Darstellung strikt von der Struktur getrennt: Die Zuordnung einer bestimmten Formatierung zu einer Codierung kann so je nach Verwendungszweck eines gegebenen Inhaltes gewählt und angepasst werden. Der offensichtliche Nachteil dieser Trennung ist, dass die entsprechenden Anweisungen für die Darstellung, die in einem separaten Dokument vorliegen, ebenfalls immer vorhanden sein müssen, um die ursprünglich gewünschte Form der Präsentation wiedergeben zu können. Die Dokumente, die diese Anweisungen enthalten, sind die DTDs (Document Type Definitions) oder - mit etwas anderen Eigenschaften und erweiterten Fähigkeiten - XML-Schemata. Für die Archivierung erhöht dies den Anspruch, da jeweils die authentische und gültige Anweisungsdatei mit dem Inhaltsdokument verknüpft werden muss. Dieser Umstand und die für die Endnutzerschaft zur Zeit noch aufwendigere Nutzung haben die Verbreitung von XML bisher verzögert. Zwar bieten gängige Office-Programme bereits eine Ausgabeoption XML an, dahinter verbergen sich aber zum Teil wieder proprietäre Modifikationen, die unerwünscht sind. Professionell arbeitende Verlage haben den Wechsel zu XML als Format für ihre internen Produktionsprozesse in der Regel bereits vollzogen. Die Trennung von Struktur und Darstellung wird als so wichtig betrachtet, dass XML als Format für Dokumente favorisiert wird, die für die Langzeitarchivierung bestimmt sind oder über längere Zeit Aussicht auf eine Wieder- oder Neuverwendung haben. Umgekehrt wird HTML (Hypertext Markup Language) aus dem gleichen Grund kritisch gesehen: Es vermischt Darstellung und Strukturierung in einer Weise, die bei Nachnutzung und Erhaltung zu Problemen führt. Schneller als für die Textcodierung hat sich XML für die Erfassung von Metadaten durchgesetzt. Dies ist einleuchtend, wenn man sich klarmacht, dass bei Metadaten die Nutzung der Daten in verschiedensten Zusammenhängen in Mittelpunkt des Interesses steht und nicht ihre optische Erscheinung. Als eigentliches Format für die Erfassung von Metadaten stellt XML heute bereits das Standardformat dar. XML macht aber keinerlei Angaben dazu, welche Metadaten überhaupt zu erfassen sind, sondern nur dazu, wie sie auf einer sehr formalen Ebene zu kennzeichnen sind. Ein Standard wie METS (Metadata Encoding and Transmission Standard) 43 definiert hierfür das zugehörige formale Schema. Beides kann darum nur sinnvoll eingesetzt werden, wenn ein inhaltlicher Metadatenstandard bereits gegeben ist. Damit sind Standards wie das Dublin Core Metadata Element Set 44 oder die Formatdefinitionen gängiger Katalogisierungs- 41 World Wide Web Consortium: 42 Extensible Markup Language (XML): 43 METS (Metadata Encoding and Transmission Standard): 44 Dublin Core Metadata Initiative: 59

60 regelwerke gemeint. Sie können hier nicht diskutiert werden, obwohl den Metadaten bei der Erhaltung grosse Bedeutung zukommt, wenn technische Angaben oder die Bearbeitungsgeschichte eines Objektes erfasst und mitgeteilt werden sollen TeX und LaTeX TeX 45 funktioniert zwar ebenfalls als Auszeichungssprache, ihr Ziel ist jedoch die Erzeugung einer Druckvorlage im Sinne eines Satzprogrammes. Darum muss die äussere Gestaltung im Dokument verankert sein. LaTeX ermöglicht vor allem eine einfachere Handhabung der Möglichkeiten von TeX mit Hilfe vordefinierter Makros. Besondere Stärke von TeX ist die geräteunabhängige Ausgabe, die das einmal festgelegte Erscheinungsbild bewahrt. Unter anderem deshalb ist es bei Mathematikern und Naturwissenschaftlern beliebt, die zahlreiche Formeln in Publikationen verwenden. In diesem Bereich wird TeX darum auch von Verlagen verwendet. Eine weitere Verbreitung war lange dadurch behindert, dass das Ergebnis nicht während des Schreibens sichtbar gemacht werden konnte wie in gängigen Textverarbeitungsprogrammen. Unter dem Gesichtspunkt der Langzeitverfügbarkeit fällt auf, dass TeX Anfang der Achtziger Jahre offensichtlich als sehr ausgereiftes System gestartet wurde. Sein Befehlsumfang gilt seit 1985 als abgeschlossen, und es haben seither nur geringe Fehlerkorrekturen stattgefunden. Diese Stabilität ist ausserordentlich wertvoll im Hinblick auf die Langzeitarchivierung, sofern für die Dokumentation der weiteren Anforderungen gesorgt ist (Interpreter für die Programmiersprache, Druckertreiber für die Ausgabe). Neben der immer noch begrenzten Verbreitung ist angemerkt, dass TeX anders als XML bestimmte Angaben nur implizit macht (Borghoff, Rödig et al. 2003), weil dies der gewünschten Ausgabeform entspricht. Als Beispiel wird der Multiplikationspunkt innerhalb des Zählers eines mathematischen Bruches genannt. Er bleibt bei der Umwandlung in andere Formate verschwunden, die für die korrekte Darstellung auf die explizite Angabe angewiesen wären. Wie bedeutsam diese Art von Mangel im Vergleich zu den Vorteilen ist, bleibt zunächst offen, zumal es das Ziel ist, die Notwendigkeit für diese Umwandlung zu vermeiden ASCII Da mehrfach die Bedeutung der Codierung in lesbarer Textform angesprochen wurde, ist bereits klar, dass reinem Text eine besondere Bedeutung bei der Erhaltung zukommt. Mit Folgen von Textzeichen können komplexe Objekte einschliesslich ihrer Formatierung beschrieben werden. Die Zeichenfolge selber ist aber nicht formatiert. Hierin und in der erfahrungsgemäss hohen Lebensdauer der Zeichencodierung liegt die Stärke reiner Textformate. Als langlebigster Vertreter hat sich bisher ASCII (American Standard Code for Information Interchange) erwiesen, das Ende der Sechziger Jahre eingeführt wurde. Wegen seiner Begrenztheit sind in der Folge zahlreiche Varianten und Ergänzungen entstanden, die untereinander und teilweise auch mit dem ersten Standard nicht kompatibel sind. Nicht identisch ist zudem die Darstellung auf Windows- und Apple-Computern. 45 TEX Users Group: 60

61 Theoretisch können Textdokumente in diese Form überführt werden, wenn auf Formatierung und Sonderzeichen grundsätzlich verzichtet werden kann bzw. diese in der Quelle gar nicht vorliegt. Unter anderem kann dies beim Export aus Datenbanken der Fall sein. 5.4 Migration Wie unter dargestellt wurde, ist die Nutzbarkeit digitaler Informationen in aller Regel gebunden an eine bestimmte Konfiguration von Hard- und Software. Damit bestehen grundsätzlich zwei verschiedene Ansätze, um sicherzustellen, dass Daten benutzbar bleiben: Entweder werden die Daten einer sich verändernden Umgebung von Hard- und Software angepasst oder die Eigenschaften der zur Zeit funktionierende Umgebung werden in geeigneter Weise verfügbar gehalten, um die unveränderten Daten benutzen zu können. Die Anpassung der Daten erfolgt auf dem Wege der Migration, d.h. Daten werden aus ihrer ursprünglichen Form umgewandelt. In diesem Sinne ist auch der Wechsel auf einen neuen Typ von Datenträgern eine Migration. Wenn sich das alte und das neue Medium dabei in ihrer logischen Funktionsweise unterscheiden, dann werden bereits Anpassungen der Software nötig. So müssen Magnetbänder aus technischen Gründen im Wesentlichen linear gelesen werden, im Gegensatz z.b. zu Festplatten. Heikler ist jedoch die Migration, die das Dateiformat selber verändert, damit eine Datei z.b. mit einer jüngeren Software-Version voll benutzbar bleibt. Im einfachsten Fall wird die Datei mit einer neueren Version des gleichen Anwendungsprogrammes geöffnet und neu abgespeichert. Ebenso kann es gewünscht sein, Objekte in ein Standardformat umzuwandeln, das bessere Erhaltungschancen hat oder besser auszutauschen ist. Voraussetzung für die erfolgreiche und vor allem rechtzeitige Migration in der Archivierung ist die Beobachtung technischer Entwicklungen. Es muss für jedes Format zu jedem Zeitpunkt bekannt sein, welche Wege zu seiner Wiedergabe ( Viewpaths ) zur Verfügung stehen. Sobald absehbar ist, dass einige oder alle dieser Wege durch die technische Entwicklung veralten oder ersetzt werden, dann sind Massnahmen nötig, um durch die Umwandlung in andere Formate neue Wege für die Nutzung offenzuhalten oder zu erschliessen (vgl. 5.8). Diese Art der Migration beinhaltet einige Vorteile: Aktuell gehaltene Dokumente können gelesen werden und auf aktueller Hard- und Software verarbeitet werden. In neuen Versionen sind bei erfolgreicher Migration Qualitätsverbesserungen möglich und neue Produkteigenschaften entstehen. Dies ist aus Archivierungssicht durchaus zweischneidig: Wenn es zwingend nötig ist, die originale Erscheinung und Funktion zu zeigen oder zu belegen, dann ist eine solche Verbesserung nicht erwünscht. Aktuell gehaltene Formate brauchen weniger Ausbildung des Personals als historische, aktuelle und weit verbreitete Formate erfahren bessere Herstellerunterstützung als alte, überholte Formate. Die periodische Migration sorgt ausserdem für regelmässige Überprüfungen der Lesbarkeit, die dann allenfalls noch korrigierbar ist. Zu ihren Risiken gehören: 61

62 Die Migration muss periodisch wiederholt werden. Es gilt angesichts der Fülle von Eigenschaften als ausgeschlossen, Formate völlig ohne Verluste bei Funktion oder Erscheinung ineinander umzuwandeln, und zwar umso mehr, je grösser der zeitliche Abstand zum Ursprungsformat wird. Migration ist kein etablierter und einheitlicher Prozess und sie birgt trotz Qualitätskontrolle das Risiko von unentdeckten Lese-, Schreib- und Umwandlungsfehlern. Zur Sicherheit müsste man jeweils das Original behalten, was den Aufwand erhöht, aber im Moment das normale Vorgehen ist. Die Migration verursacht hohen Aufwand, da jedes Einzelobjekt umgewandelt werden muss. (Für 100TB würde bei einer Rate von 3MB/s eine Umwandlung in eine neue Version ca. ein Jahr dauern, und zwar noch ohne jede Qualitätskontrolle). Es gibt so viele Formate, dass es hohen Aufwand bedeutet, den Status von allen zu verfolgen. Hier kann eine Konzentration auf Standardformate helfen, die aber ihrerseits Verluste bedeuten kann. Neue Eigenschaften eines Formats können seine Umwandlung in andere Formate verhindern: So ist animated GIF anders als seine statischen Pendants nicht mehr als TIFF abzubilden. Wasserzeichen, Unterschriften oder andere kryptographische Sicherheitsmerkmale werden beeinträchtigt. Die Überprüfung der korrekten Umwandlung ist schwierig. Einen Teil dieser Nachteile umgeht das Konzept der Emulation, das zusammen mit der Migration in Abbildung 5 dargestellt ist. 62

63 Abbildung 5: Schematischer Vergleich der Konzepte von Migration, Emulation und Universal Virtual Computer. Die Migration ist gekennzeichnet durch sich kumulierende Fehler, während die Emulation das Erscheinungsbild und die Funktionen erhalten soll. Der Universal Virtual Computer versucht vor allem, die Emulation weniger aufwendig und berechenbarer zu machen. 5.5 Emulation Die Emulation verfolgt einen anderen Zweck als die Migration, so dass mit sehr hoher Wahrscheinlichkeit nie eine Entscheidung ausschliesslich für eine der beiden Methoden fallen kann. Ein Beispiel hierfür ist das Vorgehen der Königlichen Bibliothek in Den Haag, die sich im Rahmen ihres Auftrages verpflichtet sieht, den Originalzustand der gespeicherten Inhalte nutzbar zu erhalten, und zwar mit Hilfe der Emulation. Gleichzeitig sieht sie einen Bedarf für die Migration in aktuelle Formate, damit Inhalte für eine Nachnutzung in jeweils aktuellen Formaten zur Verfügung gestellt werden können (Oltmans 2004). Während sich die Migration mit der Modifikation der einzelnen Datei beschäftigte, dreht sich die Emulation jeweils um eine Technologie. Der Anspruch besteht darin, das Verhalten und die Erscheinung zum Zeitpunkt der Erstellung einer Ressource zu erhalten ( Look and feel ). Dies setzt voraus, dass die Bestandteile, die zur Nutzung benötigt werden, weiterhin verfügbar gehalten werden können. Es gibt verschiedene Wege zu diesem Ziel. Einerseits kann man sich zunutze machen, dass jeder Computer Programme, die in einer gängigen Programmiersprache von Menschen geschrieben wurden, zunächst in seine eigene Maschinensprache übersetzen muss. Der Compiler, der diese Übersetzung ausführt, wechselt mit den Hardwaregenerationen. Zur 63

64 Weiternutzung früherer Programme bedarf es darum eines Compilers, der speziell dafür geschrieben wurde, diese älteren Programme einer bestimmten Sprache in die Maschinensprache der neuen Hardware zu übersetzen (Portierung per Übersetzung (Borghoff, Rödig et al. 2003)). Nach der Übersetzung können diese Programme dann idealerweise weiter genutzt werden. Die andere Methode ist die Emulation im engeren Sinne, bei der Programme (Emulatoren) erstellt werden, die während der Benutzung einer überholten Software laufen müssen. Sie interpretieren dann laufend die Befehle der früheren Plattform um in Anweisungen der neuen Plattform. Damit ist bereits angedeutet, dass die neue Plattform in jedem Fall leistungsfähiger sein muss als die ältere, da diese Prozesse den Ablauf sonst zu stark verlangsamen. Wenn das Ziel besteht, das originale Verhalten und Erscheinungsbild wiedergeben zu wollen, dann könnte die Emulation entweder die gesamte Umgebung aus Hardware, Betriebssystem und Anwendungssoftware emulieren oder nur Hardware und Betriebssystem oder nur die Hardware selbst. Die Emulation der Hardware ist die bevorzugte Variante, weil die Vielfalt an Hardware viel geringer ist als die der möglichen Kombinationen aus Hard- und Software. Ebenso wichtig ist, dass Hardware besser beschreibbar ist. Zum Teil werden neue Hardwarekomponenten sogar während der Entwicklung zu Testzwecken emuliert (Borghoff, Rödig et al. 2003). Der Nachteil bei diesem Ansatz ist, dass im Grunde zu jedem Objekt die Umgebung für seine Darstellung und Benutzung (Anwendungsprogramm und Betriebssystem) mit archiviert werden muss. Zumindest muss die benötigte Umgebung in geeigneter Form beim Objekt eindeutig identifiziert werden. Als Vorteile der Emulation gelten: Es müssen nicht alle gleich formatierten Objekte einzeln bearbeitet werden, sondern nur je eine Hardwarekonfiguration. Nicht einmal alle Varianten einer Hardwareepoche sind nötig, da normalerweise schon bei der Veröffentlichung der Spezifikation ein gewisser Spielraum bestanden hat. Aus Kostensicht ist zu erwarten, dass die Emulation gegenüber der Migration bei sehr grossen Mengen gleichartiger Objekte an Vorteil gewinnt. Für die Objekte reicht eine Erhaltung auf Bitebene mit Auffrischen und Wechsel des Trägermediums aus. Funktion und Erscheinungsbild von Objekten werden erhalten. Nachteile (siehe u. a. (Borghoff, Rödig et al. 2003)): Aus der Praxis gibt es einzelne erfolgreiche Fallbeispiele 46, aber es fehlt der Nachweis, dass die Methode als Ansatz für die Archivierung insgesamt tragfähig ist. Die Weiterverwendung oder spätere Wiederbenutzung von lizenzierter Software wirft urheberrechtliche Fragen auf ebenso wie der Nachbau von Hardware in Form von Emulatoren. 46 CAMiLEON (Creative Archiving at Michigan & Leeds: Emulating the Old on the New): sowie Borghoff, Uwe M., Rödig, Peter, et al. (2003). Langzeitarchivierung - Methoden zur Erhaltung digitaler Dokumente. Heidelberg, dpunkt.verlag., S. 254ff 64

65 Für viele Objekte dürfte der Anspruch übertrieben sein, Look and feel zu erhalten. Die Emulation sollte darum aus Kostengründen gezielt eingesetzt werden, bzw. mit Vereinfachungen für geringere Ansprüche. Interessant ist dabei ein Blick auf die eher indifferente Nutzersicht in (Hedstrom and Lampe 2001). Der Anspruch auf Erhaltung von Funktion und Erscheinungsbild macht implizit die Annahme, dass auch langfristig Computer über Tastatur und Maus bedient werden. Dies ist für einige Zeit sehr wahrscheinlich, aber im Grunde keineswegs sicher. Bei einem grundsätzlichen Technologiewechsel müssten dann im Normalfall doch migrierte Kopien zur Anwendung kommen. Eine Erfahrung aus der Rettung eines BBC-Produktes ( BBC-Domesday Book ) im Rahmen des CAMiLEON-Projektes 46 war, dass der Aufwand sehr viel geringer gewesen wäre, wenn die Arbeit einige Jahre früher begonnen hätte. Damit ist bereits signalisiert, dass auch die Emulation darauf angewiesen ist, dass umfassende Informationen darüber vorliegen, womit man es genau zu tun hat. Migration und Emulation sind im Ergebnis nicht gleichwertig. Dennoch sollen ihre erwarteten Kosten kurz verglichen werden. Eine noch grobe, aber plausible Abschätzung ergibt, dass über kürzere Zeiträume (je nach Objektzahl z.b. zehn Jahre) die Kosten der Emulation für eine gegebene Zahl von Objekten über denen der Migration liegen, weil die Erstellung der entsprechenden Werkzeuge kostspielig ist (Oltmans 2004). Über längere Zeiträume wird die Emulation jedoch im idealisierten Modell immer günstiger, weil die Migration periodisch wiederholt werden muss. Wenn die Objektzahl eine bestimmte Grenze überschreitet, kann die Emulation auch von Anfang an die günstigere Methode sein. Es wird jedoch ausdrücklich darauf hingewiesen, dass kostensenkende Skaleneffekte bei der Migration vernachlässigt wurden und neben der Objektzahl auch die Datenmenge eine Rolle spielen dürfte. Es sei darauf hingewiesen, dass Dienstleister für die Datenspeicherung heute ihre Tarife üblicherweise nach Datenmengen ausrichten (vgl ). Mit verschiedenen Methoden sollte es möglich sein, den Aufwand zu verringern, der entstehen würde, wenn man jede frühere Plattform einzeln auf jeder neu auftretenden emulieren müsste. Zur Vereinfachung werden u. a. virtuelle Maschinen als Adapter definiert. Sie sind so gehalten, dass sie möglichst einfach beschrieben und definiert und darum auf jeder Basis emuliert werden können. In der Praxis wird dann jede alte Plattform nur einmal auf der virtuellen Maschine emuliert und nur die eine virtuelle Maschine wiederum auf jeder neuen Plattform. Dieses Konzept wird beim Ansatz des Universal Virtual Computers (UVC) im Hinblick auf die Langzeitarchivierung abgewandelt. 5.6 Universal Virtual Computer (UVC) Dieser Ansatz hat den Anspruch, bestimmte Schwächen sowohl der Migration als auch der Emulation zu vermeiden (Lorie 2001; Lorie 2002). Unter anderem wird es bei der Emulation in vielen Fällen als übertrieben empfunden, komplexe Anwendungssoftware zu erhalten und lauffähig zu machen, während in vielen Fällen nur der Inhalt von bestimmten Objekten sichtbar gemacht werden soll. Als heikel wird auch empfunden, dass die Korrektheit der Emulation einer nicht mehr vorhandenen Hardware ja nicht mehr im Vergleich mit eben dieser überprüft werden kann. Ausgangspunkt ist darum eine Trennung zwischen der 65

66 Archivierung von Programmverhalten und derjenigen von Dokumenten. Der UVC bildet dabei das Bindeglied. Er muss klar und dauerhaft verständlich definiert und relativ leicht umzusetzen sein, wobei er aber nicht physisch gebaut werden muss oder sollte. Für datenorientierte Archivierung sieht das Konzept so aus: Zum Zeitpunkt der Archivierung wird für den sehr grundsätzlich definierten UVC ein Programm geschrieben, das eine logische Sicht (Borghoff, Rödig et al. 2003) des zu archivierenden Objekts ermöglicht. Es kann bereits zu diesem Zeitpunkt getestet werden. Zum Zeitpunkt der Benutzung aus dem Archiv wird nur der UVC in einer dann aktuellen Umgebung emuliert. Auf diesem läuft dann das ursprünglich geschriebene Programm, das die logische Sicht erzeugt. Diese Sicht wiederum wird dann durch Wiederherstellungsprogramme (Viewer) zur eigentlichen nutzbaren Darstellung interpretiert. Die logische Sicht ist ein nicht einfach verständlicher Teil des Konzeptes. Ihre Ziel ist es, die spätere Interpretation zu ermöglichen, indem der Aufbau des Objektes abgebildet wird: Ein Programm, das später für eine korrekte Darstellung sorgen soll, muss die Information erhalten, welche Elemente enthalten sind und wo sie beginnen und enden. Dies ist nötig, weil andernfalls nur eine aus sich selbst heraus bedeutungslose Abfolge von Bits aufgefunden wird. Vorgeschlagen wird ein logisches Modell des Dokumentes, das im Aufbau einer XML-Beschreibung ähnelt. Für die datenorientierte Archivierung gibt es bereits erste praktische Beispiele (siehe vor allem (Wijngaarden and Oltmans 2004)). Demgegenüber steht die verhaltensorientierte Archivierung noch vor grundsätzlichen Problemen, sobald die Funktionen für die Ein- und Ausgabe mit berücksichtigt werden müssen. Als Vorteile des UVC-Ansatzes werden angesehen (nach (Borghoff, Rödig et al. 2003)): Es wird keine reale Maschine emuliert, was technische und urheberrechtliche Probleme verringert bzw. beseitigt. Es besteht kein Zwang zur Einigung auf Standards für Formate, sondern nur auf bestimmte Konventionen im Umgang mit dem UVC. Nur der UVC muss für neue Hardware neu geschrieben werden, nicht aber die archivierte Information. Da der UVC sehr allgemein und einfach gehalten ist, sollte er konzeptionell eine lange Zukunft haben können. Offene Fragen betreffen unter anderem die Wahl der zu verwendenden Zeichen und die Erweiterung der Möglichkeiten für die logische Struktur. 5.7 Zeitkapseln und Viewpaths Hierbei handelt es sich nicht unbedingt um eigenständige Konzepte, sondern um Hilfskonstrukte, die bei allen Lösungen eine Bedeutung haben und in gewissem Masse auch im Rahmen des OAIS-Reference Models (vgl ) in Gestalt der Information Packages wiedererkannt werden können. 66

67 Bei Zeitkapseln steht die Zielsetzung im Vordergrund, ein digitales Objekt mit allem, was in der Zukunft für seine Darstellung bzw. Nutzung benötigt wird, in einem Gefäss einzuschliessen. Theoretisch wären dies auch Programme und Betriebssysteme sowie die Spezifikation einer kompatiblen Hardware. Aus praktischen Gründen beschränkt man sich auf die Dokumentation, die auf diese Komponenten verweist bzw. auf die Zuordnung einer grossen Zahl von Objekten auf eine Kapsel mit allem, was für diesen Objekttyp benötigt wird. Damit mit den Kapseln überhaupt umgegangen werden kann, muss sorgfältig festgelegt werden, welche Informationen in einfach lesbarer Form ausserhalb der Kapseln zur Verfügung stehen müssen (Rothenberg 1999). Damit sollen im Idealfall vielfache Migrationen vermieden werden. Selbstverständlich bleiben Massnahmen wie das Auffrischen notwendig. Für die Nutzung der Inhalte wird dann eine Emulation nötig sein. Problematisch ist insbesondere, dass erst bei einem späteren Benutzungsversuch festgestellt werden kann, ob die Erhaltungsprozesse bis zu diesem Zeitpunkt erfolgreich waren. Die Vorstellung einer solchen Kapsel muss nicht der Forderung widersprechen, Daten und Programme voneinander zu trennen, um die Erhaltung zu erleichtern. Diese Forderung setzt nämlich noch tiefer an und bezieht sich bereits auf Funktionsweise und Aufbau von Programmen, die ihre Daten nicht unzugänglich einschliessen sollen. Viewpaths bezeichnen dagegen ein Konzept, das in den Bereich der Techniküberwachung gehört. Ein Viewpath umfasst die Kombination aus Software, Betriebssystem, Hardware und anderen notwendigen Komponenten (Treiber, Zeichensätze etc.), die benötigt wird, um einen bestimmen Dateityp anzuzeigen und zu nutzen. Es kann dann je nach Bedeutung dieses Typs festgelegt werden, dass z.b. zu jedem Zeitpunkt zwei komplette und unabhängige Darstellungswege bekannt und funktionsfähig sein müssen. Sobald die Überwachung der technischen Entwicklung ergibt, dass einer dieser Wege gefährdet ist, sind Massnahmen zur Eröffnung eines neuen Weges etwa mit Hilfe der Migration oder Emulation zu suchen. 5.8 Dokumentation, Verzeichnisse und Repositorien Es wurde bereits mehrfach auf die Schwierigkeiten hingewiesen, die durch Technologiewechsel und durch subtilere Veränderungen an Programmversionen und Standards entstehen (3.2.2). Hier zeichnet sich auch eine zentrale Aufgabe und gleichzeitig eine wichtige Methode der Langzeitarchivierung ab: Es gilt, für alle relevanten Komponenten abzuschätzen, wo sie sich in ihrem Lebens- bzw. Produktzyklus befinden. Unter dem Begriff Technology Watch sind Entwicklungen bei Formaten, Soft- und Hardware zu verfolgen und Massnahmen wie Wechsel von Medien, Formaten, Software und Hardware rechtzeitig vorauszuplanen Format-Verzeichnisse (Format Registries) Als Instrumente hierfür werden an verschiedenen Institutionen Register aufgebaut, die sich auf Dateiformate und ihre Abhängigkeit von Soft- und Hardware und auf ihre Beziehungen zu anderen Formaten konzentrieren. 67

68 Wichtigste Beispiele hierfür sind das produktive PRONOM 47 des britischen Nationalarchivs und das Global Format Registry der Digital Library Federation. Für letzteres existieren bisher Vorarbeiten und ein Test (FRED 48 ). Langfristiges Ziel ist es, einerseits gestützt auf die hier erfassten Informationen Warnungen herauszugeben, für welche Formate bzw. Format- Software-Kombinationen Handlungsbedarf besteht. Dies kann etwa der Fall sein, wenn ein Softwareanbieter ankündigt, die Unterstützung für ein Programm einzustellen. Andererseits sollen im Endzustand konkrete Lösungsmöglichkeiten für solche Fälle aufgezeigt und Empfehlungen gegeben werden: Welche Formate können in welche neueren Formate umgewandelt werden? Welche Software leistet dies? Ist mit Informationsverlusten zu rechnen? Mit welchen? Dies würde es erlauben, für eine definierte Ausgangslage nicht nur technische Lösungen zu finden, sondern diese auch in ihrer Wirkung zu bewerten (Abrams and Seaman 2003). Als Beispiel einer bestandesbezogenen Zusammenstellung seien die Digital Formats for Library of Congress Collections 49 genannt. Verwandt sind der Preservation Manager, den die Königliche Bibliothek in Den Haag für ihr edepot 50 entwickelt sowie weitere Aktivitäten des neuen britischen Digital Curation Centre. Für die Identifikation und Validierung von Formaten hat das Projekt JHOVE 51 von JSTOR und Harvard Bedeutung. Die Funktion von Registern für Dateiformate ist es, die folgenden Schritte und ihre Automatisierung zu unterstützen: Erzeugung von Dateien, ihre Aufnahme in ein Archiv sowie Langzeiterhaltung und Zugang zu archivierten Dateien. Zu diesem Zweck müssen sie alles verzeichnen, was zur Betrachtung bzw. Nutzung der entsprechenden Dateien nötig ist: Dateiformat, benötigte Software, Betriebssysteme, Hardware, Speichermedien usw. Problematisch ist hierbei die Granularität vieler Formate. So liegt TIFF inzwischen in vier Versionen mit diversen Erweiterungen vor, so dass mindestens Varianten zu betrachten sind. Dies führt auch zur Frage der Abgrenzung von Versionen: Welcher Kompressionsmodus zu TIFF konstituiert eine neue Version, welcher bleibt innerhalb einer Version? Wesentlich ist ferner die Angabe von Beziehungen zu anderen Formaten, auf die zurückgegriffen werden muss. So ist SVG (Scalable Vector Graphics) z.b. auf XML angewiesen, weil es in dieser Form codiert wird. Zu einem Format wird angegeben, mit welchen Programmen es geöffnet und damit konvertiert werden kann. Während zur Zeit nur die Information geliefert werden kann, ob eine bestimmte Konvertierung zu Inhaltsverlust führt, soll es in Zukunft möglich sein, für einen bestimmten Konvertierungspfad Art und Ausmass dieser Nebenwirkungen anzugeben. Diese sind aus Tests abzuleiten. Die Informationsbeschaffung wird erschwert durch die verschiedenen Grade von Offenheit der Spezifikationen: Bei proprietären Formaten kann/muss Information z. T. gegen Gebühr erworben werden, z. T. wird auf reverse engineering durch Dritte zurückgegriffen (ergibt 47 PRONOM The file format registry: 48 Format REgistry Demonstrator: 49 Digital Formats for Library of Congress Collections: 50 edepot, Koninklijke Bibliotheek, Den Haag: (Zugriff ) 51 JHOVE - JSTOR/Harvard Object Validation Environment: 68

69 das Problem der Verlässlichkeit). Andere Information ist öffentlich zugänglich, aber voll durch Urheberrecht geschützt, so dass sie auch jederzeit zurückgezogen werden kann. Nur ein geringer Anteil ist wirklich in der öffentlichen Domäne, ohne dass diese Möglichkeit besteht. Als weitere wertvolle Quellen vor allem bei älteren Formaten dienen das jeweilige ursprüngliche Entwicklungspersonal, andere Arten von Verzeichnissen, Hard- und Softwaremuseen und private Enthusiasten. Zur Zeit konzentriert sich z.b. das Projekt PRONOM auf aktuell verbreitete kommerzielle Produkte. Zukünftig sollen auch Open Source Formate einbezogen werden und auch Format-Archäologie für nicht mehr gebräuchliche Formate betrieben werden Software-Repositorien Ergänzend wurden als weiteres Forschungsfeld Repositorien für Software vorgeschlagen (vgl. (Hedstrom, Ross et al. 2003), S.V). Sie sollten Software sammeln, erhalten und abgeben, die nicht mehr lizenziert oder gekauft werden kann. Das Hauptziel dabei ist, die Software verfügbar zu halten für Methoden der Emulation oder der Rettung von Daten, die in überholten Formaten aufgefunden werden. Es wird erwartet, dass die Sammlung und Erhaltung von Software erhebliche Forschungsarbeit benötigt. Der Grund liegt sowohl in der Vielfalt proprietärer Komponenten als auch in den komplexen Abhängigkeiten von Formaten, Software, Betriebssystemen und Hardware. 69

70 6. Bedarf bei den Bibliotheken: Ergebnisse einer Umfrage Im August 2004 wurde von der Geschäftsstelle ein umfangreicher Fragebogen an 20 Kontaktpersonen bei den grossen Bibliotheken und bibliothekarischen Koordinationsstellen der universitären Hochschulen der Schweiz und der Forschungsanstalten des ETH-Bereichs verschickt. Die Fragen bezogen sich überwiegend auf die dauerhafte Zugänglichkeit und Archivierung von elektronischen und gedruckten Zeitschriften. Weitere Themen, die eng hiermit verbunden sind, wurden ebenfalls diskutiert, z.b. Modelle für den E-only Bezug von Zeitschriften und der Aufbau von institutionellen Dokumentenservern als Teil der Förderung von Open Access. Der Fragebogen ist mit den entsprechenden Antworten und einer ausführlicheren Beschreibung in Anhang I (Kapitel 12) wiedergegeben. An dieser Stelle sollen die Ergebnisse nur kurz zusammenfassend diskutiert werden. 6.1 Zusammenfassung Die Ergebnisse der Umfrage sind geprägt von der Verschiedenheit der Ausrichtung der einzelnen Institutionen und ihrer Bibliotheken. Dabei spielt die fachliche Ausrichtung eine grosse Rolle, aber auch ihre Grösse und ihre institutionelle Trägerschaft. Grundsätzliche Unterschiede zwischen den Bibliotheken aus der Romandie und der Deutschschweiz werden nicht beobachtet. Lediglich bei der Diskussion von Dokumentenservern nehmen Westschweizer Antwortende mehrfach Bezug auf den gemeinsamen Server des RERO, zu dem es bei den Bibliotheken des IDS keine Entsprechung gibt. Anschaulich wurden in den Antworten der Umfrage die vielfältigen Zusammenhänge sichtbar, die zwischen der bisherigen und zukünftigen Arbeit von Geschäftsstelle und Bibliotheken und den Zielen und Perspektiven des E-Archiving bestehen. Während Erwartungen und Bedürfnisse beim Übergang zu E-only-Lizenzmodellen recht breit gestreut sind, besteht Einigkeit in der Beurteilung, dass die gegenwärtigen Unsicherheiten hinsichtlich des dauerhaften Zugriffs und einer verlässlichen langfristigen Archivierung Hindernisse für den Wechsel zu rein elektronischen Bezugsmodellen darstellen. Trotz fachspezifischer Differenzierungen bestätigen die Antworten klar die hohe Bedeutung der online verfügbaren Zeitschriften für die Nutzung. Bei der Rolle der gedruckten Ausgaben für die laufende Benutzung gehen die Einschätzungen weiter auseinander, wobei vermehrt auf die Unterschiede zwischen STM- und anderen Fächern verwiesen wird. Unumstritten ist die Bedeutung der Print-Exemplare für die Archivierung: Es wird weiterhin für wichtig gehalten, gedruckte Zeitschriften in der Schweiz in einem Exemplar zugänglich zu halten. Dem entspricht auch die Aussage fast aller Bibliotheken (18 von 20), dass sie ihre eigenen gedruckten Zeitschriften dauerhaft aufbewahren. Hinsichtlich des dauerhaften Zugriffs halten es die meisten Bibliotheken für wichtig, dass sie Inhalte auch langfristig mit dem gewohnten Komfort und Funktionsumfang anbieten können. 70

71 Ein Zugang über den Katalog auf Artikelebene wird dabei unterschiedlich beurteilt und tendenziell eher abgelehnt. Im Hinblick auf das E-Archiving Projekt und ein lokales Hosting gibt mehr als die Hälfte der Bibliotheken an, Inhalte auf Servern der Schweizer Hochschulen nachnutzen zu wollen. Die Bereitschaft, sich mit eigenen Ressourcen an derartigen Aktivitäten zu beteiligen, ist bei etwa einem Drittel der Befragten vorhanden, wobei nicht verkannt wird, dass diese Fragen allgemein heikel ist: Es ist viel zu wenig bekannt über die zu erwartenden Aufwand, und letzten Endes sind dies Fragen, die von der jeweiligen Bibliotheksleitung beantwortet werden müssten. Das Problembewusstsein zur elektronischen Archivierung wird nahezu einstimmig bejaht, und auch die Szenarien für mögliche Umsetzungen erhalten Zustimmung. Dies betrifft insbesondere die Rolle der Hochschulbibliotheken, die sich auf nationaler Ebene gemeinsam um die Fragen der Archivierung kümmern sollen. Dabei besteht Offenheit gegenüber anderen Partnern, wobei eine vollständige Übertragung der Aufgabe an andere deutlich abgelehnt wird. Beim Thema Open Access fällt auf, dass Bibliotheken zum Teil dieses Thema allein aufgreifen und in den Hochschulen nicht überall ein wirklich starkes Interesse gesehen wird. Hier besteht Handlungsbedarf vor Ort, um die Aktivitäten mit denen von Wissenschaftlern zu vernetzen. Auch ist das Engagement der Hochschulleitungen und Departemente unerlässlich, da erfahrungsgemäss dem wissenschaftlichen Personal häufig eine engere Verbindung zur Bibliothek fehlt. Dies schlägt sich unmittelbar nieder, wenn man die Anzahl von Dokumenten betrachtet, die die einzelnen Dokumentenserver bis jetzt beherbergen. Die Zahlen leiden auch darunter, dass nur selten aktiv Dokumente für den Server akquiriert werden. Die häufige Verwendung von PDF-Dateien als Standard auf den Dokumentenservern unterstreicht die Bedeutung dieses Formats, zumal in der Mehrzahl der Fälle beabsichtigt ist, den gesamten Inhalt des jeweiligen Dokumentenservers auch zu archivieren. Es gibt Interesse von der Hälfte der Einrichtungen, Metadaten gemeinsam zugänglich zu machen. Ebenso wird eine Archivierung jener Dokumente gewünscht, die nicht in den Auftrag der Landesbibliothek fallen (Arbeiten unterhalb des Dissertationsniveaus etc.). Die Bereitschaft, sich an der Erarbeitung von Standards zu beteiligen, ist breit vorhanden. Bei den Digitalisierungsprojekten standen bisher alte Drucke/Handschriften und Bildmaterial im Mittelpunkt. Die Online-Bereitstellung von Zeitschriften wird jedoch nur von einer Bibliothek für ihre landeskundlichen Publikationen angestrebt. Ein bekannt kritischer Punkt sind Abbestellverbote in Lizenzvereinbarungen. Sie nehmen den Bibliotheken Spielraum bei der Bestandesentwicklung und werden de facto an manchen Hochschulen in unberechenbarer Weise unterlaufen, was vertragsgemäss zu massiven Nachzahlungen führt. Auch in diesem Zusammenhang und im Hinblick auf die vergangene und zukünftige Arbeit der Geschäftsstelle ist es enttäuschend, dass in vielen Fällen die zentralen Bibliotheken immer noch nicht automatisch Bestandesinformationen aus dezentralen Bibliotheken ihrer Hochschule erhalten. Noch weniger ist daran zu denken, dass sie zentral über Zeitschriftenmittel verfügen und Entscheide zur Bestandesentwicklung fällen könnten. Allein schon durch die fehlenden Informationen entstehen erhebliche Probleme, die es im Einzelfall ausserordentlich erschweren, einem wenig kooperationsbereiten Verlag Fehler in seinen Abonnementslisten nachzuweisen. 71

72 7. Strategische Fragen für die Hochschulbibliotheken Die Gewährleistung des dauerhaften Zugriffs auf relevante digitale Inhalte und deren Langzeitarchivierung werfen eine Vielzahl von Einzelfragen in den verschiedensten Bereichen auf, und zwar in organisatorischer, technischer, rechtlicher und wirtschaftlicher Hinsicht. Diese dürfen aber nicht den Blick verstellen auf einige grundsätzlichere Fragen, deren Beantwortung Voraussetzung für eine zielgerichtete und erfolgreiche Suche nach Lösungen ist. Trotz neuer und veränderter Fragen im Detail behält die übergeordnete Zielsetzung einer umfassenden, hochwertigen und verlässlichen Versorgung mit wissenschaftlicher Information ihre Gültigkeit. Diese Dienstleistung wird von den Bibliotheken nicht als Selbstzweck erbracht. Vielmehr dient sie dazu, die Angehörigen der jeweiligen Hochschule oder Institution bei ihrer Arbeit zu unterstützen. In der eigentlichen wissenschaftlichen Forschung muss man sogar soweit gehen zu sagen, dass sie in seriöser Form erst durch eine qualifizierte Literaturversorgung ermöglicht wird. Die Open Access Bewegung zeigt, dass es bei einzelnen Wissenschaftlern auch ein Bewusstsein für diese Zusammenhänge besteht. Bei diesen Personen handelt es sich um eine sehr kleine Minderheit innerhalb ihrer Zunft. Sogar deren Einschätzungen sind teilweise von überholten Vorstellungen hinsichtlich der Funktion der Hochschulbibliotheken am Beginn des 21. Jahrhunderts geprägt: Es dominiert das Bild des Bücherlagers. Der Ausbau rein elektronischer Angebote durch die Bibliotheken hat dazu geführt, dass zu viele Wissenschaftler den Eindruck haben, die Bibliothek nicht zu benötigen, während sie deren Angebot höchst intensiv an ihrem Arbeitsplatzcomputer nutzen und es interessiert sie in durchaus nachvollziehbarer Weise auch gar nicht, weil sie die Kosten nicht tragen müssen. Und selbst die Wahrnehmung dieser umfangreichen Dienstleistung würde immer noch verkennen, dass vor allem auf dem Niveau der Studierenden, aber längst nicht nur dort, weiterhin eine grosse und zum Teil wachsende Nachfrage nach physischen Medien besteht. Das Nebeneinander der unterschiedlichen Interessen von Studierenden und wissenschaftlichem Personal schwächt die Position der Bibliotheken in gewisser Weise: Sie müssen beide Bedürfnisse abdecken, ohne dass die jeweils andere Gruppe sich dieser Leistung bewusst ist und diese anerkennt. Inkonsequenterweise werden der Bibliothek zudem all jene Unzulänglichkeiten angelastet, die eindeutig von Verlagen verursacht werden. Es ist ausgesprochen wichtig, dass die Hochschulbibliotheken sich dieser Grundeinstellung bewusst sind, um realistische Erwartungen an die (Nicht-)Aktivität potentieller Partner formulieren zu können. Es wird nun darauf ankommen, dass die Bibliotheken ihren Platz in einer veränderten Informations- und Publikationslandschaft finden oder neu definieren (Barth and Lüthi 2004). Technisch sind Modelle denkbar, die die Bibliotheken in einer bestimmten Art von wissenschaftlichem Informationsprozess nahezu ausschalten. Dies hätte aber zur Folge, dass bestimmte Leistungen gar nicht mehr erbracht würden und den wissenschaftlich tätigen Personen nicht zur Verfügung stünden. Gegenwärtige Open Access-Modelle machen zudem mehr oder weniger explizit die Annahme, dass das wissenschaftliche Personal selber einen grösseren Teil der Funktionen des Publikations- und Vermittlungsprozesses übernimmt. Dies 72

73 ist vor allem der Fall in Modellen, die eine eigentliche Open Access-Zeitschriftenproduktion vorsehen. Die Mehrbelastung des wissenschaftlichen Personals, die sich daraus ergibt, kann die Bereitschaft für eine Mitwirkung bei wünschenswerten Aktivitäten verringern. Gleichzeitig ist es auch kaum zu rechtfertigen, einen nennenswerten Teil der Arbeitszeit von Wissenschaftlern für Zwecke zu verwenden, die als nicht-wissenschaftliche Dienstleistungen mit einem Mehrwert an anderer Stelle gebündelt angeboten werden könnten, nämlich durch die Bibliotheken. Leistungsfähige und aktive Bibliotheken können sich bestens empfehlen für verschiedene neue Aufgaben in der wissenschaftlichen Informationsversorgung. Im Wettbewerb verschiedener Modelle und Einrichtungen können sie sich aber nicht mehr darauf verlassen, dass sie automatisch immer erste Ansprechstelle sind, wenn es um Informationen und ihre Verbreitung geht. 7.1 Zukünftige Rolle der Hochschulbibliotheken Schweizer Hochschulbibliotheken haben sich neben ihrer heute als traditionell bezeichneten Rolle bisher erfolgreich als Knotenpunkte der wissenschaftlichen Informationsversorgung in elektronischer Form (Zeitschriften und Datenbanken) etabliert. Insbesondere bei den Zeitschriften erschien dies als logisch, da hier die elektronischen Ausgaben zunächst als Zusatzangebot zu Abonnementen der gleichen Titel in gedruckter Form in Erscheinung getreten sind und nicht als eigenständige Produkte. Dieser enge Zusammenhang von gedruckten und elektronischen Ausgaben weicht jedoch langsam auf, wie die Diskussion um E-only-Bezugsmodelle zeigt. Es gibt trotz einiger Bedenken mehrere Beispiele eines mehr oder weniger rein elektronischen Bezugs (siehe z.b. (Goodman 2002) oder auch die Lizenzen des schwedischen BIBSAM, der Abteilung der Königlichen Bibliothek für Nationale Koordination und Entwicklung 52 ). Ein entscheidender Hinderungsgrund für den rein elektronischen Bezug ist die Unsicherheit hinsichtlich des dauerhaften Zugriffs und der Langzeitarchivierung. Diese Unsicherheit hemmt einerseits die Änderung der Bezugsform hin zu E-only (vgl ). Andererseits hat sie auf einer anderen Ebene das Vertrauen in Angebote begrenzt, die überhaupt nur noch in elektronischer Form erscheinen. Damit wurde eine breite Akzeptanz rein elektronischer Publikationen sowohl bei Autoren als auch bei Bibliotheken, Nutzerinnen und Nutzern bisher verhindert (vgl. auch (Keller 2001), S. 63ff). Neben dieser beginnenden formalen Trennung muss auch mit einer zunehmenden inhaltlichen Auseinanderentwicklung von gedruckten und elektronischen Zeitschriften gerechnet werden. Zwar ist nach wie vor nicht zu beobachten, dass die Bereitstellung von Zusatzmaterial zu Artikeln massenhaft praktiziert wird, sie ist aber auch keineswegs mehr exotisch. Im Folgenden wird versucht, verschiedene Fragen mit strategischer Bedeutung für die Hochschulbibliotheken in dieser Phase des Umbruchs und darüber hinaus anzusprechen. Dazu wird einmal mehr der Themenkomplex aufgeteilt. Diese Aufteilung darf nicht verschleiern, dass den meisten Bibliotheken noch eine übergreifende Vorstellung oder gar ein 52 BIBSAM - the Royal Library s Department for National Co-ordination and Development: 73

74 geschlossenes Konzept dafür fehlt, wie ihre Dienstleistungen sich in Zukunft entwickeln sollen. Wenn es den Bibliotheken nicht gelingt, solche Konzepte für sich zu entwickeln, dann bleibt ihnen weiterhin nur übrig auf das zu reagieren, was Verlage, Anbieter und Träger an Rahmenbedingungen schaffen und ihre Gestaltungsfähigkeit hinsichtlich der Bedürfnisse ihrer Kundinnen und Kunden bleibt eingeschränkt. Konzepte alleine garantieren nicht, dass dies grundsätzlich anders wird, aber sie können Orientierungspunkte dafür bieten, welche Ziele überhaupt erreicht werden sollen und wo eine Bibliothek steht Vermittlung des Zugangs zu Information Überall dort, wo es vor allem um die Online-Bereitstellung aktueller Inhalte geht, müssen Bibliotheken damit rechnen, dass ihnen als Vermittler dieser Inhalte Konkurrenz erwächst, nicht zuletzt durch die Verlage selber. Die technischen Möglichkeiten für eine Abrechnung einzelner Nutzungen bestehen ja bereits seit längerem ( Pay per view, Einzelartikelbestellung). Da beim Online-Angebot immer weniger sichtbar ist, welche entscheidende Rolle Bibliotheken bei der Bereitstellung spielen, wird ihre Rolle hinterfragt werden. Für unbedarfte Benutzende, die von ihrem Arbeitsplatz aus bequem über das Internet die für sie relevanten Inhalte finden, ist trotz eingeblendeter Logos gar nicht mehr intuitiv ersichtlich, was ihre lokale Bibliothek mit den Inhalten zu tun hat, die doch offenbar aus dem Web kommen. Die Funktionen von Auswahl und Beschaffung von Inhalten oder gar die Erstellung eines intellektuellen Zugangs durch umfassende Erschliessung werden vielfach nicht wahrgenommen oder stark unterbewertet. Je weniger Bibliotheken ihre Inhalte physisch und damit in gewisser Weise exklusiv besitzen, desto weniger klar ist ihre Rolle für diejenigen, die sie nicht selbst intensiv nutzen (Keller, Reich et al. 2003). Wir gehen davon aus, dass die Schweizer Hochschulbibliotheken ihre Rolle als zentrale Dienstleister für die Vermittlung von Information in ihren verschiedenen Formen innerhalb ihrer Trägerinstitutionen nicht nur weiter wahrnehmen werden, sondern je nach Bedarf diese aktiv weiterentwickeln werden. Die Basis hierfür werden nicht mehr ausschliesslich Bestände sein können, die sich im Besitz der jeweiligen Bibliothek befinden. Nur so wird es langfristig möglich sein, den Mehrwert der Bibliotheksdienstleistungen gegenüber anderen potentiellen Anbietern aufrechtzuerhalten und zu erhöhen. Dies ist kein Selbstzweck, sondern liegt im Interesse sowohl der konkret betroffenen Benutzerschaft als auch der jeweiligen Hochschule. Ohne diese bewusste Entscheidung zur Weiterentwicklung würde weitergehenden Überlegungen die Grundlage entzogen Gedächtnisfunktion Neben ihrer Funktion als Vermittler von Information haben Bibliotheken traditionell eine zweite Funktion, nämlich die eines Gedächtnisses von Information und Wissen bzw. genauer von Wissen in kodifizierter Form. Erst diese Funktion hat der wissenschaftlichen Publikationsform des Zeitschriftenartikels zu ihrer heutigen Bedeutung verholfen: Ohne die Gewissheit, mit Hilfe der Bestände von Bibliotheken Publikationen und ihre Aussagen auch nach langer Zeit belegen und überprüfen zu können, hätte dem traditionellen wissenschaftlichen Publikationswesen eine entscheidende Grundlage gefehlt. 74

75 Dieser Mechanismus ist nicht an die gedruckte Publikationsform gebunden. Diese Form hat es lediglich ermöglicht, die Aufgabe bisher lösen zu können. Durch die elektronische Publikationsform hat sich die Zugänglichkeit der Inhalte dramatisch verbessert, wobei paradoxerweise die Vermittlungsfunktion der Bibliotheken durch die grössere Distanz zur Nutzerschaft erschwert wird. Als Gedächtnis fungieren Hochschulbibliotheken bezogen auf elektronische Informationen bisher praktisch nicht, da sie in aller Regel nicht physisch über die von ihnen erworbenen Inhalte verfügen. Hochschulbibliotheken stehen damit vor der Entscheidung, auch für elektronische Inhalte die Verantwortung als Gedächtniseinrichtungen wahrzunehmen oder nicht bzw. nur teilweise, z.b: als Anbieter des dauerhaften Zugangs, aber nicht der Langzeitarchivierung. Die Verantwortung bedeutet dabei nicht notwendigerweise, dass sie die Aufgabe auch technisch selbst lösen müssen. Vielmehr müssen sie sich selbst, ihren Nutzerinnen und Nutzern und ihren Trägerinstitutionen gegenüber Rechenschaft ablegen, dass verlässliche Lösungen bestehen. Wie die Umfrage zeigt, sind die Hochschulbibliotheken hierzu bereit, auch wenn im Einzelfall eine eigentliche Langzeitarchivierung nicht angestrebt wird. Es ist darum in manchen Fällen eine Präzisierung des Sammelauftrages im Gespräch mit der jeweiligen Trägerinstitution anzuraten Open Access und Publikationsdienstleistungen Das Projekt E-Archiving steht an einem Berührungspunkt mehrerer Entwicklungen. Neben den Fragen von dauerhaftem Zugang und Langzeitarchivierung kommerzieller Inhalte rückt Open Access fast zwangsläufig ins Blickfeld. Die Bibliotheken sind hier je nachdem als Akteure als auch als Opfer betroffen: Ein breites Voranschreiten von Open Access als Publikationsmodell kann die Bedeutung von kostenpflichtigen Abonnementen und Lizenzen sowie von gedruckten Zeitschriften verringern. Dies gilt vor allem dann, wenn eigenständige Open Access-Produkte wie Zeitschriften mit Peer-review und Autorengebühr sich durchsetzen. Es dürfte weniger der Fall sein, wenn lediglich die Eigenarchivierung von Postprints aus abonnementspflichtigen Zeitschriften durch die Autoren forciert wird. Vor allem in der gegenwärtigen Experimentier- und Übergangsphase sind im Zusammenhang mit der Einführung von Autorengebühren einige Begehrlichkeiten zu erwarten: Wenn bisher Bibliotheken für ihre Kundinnen und Kunden den Zugriff auf Informationen über Abonnemente und Lizenzen erkauft haben und dies in einer idealen Open Access-Welt nicht mehr nötig sein sollte, dann stellt sich früher oder später aus Sicht der Autoren innerhalb der Hochschule die Frage, ob nicht auch die entsprechenden finanziellen Mittel von der Abonnementsfinanzierung hin zur Finanzierung von Open Access umgeschichtet werden müssen. Innerhalb der Hochschulverwaltungen und leitungen ist bereits heute die verhängnisvolle Meinung zu beobachten, dass Open Access vor allem helfe, (Bibliotheks-) Kosten zu sparen. Insbesondere der noch stärkere Arbeitseinsatz von Wissenschaftlern im redaktionellen Ablauf wird ausser Acht gelassen, obwohl er rechnerisch massive Kosten für die Hochschule bedeuten kann. Hier können Bibliotheken wertvolle Dienste erbringen, indem sie Dienstleistungen bündeln und das wissenschaftliche Personal von entsprechenden Aufgaben entlasten. Auch wenn es ernstzunehmende Zweifel gibt, ob bereits ausreichend tragfähige Modelle für Open Access existieren, so haben die Bestrebungen hin zum freien Zugang zu wissen- 75

76 schaftlichen Publikationen eine erhebliche Dynamik erreicht. Dies lässt sich auch daran ablesen, dass sogar Tageszeitungen inzwischen gelegentlich über das Thema Open Access berichten (vgl. z.b. (Lindinger 2004)). Die Position der Hochschulbibliotheken ist nicht von vorneherein klar: Es ist durchaus denkbar, Open Access lediglich als einen Weg zu einer willkommenen Entlastung angespannter Zeitschriftenbudgets zu betrachten und sich auf das Engagement der Autoren zu verlassen. Diese werden dann in ihren Instituten oder Departementen andere Partner suchen, die entsprechende Dienstleistungen anbieten bzw. Infrastrukturen aufbauen und betreiben möchten. In diesem Sinne würde Open Access zu einer Zersplitterung von Ressourcen in den Hochschulen beitragen. Entgegen dem erklärten Ziel wäre eine Schwächung und Qualitätsminderung der Informationsversorgung unvermeidlich. Damit würden in jedem Fall auch die Bibliotheken Schaden nehmen. Alternativ können Bibliotheken sich stärker noch als bisher als Vorreiter von Open Access profilieren (Halle 2003; Barth and Lüthi 2004) und den gesamten Lebenszyklus eines Dokumentes von der Erstellung und Publikation über die Bereitstellung bis hin zur Archivierung begleiten und nicht zuletzt auch beeinflussen. Dies bedarf aber der klaren Unterstützung durch die jeweilige Hochschule. Deren Leitung hat anders als die Bibliothek die Möglichkeit, Vorgaben und Auflagen zu machen, um z.b. Autoren zur Open Access- Veröffentlichung von Pre- oder Postprints auf dem Server der jeweiligen Bibliothek zu verpflichten. Damit lassen sich im Prinzip weitere Publikationsdienstleistungen und bibliographische Services für die Autoren verbinden, wenn dies angestrebt wird. Diese Rolle wird den Bibliotheken aber nicht in den Schoss fallen, sondern sie werden sich darum bemühen müssen, unter anderem durch den Aufbau des nötigen Know-hows. Die Hochschulbibliotheken stehen somit vor der Entscheidung, ob sie Open Access in ihrer Institution weitgehend sich selber überlassen möchten oder ob sie aus dem Impuls heraus, der von Open Access ausgeht, aktiv neue Dienstleistungen anbieten möchten, die mit der elektronischen Publikation gekoppelt sind. Unter werden die Optionen zu Open Access im Detail erläutert. Das Engagement für Open Access ist nicht ohne Risiko, jedoch hat die Entwicklung bereits eine solche Dynamik, dass sie nicht mehr ignoriert werden kann. Die Bibliotheken haben jetzt noch die Chance aktiv mitzugestalten, in welcher Weise sich das wissenschaftliche Publizieren wandeln soll Technisches Know-how Technische Lösungen für die Erhaltung elektronischer Daten könnten längerfristig ohne weiteres von anderen Anbietern bereitgestellt werden (vgl. Kapitel ). Kommerzielle Lösungen für verschiedene begrenzte Zwecke sind erhältlich, und es ist zu erwarten, dass mit wachsendem Bedarf weitere Anbieter und Produkte in den Markt eintreten, die irgendwann auch den Bedürfnissen von Universitätsbibliotheken und ihren Benutzenden entsprechen würden (siehe z.b ). Dazu sollten diese Bedürfnisse aus der Praxis möglichst gut bekannt sein. Vielleicht lässt sich hier eine Parallele ziehen zur Entwicklung von integrierten Bibliothekssystemen: In einigen Bibliotheken wurden in den siebziger und achtziger Jahren Bibliothekssysteme selbst entwickelt, die den jeweiligen Bedürfnissen angepasst waren und z. T. erhebliche Lebensdauer und Leistungsfähigkeit erreichten. Erst mit der Zeit standen 76

77 kommerzielle Systeme zur Verfügung, die nicht nur die vorhandenen Funktionen ausführen konnten, sondern tatsächlich eine volle Integration aller Bibliotheksfunktionen realisierten. Dennoch stellen diese Lösungen Kompromisse dar, die im Einzelfall nicht alle gewohnten Ansprüche befriedigen. Es ist einleuchtend, dass jede Bibliothek ihre eigenen Verhältnisse und Abläufe am besten kennt. Es ist anzustreben, dass die Archivierungsanstrengungen von Bibliotheken eingebunden sind in verwandte Aktivitäten in der Hochschule, vor allem von Rechenzentren, Medienzentren und verwandten Einrichtungen: Nicht alle technischen Leistungen sollten die Bibliotheken sich angesichts des Umfanges der Aufgabe selbst aufladen, und sie können es sich auch nicht leisten noch einmal aufzubauen, was an anderer Stelle innerhalb oder ausserhalb der Hochschule bereits erarbeitet wurde. Überdies müssen sich die Bibliotheken wiederum auf Backup-Installationen für ihre eigenen Server verlassen können. Bibliotheken sollten sich klarmachen, ob oder richtiger wohl: wie weit - sie sich bei der technischen Entwicklung auf andere (andere Bibliotheken oder andere Partner) verlassen wollen, können oder müssen oder ob sie Wert darauf legen, ihre eigenen Erfahrungen und Bedürfnisse direkt in die technische Entwicklung einzubringen und entsprechend neues Know-how aufzubauen, das ihre Position innerhalb der eigenen Hochschule stärken kann. Beides ist nicht billig zu haben Open Source Software In Hochschulkreisen besteht ein besonders reges Interesse an Open Source Lösungen. Zur Definition von Open Source gehört es, dass der Quellcode von Programmen für jede Person einsehbar ist und prinzipiell auch von jeder Person verändert werden kann 53. Die Definition enthält jedoch vor allem Anforderungen, denen die jeweilige Lizenz genügen muss, und lässt verschiedene Varianten zu. Die Weiterentwicklung erfolgt unter Beteiligung von interessierten Personen weltweit, was eine rasche Fehlererkennung gewährleistet. Trotz des völlig berechtigten Erfolges von Open Source Software (Linux 54, Open Office 55, Firefox 56 u. v. a.) und des Enthusiasmus bei Endnutzerinnen und Endnutzern sind einige kritische Anmerkungen angebracht. Es ist richtig, dass ein Betriebssystem wie Linux mit Hunderten von Millionen potentieller Nutzerinnen und Nutzer und einem attraktiven Feindbild wie Microsoft eine erhebliche Unterstützung erfahren hat. Es hat dennoch Jahre gedauert, bis es auch für die Normalnutzerschaft am PC sinnvoll einsetzbar wurde und zwar vor allem nachdem Firmen daraus benutzerfreundliche Pakete geschnürt haben. Sein Weg in Unternehmen und öffentliche Verwaltungen hat ebenfalls längst begonnen 57. Bei den für Bibliotheken und das E-Archiving gefragten Anwendungen ist es prinzipiell schwierig, eine kritische Masse an Interessenten zu erreichen. Der Bedarf in den drei 53 The Open Source Definition OSD: 54 Betriebssystem Linux: 55 Office-Paket Open Office: 56 Web-Browser Firefox: 57 Pressemeldung : Aktuelle Studie der META Group zum Einsatz von Open Source Software in deutschen Unternehmen 2004: htm 77

78 Bereichen des Projektes ist weltweit zwar dringend und wachsend, aber nicht quantitativ hoch. Wir verfolgen zum Beispiel mit grossen Interesse die weitere Entwicklung von DSpace, das als Open Source Software für Dokumentenserver (mit der etwas vagen Vision einer Langzeitarchivierung) vom MIT und Hewlett-Packard angeschoben wurde. Im Anschluss an die Startphase laufen seit einiger Zeit Versuche, aus den vorhandenen und durchaus zahlreichen Interessenten für das Produkt eine Gemeinschaft von Institutionen und Personen zu schaffen, die die Entwicklung weiter betreiben werden. Sogar die Gesamtheit der produktiven Dokumentenserver mit einem der bekannten Open Source Systeme (CDSware, DSpace, Eprints, MILESS/MyCoRe, vgl. Kap ) zählt nur nach Hunderten, wovon wiederum viele in Ermangelung von Fachpersonal oder anderen Ressourcen notgedrungen an der eigentlichen Entwicklung nicht mitwirken. Dennoch bestehen im Bereich Dokumentenserver die besten Chancen für eine Open Source Lösung, die für die Bedürfnisse der Hochschulen in Frage kommt bzw. angepasst werden kann. Es ist üblich, dass Anbieter von Softwareprodukten, die Open Source Software in ihre Produkte einbinden, dazu Stellung nehmen müssen, wer eventuelle Fehler in diesen Teilen der Software behebt. Wartet man, bis die entsprechende Entwickler-Community so weit ist? Und was passiert, wenn die Open Source Entwicklung des Produkts stoppt? In diesem Fall hat man bei einem kommerziellen Anbieter eine vertragliche Handhabe. Dieses Druckmittel fehlt bei Open Source Entwicklungen. Bei einer genügend grossen Zahl von beteiligten Entwicklern oder Institutionen wird sich dennoch mit hoher Wahrscheinlichkeit für jedes Problem eine Lösung finden, aber bei einer beschränkten Zahl von Partnern, wie sie bei doch eher spezialisierten Anwendungen zu erwarten ist, wird dies durchaus fraglich. Eine intensive Beteiligung an einer Open Source Entwicklung kann unter Umständen erheblich schlechter zu kalkulieren sein als die Anschaffung und der Unterhalt von absolut gesehen kostspieliger Software. Es ist darum allen interessierten Partnern anzuraten, sich ehrlich damit auseinanderzusetzen, welche personellen Ressourcen sie über längere Zeit für die Mitarbeit an solchen Projekten zur Verfügung stellen können und was sie dies kostet. Auch das mehrfach erwähnte Projekt KOPAL von Die Deutsche Bibliothek, IBM, SUB Göttingen und der Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen soll seine Ergebnisse Open Source für die Nachnutzung zur Verfügung stellen (KOPAL - Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen). Der Kern der Installation wird aber wiederum gebildet vom System DIAS, das von der Königlichen Bibliothek in Den Haag zusammen mit IBM entwickelt wurde und heute als IBM-Produkt vertrieben wird. Dieser Ansatz wird vom Projekt beobachtet und wir sind an einer Zusammenarbeit interessiert. Es ist aber vor Illusionen zu warnen: Es ist offensichtlich, dass hier die fehlende Anzahl potentieller aktiver Open Source Entwicklungspartner am Anfang durch die Leistungsfähigkeit der beteiligten Institutionen und eine massive Projektfinanzierung ( 4 Mio.) kompensiert wird 58. Damit bleibt offen, wie die weitere Entwicklung aussehen könnte. In diesem Sinne ist es sehr wohl vorstellbar, für bestimmte Komponenten eine Open Source Entwicklung zu unterstützen. Es ist bisher aber nicht klar, wo wirklich das Potential und Interesse für eigentliche Entwicklungsaufgaben bei den Hochschulbibliotheken vorhanden 58 BMBF fördert digitales Langzeitarchiv mit 4 Millionen Euro : 78

79 wäre. Dabei ist daran zu erinnern, dass eine nur an einem Ort von engagierten Mitarbeitern selbst erstellte Lösung sehr überzeugend ihren Zweck erfüllen kann, ohne damit im engeren Sinne Open Source zu sein. Dies birgt Risiken für die langfristige Entwicklung Kontrolle Die Frage, welches Ausmass an Kontrolle über die von ihr angebotenen Inhalte eine Bibliothek behalten sollte, ist eng verknüpft mit der Frage des Vertrauens in andere Einrichtungen und in die Authentizität der von ihnen angebotenen Inhalte. In der Welt der elektronischen Veröffentlichungen stellen sich bestimmte Fragen zum ersten Mal, da die Möglichkeit zur Nutzung von Inhalten weitestgehend entkoppelt ist von deren Speicherort, während die Kontrolle der Nutzung und die Sicherung der Authentizität eines Objekts sehr wohl vom Speicherort bzw. der speichernden Institution abhängt. Sehr deutlich wird dies, wenn Artikel von Verlagen kommentarlos zurückgezogen werden. Die Kritik an der Rückzugspraxis einiger Verlage hat erste Anpassungen an die Bedürfnisse der Wissenschaftsgemeinschaft ergeben (Plutchak 2003), die eine vollständige Abbildung des wissenschaftlichen Diskurses anstreben. Das Verhalten der Verlage in diesem Punkt wird auch als Ausdruck ihres generellen Verständnisses von Archivierung und Erhaltung gewertet, das von dem der Bibliotheken abweicht. In der Überspitzung lautet eine Motivation für die Speicherung bei den Bibliotheken vor Ort: [ ] a Web page with a set of links (to publisher sites) is not a library, and a Web page with a set of obsolete, denied or expired links is nothing at all. (Keller, Reich et al. 2003). Die Hochschulbibliotheken müssen sich entscheiden, ob sie tatsächlich alle erworbenen Inhalte unter eigener Kontrolle, d.h. in der Schweiz behalten wollen. In der Umfrage wurde es vor allem abgelehnt, dass jede Bibliothek einzeln die Archivierung verantwortet und technisch umsetzt (vgl ) Kooperation Die Zusammenarbeit von Bibliotheken hat in bestimmten Bereichen Tradition, insbesondere beim gemeinsamen Nachweis von Beständen in Verbundkatalogen. Da hier im Idealfall die Benutzerinnen und Benutzer aller beteiligten Institutionen vom leichteren Zugang zu weit grösseren Beständen profitieren und sich für die Bibliotheken der Aufwand bei der Katalogisierung reduziert, ist ein gemeinsamer Nachweis attraktiv. Es ist allerdings nicht zu übersehen, dass diese Art der Kooperation sich in manchen Fällen auch nur an der Oberfläche abspielen kann. Sie ist in einer Minimalvariante sogar dann möglich, wenn Partner lediglich passiv ihre Katalogdaten zur Verfügung stellen. In vertieften Kooperationen können dagegen von den Partnern gegenseitig aktiv Dienstleistungen erbracht werden, z.b. durch den Betrieb von Servern für alle Partner etc. Intensive Zusammenarbeiten zwischen Hochschulbibliotheken auf operativer Ebene sind vielfach auf die Sprachregionen begrenzt. Darum stehen die hier diskutierten Aktivitäten des Konsortiums mit ihrer gesamtschweizerischen Ausrichtung einerseits vor besonderen Herausforderungen, andererseits erlangen sie im positiven Sinne eine Bedeutung, die bei erfolgreicher Ausführung Impulse für weitere Gemeinschaftsprojekte geben kann. 79

80 Sobald sich eine Zusammenarbeit jedoch im Hinblick auf die eigenen Bestände auswirkt, nimmt entweder die Bereitschaft stark ab oder das Vorhaben wird schnell sehr kompliziert. Da es in letzter Konsequenz die Bestände einer Bibliothek sind in welcher Form auch immer die die Basis für alle anderen Angebote bilden, ist es verständlich, dass Einschränkungen der eigenen Gestaltungsfreiheit an dieser Stelle schwer zu akzeptieren sind. Um solche Einschränkungen wird es bei einer Kooperation auf Bestandesebene aber in der Regel gehen. Die Befürchtungen gelten sogar in doppeltem Sinne, nämlich einerseits, wenn befürchtet wird, dass die eigenen Bestände und damit die Bibliothek durch eine Kooperation kleiner und weniger attraktiv werden könnten, und andererseits wenn befürchtet wird, dass die eigenen Bestände in einer engeren Kooperation sogar noch attraktiver für die externe Nutzung werden könnten und damit der eigenen Benutzerschaft entzogen würden. Im konkreten Fall des E-Archiving-Projektes ist die Bestandeskoordination bei der verteilten Archivierung gedruckter Zeitschriften ein Thema, das nur mit einer vertieften Zusammenarbeit behandelt werden kann. In diesem Fall ist es sogar das erklärte Ziel, mit den einzelnen Partnern konkrete Beschränkungen beim Umgang mit bestimmten Zeitschriften zu vereinbaren. Online-Ressourcen werden üblicherweise nicht dem Zugriff anderer Kundinnen und Kunden entzogen, wenn sie in Benutzung sind (vgl. aber z.b. die Ausleihe von pdf-e-books (Schallehn 2004)). Paradoxerweise lässt sich die Anzahl der virtuellen Exemplare dennoch nicht reduzieren, da jede Bibliothek ein eigenes Nutzungsrecht erwerben muss. Dagegen ist es sehr wohl möglich, die mehrfache Speicherung der Ressource zu vermeiden, indem ein Exemplar für weitere Partner gemäss der von ihnen erworbenen Nutzungsrechte zugänglich gemacht wird. Dies bedarf offensichtlich einiger Zusammenarbeit, und um vieles mehr ist dies der Fall bei den Herausforderungen der Langzeitarchivierung, die über den Rahmen der aktuellen Informationsbeschaffung weit hinausweisen. Andere Projekte berühren zwar nicht direkt die Bestände der Bibliotheken, greifen zu ihrer Umsetzung aber mehr oder weniger intensiv auf Ressourcen der beteiligten Einrichtungen zurück (Arbeitszeit des Personals, IT-Dienstleistungen und Hardware, Platz ). Da in den seltensten Fällen eine vollständig Kompensation von Leistungen innerhalb einer Zusammenarbeit erfolgen kann, sind die Bibliotheken darauf angewiesen, dass ihre Trägerinstitutionen ihnen gewisse Freiheiten in dieser Hinsicht einräumen. Schon heute haben Bibliotheken mit ihren vielfältigen speziellen Beziehungen untereinander und nach aussen Schwierigkeiten, Sinn, Art und Verrechnung dieser Beziehungen den entsprechenden Stellen in der Hochschule zu vermitteln. Die Schweizer Hochschulbibliotheken sind in diesem Sinne mit einer ganzen Reihe von Aufgaben konfrontiert, die in unterschiedlichem Masse die Frage aufwerfen, welcher Umfang an Kooperation gewünscht, politisch durchsetzbar und auch organisatorisch beherrschbar ist. Formen der Zusammenarbeit, die nicht für alle Partner zumindest tragbar sind, haben keine Aussicht auf längerfristigen Erfolg. Kooperation bedeutet nicht, dass man aufwendige oder unangenehme Aufgaben von anderen erledigen lässt. Sie verlangt vielmehr neben dem Einbringen eigener Leistungen sogar zusätzliche Aktivität, um das gemeinsame Handeln zu gestalten. Dies geht über die bisherigen Beziehungen zur Geschäftsstelle des Konsortiums hinaus. Schon deren Arbeit für alle Bibliotheken wird zeitweise stark behindert, weil einzelne Partner wichtige Angaben nie oder erst nach mehrmaliger Nachfrage liefern. Dies 80

81 beeinträchtigt naturgemäss die Qualität der Leistung auch für die Partner, die regelmässig und zuverlässig mit der Geschäftsstelle zusammenarbeiten. Aus dieser Aussage lassen sich zwei mögliche Konsequenzen ziehen: Entweder wird die Kooperation aller Beteiligten auf einem Niveau gesucht, das für alle akzeptabel ist, also auf der Basis des kleinsten gemeinsamen Nenners, oder es wird eine intensivere Zusammenarbeit nur unter denjenigen Partnern angestrebt, die diese mittragen können und wollen. Die Entscheidung im einen oder anderen Sinne kann für die diversen Teilprojekte so lange separat getroffen werden, wie zwischen den Bibliotheken keine vollständige Kompensation von Leistungen erfolgen muss. Insbesondere dort, wo nicht alle Konsortialpartner an der Ausführung beteiligt sind, stellt sich die Frage, wie Entscheidungsprozesse aussehen sollen. Nutzniesser und Ausführende sind in diesem Fall nicht identisch. Trotz formaler Vorteile erscheint es unbefriedigend, hier ein reines Dienstleistungsverhältnis entstehen zu lassen, das nicht mehr im eigentlichen Sinne kooperativ funktioniert Eigenleistungen der Bibliotheken Mit den Fragen von Kontrolle, Know-how und Kooperation ist die Frage nach der Bereitschaft zur Erbringung von Eigenleistungen verbunden. Dabei ist zu klären, in welcher Art und in welchem Umfang sich Bibliotheken an den voraussichtlich gemeinsam zu lösenden Aufgaben beteiligen möchten oder können. Die Bandbreite reicht dabei vom aktiven Betrieb von Servern bis hin zur Beschränkung auf die Abgabe von Daten und die Zahlung eines finanziellen Beitrages. Dabei ist wie immer eine Abwägung zu treffen, ob für dieses Engagement andere Aktivitäten aufgegeben werden können und/oder ob zusätzliche strukturelle Mittel eingeworben werden können bzw. müssen. Im Rahmen von SUK- Projekten sind gewisse Eigenleistungen der Bibliotheken ohnehin obligatorisch. Während die Art der Beteiligung an der Bereitstellung von Ressourcen erst bei der konkreten Umsetzung geklärt werden kann, muss bereits in der Projektphase ein hohes Bewusstsein erwartet werden, dass die inhaltliche Mitwirkung der Partnerbibliotheken nötig ist. Dies wird in gewissem Rahmen Arbeitszeit von Kontaktpersonen in den Bibliotheken binden, und zwar umso mehr, je stärker das angestrebte Engagement sein soll. Als Mindestanforderung muss ein guter Informationsfluss erwartet werden. Derzeit ist noch nicht klar, wie die Partner für einzelne Teilprojekte ausgewählt werden sollen. Für einzelne Teile liegen Interessenbekundungen aus verschiedenen Bibliotheken vor, und es wird angestrebt, auf diesem lokal vorhandenen Interesse aufzubauen. Dennoch sollten auch andere Partner jeweils die Chance haben, sich zu beteiligen. Es bleibt festzulegen, ob dazu jeweils eine Art von interner Ausschreibung durchgeführt werden soll und ob eine solche Ausschreibung die Verrechnung derjenigen Leistungen vorsehen muss, die klar dem Projekt zugeordnet werden können. Neben der unverzichtbaren kurzfristigen Mitwirkung von Personal der Partnerbibliotheken beim Projekt müssen Bibliotheken im Verlaufe der Arbeiten ihr eigenes Engagement für produktive Dienste langfristig planen. Bereits in der der Projektphase sind Modalitäten zu definieren und zu testen, wie die jeweils aktiven Bibliotheken in einem Teilprojekt bestimmt werden können. 81

82 8. Konzept für die Schweiz 8.1 Vergleich mit internationalen Projekten Wie in einem zusammenfassenden Überblick zutreffend vermerkt wurde, sind die Ergebnisse der Beschäftigung mit den Fragestellungen der elektronischen Archivierung heute zumeist entweder abstrakte Modelle und Richtlinien oder sehr spezifische Lösungen für ein bestimmtes Format oder einen bestimmten institutionellen Rahmen (Hedstrom, Ross et al. 2003). Im letzteren Fall sind sie an eine konkrete Situation gebunden und ihre Urheber haben häufig kein eigenes Interesse daran, ihre Übertragbarkeit für andere Anwendungsfälle zu prüfen oder sogar zu fördern. Demgegenüber lassen sich hoch-abstrakte Konzepte noch längst nicht in konkrete Lösungen übersetzen, auch wenn sie breite Zustimmung erfahren. Vor diesem Hintergrund sind die Projekte und Initiativen zu sehen, die im Anhang V, Kapitel 17 aufgelistet sind. In der dortigen Tabelle finden sich auch die Details zu den hier genannten Projekten. Sie werden hier nicht im Einzelnen diskutiert, da die wichtigeren von ihnen im jeweiligen inhaltlichen Zusammenhang an anderer Stelle des Berichtes besprochen werden. Hier sollen nur wenige Anmerkungen gemacht werden. Erstaunlich selten sind eigentliche Forschungsprojekte zu den technischen Prozessen von Migration, Emulation oder alternativen Massnahmen (UVC u.a.). Dies spiegelt wohl vor allem die Erkenntnis wider, dass als Voraussetzung für diese langfristig notwendigen Eingriffe zunächst eine verlässliche Speicherung erreicht werden muss. Folgerichtig sind Entwicklungsprojekte für Speichersysteme stärker vertreten, unter anderem bei den Entwicklungen des edepots durch die Königliche Bibliothek in Den Haag und IBM, seiner Umgestaltung im Rahmen von KOPAL in Deutschland oder die Eigenentwicklungen für die Internetarchivierung durch PANDORA in Australien (Angaben zu allen Projekten im Anhang V). Während Web-Archive von verschiedenen Nationalbibliotheken betrieben oder aufgebaut werden, ist das edepot eines der wenigen Projekte, das bereits produktiv mit Bibliotheksinhalten (Zeitschriften) arbeitet. Es wird in den kommenden Jahren nötig sein, die Forschung zu den technischen Prozessen der Langzeiterhaltung zu verstärken. Die Durchführung von eigentlichen Forschungsprojekten kann nur zum kleinsten Teil von Bibliotheken geleistet werden. Wichtig ist die Kooperation mit anderen Partnern, die an den Ergebnissen interessiert sind (Archive usw.) und den Fachkreisen, die am ehesten qualifiziert sind, in diesem Bereich Forschung zu betreiben, z.b. die fachlich einschlägigen Institute in den Hochschulen. Die bedeutsame Frage, ob zentrale oder dezentrale Lösungen für die Langzeitarchivierung bevorzugt werden sollen, ist noch nicht eindeutig beantwortet. Eine Konkurrenz verschiedener Ansätze wird begrüsst. Die Entscheidung für eine von beiden Möglichkeiten folgt bisher aber nicht zuletzt politischen Gegebenheiten. Für Länder wie Deutschland oder Australien mit dem Charakter von Bundesstaaten werden dezentrale Lösungen angestrebt (nestor, KOPAL, D) bzw. bereits umgesetzt (PANDORA 59, AUS) und auch das übergreifende 59 Das Webarchiv PANDORA ist zur Zeit eine zentrale Installation mit kollaborativer Nutzung. 82

83 US-Projekt NDIIPP hat dieses Ziel trotz der Federführung der Library of Congress. Als Vorteile des dezentralen Ansatzes gelten unabhängig von politischen und kulturellen Gegebenheiten eine bessere Absicherung gegen Gefährdungen aller Art und eine bessere Skalierbarkeit. Trotz aller offenen Fragen ist der Wunsch der Schweizer Hochschulbibliotheken nach einer verteilten Lösung somit gut begründet und stellt auch international keinen Sonderweg dar. Überhaupt lässt sich sagen, dass die Fragestellungen der Schweizer Hochschulbibliotheken weltweit hochaktuell sind und weit entfernt davon befriedigend beantwortet zu werden. Untypisch ist die Verbindung der drei Themenbereiche Kommerzielle Inhalte, Dokumentenserver und Open Access und Digitalisierung. Diese Verknüpfung ergibt einerseits interessante Impulse zwischen den Bereichen, andererseits ist bereits jedes Thema für sich allein genommen mit erheblichen Herausforderungen verbunden. Es erscheint kaum möglich, ihnen allen gleichzeitig oder in enger zeitlicher Folge angemessen gerecht zu werden. Hinzu kommt, dass auch die beiden Bestandteile der Zugriffssicherung und Langzeitarchivierung zum Teil nicht einmal in einem Projekt vereint sind. Während die Zugriffssicherung als Aufgabe von Hochschulbibliotheken angenommen wird, gibt es bei der Langzeitarchivierung hohe Erwartungen an Nationalbibliotheken und andere Einrichtungen. Die Nationalbibliotheken ihrerseits sind an vielfältigen Projekten beteiligt, und viele Aktivitäten beschäftigen sich hierbei mit der Archivierung von Internetseiten mit nationalem Bezug. Die Nationalbibliotheken müssen aber vor allem dort Antworten schuldig bleiben, wo Aufgaben inhaltlich ihren bisherigen Auftrag überschreiten. Konkret betrifft dies ausländische Literatur ohne nationalen Bezug sowie den Umgang mit den Einschränkungen bei der Nutzung, die die Verlage verlangen. Im Zusammenhang mit der Schweizerischen Landesbibliothek wird dies ausführlicher angesprochen (vgl. Kapitel und folgende). Berührungspunkte bestehen mit Projekten von Archiven, die sich zum Teil bereits vor den Bibliotheken mit der elektronischen Archivierung auseinandersetzen mussten. Ein starkes Gewicht liegt dabei im vorarchivischen Bereich, in dem versucht wird, Einfluss zu nehmen auf die Dokumenterstellung. Dies ist naturgemäss in einer staatlichen Verwaltung bis zu einem gewissen Grad möglich, in Bibliotheken überwiegend nicht. Bis diese Massnahmen wirklich greifen und vermutlich auch darüber hinaus sehen sich Archive noch stärker als Bibliotheken mit einer Vielzahl von Formaten konfrontiert. Folgerichtig sind es vor allem Archive, die sich für Standardisierung und Dokumentation von Formaten einsetzen. Beispiele sind das Engagement des US-Archivs NARA für die Erarbeitung des Standards PDF/A (vgl. Kapitel 5.3.1) oder das Format-Verzeichnis PRONOM der britischen National Archives (vgl. Kapitel 5.8.1). Eine Spezialität des Konsortiumsprojektes stellt die Organisationsform dar, bei der ein Projekt mit konzeptionellen und ausführenden Aufgaben bei einem Konsortium angesiedelt ist, dessen Anspruch es ist, alle Einrichtungen eines bestimmten Typs bei einer Aufgabe zu vertreten. Die Geschäftsstelle des Konsortiums ist geschwächt durch die Notwendigkeit, verschiedensten und sogar widersprüchlichen Interessen gerecht zu werden, während die Konsortialpartner selbst dennoch für sich unabhängig entscheiden. Dies gilt auch für das E- Archiving-Projekt. Die Geschäftstelle ist als gut unterstützter Gast eingebettet an einer Bibliothek, von deren Ressourcen sie profitiert. Das Projekt selbst wird aber nicht von einer oder mehreren Bibliotheken selbst als Motor aktiv vorangebracht. Ausländische Bibliotheksprojekte werden dagegen zumeist von einigen Bibliotheken organisatorisch getragen und 83

84 vorangetrieben, die daran ein Interesse haben. Dies gilt auch in verteilten Projekten. Es könnte sich als nötig erweisen, für Teilprojekte des E-Archiving neue und klarere Entscheidungswege festzulegen. Dies gilt etwa, wenn eine Gruppe der Konsortialpartner eine Aufgabe für alle Partner übernimmt. 8.2 Ausgangslage in der Schweiz Schon die Aktivitäten des Konsortiums im Bereich der Lizenzierung von elektronischen Informationsangeboten waren nie unabhängig von der Situation jeder einzelnen Bibliothek innerhalb ihrer Hochschule und von den Beziehungen der Hochschulen untereinander. Bei der elektronischen Archivierung mit ihren Berührungspunkten zu anderen Einrichtungen und anderen Tätigkeiten (Publikation) ist dies noch viel weniger der Fall: Sie muss wegen ihres Anspruchs der langfristigen Stabilität noch stärker vor dem institutionellen Umfeld der beteiligten Einrichtungen betrachtet werden. Es wird darum kurz die Situation der Bibliotheken, der Hochschulen und des Konsortiums beleuchtet Bibliotheken Bei den hier betrachteten Bibliotheken handelt es sich um zentrale Bibliotheken oder Koordinationsstellen der zwölf universitären Schweizer Hochschulen sowie um die Bibliotheken der vier Forschungsanstalten des ETH-Bereichs. Letztere werden im Rahmen der Studie praktisch nie getrennt betrachtet. Nicht separat berücksichtigt werden die Bibliotheken der Fachhochschulen: Aufgrund der Vielzahl von kleinen Standorten kommen sie als eigenständige, aktive Partner für die Langzeiterhaltung kaum in Frage. Diese Struktur stellt auch für alle anderen Projektteile eine zusätzliche Herausforderung dar. Die Interessen der Fachhochschulen konnten dementsprechend bisher nicht angemessen berücksichtigt werden. Bereits für das Ensemble der Universitätsbibliotheken alleine ist seine grosse Heterogenität kennzeichnend: Neben den offensichtlichen Sprachunterschieden weisen die Bibliotheken ganz unterschiedliche Eigenschaften auf, was ihre fachliche Ausrichtung, ihre Grösse, ihre Trägerschaft, ihre Einbindung in die umgebende Institution und ihr Selbstverständnis betrifft. Dies hat Folgen für ihre jeweiligen Prioritäten und allgemein für ihre Interessen im Bereich der dauerhaften Verfügbarkeit und der Langzeitarchivierung sowie für die Möglichkeiten, die sie in gemeinsame Anstrengungen einbringen möchten oder können. Die wissenschaftlichen Bibliotheken können einander nur in begrenztem Masse Konkurrenz machen und erarbeiten darum vielfach kooperative Lösungen, die einen Nutzen für die Kundinnen und Kunden aller beteiligten Einrichtungen bieten. Gleichwohl führen die Bibliotheken eine Vielzahl von Einzelprojekten durch, um sich als kompetente Dienstleister für ihre Trägereinrichtungen zu profilieren. Sie stehen auf diese Weise vor allem in einem fachlichen Wettbewerb um überzeugende Angebote. Das gemeinsame Verständnis als Dienstleistungseinrichtungen für die Wissenschaft sollte bei aller Verschiedenheit eine gewisse gemeinsame Grundlage für eine Zusammenarbeit schaffen. 60 Genau genommen handelt es sich um 17 Einrichtungen, die durch 16 Personen repräsentiert wurden. 84

85 Die Universitätsbibliotheken arbeiten heute operativ in zwei grossen Verbünden mit unterschiedlichem Charakter zusammen, die weitgehend den Sprachgrenzen folgen (Informationsverbund Deutschschweiz, IDS und Réseau des bibliothèques de Suisse occidentale, RERO). Ein gesamtschweizerischer Austausch kann in der Konferenz der Universitätsbibliotheken (KUB 61 ) der Schweizerischen Universitätskonferenz (SUK 62 ) stattfinden. Auf der operativen Ebene ist nur die Geschäftsstelle des Konsortiums gesamtschweizerisch für die Hochschulbibliotheken tätig, und zwar unter Einbezug der Fachhochschulen. Einige Universitätsbibliotheken sind in ihrer Doppelfunktion in einen Austausch mit der Schweizerischen Landesbibliothek eingebunden, der alle Kantonsbibliotheken umfasst. Auf die entsprechenden Aktivitäten wird noch ausführlicher eingegangen werden ( ) Hochschulen Neben der formalen Abstimmung in der SUK und der Rektorenkonferenz der Schweizer Universitäten (CRUS 63 ) arbeiten Schweizer Hochschulen punktuell relativ eng zusammen, um z.b. das Lehrangebot bestimmter Fächer abzustimmen und Doppelspurigkeiten bei Spezialangeboten zu vermeiden. Aufgrund ihrer räumlichen Nähe stehen sie aber auch in einem Wettbewerb um die Studierwilligen. Der Erfolg in diesem Wettbewerb entscheidet nicht zuletzt auch über finanzielle Mittel usw. Diesem Wettbewerb ist als weitere Ebene eine internationale Konkurrenz überlagert. Sie besteht seit langem um qualifiziertes Forschungsund Lehrpersonal und soll mit der geforderten und geförderten Mobilität im Studium in den kommenden Jahren auch bei den Studierenden weiter zunehmen 64. In diesem Wettbewerb wird neben vielen weiteren Faktoren die Leistungsfähigkeit der universitären Dienstleistungseinrichtungen eine Rolle spielen. Die Hochschulbibliotheken sollten auch diese Aussenwirkung ihrer Tätigkeit angemessen gewichten und aktiv gestalten. In diesem Zusammenhang muss möglicherweise gegenüber den Hochschulen noch sorgfältiger begründet werden, warum eine Kooperation ihrer Bibliotheken mit denen konkurrierender Einrichtungen nötig und für alle Beteiligten sinnvoll ist. Auch innerhalb der Hochschulen besteht eine Konkurrenzsituation, in der sich die Bibliotheken gegen andere Interessen behaupten müssen. Es ist deshalb nötig, die umfassenden Aufgaben, denen sich die Bibliotheken im Interesse ihrer Hochschulen stellen müssen, auch im Bewusstsein der Entscheidungsträger in den Hochschulen zu verankern: Es handelt sich z.b. bei der Langzeitarchivierung elektronischer Daten nicht um ein Problem der Bibliotheken, sondern um ein Problem von Wissenschaft und Forschung insgesamt, zu dessen Lösung die Bibliotheken einen qualifizierten Beitrag leisten können und sollten. 61 Konferenz der Universitätsbibliotheken (KUB): 62 Schweizerische Universitätskonferenz SUK: 63 Rektorenkonferenz der Schweizer Universitäten CRUS: 64 Dies ist ein Ziel der Bologna -Reformen, die in der Schweiz von der CRUS koordiniert werden: 85

86 8.2.3 Konsortium Strukturfragen Das Konsortium der Schweizer Hochschulbibliotheken ist ein Projekt der Schweizerischen Universitätskonferenz mit einem Modul zur Lizenzierung elektronischer Informationsangebote für die Schweizer Hochschulen und wenige andere Einrichtungen (Laufzeit mit Projektfinanzierung von 2000 bis 2005) und einem Modul zur Archivierung elektronischer Informationen (E-Archiving, Projektfinanzierung von Herbst 2002 bis 2007). Die Ausführung der Arbeiten zu beiden Modulen liegt bei der Geschäftsstelle, die an die ETH-Bibliothek in Zürich delegiert ist. Wegen des zeitlich begrenzten Charakters müssen für alle Aktivitäten der Geschäftsstelle Modelle entwickelt werden, die eine langfristig verlässliche Trägerschaft über das Projektende hinaus gewährleisten. Entsprechende Gespräche werden für das Lizenzierungsmodul zur Zeit geführt. Bemühungen um die Langzeiterhaltung digitaler Informationen entfalten naturgemäss überhaupt nur dann eine echte Wirkung, wenn sie eine Perspektive für eine längerfristige Weiterführung haben. Ausserdem ist zu erwarten, dass sie in stärkerem Masse als die Lizenzierung eine technische Infrastruktur benötigen. Die langfristige Funktionsfähigkeit hängt damit einerseits von einer ausreichenden Finanzierung ab und andererseits von einer tragfähigen Struktur in technischer und organisatorischer Hinsicht. Damit ist ausdrücklich nicht gemeint, dass zwingend eine eigene Infrastruktur nötig oder anzustreben ist Inhaltliche Gesichtspunkte Wenn im Rahmen des Projektes E-Archiving von elektronischen Zeitschriften die Rede ist, dann handelt es sich aus der Sicht des Konsortiums zumeist um die Titel grosser internationaler Verlage mit rein kommerziellem Charakter sowie um die kommerziell erworbenen Angebote grosser wissenschaftlicher Fachgesellschaften. Auf die gleichen Titel wird auch Bezug genommen, wenn zusätzlich die gedruckten Bestände in die Überlegungen einbezogen werden. Diese eingeschränkte Sicht der Dinge wird den Bedürfnissen der einzelnen Bibliotheken nur teilweise gerecht. Es wird darum an einigen Stellen versucht, ausdrücklich Bezug zu nehmen auf spezifische Fragen im Umgang mit kleineren Anbietern bzw. mit solchen, die nicht im Konsortium bearbeitet werden. Es besteht ausserdem die Hoffnung, dass sich möglichst viele inhaltliche Aspekte in geeigneter Form übertragen lassen auf die Behandlung anderer Dokumenttypen. Weder graue Literatur der Hochschulen noch Retrodigitalisierung gehörten zum Aufgabenbereich der Geschäftsstelle des Konsortiums in seiner Funktion als Koordinationsstelle für die Lizenzierung. Insbesondere die graue Literatur beschäftigt die Hochschulbibliotheken jedoch schon seit mehreren Jahren und es deutet sich verschiedentlich an, dass eine Zusammenarbeit in diesem Bereich einigen Nutzen bringen kann. Die Archivierung wird dabei auch als Voraussetzung gesehen, Open Access-Aktivitäten mehr Gewicht und Vertrauenswürdigkeit zu verleihen. Für eine schweizweite Zusammenarbeit ist die Geschäftsstelle prädestiniert, da sie bereits über Kontakte zu den Verantwortlichen für elektronische Medien in den Hochschulbibliotheken verfügt. Ausserdem ist das wachsende Interesse an Open Access-Modellen zu einem erheblichen Teil motiviert durch die Unzufriedenheit mit 86

87 dem Verhalten eben jener Grossverlage, mit denen sich die Mitarbeiterinnen der Geschäftsstelle intensiv beschäftigen. 8.3 Zielsetzung Digitale Objekte haben längst weite Bereiche des wissenschaftlichen Informations- und Wissensaustausches massiv verändert. Dies betrifft sowohl die informelle Kommunikation, die von -Diensten dominiert wird, als auch diejenige Kommunikation, die über formale Publikationsprozesse verläuft. Entsprechend umfassend sind die Herausforderungen, die sich hieraus für die primären Dienstleister in diesem Bereich ergeben. Im Falle von s sehen sich primär Rechenzentren und Archive in der Pflicht, bei eigentlichen Publikationen und weiteren wissenschaftlichen Inhalten sind es die Bibliotheken. Bezogen auf das Projekt E-Archiving des Schweizer Konsortiums wurden ausgewählte Ziele vorgegeben. Sie ergeben sich einerseits aus der bisherigen Tätigkeit der Geschäftsstelle heraus und weisen andererseits deutlich darüber hinaus auf Tätigkeitsfelder der Hochschulbibliotheken, die teilweise neu sind und teilweise lediglich in neue Formen übergehen. Die vorzuschlagenden Konzepte müssen darum mehrere Ziele verfolgen: 1. Aufbau von Lösungen, um für die Partnerbibliotheken des Konsortiums den dauerhaften Zugriff auf jene Inhalte zu gewährleisten, an denen diese im Rahmen von konsortialen Lizenzverträgen fortdauernde Rechte erworben haben (v. a. Zeitschriften). 2. Archivierung a. Konzept für die langfristige Archivierung der genannten Inhalte in elektronischer Form. b. Ausdehnung auf andere Inhalte inkl. graue Literatur. 3. Vorschlag eines Konzeptes für die verteilte koordinierte Archivierung von Exemplaren vorhandener gedruckter Zeitschriften mit der Option auf eine koordinierte Erwerbung. 4. Dokumentenserver: Schaffung bzw. Weiterentwicklung einer unterstützenden Infrastruktur für verstärkte Publikationsaktivitäten im Sinne der beiden einander ergänzenden Konzepte von Open Access (Selbstarchivierung von anderweitig publizierten Inhalten durch den Autor vs. Publikation eigener Zeitschriften im Offenen Zugang). 5. Bewertung der Perspektiven für Digitalisierungen mit besonderem Blick auf Zeitschrifteninhalte. Selbstverständlich sind die verschiedenen Ziele mehr oder weniger eng miteinander verbunden und ergänzen sich gegenseitig. Dies ist bei ihrer Behandlung und Umsetzung zu berücksichtigen. Es ist sowohl möglich als auch geboten, die Bereiche als Teilmodule eines Gesamtkonzeptes zu betrachten und entsprechend zu formulieren: Kein Einzelmodul erzwingt die Umsetzung aller anderen. Die Trennung der beiden Punkte Zugriffssicherung (1.) und Archivierung (2.) ist vor allem konzeptionell zu verstehen und muss nicht zwingend auch technisch umgesetzt werden. Es gibt allerdings vor allem Sicherheitsgründe, die dafür sprechen, die mehr oder weniger 87

88 öffentlich zugänglichen Schichten eines Speichersystems zu trennen von einer Schicht, die ausschliesslich der Archivierung dient (Shirky 2002). Die Begrenzung unter Punkt 1. auf Inhalte, die im Rahmen des Konsortiums bezogen wurden, ist zum jetzigen Zeitpunkt vor allem praktisch motiviert. Es wird jedoch erwartet, dass die entsprechenden Lösungen mit gewissen Anpassungen auch für Inhalte Anwendung finden können, die lokal von den Bibliotheken beschafft werden. Unabhängig von der Umsetzung der vorgeschlagenen Konzepte sollen zumindest Empfehlungen dafür gegeben werden, wie die einzelnen Bibliotheken mit den anstehenden Aufgaben umgehen können Gesichtspunkte für die Teilprojekte Idealerweise sollten für alle Teilkonzepte die folgenden Aspekte berücksichtigt werden. Zahlreiche Punkte werden jedoch aus heutiger Sicht offen bleiben müssen. 1. Bestandesaufnahme a. Welche Inhalte und Metadaten sind betroffen? b. Kann oder muss eine Auswahl unter diesen getroffen werden? Nach welchen Kriterien soll dies geschehen und durch wen? 2. Dringlichkeit 3. Nutzen und Lasten a. Kundennutzen (d. h. für Endnutzende und Träger der Bibliothek) i. Dient das Konzept den Kundinnen und Kunden aller beteiligten Bibliotheken? ii. Ist dieser Nutzen gross genug, um den Aufwand zu rechtfertigen? b. Welche Verpflichtungen gehen beteiligte Einrichtungen ein? c. Welchen Nutzen haben Einrichtungen mit verschiedenen Interessen davon? d. Welche positiven und negativen Nebeneffekte sind zu erwarten? 4. Organisation 5. Recht a. Wieviele und welche Bibliotheken müssen mitwirken, damit eine sinnvolle Umsetzung möglich ist? b. Welche Art der Zusammenarbeit ist möglich und welche realistisch? c. Wie wird sie praktisch umgesetzt: Wer bespricht sich mit wem wie oft? d. Welche Einrichtungen übernehmen welche Verantwortung? e. Wer sind potentielle Partner? f. In welchem Umfang soll es eine zentrale Dienstleistung geben? g. Welche Aufgaben fallen lokal an (Umfang und Qualität)? 88

89 a. Welche Massnahme bedürfen einer rechtlichen Abklärung? b. Wo liegen rechtliche Grenzen für die Wahrnehmung deraufgaben? 6. Personal und technische Infrastruktur a. Welches Personal mit welcher Qualifikation wird benötigt? b. Welche technische Infrastruktur wird voraussichtlich benötigt? c. Welche Teile dieser Infrastruktur bestehen bereits und können mitgenutzt oder übernommen werden? d. Welche technischen Ressourcen muss jeder einzelne Partner minimal bereitstellen? 7. Wirtschaftliche Tragfähigkeit a. Kann der Aufbau innerhalb des Projektes E-Archiving erfolgen? b. Welche Mittel sind für den laufenden Betrieb nötig? c. Wie können diese Mittel nach Projektende bereitgestellt werden? 8.4 Dauerhafter Zugriff auf kommerziell erworbene Inhalte Die Bedingungen für die Nutzung elektronischer Inhalte von Verlagen sind komplex. Beim dauerhaften Zugriff geht es um Massnahmen, die es erlauben, einmal erworbene Zugriffsrechte auch dann wahrnehmen zu können, wenn eine Lizenz nicht mehr fortgesetzt wird Differenzierung der Inhalte Die bisher im Rahmen des Schweizer Konsortiums geschlossenen Lizenzvereinbarungen für elektronische Zeitschriften stützen sich bei der Preisberechnung in den meisten Fällen noch auf die laufenden Abonnements von gedruckten Zeitschriften in den beteiligten Bibliotheken. Vor allem bei den grössten Verlagen (Elsevier/Academic Press, Springer/Kluwer, Wiley) beinhalten die Lizenzen aber für alle Partner den Zugriff auf die vollständigen Verlagsangebote an elektronischen Zeitschriften. Dies führt dazu, dass aus Sicht der Bibliotheken zunächst drei verschiedene Arten von Inhalt zu unterscheiden sind: 1. Inhalte, die eine Bibliothek selber in gedruckter Form bezieht und zu denen sie die elektronische Version dazu erwirbt. Je nach Verlag wird dabei zum Teil auch der Online-Zugriff auf ältere Jahrgänge der Zeitschriften gewährt. Ein Archivrecht besteht in der Regel aber nur für jene Jahrgänge, die während der Laufzeit der Lizenz erschienen sind. Nur dieser Inhalt wird also im engeren Sinne erworben. 2. Inhalte, die lediglich in einer oder mehreren anderen Bibliotheken in gedruckter Form abonniert werden, jedoch nicht in der eigenen Bibliothek. Im Konsortium kommen in diesem Fall häufig alle Vertragspartner in den Genuss des Online-Zugriffs auf diese Inhalte ( cross access, weil über Kreuz auf Inhalte anderer Bibliotheken zugegriffen wird). Die jeweiligen Inhalte werden in diesem Fall aber nur von denjenigen Bibliotheken für eine dauerhafte Nutzung erworben, die auch über ein Abonnement der gedruckten Ausgabe verfügen. Alle anderen werden nach dem Ende ihrer 89

90 eigenen Lizenzvereinbarung mit dem Verlag in der Regel keinen Zugriff mehr auf diese Inhalte haben, und zwar unabhängig von der tatsächlichen technischen Lösung. 3. Inhalte, zu denen es in keiner der Bibliotheken des Konsortiums eine gedruckte Ausgabe gibt und die trotzdem von allen genutzt werden können ( additional access ). In diesem Fall besteht nach Ende der Lizenz von keiner der Bibliotheken ein Anspruch an den entsprechenden Inhalten. In der Erfahrung der Geschäftsstelle gestaltet sich die Verhandlung von Konsortiallizenzen in dem oben genannten Sinn von Paketlösungen mit möglichst umfassendem Zugriff ( big deal ) zunehmend schwierig. Es ist darum in den kommenden Jahren mit einer Veränderung der Situation zu rechnen. Dabei werden verschiedene Modelle von den Verlagen ins Gespräch gebracht, die z. T. recht komplex sind und einen entsprechend noch höheren Aufwand bei den vorgängigen Abklärungen mit den Bibliotheken erfordern, als dies bisher schon der Fall ist. Es ist keineswegs sicher, dass sie in dieser Form für die Konsortialpartner wirklich interessant und auch praktisch handhabbar sein werden. Vorgeschlagen sind etwa Modelle, die nur noch den gemeinsamen Zugang zu einem ausgewählten Satz an Titeln gewähren. Je nach Variante können die einzelnen Bibliotheken weitere Titel hinzufügen. Als Vorteil wird darum eine gewisse Flexibilität dargestellt, die aber einem systematischen und langfristigen Bestandesaufbau widerspricht und in den Bibliotheken und in der Geschäftsstelle den Aufwand steigert, wenn die wechselnde Zugänglichkeit von Titeln verarbeitet und der Endnutzerschaft vermittelt werden muss. Begrenzte Erfahrungen bestehen mit E-only-Bezugsmodellen für elektronische Zeitschriften, obwohl schon seit längerem davon ausgegangen wird, dass sie mit dem langsamen verschwinden gedruckter Parallelausgaben früher oder später den Regelfall darstellen werden (Keller 2001). Im E-only Bezug werden die elektronischen Titel direkt lizenziert, und gedruckte Ausgaben können bzw. müssen bei Bedarf zusätzlich erworben werden. Ein neuerer Vorschlag eines einzelnen Anbieters würde hierzu z.b. die Option enthalten, für das gesamte Konsortium nur noch einen Satz von gedruckten Exemplaren zu beziehen. E-only- Bezug wird mit einiger Wahrscheinlichkeit dazu führen, dass die Konzepte von cross access und additional access aufgegeben werden. Die Anforderungen an die Archivierung bleiben damit die gleichen wie im Parallelbezug. Sie werden lediglich dringender, wenn tatsächlich keine gedruckten Pendants mehr aufbewahrt oder überhaupt hergestellt werden. Für den dauerhaften Zugriff kommen damit je Bibliothek nur Inhalte in Frage, die wie unter 1 bezogen werden oder einem E-only-Modell entstammen Risikoabschätzung und Prioritäten Zu Beginn der Arbeiten für diese Studie war beabsichtigt, die Aktivitäten für lokale Installationen abhängig zu machen von einer Abschätzung des Risikos, dass der Zugang zum betreffenden Inhalt verloren gehen könnte. Zu dieser Zeit wurde als Kriterium für die Beurteilung des Risikos unter anderem herangezogen, ob ein Anbieter seine Inhalte selber überzeugend archiviert oder sie einer vertrauenswürdigen Institution übergibt. 90

91 Zuverlässigkeit des Archivierungskonzepts Konsortium der Schweizer Hochschulbibliotheken Die Auseinandersetzung mit den beiden Fragen von Zugriff und Archivierung hat jedoch ergeben, dass die sichere Archivierung sogar durch eine dritte vertrauenswürdige Einrichtung nichts darüber aussagt, wie lange ein Lizenznehmer Zugang zum Inhalt hat. Im Gegenteil ist es insbesondere bei der Übergabe von Daten an Dritte (meist Nationalbibliotheken) so, dass diese Institutionen die Daten überhaupt nur in ihrem eigenen Hause zugänglich machen dürfen, solange der Verlag oder irgendeiner seiner Nachfolger noch in der Lage ist, potentiellen Kundinnen und Kunden den Zugang zu diesem Inhalt zu gewähren (siehe z.b. (Steenbakkers 2004)). Mit anderen Worten: In den unspektakulären, aber wahrscheinlichen Fällen, in denen Lizenzen gekündigt werden, bieten typische Archivierungsszenarios gar keine Sicherheit für den dauerhaften Zugang. Die Qualität des Archivierungskonzeptes kann daher nicht das entscheidende Kriterium sein für die Beurteilung der Wahrscheinlichkeit, dass der Zugang zu bestimmten Inhalten verloren gehen könnte Totalverlust durch Katastrophen Implizit enthält die Frage nach der Zuverlässigkeit der reinen Archivierung immer das Bedürfnis, möglichst gut gegen einen Totalverlust von Daten durch eine Katastrophe abgesichert zu sein. Technisch gesehen ist es möglich, die weltweite Nutzerschaft einer elektronischen Zeitschrift von einem einzigen Server aus zu bedienen. Praktisch wird dies natürlich vermieden, um zumindest bei Störungen auf alternative Installationen zurückgreifen zu können. Bei grossen Verlagen wird bereits der laufende Betrieb über Spiegelserver an verschiedenen Orten der Welt abgewickelt, um die Leistungsfähigkeit zu erhöhen. Das Risiko, Daten oder den Zugang zu ihnen auf diesem Wege zu verlieren, kann daher bei allen international tätigen Verlagen als gering angesehen werden: Da die Inhalte die Basis ihrer Geschäftstätigkeit sind, haben sie ein existentielles Interesse daran, diese unter allen Umständen zu erhalten, solange sie kommerziell relevant sind. Bei kleineren Anbietern, die eher regional begrenzt auftreten, ist es durchaus eine Frage, ob sie in der Lage sind, alle nötigen Vorkehrungen zu treffen oder ob ihre Computer sich in sinnvoller Entfernung voneinander befinden. Es ist aber gleichzeitig klar, dass gegen bestimmte Katastrophen auch sorgfältigste Massnahmen machtlos bleiben egal ob sie von Verlagen oder Bibliotheken ergriffen werden. Insofern ist dies trotz des verbleibenden Restrisikos kein hinreichender Grund für zusätzliche Massnahmen auf Seiten der Bibliotheken Nutzungsintensität Ein anderes Kriterium, das für die Dringlichkeit der lokalen Speicherung herangezogen werden könnte, ist die Intensität der Nutzung einzelner Zeitschriftentitel: Der Verlust des Zugriffs zu einem viel genutzten Titel beeinträchtigt voraussichtlich die Arbeit von mehr Personen, als dies der Fall wäre bei einem wenig genutzten Titel. Eine solche Betrachtungsweise führt selbst dann zu inhaltlichen Verzerrungen, wenn angenommen wird, dass alle Nutzungsstatistiken direkt vergleichbar sind was trotz gewisser Fortschritte im Rahmen der COUNTER-Initiative 65 nicht der Fall ist. 65 COUNTER, Counting Online Usage of NeTworked Electronic Resources: (Zugriff am ) 91

92 Inhaltliche Verzerrungen resultieren, weil das Publikations- und Nutzungsverhalten je nach Fach unterschiedlich ist. So werden in manchen Fächern im Durchschnitt pro Wissenschaftler weniger und längere Artikel publiziert, was automatisch zu niedrigeren Nutzungszahlen führt. Auch ist die Bedeutung und Nutzungsintensität von Zeitschriftenliteratur fachabhängig (Tenopir and King 2001; Keller 2002). Zudem sind nicht alle Fächer mit einer vergleichbaren Anzahl von Nutzerinnen und Nutzern vertreten weder lokal noch in der Schweiz. Dadurch könnten Ressourcen, die für bestimmte Fächer eine zentrale Bedeutung haben, viel zu schwach gewichtet und unzureichend berücksichtigt werden. Lokale Besonderheiten und Schwerpunkte wären gleichfalls nur mit hohem Aufwand seriös zu werten. Ferner muss davon ausgegangen werden, dass sich das Nutzerverhalten weiterhin in einem Wandel befindet (Tenopir, King et al. 2003). Entscheidungen anhand der heutigen Nutzung könnten zu kurz greifen Selektion sinnvoll? Grundsätzlich ist zu fragen, ob die Selektion einzelner Titel wirklich sinnvoll ist. Es besteht die Erwartung, dass hohe Kosten und Aufwand beim Aufbau der Speicherserver entstehen, dass aber eine rein quantitative Ausdehnung vor allem technische Erweiterungen erfordert und keine neuerlichen kostenintensiven Massnahmen. Hinweise hierzu geben die Erfahrungen der Königlichen Bibliothek in Den Haag mit ihrem edepot 66, sowie Erfahrungen an der Cornell University mit dem Betrieb des ArXiv.org-Servers (siehe ). Für das edepot wird allerdings ausdrücklich ausgesagt, dass hier ein standardisiertes Archivsystem zur Erhaltung und Kontrolle digitaler Information besteht, dass aber offen ist, wie der dauerhafte Zugang zur gespeicherten Information garantiert werden kann (Oltmans 2003; Steenbakkers 2004) Verlust der Zugriffsberechtigung durch Beendigung der Lizenz Aus unserer Sicht und aus der unmittelbaren Erfahrung der Geschäftsstelle heraus setzt sich die Hauptbedrohung für den Zugriff zu bestimmten Inhalten aus zwei Komponenten zusammen: 1. Es ist keine Fortsetzung einer Konsortiallizenz möglich. Der Online-Zugriff geht verloren auf: a. Inhalt der Jahrgänge, die vor dem Lizenzbeginn bzw. vor einem in der Lizenz definierten Zeitpunkt erschienen sind. b. Inhalt der Jahrgänge, die nach dem Lizenzende erscheinen und nicht neu unter einer individuellen Lizenz erworben werden Erworbener Inhalt der Jahrgänge, während deren Erscheinen die Lizenz galt, kann beim Verlag genutzt werden. In mindestens einem Fall werden hierfür jedoch so hohe Gebühren diskutiert, dass auch dieser Inhalt de facto hinter einer Barriere verschwindet. 66 edepot, Koninklijke Bibliotheek, Den Haag: (Zugriff ) 67 Als Sonderfall gibt es Angebote, die in Printabonnementen den online-zugriff auf den Inhalt einschliessen, der während eines rollenden Zeitfensters erscheint ( Rolling File ). Z.B. kann jeweils auf die Artikel der letzten 12 Monate zugegriffen werden. Diese Inhalte werden aber nicht erworben und sind dem Nutzer nach Ablauf dieser Zeit entzogen. 92

93 Inhalte von Verlagen mit entsprechenden Modalitäten besitzen somit das höchste Risiko, innerhalb kurzer Zeit nicht mehr zugänglich zu sein. Selbstverständlich muss der Vergleich mit den Kosten für lokale Installation(en) zeigen, ob Eigeninstallationen wirklich wirtschaftliche Vorteile bieten. Allein aus diesem Grund ist es wichtig, innerhalb der Projektlaufzeit konkrete Erfahrungen mit dem Aufwand für diesen Fall sammeln zu können. Für eine Abschätzung des Risikos, für bestimmte erworbene Inhalte den Zugang zu verlieren, müssen verschiedene Möglichkeiten in Betracht gezogen werden. Sie gelten nicht für alle Anbieter gleichermassen. Der Verlust des laufenden Zugriffs durch die Beendigung von Konsortiallizenzen hat in anderen Konsortien bereits stattgefunden, z.b. in Deutschland und den USA. Für die Schweizer Hochschulbibliotheken zeichnet er sich angesichts unbefriedigender Verhandlungsverläufe und überhöhter Kosten über kurz oder lang gleichfalls ab. Dies ist zweifellos zur Zeit das grösste Risiko für den fortgesetzten Zugriff auf aktuelle Daten. In der Schweiz lässt das Auslaufen der Projektmittel für die Lizenzierung nochmals einen Einschnitt erwarten. In 2005 stehen nur noch reduzierte Mittel für die Lizenzierung von Inhalten für die Nutzung in 2006 zur Verfügung, danach entfallen sie ganz. Selbstverständlich besteht immer die Möglichkeit, individuelle Lizenzen abzuschliessen. Damit kann aber weder der Konsortialgewinn bei cross und additional access gesichert werden noch ist es wahrscheinlich, dass längerfristig alle bisher bezogenen Titel weitergeführt werden können. Der Zugriff auf die im additional oder cross access genutzten Inhalte geht bei Lizenzende für alle Partner verloren, die die Inhalte nicht selbst erworben haben. Für die elektronischen Inhalte, die auf der Basis eines gedruckten Abonnements oder auf einem anderen Weg erworben wurden, gilt dies nicht. Die meisten Lizenzvereinbarungen sehen entweder vor, dass die fraglichen Jahrgänge des Inhaltes beim Verlag weitergenutzt werden können oder sie gestatten die Übernahme von Daten für eine lokale Installation, was in der Praxis mit einer Vielzahl von Detailfragen verknüpft ist (siehe 3.1.1). Nicht verhandelbar ist dabei aus Sicht der Verlage, dass die elektronischen Daten weiterhin nur den berechtigten Nutzerinnen und Nutzern zugänglich gemacht werden dürfen, also den Angehörigen sowie Kundinnen und Kunden derjenigen Institutionen, die zuvor den Inhalt auch erworben hatten. Es kann jedoch nicht genug betont werden, dass sich die Berechtigung zur Weiterbenutzung normalerweise beschränkt auf die Jahrgänge, die während der Laufzeit der Lizenz erschienen sind bzw. sonst Gegenstand der Lizenzvereinbarung waren: Ältere Jahrgänge sind nur enthalten, wenn dies explizit vereinbart wurde oder wenn sie zusätzlich gekauft wurden, neuere kommen nicht mehr hinzu. Trotz der formalen Gewährleistung ist der Zugang also durchaus nicht umfassend abgesichert und das Risiko eines Verlustes besteht Verlust durch das Verschwinden oder den Wechsel des Anbieters Ein Verlag kann seiner Verpflichtung zur Bereitstellung seiner Daten nur so lange nachkommen, wie er seine Geschäftstätigkeit aufrechterhält. Dies gilt einerseits, wenn der Verlag endgültig schliesst. In diesem Fall wäre sogar zu fragen, ob die Bibliotheken Daten z.b. aus einer Konkursmasse erhalten würden oder ob diese Inhalte zur Befriedigung anderer Gläubigerforderungen verkauft werden würden. 93

94 Andererseits ist es nach einer ganzen Reihe von Übernahmen in der Verlagsbranche eine durchaus berechtigte Frage, wer bei solchen Unternehmensverschmelzungen nach einer gewissen Zeit der Gesprächspartner ist und in welcher Form Interessen der Bibliotheken auch danach noch geltend gemacht werden können. Auf der Ebene einzelner Zeitschriftentitel gilt dies bereits heute verschärft: Wenn ein Titel zu einem anderen Verlag wechselt, wandern zum Teil auch die Backfiles dieser Zeitschrift. In so einem Fall müssten alle für die Nutzungsrechte relevanten Daten dem neuen Verlag übergeben werden, um den weiteren Zugang zu gewährleisten. In der Praxis gibt es jedoch eher die Situation, dass gewisse Jahrgänge einer Zeitschrift bei Verlag A verbleiben, während Verlag B die Zeitschrift von einem bestimmten Zeitpunkt ab anbietet. Dies erscheint vorteilhafter, so dass die früheren Kundinnen und Kunden darauf drängen sollten, dass der abgebende Verlag A weiterhin ausreichende Rechte für die relevanten Jahrgänge behält. Offen ist, ob erwartet werden kann, dass ein Verlag sich für eine ehemalige Zeitschrift in gleichem Masse engagiert wie für sein laufendes Programm. Dies wird am ehesten erreicht, wenn die gegenwärtigen Kundinnen und Kunden verdeutlichen können, dass vertrauenswürdige Lösungen für den dauerhaften Zugriff auch bei aktuellen Bezugs- und Kaufentscheidungen wichtige Argumente sind. Der Verlagswechsel ist übrigens kein exotisches Phänomen, sondern tritt mit einiger Regelmässigkeit auf. So transferierte allein Elsevier auf das Jahr Titel zu anderen Verlagen 68. Die Folgeprobleme von Verlagswechseln, die die Situation zusätzlich unübersichtlich machen, sind real zu beobachten und kumulativ. Das Risiko eines Datenverlustes durch Geschäftsaufgabe wird als eher gering angesehen: Solange Inhalte vorhanden sind, die sich kommerziell verwerten lassen, solange wird ein anderer Anbieter die entsprechenden Inhalte übernehmen und weiter verfügbar halten. Das Zugangsproblem besteht dann noch stärker: Bleiben die entsprechenden Rechte erhalten und können sie auch wahrgenommen werden? 8.5 Szenarien für die Sicherung des Zugriffs Fortgesetzter Zugriff beim ursprünglichen Anbieter Wie unter angesprochen, sehen viele Lizenzvereinbarungen ausdrücklich vor, dass Bibliotheken auch nach Ablauf der jeweiligen Lizenz die Möglichkeit erhalten, diejenigen Inhalte weiterhin zu nutzen, die während der Gültigkeitsdauer der Lizenzvereinbarung erschienen sind. Dabei erfolgt der Zugriff weiterhin auf einen Verlagsserver, so dass sich aus Sicht der Endnutzerschaft für die betreffenden Jahrgänge nichts ändern sollte. Bisher enthielt praktisch kein Vertrag detailliertere Angaben zu den Modalitäten einer solchen Weiternutzung oder Datenübernahme. Angesichts der fortschreitenden Entwicklung von Technik und Geschäftsmodellen wurde es offenbar nicht als sinnvoll angesehen, hier bereits Festlegungen zu treffen. Auf Druck der Geschäftstelle des Konsortiums konnten inzwischen in weiteren Verträgen zumindest die international empfohlenen Minimalklauseln für den dauer- 68 ScienceDirect Journal Coverage List,: (Zugriff am ) 94

95 haften Zugriff bzw. zur Datenübernahme verankert werden (vgl. Anhang IV, Kapitel 16). Fast nirgends konnten konkrete Angaben zu möglichen Kostenmodellen erhalten werden. Ein Zugriff auf Daten beim Verlag ist in der Praxis nur möglich, wenn sich dieser weiterhin dafür engagiert, den Zugriff sicherzustellen. Es besteht eine grundsätzliche Besorgnis, ob Verlage willens sind, dies über längere Zeit zu tun, wenn für sie kein unmittelbarer kommerzieller Erfolg mehr zu erzielen ist: Wahrscheinlicher ist wohl eher, dass sich die Unterstützung mit der Zeit verringern und schliesslich ausbleiben wird. Als folgerichtige Alternative zeichnet sich bei manchen Anbietern ab, dass diese Unterstützung erkauft werden muss. Dies geschieht zu Preisen, die in einem sehr einseitigen Abhängigkeitsverhältnis der Anbieter bestimmt und die zumindest bei einem momentan bekannten Angebot den Verdacht aufkommen lassen, dass hier nicht die Leistung der Bereitstellung, sondern nochmals der Inhalt verkauft werden soll. Dies können die Bibliotheken nicht akzeptieren. Abgesehen von prinzipiellen Erwägungen muss hier natürlich ein nüchterner Kostenvergleich der verschiedenen Optionen angestellt werden. Bei der korrekten Verwaltung der Zugriffsrechte aller Institutionen wird der Aufwand bei den Anbietern dadurch vergrössert, dass kaum je zwei Konsortiumsbibliotheken die gleichen Jahrgänge der gleichen Produkte abonniert bzw. lizenziert haben. Demnach muss eine Vielzahl verschiedener Kombinationen ordnungsgemäss zugeordnet werden können. Aus der Erfahrung der Geschäftsstelle heraus ist dies eine Aufgabe, die nicht zu unterschätzen ist: Bereits bei den laufenden Abonnements haben gewisse Verlage Mühe, ihre Angaben mit denen des Konsortiums in Einklang zu bringen. Weiter kompliziert wird die Lage dadurch, dass es auch konkrete Fälle gibt, in denen Bibliotheken den Zugriff auf eine laufende Zeitschrift sogar behalten, dieser aber auf einer anderen Basis beruht: Nach dem Ende einer konsortialen Paket -Lizenz kann eine einzelne Bibliothek sich für eine individuelle Fortsetzung der Online-Lizenz mit Erwerb der Daten entscheiden. Eher selten und nicht zu verwechseln ist dagegen der Fall, dass die gedruckten Abonnements einzelner Titel einen mehr oder weniger begrenzten Zugang zur Online- Version enthalten, z.b. für ein rollendes Zeitfenster von einem Jahr o.ä. ( Rolling file ). Es darf nicht übersehen werden, dass das Problem der korrekten Verwaltung der Zugriffsberechtigungen ganz genauso auch bei einer lokalen Installation besteht. Es wird dort lediglich gemildert, weil die Zahl der Bibliothekspartner im Konsortium niedriger ist als beim Verlag. Weitere Spezialprobleme betreffen die Praxis mancher Verlage, Inhalte ohne Vorankündigung zurückzuziehen. Dies geschieht gelegentlich, wenn Befürchtungen bestehen, dass Rechte Dritter verletzt sein könnten. Entsprechende Artikel fehlen dann in der dauerhaften Aufzeichnung des wissenschaftlichen Diskurses. Dies berührt bereits die Dimension der Langzeiterhaltung. Diese kann nur Dinge erhalten, die nicht schon vorher entfernt worden sind. Vorteile des Zugriffs auf erworbene Inhalte beim Anbieter: Formal einfach und theoretisch mit begrenzter Mitwirkung der Bibliotheken zu realisieren. Kurzfristig möglich. Keine eigene Infrastruktur oder zusätzliches Personal bei den Bibliotheken nötig. 95

96 Zugriff auf alle von einem Anbieter erworbenen Inhalte und Metadaten bleibt erhalten. Keine Umstellung oder Komforteinbusse für die Endnutzerschaft. Es ist keine Diskussion darüber nötig, ob und wo fachliche Schwerpunkte gebildet oder Verlagsprogramme lokal gespeichert und angeboten werden sollen. Nachteile: Keine eigene Kontrolle über Inhalte und Dienstleistung. Starke Abhängigkeit vom Verlag. Sie wird z.b. beim Wechsel von Zeitschriften zu einem anderen Verlag sichtbar. Kein echtes Druckmittel gegenüber den Verlagen. Kosten über längere Zeiträume (5 Jahre?) je nach Kostenmodell schwer abzuschätzen. Kostenmodelle zum Teil noch unklar. Es bestehen somit vor allem praktische Vorteile für die Weiternutzung von Inhalten beim ursprünglichen Anbieter. Ob der längerfristige Zugriff bei einem Verlag eine sinnvolle Option darstellt, wird sehr stark von den zu erwartenden Kosten abhängen. Insbesondere die Unterschiede zwischen rein kommerziellen Grossverlagen und den Verlagen wissenschaftlicher Fachgesellschaften sind beträchtlich. Doch auch kommerzielle Anbieter experimentieren mit verschiedenen Modellen: Verlag Jährliche Grundgebühr Jährliche Zugangsgebühr Beurteilung A -Jährlich angepasste Grundgebühr, mehrere Franken pro Titel -Ohne cross access -Anzahl der Downloads im Vorjahr wird mit einem jährlich angepassten Betrag multipliziert -Könnte mit der Zeit günstiger werden oder nicht, je nach Nutzung und Verlagspolitik B -Für X Jahre frei -Danach Jahresgebühr pro Bibliothek mit jährlicher üblicher Teuerung -Gleich für alle Partner, weil inklusive Inhalt im cross access -Langfristig kalkulierbar, nicht nutzungsabhängig -Problematisch für kleine Partner, weil Gebühr pro Bibliothek verrechnet Tabelle 2: Prinzipieller Vergleich von Kostenmodellen für den Zugriff auf erworbene Inhalte beim Verlag nach Lizenzende. Beide Fälle werden z. Zt. konkret von zwei Verlagen diskutiert. Im Beispiel wäre für den Verlag A als Alternative eine lokale Installation zu prüfen. Bei einem Kostenvergleich muss die Gesamtsumme betrachtet werden, die von den Bibliotheken des Konsortiums jährlich aufgewendet werden muss, um sich den Zugriff zu sichern. Sie ist zu vergleichen mit den Kosten anderer denkbarer Gesamtlösungen. Dies ist insbesondere wichtig, da der Zugriff beim Verlag fast keine Skaleneffekte erlaubt: Es ist zwar durchaus 96

97 denkbar, dass zumindest einige Verlage zu Zugeständnissen bereit sind, wenn sich mehr als nur eine Bibliothek für die Nutzung in dieser Form entscheidet. Wenn umgekehrt das Angebot vieler Verlage auf diese Art weitergenutzt wird, sind die Kosten pro Verlag jedoch nicht niedriger, als wenn nur die Titel eines Verlages genutzt würden. Eine interessante Variante in einem konkreten Vertragsentwurf sichert den Bibliotheken die kostenfreie Online-Nutzung des vormals lizenzierten Materials während zehn Jahren zu. Der Verlag behält sich das Recht vor, die Online-Nutzung der Inhalte gegebenenfalls im archivierten Format zu ermöglichen. Dies ist wohl so zu verstehen, dass die Garantie nur für die ursprünglichen Dateiformate gegeben wird, während die Migration auf jüngere Formate nicht zugesichert wird. Sollte der Verlag nicht länger in der Lage sein, den Archivzugang zu gewähren, dann kann er den Online-Inhalt auch über einen Drittdienstleister bereitstellen lassen, der ausdrücklich eigene Gebühren erheben kann, auf die der Verlag keinen Einfluss hat. Im konkreten Fall handelt es sich um OCLC als Drittanbieter (vgl ). Die hier gemachten Zusagen erscheinen vorsichtig. Sie entsprechen aber dem derzeitigen Erfahrungsstand hinsichtlich der elektronischen Archivierung kommerziell genutzter Inhalte Eigene lokale oder regionale Installation Die folgenden Überlegungen beziehen sich ausschliesslich auf den Fall, dass der laufende Zugriff beim Verlag nicht mehr fortgesetzt wird. Es wird ausdrücklich nicht beabsichtigt, Zeitschrifteninhalte lokal anzubieten, für die eine gültige und fortdauernde Lizenzvereinbarung mit einem Verlag besteht. Der Wunsch, erworbene Inhalte auf Servern der eigenen oder einer anderen, eng verbundenen Institution im eigenen Land speichern und nutzen zu können, hat verschiedene Aspekte. So schreibt er einerseits fort, was bei den traditionelleren Medien als Bestandesaufbau eine Selbstverständlichkeit ist: Inhalte, die von der Bibliothek ausgewählt und erworben wurden, gelangen in einer Form in den Besitz der Institution, die ihre fortdauernde Aufbewahrung und Zugänglichkeit ermöglicht. Dabei ist das Bewusstsein gewachsen, dass gedruckte Parallelausgaben keine gleichwertige Funktion mehr erfüllen können: Selbst dort, wo sie den gleichen Inhalt bieten könnten, lassen sie die umfangreiche Funktionalität einer Online-Nutzung vermissen. Daneben steht einiges an Misstrauen, ob die sehr allgemein gehaltenen Zusagen von Verlagen für die Nachnutzung von Inhalten auf ihren Servern wirklich eingehalten werden können. Dabei ist anzumerken, dass ein ähnliches Argument auch bei der lokalen Installation greift: Es muss bezweifelt werden, dass hierfür eine engagierte Unterstützung vom Verlag erwartet werden kann, da dieser höchstens noch eine Gebühr für die eigentliche Übergabe der Daten erhält, aber darüber hinaus keinen kommerziellen Gewinn mehr erreichen kann. Sofern eine solche Unterstützung überhaupt angeboten wird, dann wird sie separat vereinbart und bezahlt werden müssen, damit sie für den Verlag von Interesse ist. Schliesslich geht es auch um die Rolle, die eine Bibliothek für sich beansprucht: Wenn sie sich damit zufrieden gibt, als Vermittler von Inhalten aufzutreten, die Dritte weitgehend nach ihren eigenen Spielregeln bereitstellen, dann muss eine Sicherung des Zugriffs vor Ort kein prioritäres Ziel sein. Dem Selbstverständnis der meisten Bibliotheken entspricht es dagegen, Inhalte zu erwerben, bereitzustellen und dauerhaft vorzuhalten. 97

98 Umsetzung Für die folgenden drei Varianten wird dieses Modell zugrunde gelegt: Im Anschluss an die Lizenzlaufzeit stellt ein Verlag das erworbene Material zur Verfügung. Im Minimalfall ist dies das Material, das während der Lizenzlaufzeit in den Titeln erschienen ist, die von mindestens einer Konsortiumsbibliothek abonniert waren. In grosszügigeren Vereinbarungen kann hier auch alles Material enthalten sein, das während dieser Zeit in Zeitschriften im cross access publiziert wurde. Weiter zurückliegende Jahrgänge (Backfiles) müssen in der Regel gekauft werden und sind Gegenstand separater Verträge. Backfiles wurden aus finanziellen Gründen bisher nicht über das Konsortium erworben. Mehrere Bibliotheken haben mit einzelnen Verlagen Verträge über den Erwerb von Backfiles geschlossen. Zur Zeit ist jedoch nicht im Einzelnen bekannt, welche Bibliotheken und Daten dies betrifft. Es ist unbedingt anzustreben, dass vorhandene Backfiles für Suche und Zugriff mit denjenigen Inhalten verbunden werden, die wie hier beschrieben auf der Grundlage einer früheren Lizenzvereinbarung erworben wurden. Dabei ist wiederum zu beachten, dass gekaufte Backfiles ohne andere Vereinbarung und entsprechende Abgeltung nur von jenen Bibliotheken genutzt werden dürfen, die die gleichen Daten auch selber erworben haben. Zum Material in diesem Sinne gehören alle Inhaltsdaten und alle Metadaten, die benötigt werden, um einen Zugriff zu ermöglichen, der inhaltlich und funktional der laufenden Nutzung beim Verlag entspricht. Insbesondere die Lieferung der Metadaten wird nicht von allen Verlagen als die Selbstverständlichkeit gesehen, die sie aus Sicht der Bibliotheken sein muss: Ohne Metadaten bleibt nur ein unbefriedigender Zugriff über eine Ordnerstruktur oder die aufwendige Extraktion oder Neuerfassung von Metadaten. Der Komfort der Verlagsangebote hängt ganz wesentlich ab von den Funktionen und von der Gestaltung der jeweiligen Oberfläche für Suche und Benutzung. In den Bibliotheken ist wenig bewusst, dass diese Oberfläche normalerweise nicht Gegenstand der Vereinbarungen über eine Nachnutzung der Inhalte und Metadaten ist. Es ist in der Regel nicht einmal möglich, die entsprechende Oberfläche separat zu lizenzieren, selbst wenn dies gewünscht wäre. Um die gelieferten Daten sinnvoll nutzen zu können, muss eine lokale Installation wiederum eine Oberfläche mit vergleichbaren Funktionen erhalten. Idealerweise sollte diese mit den Inhalten und Metadaten aller betroffenen Verlage umgehen können, da andernfalls für jeden Verlag eine eigene Software nötig wäre. Wenn es gelingt, mit Hilfe einer Software die Inhalte verschiedener Verlage anbieten zu können, dann kann die lokale Installation sogar einen sichtbaren Mehrwert für die Endnutzerschaft bieten, der sich mit einer geringeren Zahl von verschiedenen Oberflächen auseinandersetzen muss. Unabhängig von der Software ist gewünscht, das gesamte in der Schweiz vorgehaltene Angebot über einen Einstiegspunkt zugänglich zu machen. Minimal müssten dazu die verschiedenen Angebote auf einer gemeinsamen aussagekräftigen Internet-Seite aufgelistet sein. Im Idealfall würde es sich um eine gemeinsame Such- und Einstiegsseite handeln, von der aus direkt in den verschiedenen Angeboten recherchiert werden könnte. Schwierig wird dies in den Fällen, in denen eine Verbindung zu einem fortdauernden aktuellen Angebot geschaffen werden muss. Eine entsprechende Verbindung von Inhalten aus verschiedenen Bezugswegen kann nach unseren Informationen selbst von den jeweiligen Verlagen beim Zugriff auf ihren eigenen Server bisher nicht in allen Fällen gewährleistet werden. 98

99 Sicht der Endnutzerschaft Konsortium der Schweizer Hochschulbibliotheken Leider gilt die denkbare grössere Einheitlichkeit beim Auftritt ganz und gar nicht für die Zugänglichkeit der Inhalte: Die Kundinnen und Kunden werden sich damit konfrontiert sehen, dass sie je nach Verlag und früherer Lizenzdauer ihrer Bibliothek auf unterschiedlich viele Jahrgänge der Zeitschriften zugreifen können (siehe Tabelle 3). Bibliothek Verlag Gekaufte Backfiles Lizenzdauer Rolling File zu Print- Abo* Zugänglicher Volltext für berechtigte Nutzer im Nov A A A B C K L M M M Keine Keine Monate Keine Monate nein nein Monate / und 10/ / und 10/ /2004 *Zugriff auf Rolling File erfolgt beim Verlagsserver. Tabelle 3: Beispiele für mögliche Konstellationen bei den Zugriffsberechtigungen in Abhängigkeit von der Bibliothek, dem Verlag, der Lizenzdauer und der Verfügbarkeit eines Rolling Files zu einem fortgesetzten Abonnement der gedruckten Ausgabe. Ausserdem entstehen wachsende Lücken, falls nur noch ein Zugang jeweils zum Inhalt z.b. der vergangenen zwölf Monate weiter besteht ( Rolling file ). Beim Einstieg über ein zentrales Portal ist daher bereits die Frage, ob den Benutzenden lediglich die Inhalte angeboten werden können oder sollen, für die er eine Benutzungsberechtigung hat. Vermutlich ist es aussichtsreicher und auch inhaltlich sinnvoller, ihm wie bei laufenden Verlagsangeboten und Datenbanken die Suche in allen Inhalten zu ermöglichen und erst beim Zugriff auf den Volltext die Berechtigung zu prüfen. Angesichts der komplexen Verhältnisse bei den Berechtigungen wäre es wünschenswert, wenn leistungsfähige Verknüpfungstechnologie mit vergleichbarer Funktion wie SFX 69 zur Anwendung kommen könnte. Keine Software kann jedoch verhindern, dass die Endnutzerschaft stärker als heute mit Unverständnis und Verärgerung reagieren dürfte, weil die Nutzungsbedingungen der Inhalte für ihn noch weniger transparent sein werden. Bereits die Angaben im Online-Katalog sind lückenhaft, da Titelaufnahmen von elektronischen Zeitschriften in der Regel keine Angaben zu den verfügbaren Jahrgängen enthalten. Dies hat seinen Grund in den allzu häufigen Änderungen, denen diese Angaben unterliegen. 69 SFX Software für Context Sensitive Linking von der Firma Ex Libris: (Zugriff am ). 99

100 Das Problem der fehlenden Transparenz stellt sich in gleicher Weise auch dann, wenn der Inhalt weiterhin beim Verlag genutzt oder anderswo archiviert wird. Die Bibliotheken sollten den berechtigten kritischen Fragen ihrer Kundinnen und Kunden und der Hochschulen offen und in gewisser Weise offensiv begegnen. Es wird in den seltensten Fällen gelingen, die komplexen Zusammenhänge vermitteln zu können. Umso mehr muss wenigstens versucht werden, den Anschein bibliothekarischer Willkür zu widerlegen und Alternativen für die Beschaffung der benötigten Information aufzuzeigen, auch wenn diese nicht dem Komfort des Online-Angebotes entsprechen. Die drohende Lückenhaftigkeit des Online-Angebotes könnte auf zwei verschiedene Arten gemildert werden: Für die ältere Zeitschriftenliteratur ist die Einbindung vorhandener Backfiles anzustreben. Diese Inhalte sind bis etwa Mitte der Neunzigerjahre erschienen und erst durch nachträgliche Digitalisierung online verfügbar geworden. Verschiedene Bibliotheken haben bereits Backfiles von Verlagen erworben und Ergänzungen nach Bedarf wären sinnvoll. Der Erwerb von Backfiles ist normalerweise zeitlich nicht an das Lizenzende des laufenden Zugriffs gebunden und auch zu einem späteren Zeitpunkt möglich. Sofern nicht spezielle Vereinbarungen mit den entsprechenden Kosten getroffen wurden, dürfen solche Backfiles aber nur von der jeweils erwerbenden Bibliothek und ihren Kundinnen und Kunden benutzt werden. Eine Versorgung weiterer Bibliotheken ist im Normalfall nicht zulässig. Für die neu erscheinenden Artikel könnte die Zugänglichkeit langfristig deutlich verbessert werden, wenn viel stärker als bisher die bereits vorhandenen Möglichkeiten zur freien Veröffentlichung eigener Arbeiten durch den Autor genutzt würden. Dies ist der Ausgangspunkt der Open Access-Bewegung: Inhalte, die traditionell und formal publiziert wurden 70, sollen zusätzlich in elektronischer Form frei verfügbar gemacht werden. Eine beträchtliche Zahl von Verlagen gestattet eine solche parallele Bereitstellung in Form von Preprints (Version vor dem Begutachtungsprozess) oder sogar Postprints (Version inhaltlich nach dem Begutachtungsprozess) 71 (vgl. Kapitel 8.8.1). Bei diesem Konzept von Open Access ist es tatsächlich nützlich, nicht von einer Open Access- Publikation zu sprechen, da die Absicht nicht ist, die formale Veröffentlichung zu verdrängen: Ihr Inhalt soll lediglich breiter zugänglich gemacht werden. Zum gegenwärtigen Zeitpunkt sind die Erfolgschancen dieses Konzeptes ebenso wenig klar wie die der eigentlichen Open Access-Publikationen, die von vorneherein keine Abonnements- oder Lesegebühr erheben wollen Kosten Folgende Kostenfaktoren sind bei einer lokalen Installation zu betrachten: 1. Hardware 2. Personal a. Anfangsbeschaffung b. periodischer Ersatz c. allenfalls externe Wartung 70 Da diese Publikationsform nach heutigem Verständnis die Aufzeichnung des wissenschaftlichen Fortschrittes darstellt und überliefert, wird im Englischen der Begriff copy of record benutzt. 71 Die umfassendste Liste aus dem Projekt RoMEO: 100

101 3. Software: a. Für Aufbau und Einrichtung b. Für den laufenden Betrieb a. Kommerziell: Kauf- und/oder Lizenzgebühren Konsortium der Schweizer Hochschulbibliotheken b. Open Source: Personalaufwand für Weiterentwicklung und Wartung Dabei sollte wiederum versucht werden, die Gesamtkosten für die Versorgung aller Konsortiumsbibliotheken abzuschätzen (vgl ) und mit Alternativen zu vergleichen. Aus Sicht der einzelnen Bibliothek ergeben sich sonst Verzerrungen, wenn Leistungen auch für andere Einrichtungen zur Verfügung gestellt werden. Eine solche Nutzung einer Installation durch mehrere Partner macht gerade den Wert der Zusammenarbeit aus. Sie führt aber in der Praxis zu Problemen, wenn die Einrichtungen, die einen Server betreiben, ihren Trägern gegenüber vertreten müssen, welche Leistungen sie erbringen und inwiefern dies im Interesse der jeweiligen Hochschule und ihres Trägers liegt (siehe auch und ). Damit steht auch die Frage im Raum, ob die Kosten, die einer Bibliothek entstehen, weiterbelastet werden müssen oder ob sich andere Möglichkeiten der Kompensation finden lassen. Zu einer ersten Abschätzung der tatsächlichen Höhe der Kosten sollen Daten herangezogen werden, die von Anne R. Kenney von der Cornell University Library für den ArXiv.org e-print- Server 72 ermittelt wurden 73. Hierbei handelt es sich um den nach seinem früheren Standort als Los Alamos-Preprint-Server bekannten Server für Arbeiten vor allem aus Teilbereichen der Physik, der heute mit Unterstützung der National Science Foundation von der Cornell University betrieben wird. Dabei werden die drei Kategorien Aufbaukosten, laufende Kosten und unvorhergesehene Ausgaben unterschieden. Die laufenden Kosten sind dabei nicht einfach zu beziffern und die nötigen Mittel wie üblich noch schwerer zu beschaffen. Die unvorhergesehenen Ausgaben werden dagegen als eher episodisch auftretend betrachtet und sollten sich erfahrungsgemäss jeweils aufbringen lassen. Der Server enthält im November 2004 fast Objekte mit einem jährlichen Zuwachs von ca Arbeiten. Kostenart Kosten in $ Zwischensumme in $ Bemerkungen Server- Infrastruktur, Hardware, Software Jährlicher Unterhalt, Backups, Netzwerkkosten, Support, Lizenzen, Entwicklungsgebühren /5 p.a p.a. Abschreibung über (3-)5 Jahre: jährlich $10.600/5 Geschätzt auf 20-50% des Kaufpreises (hier: ca. 45%) p.a. 72 ArXiv: 73 Anne R. Kenney, Identifying and Securing the Requisite Resources: Präsentation am erpatraining- Seminar Business Models Related to Digital Preservation, Amsterdam, : 101

102 Kostenart Kosten in $ Zwischensumme in $ Bemerkungen Personalkosten, d.h. Saläre zzgl. 31% Lohnnebenkosten (2 Vollzeitstellen für Programmierer / Softwareanalysten) x 1,31 x 2 = Ausgangspunkt: $ Salär. Es wird ein gewichteter Stundenlohn gerechnet, der das Salär und die Lohnnebenkosten (31%) nur auf die produktiven Stunden bezieht (ohne Ferien; täglich 75% produktive Zeit). Der gewichtete Stundenlohn ist etwa 2,1 mal so hoch wie der normale Stundenlohn p.a. Zugeordnete Verwaltungskosten, 10% der Personalkosten Arbeitsplatzkosten (Büro-Hard- und Software, Support, Raum, Material, Telefon, Reisekosten,Weiterbildung etc.) p.a. Unerwartete Kosten (Fehlerbehebung, Zusatzschulung) Abhängig von Komplexität des Servers und den Gegebenheiten und Erfahrungen vor Ort; konkreter Betrag zweitrangig p.a. Allgemeine Kosten ( Overhead ), veranschlagt mit 57% Wird anscheinend auch intern weiterverrechnet, z.b. wenn IT- Dienste Leistungen erbringen Jährliche Kosten p.a. Tabelle 4: Fallstudie zur Identifizierung der Kosten für den Unterhalt des ArXiv-Servers beim Betrieb durch die Cornell University Library. Es ist wichtig sich bewusst zu machen, dass es sich hier zunächst um die Kosten der identifizierbaren Aktivitäten für Speicherung, Systempflege und Bereitstellung handelt. Es sind noch keine aktiven Massnahmen im Sinne der Langzeiterhaltung eingerechnet, so dass diese gegenwärtigen Kosten kein Mass für die zukünftigen Kosten sein müssen. Bei der Bewertung der Kosten ist dennoch zu berücksichtigen, dass mit der sorgfältigen Speicherung 102

103 in jedem Fall Vorleistungen erbracht werden für die langfristige Archivierung. Es ist nicht möglich, die jeweiligen Kosten vollständig sauber zu trennen. Leider fehlen Vergleichszahlen, zumal vielfach das Bewusstsein noch zu wenig ausgeprägt ist, dass das Fehlen einer wirtschaftlich stabilen Basis eine viel realere Bedrohung darstellen kann als die erwarteten technischen Herausforderungen. Der grösste Teil der Kosten liegt bei den Personalkosten und auch eine andere Analyse verschiedener Speicher 74 kommt auf Werte von 69% bis 82% der Gesamt kosten, die für Personal aufgewendet werden ((Lord and Macdonald 2003), S. 23). Dort wird erwartungsgemäss angemerkt, dass die angegeben Gesamtkosten unterschiedlich gut wirklich alle anfallenden Kosten umfassen. Substantielle Einsparungen lassen sich demnach nur durch einen reduzierten Personaleinsatz erreichen. Der Betrieb müsste also weiter automatisiert werden. Mit wachsender Zahl von Objekten auf dem Server sinken die Kosten pro Objekt. Dies dürfte jedoch in mancher Hinsicht bedeutungslos sein, wenn es sich lediglich um eine Verteilung der Kosten handelt, ohne dass ihnen Einnahmen pro Objekt gegenüberstehen. Für die Speicherung von Verlagsdaten im Sinne des E-Archiving-Projektes des Konsortiums spielen zum Teil andere Faktoren eine Rolle. Während das ArXiv seine Dokumente von einer Vielzahl von Autoren bezieht und sie weltweit frei zur Verfügung stellen kann, muss ein Zeitschriftenserver des Konsortiums Inhalte zwar nur aus einer begrenzten Zahl von Quellen zusammen mit ihren Metadaten entgegennehmen, aber er darf sie nur berechtigten Nutzerinnen und Nutzern zur Verfügung stellen. Dies stellt zusätzliche Anforderungen an die Software für Autorisierung und Authentifizierung. Hier ist längerfristig die Anbindung an ein schweizweites System zu erwarten ist, das zur Zeit im Projekt SWITCHaai 75 auf der Basis der Middleware Shibboleth entwickelt wird. Je nach Anzahl der verfügbaren Objekte und der Zahl von Zugriffen können hieraus zusätzliche Ansprüche an die Hardware erwachsen, da zusätzliche Operationen anfallen. Es ist nicht klar, ob und wie sich dies auf die Kosten auswirken wird. Ein Vergleich der Zugriffszahlen ist zur Zeit nicht möglich, da das ArXiv technische Connections zählt, während die Nutzungszahlen von Verlagen heute meist auf heruntergeladenen Volltexten basieren. Es wird nach den bisherigen Abklärungen vermutet, dass der Personaleinsatz im Falle eines Zeitschriftenservers am ehesten durch die Verwendung einer speziell für diesen Zweck entwickelten Software reduziert werden kann, die einerseits mit unterschiedlichen komplexen Metadatenschemata umgehen kann und andererseits die erforderliche Authentifizierung und Autorisierung leisten kann. Kurzfristig muss hier auf kommerzielle Produkte verwiesen werden. Auch mittelfristig ist nicht unbedingt zu erwarten, dass der Bedarf nach entsprechenden Lösungen gross genug wird, um eine stabile Entwicklung auf Open Source- Basis tragen zu können. 74 In diesem Fall handelt es sich um die Speicherung von wissenschaftlichen Daten im weiteren Sinne. 75 Authentification and Authorization Interface (AAI): Demonstration unter 103

104 Kostenart Kosten in CHF Zwischensumme in CHF Bemerkungen Server- Infrastruktur, Hardware, Software /5 p.a. Abschreibung über (3-)5 Jahre: jährlich CHF /5 Jährlicher Unterhalt, Backups, Netzwerkkosten, Support, Lizenzen, Entwicklungsgebühren Geschätzt auf 20-50% des Kaufpreises (hier: 20%) Personalkosten, d.h. Saläre zzgl. 15% Sozialleistungen (2 Vollzeitstellen für Programmierer / Softwareanalysten) x 1,15 x 2 Momentaner Ansatz für eine Standard-Vollzeitstelle der Geschäftsstelle Arbeitsplatzkosten (Personaladministration, Büro- Hard- und Software, IT-Support, Raum, Material, Telefon, Weiterbildung etc.) x 2 Momentaner Ansatz für eine Standard-Vollzeitstelle der Geschäftsstelle (Bundesansatz) Unerwartete Kosten (Fehlerbehebung, Zusatzschulung): 10% von Ausstattung und Personal Abhängig von der Komplexität des Servers und den Gegebenheiten und Erfahrungen vor Ort; konkrete Zahl zweitrangig Jährliche Kosten Tabelle 5: Versuch einer Übertragung der Kostenabschätzung auf einen Schweizer Server. Sie ist aufgrund anderer Rahmenbedingungen mit Vorsicht zu bewerten. Diese Abschätzung der Kosten für einen Serverbetrieb in der Schweiz weicht in mehreren Punkten von der ArXiv-Rechnung ab: Die Kosten für Hard- und Software werden deutlich höher veranschlagt. Dabei schlagen vor allem Softwarekosten zu Buche, weil für die relativ komplexe Aufgabe der Verwaltung hierarchisch gegliederter Zeitschriften nicht-kommerzielle Produkte fehlen. Für kommerzielle Angebote besteht kein Massenmarkt, der einen Preisdruck bewirken könnte. Auch die Hardwarekosten sind erhöht, da nicht mit internationalen

105 Spiegelservern kalkuliert werden kann, die die Anforderungen an die Verfügbarkeit der eigenen Installation entlasten. Die Ansprüche von AAI für nicht-freie Inhalte sowie die erheblich grösseren Datenmengen erhöhen die Anforderungen an die Hardware zusätzlich. 2. Die Lizenz- und Wartungsgebühren werden dagegen nur zu 20% der Hard und Softwarekosten veranschlagt. Dies entspricht eher der Erfahrung, bleibt aber letztlich eine Annahme. 3. Die Personalkosten sind deutlich höher. 4. Verwaltungskosten in einer Höhe von 10%: Ihre separate Verrechnung ist unüblich und wird nicht nachvollzogen. 5. Der Overhead von 57% kann nicht nachvollzogen werden, da bereits die Verwaltungskosten grosszügig erscheinen und auch Arbeitsplatzkosten umfassend erfasst sind. Er wird weggelassen. Es soll nicht der Eindruck erweckt werden, als seien dies bereits die konkreten Kosten, die durch den Betrieb eines Zeitschriftenservers entstehen. So bleibt offen, welchen Personalaufwand dieser im Dauerbetrieb erfordert. Dies wird unter anderem davon abhängen, ob laufend Inhalte hinzukommen würden oder nicht. Für die Produktion von Elsevier/Academic Press wurde im Jahr 2002 eine Anzahl von Artikeln angegeben (Bennett, Conway et al. 2002), was die Zahl von ins ArXiv eingehenden Objekten bereits weit in den Schatten stellt Optionen Dies sind die möglichen Varianten für einen Serverbetrieb in der Schweiz: Lokale Installationen für alle Verlagsangebote in allen Bibliotheken, die nicht über den Verlagsserver zugreifen möchten. Wenige lokale bzw. regionale Installationen, die jeweils bestimmte Angebote für alle berechtigten Schweizer Hochschulbibliotheken vorhalten (inklusive zumindest gegenseitiger Backups). Gedacht ist an etwa drei Installationen. Diese Zahl sollte es ermöglichen, die Nachteile der anderen Modelle zu vermeiden und gleichzeitig einen engen Austausch der aktiv ausführenden Personen zu fördern: o Gegliedert nach Verlagen: Bibliothek A betreibt Server mit den Inhalten der Verlage H, I und J, Bibliothek B für die Verlage K und L usw. o Gegliedert nach fachlichen Schwerpunkten: Bibliothek A betreibt Server für die sozialwissenschaftlich orientierten Titel aller betroffenen Verlage, Bibliothek B für alle medizinischen Titel usw. Hier ist auch eine Kombination denkbar: Lediglich fachlich einschlägige Verlage würden dann an einer entsprechend ausgerichteten Bibliothek gespeichert und angeboten. Dies würde innerhalb des Konsortiumsangebotes nur eine geringe Zahl der Verlage und eine sehr geringe Zahl der Zeitschriftentitel betreffen, da Verlage mit einer engeren fachlichen Begrenzung deutlich weniger Titel publizieren als fachlich gemischte Verlage. Insofern ist der Ansatz in dieser Phase nicht sehr hilfreich und wird nicht weiter berücksichtigt. Er erscheint aber durchaus prüfenswert im Hinblick 105

106 auf die Abdeckung einiger jener kleineren Verlage, für die keine Konsortiallizenzen bestehen, sondern die durch die Bibliotheken direkt lizenziert werden. Im Vorgriff auf die langfristige Archivierung wurde auch eine Spezialisierung der einzelnen Installationen auf bestimmte Dateiformate diskutiert. Im Falle der elektronischen Zeitschriften würde dies jedoch im Wesentlichen ebenfalls auf eine Aufteilung nach Verlagen hinauslaufen. Eine zentrale Installation für die ganze Schweiz stellt alle betroffenen Inhalte für alle berechtigten Einrichtungen bereit. Es wird davon ausgegangen, dass diese Lösung nur dann ansatzweise denkbar wäre, wenn sie nicht getrennt von den Bibliotheken bestehen würde, sondern von einer entsprechend engagierten Bibliothek mit ihrer Infrastruktur getragen würde. Generell ist eine zentrale Lösung nicht erwünscht. Variante Vorteile 1 -Volle Kontrolle vor Ort Nachteile -Volles Risiko und Verantwortung vor Ort -Kaum Synergien nutzbar -Volle Kosten 2a 2b 3 -Synergien nutzbar -Verteilte Lasten -Verteilte Expertise -Behandlung in grösseren Paketen möglich -Gegenseitige Absicherung -Synergien nutzbar -Verteilte Lasten -Verteilte Expertise -Fachlich einleuchtende Zuordnung zu einer Hochschule: Höhere Akzeptanz für Träger -Gegenseitige Absicherung -Synergien in der Bibliothek nutzbar -Lasten zunächst nicht verteilt -nur eine Investition -Gewisser Verzicht auf Kontrolle -Inhalt nicht im Einklang mit dem Profil der anbietenden Bibliothek: Rechtfertigung gegenüber Träger nötig -Gewisser Verzicht auf Kontrolle -Auswahl und Behandlung der einzelnen Titel nötig -Jeder Server muss sich mit jeder Formatvariante befassen -Festlegung der fachlichen Zuständigkeiten als sehr schwierig erwartet -Gewisser Verzicht auf Kontrolle -Expertise nur zentral vorhanden kann auch ein Vorteil sein: Grössere Tiefe? -Geringe Akzeptanz erwartet Tabelle 6: Gegenüberstellung der Vor- und Nachteile der dargestellten Varianten für ein lokales Hosting. 106

107 Variante 1 könnte lediglich in Erwägung gezogen werden für Inhalte, die nur an einer Hochschule lizenziert wurden. Auch dann wäre aber zu fragen, ob der Anschluss an eine gemeinsame Installation nicht effizienter wäre. Variante 3 müsste theoretisch die geradlinigste Variante sein und eine gewisse Kostenersparnis bei Einrichtung und Betrieb erlauben. Die Zentralisierung des Know-hows kann im Sinne der Bildung eines Kompetenzzentrums für die Bereitstellung verstanden werden, das auch gleich die entsprechenden praktischen Aufgaben erledigt. Für eine derartige zentralisierte Lösung wird nur eine geringe Akzeptanz erwartet. So wurde während der Erarbeitung der Studie mehrfach der Wunsch nach verteilten Lösungen artikuliert, und ihre Vorteile wurden bereits in anderen Projekten dargelegt. Demnach sollte es einfacher sein, ein föderatives System aus Archiven kooperierender Institutionen für grössere Datenmengen zu skalieren, und zwar auch im Hinblick auf das Management des Systems. Daneben gelten die lokale Flexibilität und die grössere Sicherheit gegen Schäden als Vorzüge (Cedars 2002). Ein Aufbau zentraler Strukturen ausserhalb der Bibliotheken ist nicht sinnvoll, weil diese zum Teil bereits in den Bibliotheken vorhanden sind. Es erscheint unter anderem im Hinblick auf den längerfristigen Betrieb über das Projekt hinaus sinnvoller, die vorhandenen Strukturen und Anknüpfungspunkte in und zwischen den Bibliotheken zu nutzen und diese bei Bedarf in ihrer Arbeit zu unterstützen. Aus diesem Grund werden lediglich die Varianten 2a und 2b weiterverfolgt. Dabei wird ausdrücklich empfohlen, für konkrete Teilaufgaben mit Partnern ausserhalb der Bibliotheken zusammenzuarbeiten, um zusätzliche Kompetenzen zu nutzen. 107

108 Abbildung 6: Schematische Darstellung der Funktionsweise der Varianten 2a und 2b für die lokale bzw. regionale Installation von erworbenen Inhalten: Die Inhalte werden zusammen mit ihren Metadaten von den Verlagen geliefert und allenfalls nach Fächern aufgeteilt. Für den Zugriff sollte die Endnutzerschaft mit einer Suche alle verfügbaren Server absuchen können und daraufhin alle relevanten Treffer erhalten. Er soll sich nicht darum kümmern müssen, wo sich welche Daten befinden. Nicht dargestellt ist die eigentliche Überprüfung der Nutzungsberechtigung. Beide Varianten 2a und 2b werfen eine Frage auf, die zwar nicht ausschlaggebend sein sollte, aber dennoch beachtet werden muss. Beide Modelle würden es voraussichtlich erforderlich machen, dass Bibliotheken einen Teil des Inhaltes, den sie erworben haben, an andere Einrichtungen abgeben müssten, die diesen nicht vollständig selbst erworben haben. Die Bibliothek, die einen Server mit solchen fremden Inhalten unterhalten würde, müsste also für ihre eigenen Kundinnen und Kunden Teile des physisch bei ihr vorhandenen Inhaltes sperren. Es ist zu hoffen, dass die jeweiligen Verlage sich mit einer solchen Regelung zufrieden geben könnten Aufteilung nach Verlagen (Variante 2a) Eine Zuordnung der erworbenen Inhalte aus dem Programm eines Verlages zu einer Bibliothek bietet vor allem praktische Vorteile: Es kann auf diese Art jeweils eine grösser Menge von Daten behandelt werden, die in sich mehr oder weniger homogen sind und zumeist einheitlichen Standards folgen. Für die Eigenheiten eines Anbieters wird somit Kompetenz vor allem an jener Institution aufgebaut, die sich aktiv um die Bereitstellung dieser Inhalte bemüht. Andere Einrichtungen müssen nicht nochmals gleichwertiges Knowhow erarbeiten, sondern können sich auf andere Anbieter konzentrieren. Auf diese Art würden die verfügbaren Ressourcen einander ergänzen. 108

109 Die Angebote grosser Verlage umfassen meist ein breites Fächerspektrum. Es kann dadurch eine Situation entstehen, in der eine Bibliothek auch jene Inhalte eines Verlages anbietet, an denen ihre eigenen Kundinnen und Kunden aufgrund ihrer fachlichen Ausrichtung nur ein geringes oder kein Interesse haben. Bezogen auf diese Inhalte würde die Bibliothek also primär eine Dienstleistung für andere Einrichtungen bzw. für deren Nutzerinnen und Nutzer erbringen. Dies hat in der Zusammenarbeit von Bibliotheken zwar eine gewisse Tradition, es führt jedoch zu Problemen bei der Rechtfertigung des notwenigen Ressourceneinsatzes gegenüber den Trägern der Bibliotheken, wobei hier als Träger zunächst die Hochschulen angesprochen sind: Kann ihnen vermittelt werden, dass die Beteiligung an einer schweizerischen Gemeinschaftsaufgabe ein Anliegen ist, dass auch im Interesse der eigenen Einrichtung liegt? Kann aufgezeigt werden, dass den notwendigen eigenen Leistungen entsprechende Gegenleistungen anderer Einrichtungen gegenüberstehen, die für einen Ausgleich sorgen? Oder müssen schliesslich doch alle erbrachten Leistungen den tatsächlichen Nutzniessern weiterbelastet werden, die nicht zu eigenen Einrichtung gehören? Diese Fragen können mit einer anderen Aufteilung der Aufgaben nicht vollständig vermieden werden. Sie sollten darum auch bei anderen möglichen Lösungen berücksichtigt werden Fachliche Aufteilung (Variante 2b) Eine fachliche Aufteilung der einzelnen Titel des bereitzustellenden Inhaltes würde es erlauben, die unter angesprochenen Fragen etwas zu entschärfen: Wenn die bei einer Bibliothek installierten Inhalte mehr oder weniger genau dem fachlichen Profil dieser Einrichtung entsprechen, ist unmittelbar klar, warum diese Einrichtung sich für ihre Bereitstellung engagiert. Die Mitnutzung durch weitere Partner kann in diesem Fall leichter als Nebeneffekt betrachtet werden. In der praktischen Umsetzung steigt allerdings der Aufwand: Eine Bibliothek, die sich um die Bereitstellung sozialwissenschaftlicher Titel kümmern möchte, wird schliesslich eine Sammlung von Inhalten von verschiedenen Verlagen mit unterschiedlichen Formaten und Standards betreuen müssen. Für jeden Verlag muss das entsprechende Know-how aufgebaut und gepflegt werden, was parallel für andere Titel der gleichen Verlage auch bei den übrigen aktiven Bibliotheken geschieht. Ob sich der Zusatzaufwand verringern liesse, hinge davon ab, wie eng die Bibliotheken trotz der inhaltlichen Aufteilung zusammenarbeiten würden. Zusätzlich muss jeder Titel aus einem Verlagspaket herausgenommen und fachlich zugeordnet werden. Diese Zuordnung muss zwar nur einmal erfolgen, sie erhöht aber dennoch den Bearbeitungsaufwand. Sie könnte sich entweder an den Angaben der Verlage orientieren oder an den fachlich gegliederten Listen, die die meisten Bibliotheken für ihre elektronischen Zeitschriften unterhalten. In diesem Zusammenhang gibt es kleinere formale Fragen: Je nach der Enge der gewählten Facheinteilung bedient ein Titel mehr als ein Fach oder ist sogar explizit interdisziplinär ausgerichtet. Wie ist in diesen Fällen zu verfahren? Während es für diese Fragen pragmatische Lösungen geben könnte und sollte, dürfte es schwieriger sein, jeder Bibliothek diejenigen Fächer zuzuweisen, für die sie sich in einer besonderen Verantwortung sieht. Dies hängt damit zusammen, dass die Speicherung bestimmter Daten vor Ort in der eigenen Bibliotheken Assoziationen weckt zum Aufbau eines traditionellen Bestandes: Es besteht vielfach der Wunsch, den gesamten Inhalt selbst zu speichern und damit zu kontrollieren, der dem eigenen Profil entspricht. Naturgemäss 109

110 kollidiert diese Vorstellung mit einer vertrauensvollen Zusammenarbeit, bei der es nüchtern betrachtet nicht darauf ankommen sollte, welcher Partner welchen Inhalt anbietet. Das Unbehagen, das hier deutlich wird, soll nicht auf die leichte Schulter genommen werden. Es scheint uns beim Wettbewerb um Fächer viel stärker ausgeprägt zu sein als bei der Verteilung von ganzen Verlagen, mit denen sich weder Bibliotheken noch ihre Nutzerinnen und Nutzer identifizieren. Eine Entschärfung liegt lediglich darin, dass sich voraussichtlich nur wenige Bibliotheken aktiv engagieren werden Spezialfall kleine Verlage Die hier skizzierten Lösungen für den dauerhaften Zugriff auf erworbene Inhalte sind ausgerichtet auf die Verlagsangebote, die in den vergangenen Jahren über das Konsortium lizenziert worden sind 76. Im November 2004 galt dies für 16 Anbieter, die entweder sehr viele Titel anbieten bzw. wenige Titel mit zentraler Bedeutung (Nature, Science). Insgesamt werden von diesen Verlagen über 4000 Zeitschriften veröffentlicht. Es ist daher möglich, mit einer Lösung für den Zugriff auf die Titel dieser Anbieter einen grossen Teil des laufenden Angebotes auch der grösseren Bibliotheken abzusichern. Ausserhalb des Konsortiums beziehen alle Bibliotheken weitere Titel von einer mehr oder weniger grossen Zahl von weiteren Verlagen (vgl ). Hierbei handelt es sich häufig um kleinere Anbieter, wobei dieser Begriff unscharf bleibt: Die Angabe einer bestimmten Anzahl von publizierten Titeln als Mass für die Grösse trifft häufig zu und führt doch gelegentlich in die Irre. So sind die Angebote um die wenigen Titel von Nature und Science hoch entwickelt, weil die Publikationen eine sehr grosse internationale Bedeutung und Verbreitung besitzen, die sich auf die Möglichkeiten der Verlage auswirkt. Unter den Anbietern, die je etwa zehn Titel herausgeben, gibt es relativ viele Fachgesellschaften, die entweder aufgrund ihrer Grösse selber eine leistungsfähige Infrastruktur unterhalten können oder die Online-Verbreitung ihrer Produkte professionellen Dienstleistern wie der nonprofit-organisation HighWire Press 77 überlassen. Die bisher genannten kleineren und mittleren Verlage sind in den oben angestellten Überlegungen zur Zugriffssicherung nicht explizit berücksichtigt worden. Ihre Behandlung stellt aber kein neues technisches Problem dar, sondern ein organisatorisches: Mit allen Verlagen müssen die Modalitäten einer Datenübernahme vereinbart und umgesetzt werden. Unter den sehr kleinen Anbietern, die nur ein bis drei Zeitschriften produzieren, verschärfen sich nach bisheriger Erfahrung auch die Anforderungen in technischer Hinsicht. Hier wird nicht selten der Fall beobachtet, dass Zeitschriften kleinerer wissenschaftlicher Gesellschaften an Lehrstühlen und in Hochschulinstituten produziert und herausgegeben werden und auf deren Infrastruktur angewiesen sind. Es ist bereits befürchtet worden, dass die Kosten für die Übernahme von etwa 90% der Zeitschriften von Verlagen gleich hoch oder niedriger sein könnten als diejenigen für die Übernahme der Daten der verbleibenden 10% Zeitschriften von unkooperativen oder schlecht ausgestatteten Verlagen (Bennett, Conway et al. 2002). Arrangements für den dauerhaften Zugriff werden zwar erst dann relevant, wenn die entsprechende Lizenz oder ein zugrunde liegendes Abonnement nicht mehr fortgesetzt wird. 76 Vgl. unten auf der Seite (Zugriff am ) 77 HighWire Press : (Zugriff am ) 110

111 Es muss also nicht alles gleichzeitig bearbeitet werden, dennoch bleibt aber der Aufwand u. U. beträchtlich. So erscheint es als aussichtslos, eine vorhandene Oberfläche für die Benutzung so anzupassen, dass sie für alle (hunderte bis tausende) Verlage gleich gut funktioniert. Dabei darf nicht aus den Augen verloren werden, dass auch das Originalangebot sehr kleiner Verlage oft nur begrenzten Ansprüchen genügt: Was vom Verlag nicht schon als Funktion angeboten oder vorbereitet wurde, wird sich nachträglich nicht als Teil eines einfachen Arbeitsablaufs in einer Bibliothek mit vertretbarem Aufwand erzeugen lassen, auch wenn dies technisch grundsätzlich machbar wäre. Das resultierende Nebeneinander von unterschiedlich gut nutzbaren Inhalten wird für die Endnutzerschaft nicht ohne weiteres verständlich und beherrschbar sein. Für die Angebote kleiner Anbieter gelten die Bedenken noch verstärkt, die bereits allgemein für die Konsortialverlage genannt wurden: Eigene vertrauenswürdige Lösungen für dauerhaften Zugriff oder gar Archivierung sind zum Teil nicht vorhanden und wegen mangelnder Ressourcen auch zukünftig nicht zu erwarten. Das Risiko wirtschaftlicher Turbulenzen und des Verschwindens von Anbietern und Inhalten erscheint als erhöht. Zeitweise wurden auch Titel kleinerer Verlage eher abbestellt, um Mittel für die Weiterführung der grossen Verlagspakete freizumachen ohne deren Abbestellverbote zu verletzen. Dies ist unerfreulich und müsste zumindest aus der Sicht der Zugriffssicherung berücksichtigt werden, wenn es nicht verhindert werden kann. Es kann zur Zeit keine überzeugende Lösung vorgeschlagen werden. Für die ersten Schritte zum Aufbau von Servern für den Zugriff werden voraussichtlich keine kleinen Verlage berücksichtigt. Dies ist inhaltlich insofern vertretbar, als zur Zeit die Fortsetzung der Konsortiallizenz eines Grossverlages erstmals konkret fraglich erscheint, so dass echter Handlungsbedarf bestehen könnte. Dennoch sollten Abklärungen bei kleineren und mittleren Anbietern vertieft werden, um ein genaueres Bild der Situation zu erhalten LOCKSS Im Zusammenhang mit der Zugriffssicherung auf lizenzierte Inhalte wird immer wieder das Projekt LOCKSS 78 (Lots of Copies Keep Stuff Safe) ins Gespräch gebracht. Es stellt eine Software bereit, die bereits auf normalen Arbeitsplatzrechnern betrieben werden kann. Diese Software sorgt nach entsprechender Einstellung dafür, dass regelmässig die neuen Inhalte ausgewählter Zeitschriften auf diesem Computer gespeichert werden. Das besondere ist jedoch, dass die weltweit verteilten Computer, die den gleichen Inhalt einsammeln, in bestimmten zeitlichen Abständen die gespeicherten Inhalte vergleichen. Dabei soll bemerkt werden, wenn Dateien auf einem Computer nicht mehr intakt sind. Sie werden dann automatisch von einem der anderen Rechner neu bezogen und gespeichert. Auf diese Weise soll gewährleistet sein, dass jeweils eine aktuelle und funktionsfähige Kopie vorliegt. Es kann theoretisch auf eine Backup-Kopie verzichtet werden. Der laufende Zugriff der örtlichen Kundinnen und Kunden auf den Zeitschrifteninhalt erfolgt im Normalfall beim Verlag, und nur wenn dieser Server nicht erreicht wird, wird der Zugriff auf die lokale Kopie geleitet. Aus diesem Grund ist diese Funktion auch als permanenter Cache beschrieben, da das Verfahren dem Vorhalten kürzlich besuchter Internetseiten in einem Browser ähnelt. 78 LOCKSS (Lots of Copies Keep Stuff Safe): 111

112 LOCKSS wird zum Teil als komplementärer Ansatz zu JSTOR gesehen: JSTOR sammelt vor allem ältere Inhalte, während LOCKSS den Verlagen empfiehlt, diese auszuschliessen. Vor allem aber ist es der Gegensatz des zentralen Depots JSTOR zum verteilten LOCKSS. Beide haben zum jetzigen Zeitpunkt ihre Berechtigung, da noch nicht schlüssig nachgewiesen ist, welche Lösung die beste ist. Hinter dem verteilten Ansatz steht die Überlegung, dass eine möglichst breite Streuung der Speicherung die beste Sicherheit gegen Totalverluste bietet, ganz vergleichbar zum Verhalten von Bibliotheken bei der Aufbewahrung von Printbeständen an mehreren Orten. Allerdings gibt es einen entscheidenden Unterschied bei der digitalen Umsetzung: Die verschiedenen Speicher müssen zeitweise intensiv miteinander und mit den Verlagsservern kommunizieren. Das macht sie angreifbar, da sie entsprechend offen sein müssen. Die grosse Zahl macht es unwahrscheinlich, dass dies zu Problemen führt. Wenn die Zahl der Speicher für einen bestimmten Inhalt nicht sehr gross ist, sind einige Manipulationen vorstellbar, die dazu führen können, dass das Mehrheitsvotum über den korrekten Inhalt verfälscht wird. Es gibt kaum rationale Gründe für solche Manipulationen, was sie aber nicht ausschliesst. Entgegen anders lautender Aussagen löst LOCKSS nicht die Archivierungsproblematik. Es verlässt sich mit einer gewissen Berechtigung darauf, dass zu gegebener Zeit Ersatz für die gängigen Formate (v. a. PDF) und Protokolle (http) zur Verfügung stehen wird. Wie in dieser Studie mehrfach erklärt wurde, wird auch gar nicht erwartet, die Fragen von Zugriff und Archivierung gleichzeitig lösen zu können. Problematischer ist, dass LOCKSS Dokumente ausschliesslich in ihren Präsentationsformaten (PDF; HTML) speichern kann. Nur diese stehen dann auch für eine spätere Archivierung zur Verfügung, sofern nicht weitere Daten vom Verlag beschafft werden können. In den meisten Fällen wird die Archivierung des PDF aber ohnehin die einzige Möglichkeit sein. Unklar ist derzeit, ob Backfiles mit den gespeicherten Daten unter einem einheitlichen Zugriff verbunden werden können, aber dies wird auch bei anderen Systemen noch zu klären sein, ebenso wie der Zugriff auf gespeicherte Inhalte, wenn die Oberflächen der verschiedenen Verlage nicht mehr verfügbar sind. Das System bedarf für seine Funktionsfähigkeit der Unterstützung durch den Verleger der Zeitschriften, der es jeder einzelnen Bibliothek gestatten und der Software technisch ermöglichen muss, die Inhalte einzusammeln. Zur Zeit wirken 50 Verlage und 80 Bibliotheken mit. Die Verlagsliste ist zur Zeit nicht zugänglich, sie enthielt für die Teilnahme am Beta-Test aber namhafte Verlage wie Blackwell, BioMed Central, American Chemical Society, British Medical Journal, Institute of Physics, Oxford University Press. Als Bibliothek aus der Schweiz war und ist die Bibliothek des CERN beteiligt. Nach dortigen Aussagen hat sich die Entwicklung nicht zuletzt durch Sicherheitsbedenken verzögert, und die Zusammenarbeit ist selbst mit den in der Liste genannten Verlagen nicht so weit gediehen, wie es den Anschein hat. In der Liste fehlen zudem die grossen Verlage, bei denen die Fortsetzung der Lizenzpakete mittelfristig nicht gesichert ist, und es wird nicht erwartet, dass sie sich dieser Initiative öffnen. Auch LOCKSS wird darum voraussichtlich nur einen Teil zur Problemlösung beitragen können. Am CERN wird LOCKSS inzwischen in der produktiven Version von April 2004 betrieben, und es besteht Interesse, andere Schweizer Bibliotheken ebenfalls zur Teilnahme zu gewinnen. Aus Sicht des CERN als spezialisierte physikalische Forschungs- 112

113 einrichtung fehlen fachlich relevante Inhalte, weil die entsprechenden Verlage noch nicht ihre volle Zustimmung gegeben haben. Die Software ist kostenfrei. Um das Projekt fortsetzen zu können, wird eine LOCKSS Alliance gebildet, zu der Bibliotheken und Verlage entsprechend ihrer Grösse Beiträge leisten sollen. Im Dezember 2004 lauteten die vorgeschlagenen Summen für ein Jahr USD bis für Bibliotheken und USD 346 bis für Verlage. Ziel ist es, für ca. fünf Jahre ein zentrales Unterstützungsteam aufrechterhalten zu können, bis eine stabile internationale Gemeinschaft etabliert ist. Aus Sicht des Projektes sollte LOCKSS von einer oder mehreren Bibliotheken des Konsortiums getestet werden, und zwar insbesondere auch für kleinere Anbieter, die im Konsortium nicht abgedeckt werden. Die Kosten und das Risiko sind angeblich gering, und auch ein späterer (freiwilliger) Beitrag ist im Vergleich zu anderen Gebühren massvoll. Die Limitationen des Systems müssen verstanden werden, um über seine Verwendung bewusst entscheiden zu können Zeitpunkt der Datenübernahme Die bisherigen Ausführungen stützen sich auf die Massgaben der gängigen Lizenzverträge, die sich an internationalen Empfehlungen orientieren. Sie sehen eine Übernahme von Inhalts- und Metadaten erst dann vor, wenn eine Lizenz für diese Inhalte nicht mehr fortgesetzt wird. Der Zeitpunkt ist damit zwar definiert, aber nicht konkret im Voraus bekannt und damit nur beschränkt planbar. Falls eine Lizenz erlöschen sollte, weil der Verlag das Angebot nicht aufrechterhalten kann, wäre fraglich, ob er in der Lage wäre, für eine geregelte und vereinbarungsgemässe Übergabe der Daten zu sorgen. Wie in kurz erläutert werden soll, wird das Risiko des Verschwindens ganzer Verlagsangebote aber als geringer angesehen als dasjenige eines normalen Lizenzendes durch Nicht-Verlängerung. Der klare Vorteil einer späten Datenübernahme ist die Möglichkeit, Inhalte und Metadaten auf dem neuesten verfügbaren Stand zu erhalten, auch wenn dies im Einzelfall bedeuten kann, dass ein Artikel fehlt, der tatsächlich ersatzlos zurückgezogen wurde (vgl ). Dennoch könnte als Alternative angestrebt werden, Inhalte und Metadaten möglichst früh und auch ohne konkreten Anlass zu übernehmen. Dies würde in letzter Konsequenz einem allgemeinen lokalen Hosting lizenzierter Inhalte während der Lizenzlaufzeit entsprechen und ist innerhalb der zur Zeit gültigen Lizenzvereinbarungen für Zeitschriften in aller Regel nicht zulässig. Für einzelne Datenbank-Produkte unterhält das Konsortium aber seit längerem eigene Server. Die Erfahrungen mit diesen Installationen müssen als zwiespältig bezeichnet werden. Bei regulärem Betrieb lassen sich gegenüber dem Zugriff beim Verlag trotz der Investitionsund Betriebskosten für eine eigene Infrastruktur über mehrere Jahre hinweg Kosten sparen und auf kleinere Störungen kann zeitnah reagiert werden. Die für einige Zeit merklich höhere Geschwindigkeit des Datenverkehrs in der Schweiz hat dagegen mit der Verbesserung internationaler Verbindungen etwas an Bedeutung verloren. Diese vorteilhafte Sicht der Dinge beruht darauf, dass die Datenbankanbieter in diesen Fällen ihre Such- und Präsentationsoberflächen für die lokale Installation zur Verfügung stellen: Die Endnutzenden können darum inhaltlich und funktional ein Angebot nutzen, dass dem Zugriff auf den Server des Original-Anbieters voll entspricht. 113

114 Beim Auftreten grösserer Probleme, die nicht allein lokal begründet sind, steigt der Aufwand für Abklärungen beim Anbieter und es muss gesichert sein, dass dieser sich der Probleme mit hohem Engagement annimmt, auch wenn anders als beim Verlagsserver nur ein kleinerer Teil seiner Kundschaft betroffen ist. Dieser Aufwand kann in schwerwiegenden Fällen sogar die Einsparungen zunichte machen, die normalerweise möglich wären. Zudem hat sich als tiefergehendes Problem erwiesen, dass die Politik der Anbieter im Hinblick auf lokale Installationen Änderungen unterworfen ist. Ein lokales Hosting sollte aus diesem Grunde nur erwogen werden, wenn der Hersteller sich längerfristig zum Unterhalt der lokal installierten Produktversion verpflichtet, und zwar mindestens mit dem gesamten Funktionsumfang für Endnutzerschaft und Bibliothekspersonal, der beim Zugriff auf einen Verlagsserver verfügbar wäre. Es gibt Bibliotheken und Konsortien, die Zeitschrifteninhalte lokal bereitstellen, als eines der grossen Beispiele ist OhioLINK 79 mit seinem Electronic Journal Center (EJC) zu nennen. Für einzelne Verlage gibt es Installationen auch in Deutschland (z.b. HeBIS 80 -Konsortium mit ScienceDirect on Site für Elsevier und Cell Press). Die bestehende Elsevier -Installation im HeBIS wird immer wieder ins Gespräch gebracht als Basis für den dauerhaften Zugriff auf erworbene Inhalte für andere deutsche Bibliotheksverbünde, die ihre Lizenzen mit Elsevier nicht fortsetzen. Diese Installation enthält für die Verlage Elsevier/Academic Press/ Harcourt Health Science z. Zt. (Stand ) 898 Titel. Davon sind 733 bis zum Jahr 2004 lizenziert. Die übrigen sind abgeschlossen und dennoch bleiben die vormals lizenzierten Jahrgänge nutzbar. Sofern die Lizenz überhaupt den Zugriff auf Titel im Additional Access einschliessen sollte, so sind diese naturgemäss nicht für eine lokale Installation verfügbar. Das Angebot ScienceDirect on Site bildet mit seiner nennenswerten Verbreitung eine gewisse Ausnahme: Sofern es definierte Angebote anderer Verlage geben sollte, sind sie sicher weniger häufig vertreten. Für das Schweizer Konsortium wird vorgeschlagen, nicht pauschal ein lokales Hosting anzustreben, sondern nur dann und dort aktiv eine eigene Installation zu verfolgen, wo andernfalls Zugangsprobleme absehbar sind. Leider wird bei bestimmten Verlagen eine Lösung nicht umsetzbar sein, bei der die Bibliotheken zwanglos für eine gewisse Zeit nach Lizenzende beim Verlag zugreifen können, um dann später adäquat vorbereitet die Inhalte zu übernehmen: Eine vergleichsweise beträchtliche Einmalzahlung zu Beginn der Nachnutzung macht diese Option unattraktiv (vgl ), während sie bei einem Modell mit moderater Jahresgebühr denkbar und interessant ist Zugriff über Drittanbieter Als Drittanbieter sollen solche Einrichtungen verstanden werden, die weder selber als Verleger eigene Inhalte vertreiben noch als Bibliotheken diese Inhalte beziehen. Im Gespräch sind dabei häufig die Aktivitäten von JSTOR und von OCLC. Beide haben unterschiedlichen Charakter und beantworten aus diesem Grund die offenen Fragen in Bezug auf den dauerhaften Zugang zu erworbenen Inhalten nicht gleich gut. Eine grundsätzliche Schwäche solcher Angebote von Dritten ist, dass sie bereits eine Vorauswahl darstellen, die nicht nur nach inhaltlichen Kriterien erfolgt, sondern stark davon abhängt, mit 79 OhioLINK Ohio Library and Information Network: (Zugriff am ) 80 HeBIS Hessisches Bibliotheksinformationssystem: siehe dort unter HeBIS-Konsortium (Zugriff am ). 114

115 welchen Verlagen entsprechende Vereinbarungen getroffen werden konnten. Nicht jeder von den Bibliotheken gewünschte Inhalt wird berücksichtigt werden und gleichzeitig kann in Paketlösungen unerwünschter Ballast enthalten sein. Die Einschaltung von externen Dienstleistern bedeutet weiterhin immer, dass in gewissem Umfang auf die eigene Kontrolle der Inhalte verzichtet wird und neue Abhängigkeiten entstehen sowohl bei der Dienstleistung selber als auch bei ihrer Finanzierung JSTOR Der Kern des ursprünglichen Projektes JSTOR (Journal Storage) der Andrew W. Mellon Foundation war die Digitalisierung kompletter Zeitschriftenbestände mit dem Ziel, einerseits den Zugang zu diesen Inhalten durch komfortable Suchmöglichkeiten und die Online- Bereitstellung zu verbessern. Andererseits sollte den Bibliotheken ermöglicht werden, ihre gedruckten Bestände in kostengünstigere Magazine auszulagern oder sogar auszuscheiden. Die Platzersparnis sollte längerfristig eine finanzielle Entlastung bedeuten. Auch sollten Probleme der Bestandeserhaltung auf diese Weise gelöst oder entschärft werden wurde das Projekt in eine not-for-profit-organisation umgewandelt. Charakteristisch für JSTOR ist das Instrument der Moving Wall. Diese Grenze wird in Absprache mit jedem einzelnen Verlag definiert und bezeichnet jene jüngsten Jahrgänge des Inhaltes, die nur über den Verlag selbst durch seine Lizenznehmer genutzt werden können und nicht der JSTOR-Kundschaft zur Verfügung stehen. Die Moving Wall umfasst meist drei bis fünf Jahre. Im Detail gibt es auch andere Regelungen mit Verlagen, die zum Teil selber daran arbeiten, zurückliegende Jahrgänge online anzubieten. Auch starre Grenzen für den Zugang kommen vor. In diesen Fällen hat JSTOR Vereinbarungen geschlossen, dass der fehlende Inhalt ins Archiv gelangt, wenn der jeweilige Verlag den Inhalt nicht mehr elektronisch zur Verfügung stellt. In einigen Fällen mit Moving Wall funktioniert bereits eine gleichzeitige Suche in JSTOR und in den aktuellen Verlagsdaten. Suchergebnisse in den aktuellen Daten verweisen dann zum Verlagsserver mit eigener Zugangskontrolle. Erklärtes Ziel von JSTOR ist aber die Übernahme der aktuellen Inhalte der Verlage. Zur Zeit (Nov. 2004) sind insgesamt 449 Titel im Angebot von JSTOR enthalten. Über die Bereitstellung der Inhalte hinaus beansprucht JSTOR auch die Stellung eines vertrauenswürdigen Langzeitarchivs für sich und arbeitet am Aufbau einer geeigneten technischen und organisatorischen Infrastruktur für die Bewältigung der Langzeitarchivierung. Vorteile aus der Sicht der Zugriffssicherung: 1. JSTOR ist eine unabhängige Einrichtung, die Vertrauen geniesst. 2. Der Zugang auf alle Backfiles eines lizenzierten Titels ist möglich. 3. Deckt Titel kleinerer Anbieter ab, und zwar nicht nur englischsprachige. 4. Es bestehen einvernehmliche Vereinbarungen mit den Verlagen. 5. Nach Unterbrechung des Vertrages ist für eine gewisse Zeit (5 Jahre) eine Wiederaufnahme möglich. 115

116 6. Schwergewicht in Geistes- und Sozialwissenschaften, die sonst z. T. schlecht vertreten sind. Nachteile: 1. Enthält ausgewählte Titel und deckt auch kleinere Anbieter nicht pauschal ab. Umfasst daneben nur einzelne Titel von grösseren Verlagen Preismodell sieht eine einmalige Einlage (Archive Capital Fee) zur Finanzierung der Langzeiterhaltung vor und dazu erhebliche jährliche Nutzungsgebühren (Annual Access Fee). 3. Die Verträge mit JSTOR beziehen sich auf vordefinierte Sammlungen von Titeln oder auf das komplette Angebot. Die Auswahl von Einzeltiteln ist nicht vorgesehen. 4. Lizenznehmer können die Daten nur nutzen, aber nicht übernehmen. Nach Ende des Vertrages mit JSTOR haben die Vertragspartner keine Ansprüche mehr. 5. Für die stark genutzten jüngsten Jahrgänge sind Bibliotheken wieder auf den Zugriff über den jeweiligen Verlag angewiesen. 6. Das Konzept zielt a. Auf die Bereitstellung relevanter älterer und schlecht zugänglicher Inhalte. b. Auf die Langzeitarchivierung der älteren Inhalte. c. Und nicht auf den fortgesetzten Zugriff auf aktuelle Inhalte. Als Beispiel für die Kosten können hier nur die frei publizierten Preise für den US-Markt angegeben werden 82. Die Preise für Europa werden nach unseren Informationen z. T. niedriger angesetzt, wenn Sammlungen einen grösseren Teil US-spezifischer Titel enthalten. Für jede einzelne multidisziplinäre (vier und Komplement) und jede fachspezifische Sammlung (sechs) gelten je eine Archive Capital Fee (ACF) und eine Annual Access Fee (AAF). Die ACF ist eine Einmalzahlung und wird bei der Wiederaufnahme eines unterbrochenen Vertrages berücksichtigt, während die AAF in der Regel jährlich neu bestimmt werden muss. Sie kann prinzipiell sinken, wenn die Gesamtkundenzahl bei JSTOR zunimmt. Das Verhältnis von ACF zu AAF variiert je nach Sammlung. Beide sind in fünf Stufen differenziert nach der Grösse und Forschungsintensität der Bildungseinrichtung, die eine Lizenz erwirbt. Für die USA stehen hierfür die Angaben der Carnegie Classification für höhere Bildungseinrichtungen zur Verfügung. Dahinter steht das Bild der Hochschullandschaft in den USA, die getrennte Hochschulen für Bachelor und Masters und folgende Graduate-Ausbildungen kennt. Für andere Länder werden nationale Gegebenheiten berücksichtigt und z.b. nur Vollzeitstudierende bzw. Angestellte gezählt. So wird auch für die Schweizer Hochschulen die Grössenskala ausgeschöpft. Zudem sind die Preise in bestimmten Fällen davon abhängig, ob bereits andere Sammlungen lizenziert wurden. Ein Titel kann in mehreren Sammlungen enthalten sein. 81 JSTOR: List of Currently Available Journals by Publisher: die kleineren Verlage sind überwiegend Vereinigungen, Gesellschaften und Institute. Bei den grösseren Verlagen sind mit wenigen Titeln vertreten z.b. Blackwell (9 Titel), Cambridge Univ. Press (14), Kluwer (3), Oxford Univ. Press (20), Taylor & Francis (8), John Wiley (4) u.a. 82 JSTOR U.S. Participation Fees by Collection: 116

117 JSTOR Einstufung JSTOR Language & Literature Collection mit 57 Titeln Archive Capital Fee Annual Access Fee JSTOR Ars & Sciences II Collection mit 122 Titeln Archive Capital Fee Annual Access Fee Very large $ $ $ $ Large $ $ $ $ Medium $ $ $ $ Small $ $ $ $ Very Small $ $ 700 $ $ Tabelle 7: Preisbeispiele von JSTOR für den amerikanischen Markt für eine fachspezifische und eine multidisziplinäre Sammlung, Stand November Ausserhalb der USA erfolgt die Einteilung anders, z.b. über eine pauschale Zählung von Vollzeitstudierenden o.ä. Die Differenzierung von very large bis very small wird dabei auch in der Schweiz ausgeschöpft. Die Bewertung der Kosten ist schwierig. Die Summe der Ausgaben für die gegenwärtig an allen Hochschulen der Schweiz insgesamt bezogenen Sammlungen ist beträchtlich. Andererseits werden die Leistung und der inhaltliche Wert von JSTOR anerkannt. Nicht zuletzt handelt es sich hier um eine Gebühr, die sowohl den Zugriff als auch die langfristige Erhaltung sichern soll. Ein Problem liegt darin, dass die Ausgaben für die Inhalte in JSTOR wegen der Moving Wall zusätzlich zu denjenigen für den Zugang zum laufenden Inhalt aufgebracht werden müssen. Wenn man ausschliesslich das Ziel des dauerhaften Zugriffs auf konsortial lizenzierte Inhalte im Blick hat, dann muss man in der Tat feststellen, dass JSTOR sich nicht mit den richtigen Inhalten beschäftigt und in absehbarer Zeit auch nicht beschäftigen wird: Es ist eine wichtige Ergänzung zu den Angeboten grosser Verlage, die in eigener Regie die Digitalisierung ihrer Inhalte vorantreiben können. Trotz der Absicht zur Übernahme von nativ digitalen Inhalten ist aus heutiger Sicht nicht zu erwarten, dass die aktuelle Bereitstellung der jüngsten Jahrgänge von Verlagen verschiedener Grösse an JSTOR übergehen könnte. Sowohl im Zusammenhang mit der Langzeitarchivierung (8.6) als auch mit der Digitalisierung wird JSTOR jedoch erneut sorgfältig zu betrachten sein OCLC OCLC (Online Computer Library Center) ist eine nonprofit Service-Organisation für seine Mitgliedsbibliotheken. Seine Dienstleistungen zum Zugriff auf elektronische Zeitschriften sind unter dem Namen OCLC Electronic Collections Online (ECO) zusammengefasst. Im Gegensatz zu JSTOR steht bei OCLC die Bereitstellung aktueller Titel im Vordergrund, die gemäss 117

118 Vereinbarungen mit den betreffenden Verlagen angeboten werden. Laut Eigenangabe handelt es sich bereits um mehr als 5000 Titel von über 70 Verlagen 83. Als Besonderheit sichert sich OCLC in diesen Verlagsvereinbarungen zusätzlich ein dauerhaftes Archivrecht, d.h. Inhalte, die OCLC anbietet, verbleiben für immer im Besitz von OCLC. Dadurch kann OCLC Bibliotheken den Zugang zu den von ihnen erworbenen Inhalten anbieten, wenn diese ihr Lizenzen beim Verlag nicht fortsetzen. Die Bibliothek schliesst dazu einen Vertrag mit OCLC, in dem die gewählten Titel festgelegt werden. Die Zugangsberechtigung richtet sich dabei nach dem Umfang der früheren Lizenz beim Verlag. Erst in der Diskussion befinden sich Dienste wie ein Hot Backup, bei dem OCLC sofort als Lieferant der Inhalte einspringt, wenn ein Verlagsserver vorübergehend ausfällt. Vorteile des Angebots OCLC ECO: 1. OCLC geniesst bei seiner breiten Mitgliederschaft hohes Vertrauen und existiert bereits seit mehreren Jahrzehnten. 2. Es können einzelne Titel ausgewählt werden. 3. Kosten berechnen sich pro Titel. Genannt werden Preise von $12- $20 pro Titel im Jahr. 4. Eindeutige Archivierungsrechte des Dienstleisters. Pläne für Langzeitarchivierung. 5. Viele namhafte und einige grössere Verlage im Angebot Nach Unterbrechung des Vertrages ist für eine gewisse Zeit (5 Jahre) eine Wiederaufnahme möglich. Nachteile: 1. Wichtige Grossverlage fehlen. 2. Lizenznehmer können die Daten nur nutzen, aber nicht übernehmen 85. Nach Ende des Vertrages mit OCLC haben die Vertragspartner keine Ansprüche mehr. 3. Das Konzept zielt ab auf die Bedienung derjenigen Institutionen, die bereits ihre laufenden Online-Zeitschriften-Titel über OCLC ECO beziehen und dessen Zugänglichkeit sichern möchten. Es ist zur Zeit nicht ganz klar, ob Einrichtungen, die bisher beim Verlag zugegriffen haben, erst nach Lizenzende zu OCLC wechseln können. 4. Verlage können ihre Vereinbarung mit OCLC für neue Inhalte kündigen: In diesem Fall verbleibt OCLC nur der bis dahin erschienene Inhalt (Beispiel: Academic Press IDEAL Inhalte sind nur bis 2002 enthalten, als der Verlag von Elsevier übernommen wurde). Das Modell von OCLC kommt konzeptionell dem Bedarf von Bibliotheken nach dauerhaftem Zugang mit der Perspektive für die Langzeitarchivierung weit entgegen und hat eine erfreuliche Stärke bei kleinen und mittleren Verlagen, die in anderen Projekten zu kurz 83 (Zugriff am ) 84 Dazu gehören unter vielen anderen Academic Press (bis 2002), Blackwell, Karger, Kluwer, Nature Publ. Grp., Taylor & Francis, Oxford und weitere Univ. Presses 85 Eine Übernahme der Daten soll lediglich ermöglicht werden für den Fall, dass OCLC die Dienstleistung nicht weiterführt. Vorbehalten ist allerdings die Zustimmung der Verlage dazu. 118

119 kommen. Das Modell erfordert einen Verzicht der Bibliotheken auf die eigene Kontrolle der Inhalte und befreit sie damit zu einem gewissen Teil von der Verantwortung. Eine fortdauernde Abhängigkeit vom Dienstleister und von der Möglichkeit zur Fortsetzung der Verträge muss in Kauf genommen werden. Als alleinige oder umfassende Lösung scheidet OCLC ECO wegen des begrenzten Angebots aus: Die grössten Verlage sind nicht daran interessiert, ihre Inhalte aus der Hand zu geben, wie die Beendigung der Übergabe von Inhalten aus Academic Press IDEAL nach dem Eigentümerwechsel bei diesem Verlag zeigt Dokumentenlieferung Nach einer Studie für die Jahre sinkt die Nutzungsintensität älterer Zeitschriftenjahrgänge rasch ab ((Tenopir and King 2000), S. 188ff). Von den Artikeln die von Hochschulwissenschaftlern gelesen wurden, waren 58,5% maximal ein Jahr alt und 12,3% zwei Jahre alt. Nur 15,4% waren älter als 5 Jahre, davon 6,1% älter als 10 Jahre (vgl. Tabelle 8). Dort wird zusätzlich vermerkt, dass der Zweck der Lektüre bei den älteren Artikeln stärker in der Forschung liegt (80% bei einem Alter von mehr als fünf Jahren), während bei neuen Artikeln gleich häufig Lehrzwecke angegeben wurden. Gleichzeitig wechseln die Zugriffsarten: Statt des informativen Blätterns, das bei neuen Artikeln dominiert, wächst die Bedeutung von Suchen, Zitaten, Hinweisen von Kollegen und anderen Quellen. Alter der Artikel (Jahre seit der Publikation) Universitätswissenschaftler Nicht-Universitätswissenschaftler 1 58,5 66,9 2 12,3 15,1 3 6,2 1, ,7 5, ,3 2, ,5 2,9 >15 4,6 5,2 Total 100,1 99,9 Tabelle 8: Anteil der Lektüre nach Alter wissenschaftlicher Artikel bei Universitäts und Nicht- Universitätswissenschaftlern in Prozent ((Tenopir and King 2000), S. 189). In einer deutschen Untersuchung wird für Bestellungen aus medizinischen Zeitschriften im Jahr 2002 belegt, dass 44% der Bestellungen aus dem aktuellen und den beiden vorhergehenden Jahrgängen erfolgten, 80% aus den jüngsten zehn Jahren. 5% der bestellten Artikel waren älter als 25 Jahre (Obst 2004). Die Ergebnisse sind hier etwas durch die Bestellung verzerrt, da die vor Ort (online oder physisch) verfügbaren Artikel nicht berücksichtigt sind. Es ist anzunehmen, dass sie bei zielgerechter Titelauswahl die Nutzung der jüngsten Artikel erhöhen würden. Die prinzipielle Gewichtung wird in jedem Fall bestätigt. 119

120 Während der grundsätzliche Befund der Studie von Tenopir und King immer noch zutreffen dürfte, gilt die Aussage, dass über 90% der Artikel mit einem Alter von mehr als 5 Jahren in der Bibliothek gelesen werden, mit einiger Wahrscheinlichkeit nicht mehr: Inzwischen haben bereits mehrere Jahrgänge nativ elektronisch erstellter Zeitschriften dieses Alter erreicht und ausgedehnte Retrodigitalisierungen haben die Zugänglichkeit von weit älterem Material verbessert. Damit steht die Frage im Raum, in welchem Masse die geringe Nutzung älterer Artikel eine Folge der umständlicheren Nutzung war und sich damit zukünftig entscheidend verändern wird. Gewisse Verschiebungen können erwartet werden, aber die Menge an neu erscheinendem Material setzt der Auseinandersetzung mit älteren Artikeln bereits dann natürliche Grenzen, wenn man nicht von einem raschen Veralten der Inhalte ausgeht. Gerade dies ist aber zusätzlich je nach Fach mehr oder weniger stark der Fall, so dass keine grundsätzliche Änderung des Nutzungsverhaltens erwartet wird. Bereits über kurze Zeiträume von ein bis fünf Jahren sind Massnahmen nötig, um den Zugriff auf Inhalte zu sichern. Sie sind durch eine intensive Nutzung gerechtfertigt. Aktivitäten über diesen Zeitraum hinaus dienen jedoch nur 15 bis 20% der anfallenden Nutzungen. Bibliotheken, die nicht explizit den Auftrag haben, das erworbene Material selber aufzubewahren, müssen darum zwangsläufig auch prüfen, ob Möglichkeiten bestehen, den verbleibenden Bedarf mit der Hilfe leistungsfähiger Dokumentenlieferdienste abzudecken. Nicht zu verkennen ist, dass auch auf diesem Wege eine Abhängigkeit entsteht: Es muss mit hoher Sicherheit gewährleistet sein, dass die vorhandenen Möglichkeiten zur externen Dokumentenbeschaffung nicht nur bestehen bleiben, sondern dass auch ihre Lieferbedingungen und Preise langfristig in einem verträglichen Rahmen bleiben. Beispielhaft ist der Dienst Subito 86 zur Zeit durch gesetzgeberische Massnahmen im Zuge der deutschen Urheberrechtsrevision in einem Masse gefährdet, das zumindest seine Kostenstruktur bedroht, wenn nicht gar seine Existenz. Die Kosten von Verlagsangeboten im pay-per-view-verfahren mit Zahlung für die Betrachtung von Einzelartikeln haben eine breite Akzeptanz bei den Kundinnen und Kunden bisher verhindert bei der Endnutzerschaft, weil weitgehende Unkenntnis darüber besteht, was der Bezug wissenschaftlicher Zeitschriften in Abonnement oder Lizenz kostet und bei den Bibliotheken, weil ihnen in diesem Fall eine Kostenkontrolle fehlt. Eine Chance wären langfristig fixierte Vereinbarungen zumindest zwischen den Hochschulbibliotheken der Schweiz, besser jedoch zwischen ihren jeweiligen Trägern, die die wirtschaftlichen Rahmenbedingungen für die Bibliotheken setzen. Erst auf dieser Basis wären auch mittel- bis langfristige Kostenvergleiche zwischen den verschiedenen Zugriffsoptionen möglich. Mit Angeboten, die für den Online-Archivzugriff pro Zeitschriftentitel lediglich wenige Franken pro Jahr berechnen (vgl. OCLC und erste Verlage), wird die Dokumentenlieferung offensichtlich nicht konkurrieren können, und zwar weder hinsichtlich der Kosten noch hinsichtlich des Komforts. Der Kostenvergleich hinkt allerdings stark, da die Bestellung bei Dokumentenlieferdiensten gar nicht mehr an die Bibliotheken gebunden ist, sondern der Endnutzerschaft in Selbstbedienung möglich ist. Sehr nüchtern muss angemerkt werden, dass damit gegenwärtig die Kosten für den Archivzugriff von den Bibliotheken aufzubringen wären, während die Gebühr für die Dokumentenlieferung der empfangenden 86 Subito Dokumente aus Bibliotheken e.v.: 120

121 Person belastet wird. Ein alternatives Modell praktiziert die Zweigbibliothek Medizin der ULB Münster seit einigen Jahren (Obst 2004). Nach einer drastischen Reduktion der Abonnemente gedruckter Zeitschriften wird für einen definierten Nutzerkreis eine kostenfreie elektronische Lieferung über Subito angeboten. Eine wesentliche Komponente des Modells ist die laufende zeitnahe Beobachtung der Bestellungen, die neben der Verhinderung von Missbräuchen auch den Zweck hat zu bestimmen, ob sich ein Abonnement für einen bestimmten Titel wirtschaftlich lohnt. Im Jahr 2002 wurden Artikel aus Zeitschriften bestellt, also nur wenige Bestellungen aus jedem Titel. Zusätzlich variieren die meistgenutzten Titel stark von Jahr zu Jahr. Als Folge davon wäre im Jahr 2002 lediglich für eine einzige sehr preiswerte Zeitschrift der Bezug im Abonnement preiswerter gewesen als die Bestellungen. Derartige Kalkulationen sind natürlich mit ein Grund dafür, dass Verlage gegen Subito Stellung beziehen. Zum Vergleich ist ferner zu erwähnen, dass in 2002 online Artikel aus Titeln genutzt wurden sowie Artikel aus 214 gedruckten Zeitschriften. Angesichts der speziellen Strukturen im Markt für Medizinzeitschriften ist bei einer Übertragung auf andere Bereiche Vorsicht geboten. Die Komforteinbusse bei der Bestellung über Subito (mit vorheriger obligatorischer Kontrolle, ob ein Titel lokal verfügbar ist) wird in (Obst 2004) ausdrücklich erwähnt. Die Geschwindigkeit des unmittelbaren Online-Zugriffs können Lieferdienste prinzipiell nicht erreichen. Jede Bibliothek muss für sich bewerten, ob dieser Komfort auch bei älteren Artikeln in gleichem Masse zur Verfügung stehen soll und wie viel diese Dienstleistung wert ist. Die Umfrage bei den Konsortialbibliotheken hatte bestätigt, dass Komfortgesichtspunkte zumindest grosse Bedeutung haben (vgl ). Aus heutiger Sicht kann die Dokumentenlieferung dafür nur für solche Bibliotheken eine Option sein, die mit einer sehr geringen Nutzung rechnen, die sich über viele verschiedene Titel verteilt. Ganz klar ist, dass eine Konzentration bestimmter Bestände und Angebote auf wenige grosse Bibliotheken damit zusätzlich vorangetrieben wird. Damit ist nicht nur eine inhaltliche Abhängigkeit verbunden, sondern auch eine wirtschaftliche. Denn selbst wenn diese Bibliotheken und sogar ihre Träger bereit sind, ihre Gebühren stabil zu halten, muss damit gerechnet werden, dass sich ändernde politische oder gesetzliche Rahmenbedingungen dies unmöglich machen. Die laufenden nationalen und internationalen Klagen gegen die digitale Dokumentenlieferung über Subito sind eine deutliche Warnung (Müller 2004) Verlagspolitik Keiner der dargestellten Lösungsansätze beantwortet alle Fragen und keiner wird von allen Verlagen mitgetragen. Es wird darum zwingend eine Kombination von Lösungen geben müssen. Die nachfolgende Tabelle soll exemplarisch darstellen, wie sich die Lage für verschiedene Verlage derzeit darstellt. 121

122 Verlag Lizenzklausel für Zugriff nach Lizenzende Datenübernahme durch Kunden Inhalte über OCLC ECO zugänglich Prinzipielle Zustimmung zu LOCKSS ACS (American Chemical Society) (+) Elsevier IOP (Institute of Physics) JSTOR Kluwer Academic OUP (Oxford University Press) (+) (über Highwire Press) Springer (Springer LINK) Wiley (Wiley InterScience) Tabelle 9: Verlagspolitik im Hinblick auf die diskutierten Wege für die Zugriffssicherung für ausgewählte Anbieter. Keine Lösung passt in allen Fällen. Wie im Text diskutiert sind die verschiedenen Zugriffswege nicht gleichwertig. Zu beachten ist, dass es sich bei der Mitwirkung bei LOCKSS bisher um eine Entwicklungszusammenarbeit gehandelt hat und die endgültige Beteiligung anders aussehen und wachsen soll. Bei der Zusicherung des Zugriffs über den Verlag gibt es zum Teil zeitliche Beschränkungen und es können sofort oder nach einiger Zeit Kosten anfallen. Auch die Übernahme kann mit gewissen Kosten für den Transfer verbunden sein. Da die Lösungen nicht als gleichwertig betrachtet werden können, müssen neben den Kosten auch die Bedürfnisse jeder Einrichtung (z.b. volle Kontrolle oder geringer lokaler Aufwand) gegeneinander abgewogen werden Empfehlungen für die Zugangssicherung bei Zeitschriften Als nächste Schritte für den weiteren Projektverlauf werden die folgenden Massnahmen empfohlen. Zur Ausführung ist ab Frühjahr 2005 eine personelle Verstärkung durch IT- Personal vorgesehen. Es wird erwartet, dass spätestens mit Auslaufen der Projektmittel für den Erwerb von 122

123 Informationsprodukten Bedarf nach einem produktiven System besteht (mit den in 2005 verfügbaren Mitteln werden die Inhalte für 2006 erworben). Detailkonzept für ein verteiltes System von (zwei oder) drei Servern, das geeignet ist, kommerzielle Inhalte von Verlagen zu übernehmen, bereitzustellen und untereinander zu spiegeln. Vorgesehen ist eine Aufteilung nach Verlagen, deren Priorität im Laufe des Jahres gemäss dem Ablauf der Lizenzverhandlungen zu bewerten ist. o o o o o Wo es möglich ist, sollen Anforderungen der Langzeitarchivierung bereits berücksichtigt werden. Dies gilt besonders für die Verwendung von Standards und die Dokumentation. Auf diese Weise sind wichtige Voraussetzungen für die Archivierung vorhanden, die gegebenenfalls sogar in einer erweiterten Version dieses Zugriffssystems erfolgen könnte. Berücksichtigung der laufenden Entwicklungen von SWITCHaai für Authentifizierung und Autorisierung. Berücksichtigung der Erfahrungen des bzw. der LOCKSS-Tests (s. u.). Definition von Kriterien, unter welchen Umständen welche Daten übernommen werden sollen. Dies kann bedeuten, dass bis auf weiteres keine oder nur sehr wenige Daten übernommen werden. Ermittlung der relevanten Partner in den betreffenden Hochschulen (Rechenzentren etc.). Davon unabhängige Testinstallation von LOCKSS durch interessierte Partner (2005). Weiterer Austausch mit ähnlich gelagerten Bemühungen im Ausland (z. Zt. vor allem Deutschland). Bestimmung des/der Konsortialpartner für die konkrete Umsetzung mit einer klaren Federführung. Aufbau zunächst eines der Server, nach Möglichkeit noch Ende 2005/Anfang Prüfung der Möglichkeit für die Einbindung der Backfiles. o Abklärung, welche Backfiles bei welchen Bibliotheken vorhanden sind. Anhand der praktischen Umsetzung vertiefte Aufwandsschätzung für den produktiven Betrieb des gesamten Systems. Bei positivem Ergebnis beim Aufbau des ersten Servers Ergänzung der beiden fehlenden Installationen in 2006/2007. Formulierung einer Strategie für die langfristige Trägerschaft. 123

124 8.6 Langzeitarchivierung Die Arbeiten im Rahmen des Projektes E-Archiving des Schweizer Konsortiums bewegen sich zwischen den beiden Polen Zugang und Archivierung. Mit den Themen des dauerhaften Zugriffs auf erworbene Inhalte, der Rolle von Dokumentenserver im Zeichen von Open Access und mit der Digitalisierung von Printbeständen beansprucht der Zugang sehr breiten Raum. Dies steht im Einklang mit der Funktion des Konsortiums und mit den Interessen von Endnutzerschaft und Bibliotheken auf kürzere und mittlere Sicht. Die eigentliche Langzeitarchivierung wurde bei den Konzepten der Drittanbieter unter kurz erwähnt. Diese beanspruchen in unterschiedlicher Form für sich, Zugangssicherheit und langfristige Archivierung zu verbinden. Im Zusammenhang mit der Beurteilung des Verlustrisikos für den Zugang zu lizenzierter Information (8.4.2) war jedoch sichtbar geworden, dass die Qualität der Archivierungspläne wenig aussagt über die Möglichkeit der Zugangssicherung, und dies gilt auch umgekehrt. Hier besteht tatsächlich kein Widerspruch. Das Gewicht zwischen den beiden Polen Zugang und Archivierung verschiebt sich lediglich, und zwar weitgehend zeitabhängig. Für kurze Zeiträume von 3 oder 5 Jahren ist die Frage von vordringlichem Interesse, wie die erworbenen Rechte unter veränderten Bedingungen weiter wahrgenommen werden können. Zu diesem Zeitpunkt bringt die Gewissheit einer verlässlichen Langzeitarchivierung nüchtern betrachtet noch keinen Vorteil im Hinblick auf den Zugang. Die Zugänglichkeit soll jedoch in der Regel auch über längere Zeiträume erhalten werden können. Spätestens nach fünf Jahren werden erste Komplikationen wirksam, die die Nutzbarkeit der Inhalte beeinträchtigen, selbst wenn diese sich unter der Kontrolle der Bibliotheken befinden sollten (vgl. 3.2). Nach einiger Zeit ist dann der Zugang ohne Massnahmen im Sinne der Archivierung nicht mehr zu gewährleisten: Der Zugang wird abhängig von der Archivierung und die Archivierung wird dadurch erleichtert, dass der Zugang schon in einer früheren Etappe des Speicher- und Erhaltungsprozesses geregelt wurde Rechtliche Gesichtspunkte der Archivierung Es im Wesentlichen drei rechtliche Fragen, die Einfluss auf Sinn, Möglichkeiten und Methoden der Archivierung elektronischer Daten haben. 1. Hat die archivierende Institution das Recht, die betreffenden Daten zu speichern? 2. Hat sie das Recht, berechtigten Nutzerinnen und Nutzern den Zugang zu diesen Daten zu gewähren? Dies kann sich sowohl auf Bibliotheken als auch auf die Endnutzenden beziehen. 3. Hat sie das Recht, auf die Daten technische Methoden anzuwenden, die als nötig angesehen werden, um ihre langfristige Erhaltung zu sichern? Gemeint sind a. Massnahmen, die einen vom Produzenten angebrachten Kopierschutz durchbrechen oder umgehen b. Eingriffe, die technische Veränderungen an den Daten bewirken, die im Sinne der Erhaltung notwendig sind. So führt eine Migration mit dem Ziel der 124

125 Anpassung an aktuelle Formate immer zu einer Veränderung des ursprünglichen Zeichenstroms und mit der Zeit auch zunehmend zu Änderungen an der Form des Inhalts. Die Punkte 1 und 2 sind Gegenstand der Vereinbarungen zwischen Verlag und Bibliotheken, und bereits heute sind in einer Reihe von Lizenzverträgen zumindest grundsätzliche Regelungen verankert, welche Rechte bestehen. Offen sind vor allem technische Details und eventuelle Gebühren für den Transfer von Daten sowie die Zulässigkeit der Wahrnehmung dieser Aufgaben (Speicherung und Bereitstellung) durch Dritte. Punkt 3a hingegen findet zunehmend Eingang in die Urheberrechtsgesetzgebung verschiedener Länder, u. a. auch der Schweiz 15. Zur Zeit wird abgeklärt, inwieweit ein Verbot der Umgehung von Massnahmen des Kopierschutzes oder von Digital Rights Management im allgemeinen die absehbaren Funktionen von Bibliotheken beeinträchtigt. Die Notwendigkeit zu solchen Massnahmen besteht bisher vor allem bei solchen Inhalten, die auf Speichermedien verkauft werden, z.b. Musik und Computerspiele auf CD-ROM etc. Mit den Massnahmen, die unter 3b angesprochen sind, fehlt bisher sowohl auf Seiten der Anbieter als auch in den Bibliotheken praktisch jede Erfahrung. Gängige Lizenzvereinbarungen machen hierzu darum auch keine Angaben. Am nächsten kommt dem noch die vage Erlaubnis, vernünftigerweise notwendige Backup-Kopien anzufertigen und zeitweise Datenspiegelung zu erlauben. Die urheberrechtlichen Rahmenbedingungen sind keineswegs stabil. Wünschenswert wäre es daher, wenn ein System zur Archivierung flexibel genug wäre, um zukünftigen Änderungen in diesem Bereich angepasst zu werden. Leider ist nicht klar, dies in der Praxis umgesetzt werden kann Funktionale Konzepte Es muss nochmals betont werden, dass alle Überlegungen zur Durchführung der Langzeitarchivierung sich auf die heutige Sicht der Dinge stützen müssen, die naturgemäss beschränkt ist. Dies gilt vor allem für alle Fragen der logischen Erhaltung von Inhalten in einem interpretierbaren Zustand. Diese ist sorgfältig zu unterscheiden von der reinen Erhaltung der Reihenfolge von Bits auf einem Speichermedium, für die es in der Tat sichere und überzeugende Lösungen gibt. Dagegen gibt es für die Möglichkeiten der logischen Erhaltung zwar wichtige Anhaltspunkte, welche Methoden mit welcher Wirkung angewandt werden könnten und welche Massnahmen zur Unterstützung notwendig sind (vgl. Kapitel 5). Es ist aber entgegen den mehr oder weniger energischen Äusserungen der Befürworter von Migration, Emulation und anderen technischen Verfahren keineswegs klar, welcher Weg zum Erfolg führen wird. Derartige Aussagen lassen sich am ehesten für spezifische Einzelobjekte oder formate treffen, doch auch dies nur mit erheblicher Vorsicht. Es kann aber nahezu ausgeschlossen werden, dass eine einzelne Methode zum Ziel führen wird. Es besteht also eine Spannung zwischen dem Bedarf an heute anwendbaren praktischen Lösungen und der prinzipiellen Forderung, digitale Objekte in kohärenter, konsistenter, 125

126 authentischer und bezahlbarer Weise 87 langfristig zu überliefern. Vorhersagen über die Lebensdauer von Technologien sind schwierig und weitere Forschung ist nötig, um die Zeitspanne zu verkürzen, die vergeht, bis auf erkannte Archivprobleme neuer Technologien reagiert werden kann. Eine wichtige grundlegende Darstellung der Aufgaben, organisatorischen Fragen und Verantwortlichkeiten rund um digitale Langzeitarchive gibt der Bericht Trusted Digital Repositories: Attributes and Responsibilities von RLG und OCLC (Beagrie, Doerr et al. 2002), der an dieser Stelle nicht im Detail referiert werden soll. Stattdessen werden ab Kapitel mehr oder weniger konkrete funktionale Konzepte und mögliche Arbeitsabläufe vorgestellt. Technische Lösungen stehen nicht im Mittelpunkt, sind aber in jedem Moment sehr präsent Rolle der beteiligten Institutionen Eine Ebene bei der Betrachtung der Archivierung ist die Verteilung von Aufgaben auf verschiedene Institutionen (vgl ). Diese sollte im Idealfall die Stärken der Partner nutzen und auf diesen aufbauen. Schwächen müssen erkannt und ausgeglichen werden. Der Aufbau neuer institutioneller Strukturen ausserhalb der bestehenden Einrichtungen wird in diesem Zusammenhang nicht im Detail diskutiert. Eine völlig eigenständige Dienstleistungseinrichtung ist angesichts der vergleichsweise geringen Grösse der Schweiz nicht zu rechtfertigen und auch inhaltlich nicht wünschenswert: Es ist sinnvoller, die Kräfte der vorhandenen Einrichtungen zu bündeln, die dann umgekehrt von den Erfahrungen der gemeinsamen Anstrengungen profitieren und eigenes Know-how aufbauen können. Bei der Betrachtung internationaler Projekte fällt auf, dass diese in aller Regel eng mit den beteiligten Bibliotheken verbunden sind. Es soll nicht verschwiegen werden, dass dabei Projekte, die klar von einer Einrichtung federführend vorangetrieben werden, raschere Fortschritte machen als solche, bei denen diese Führung zu fehlen scheint. Bei den Vorschlägen für organisatorische Strukturen der E-Archiving Aktivitäten wird zu berücksichtigen sein, dass diese bis Ende 2007 noch im Rahmen des bundesfinanzierten SUK-Projektes stattfinden und danach in eine neue Verantwortung und Finanzierung übergehen müssen. Es wird nicht erwartet, dass bereits heute eine Struktur vorgeschlagen werden kann, die ohne Anpassungen beiden Situationen gerecht wird. Eine gewisse Offenheit im Hinblick auf diese Veränderungen ist wünschenswert Funktionales Modell: Open Archival Information System (OAIS) Als allgemein akzeptiertes funktionales Modell ist das Open Archival Information System (OAIS)zu nennen. Es entstammt Empfehlungen des Consultative Committee for Space Data Systems (CCSDS) ((CCSDS 2002), zusammengefasst in (Lavoie 2004)) und wird trotz dieses Hintergrundes in der Weltraumforschung als geeignetes Modell für alle Arten von Archiven für digitale Information angesehen. Wie bereits in der Übersicht in Abbildung 7 deutlich wird, zielt das Konzept des OAIS darauf ab, den Fluss von Daten in interpretierbarer Form vom Produzenten hin zu einer späteren Nutzung zu gewährleisten. 87 Übersetzt nach Hedstrom, Margaret, Ross, Seamus, et al. (2003). Invest to Save - Report and Recommendations of the NSF-DELOS Working Group on Digital Archiving and Preservation, National Science Foundation's (NSF) Digital Library Initiative & The European Union under the Fifth Framework Programme by the Network of Excellence for Digital Libraries (DELOS): IX+27., S

127 Abbildung 7: Positionierung eines OAIS-konformen Archivs (aus (CCSDS 2002)). Wie bei konventionellen Archiven können den Produzenten der Daten die Bedürfnisse der Benutzerinnen und Benutzer nur ansatzweise bekannt sein, da beide zu ganz verschiedenen Zeiten aktiv sein können, die viele Jahre auseinander liegen. Im OAIS-Modell wird zumindest von einer designated community gesprochen, auf deren Bedarf hin die Archivierung bestimmter Inhalte ausgerichtet wird. Abbildung 8 zeigt, mit welchen Funktionen dennoch die Aufgabe gelöst werden soll. Abbildung 8: Schematische Darstellung des OAIS Modells (schraffierter Kasten) aus (CCSDS 2002). Verbindungslinien (gestrichelt und ungestrichelt markieren Informationsflüsse in beiden Richtungen). Eine grosse Bedeutung kommt dabei dem Konzept des Information Package (IP) zu. Ein Information Package besteht jeweils aus Inhaltsinformation (Content Information, d.h. der eigentliche Inhalt, Metadaten und Information zu seiner Darstellung) sowie beschreibende Informationen zur Erhaltung (Preservation Description Information). Diese umfasst Angaben zu Herkunft und Geschichte eines Objekts (Provenance), zu seiner Beziehung zu anderen Objekten (Context), eine eindeutige Identifikation (Reference) und eine Sicherung gegen unerwünschte Manipulationen am Inhalt (Fixity, z.b. Prüfsumme der Inhaltsinformation etc.). Das Submission Information Package (SIP) ist die Form eines Objektes, die vom Produzenten an das Archiv gegeben wird. Es enthält je nach Vereinbarung nur Teile der Inhaltsinformation und der Information zur Beschreibung der Erhaltung. 127

128 Zur Aufbewahrung ist dagegen das Archival Information Package (AIP) bestimmt, das die vollständigen Angaben zu Inhalt, Darstellung und Beschreibung der Verwaltung enthält. Aus einem SIP können mehrere AIP werden und die gleiche Inhaltsinformation kann in verschiedene AIPs einfliessen. Eine Person, die Information aus dem Archiv abfragt, erhält diese in Form eines Dissemination Package (DIP), das je nach Bedarf und Vereinbarung verschiedene Teile der Information aus dem jeweiligen AIP enthalten kann. Die Information soll für die empfangende Person verständlich sein, ohne dass sie den Produzenten dazu befragen kann. Dem OAIS-Modell ist gelegentlich vorgeworfen worden, dass einige seiner Kernbegriffe unnötigerweise neu sind und nicht gut mit vorhandenen Worten gleichgesetzt werden können. Die einzelnen Bestandteile und Funktionen innerhalb des OAIS sollen daher kurz beschrieben werden. Ingest Dieser Teil nimmt SIPs von den Produzenten entgegen und bereitet Speicherung und Management im Archiv vor. Im Einzelnen sind dies die Entgegennahme des SIP, Qualitätssicherung des SIP, Erzeugung des AIP entsprechend den Standards für Datenformatierung und Dokumentation, Extraktion von beschreibenden Informationen aus den AIPs für die Archivdatenbank und die Koordinierung der Aktualisierungen für Archivspeicherung und Datenmanagement. Archival Storage Hier liegen die Dienste und Funktionen für die Speicherung, Wartung und Suche von AIPs. Diese werden aus dem Ingest entgegengenommen und dem dauerhaften Speicher hinzugefügt. Die Hierarchie der Speicherung ist zu managen sowie ein regelmässiges Auffrischen der gespeicherten Bitfolgen auf ihren Trägern. Hinzu kommen regelmässige und spezielle Fehlerkontrollen und schliesslich die Ausgabe von AIP an das Modul Access. Data Management Dieses Modul sorgt für die Erstellung, Erhaltung und den Zugang zu beschreibender Information, die die Archivbestände identifiziert und dokumentiert. Daneben werden die Verwaltungsdaten für den Betrieb des Archivs gepflegt. Dazu gehören Aktualisierungen der Datenbank mit neuen beschreibenden Informationen oder Archiv-Verwaltungsdaten de Administration Sie umfasst die Dienste und Funktionen für den gesamten Betrieb des Archivsystems. Dazu gehören Vereinbarungen mit Produzenten über die Abgabe von Daten, Überprüfung der Einreichungen, Wartung der Konfigurationen von System- Hard- und Software sowie Funktionen, um den Archivbetrieb zu verfolgen und zu verbessern und den Inhalt des Archivs zu inventarisieren und die Inhalte zu migrieren/zu aktualisieren. Die Festlegung und Pflege von Archivstandards und regeln und die Kundenunterstützung kommen hinzu. Preservation Planning 128

129 Access Konsortium der Schweizer Hochschulbibliotheken Dieser Teil des Archivs überwacht die Umgebung des OAIS und gibt Empfehlungen, um den Inhalt des Archivs auch dann langfristig zugänglich zu erhalten, wenn die ursprüngliche Rechnerumgebung überholt ist. Dazu dienen Bewertungen des Archivinhaltes und Empfehlungen Archivstandards und regeln. Die Überwachung von Veränderungen im technischen Umfeld und beim Bedarf der designierten Nutzerschaft und Wissensbasis sollen die Möglichkeiten hierzu schaffen. Als Werkzeuge sind Template für Information Packages zu erstellen und deren Anpassung zu SIPs und AIPs für spezielle Anforderungen zu unterstützen. Weiterhin sind detaillierte Pläne für Migrationen zu erstellen sowie Software- Prototypen und Testpläne, um die Ziele der Migration zu erreichen. Die Funktionen dieses Teils unterstützen die Nutzerschaft dabei herauszufinden, ob bestimmte Informationen im OAIS existieren, wie ihre Beschreibung lautet, wo sie sich befindet und wie sie verfügbar ist. Die Nutzenden können so Informationsprodukte bestellen und erhalten. Dazu muss mit der Endnutzerschaft kommuniziert werden, es müssen die Zugangsbeschränkungen bei geschützten Informationen beachtet werden, die Ausführung der verschiedenen Bestellungen ist zu koordinieren und Antworten auf Anfragen zusammenzustellen und auszuliefern. Antworten können DIPs, Ergebnislisten oder Berichte sein. Common Services Hier handelt es sich um Funktionen, die zwar zusätzlich zu den oben genannten vorhanden sein müssen, aber aufgrund ihrer Durchdringung des gesamten Systems nicht isoliert angegeben werden. Das OAIS-Modell bleibt notwendigerweise relativ abstrakt. Es ist nicht gedacht als Bauplan für ein Archiv, sondern als Referenz für den Vergleich verschiedener Strategien, Konzepte und Architekturen gegenwärtiger und zukünftiger Archive sowie als Ausgangspunkt für Standardisierungsbemühungen in der Langzeitarchivierung. Interessanterweise wird ausdrücklich erwähnt, dass das Modell auch eine Grundlage bieten kann für eine Übertragung auf die Archivierung nicht-digitaler Informationen Cedars Distributed Digital Archiving Prototype Abgestützt auf das OAIS-Modell wurde im Projekt Cedars (CURL Exemplars in Digital Archives, UK) ein Prototyp für die Funktionsweise eines verteilten digitalen Archivs aufgebaut, mit dem sowohl die praktischen Prozesse als auch die Architektur der Infrastruktur demonstriert wurden (Cedars 2002) 88. Der Prototyp kennt unter anderem fünf verschiedene Stufen der Zugänglichkeit eines AIP innerhalb des Systems in Abhängigkeit von seiner Grösse, Nutzungshäufigkeit und seinem Status innerhalb des Ingest-Prozesses. Zum gesamten Prozess gehören die folgenden Schritte: Selection 88 Cedars Guide to The Distributed Digital Archiving Prototype: 129

130 Pre-Ingest Ingest 130 Auswahl von Objekten für die Langzeitarchivierung. Massnahmen, die zur Vorbereitung auf den eigentlichen Ingest gemäss dem OAIS- Modell nötig sind. Im konkreten Prototyp wird von der einreichenden Person eine E- Mail mit bestimmten Angaben zum Objekt an das System erzeugt. Daraufhin wird eine Identifikation vergeben, die einer URN-Syntax genügt (vgl. Kapitel 4.5.1). Zugleich wird ein Bereich für die eigentliche Abgabe des Objektes erzeugt, in dem bereits Template für die notwendigen Informationen zum Objekt bereitgestellt werden. Wie im OAIS-Modell skizziert werden in diesem Schritt Metadaten erzeugt und das Objekt ins Archiv eingebracht. Konkret wird der abgebenden Person ein URL für einen Bereich gesandt, in den Metadaten und Objekt eingebracht werden können. Archival Storage Access Nach dem Ingest wird ein AIP erzeugt und im Archiv gespeichert und mit einer eindeutigen Identifikation versehen. Zusätzlich werden die Angaben zur Darstellung (Representation Information ergänzt). Wie oben ist die Verbreitung an berechtigte Nutzende gemeint. Dazu gehört auch die Bereitstellung der Werkzeuge zur Wiedergabe der Ressource (Representation Network). Dieser Teil wurde nicht demonstriert. Innerhalb des Representation Network können verschiedenartige Werkzeuge als Knoten eingebunden werden, und zwar Definitionen von Datenformaten (Data Format Definitions, DFD), Werkzeuge zur Wiedergabe, Analyse und Umwandlung (Render/Analyse/Convert Engines, RACE), die entweder eine Migration auf Verlangen ausführen oder sonst Objekte darstellen können sowie Plattformen, die die Ausführung von RACEs erlauben. Die Knoten des Representation Network sollen ihrerseits AIPs sein. Einige ausdrückliche Empfehlungen aus dem Aufbau des Prototyps lauten: Allgemein: Ingest: Ein Archiv soll so gebaut sein, dass es leicht in einen Verbund mehrerer verteilter Archive integriert werden bzw. mit einem solchen Verbund zusammenarbeiten kann. Annahme eines Standards für eindeutige Bezeichnungen der AIPs und die Vergabe und Pflege der Benennung. Archiv und Benutzungsoberfläche sind mit den potentiellen Nutzenden zu testen. Medienunabhängigkeit kann immer erreicht werden und ist immer anzustreben. Vor dem Ingest sind die signifikante Eigenschaften der Objekte zu identifizieren und zu verstehen: Welche Eigenschaften des Objekts sollen erhalten bleiben? Es ist mit der grösstmöglichen Abstraktion der Objekte zu arbeiten, die keine signifikante Information verwirft.

131 Open Source Werkzeuge sind zu benutzen, um die Abfolge der Bits auf eine Darstellung für die Nutzung abzubilden [nach unserem Verständnis sollen mit dieser Formulierung proprietäre Anwendungsprogramme auszuschliessen]. Speicherung im Archiv: Die Langzeitspeicherung sollte vom Zugriff getrennt gehalten werden. Es ist sicherzustellen, dass Archiv- oder Speicher-Lieferanten bestimmte Service- Anforderungen garantieren und einhalten. Ein Formalismus ist zu verwenden, der die AIP selbsterklärend macht. Metadaten sollten für Menschen lesbar sein, wo dies möglich ist. Knoten des Representation Network sollen selbst als einzelne, eindeutig benannte AIPs gespeichert werden. Zugang: Representation Networks bieten eine praktikable Lösung für das Veralten der Technologie [dieser Nachweis fehlt aus unserer Sicht noch]. Es ist sicherzustellen, dass die Werkzeuge, die den intellektuellen Inhalt der AIPs zugänglich machen, erhalten werden. Das Representation Network ist darum zu überwachen [im Sinne von Technology Watch] und zu pflegen. Wo Open Source Software als Darstellungswerkzeug oder anderes semantisches Werkzeug benutz wird, dient sie gleichzeitig als gute Dokumentation der Formatbeschreibung [da die Wechselwirkung von Objekt und offenem Programm nachvollzogen werden kann] NEDLIB - Networked European Deposit Library Die in diesem Gemeinschaftsprojekt einer ganzen Reihe von Europäischen Nationalbibliotheken erarbeiteten Leitlinien (Steenbakkers 2000) und funktionalen Modelle 89 sind etwas in den Hintergrund getreten. Einerseits sind sie inzwischen einige Jahre alt und andererseits besteht in Gestalt des edepot der Königlichen Bibliothek in Den Haag eine Umsetzung in der Praxis, die besser greifbar ist entgegen den Erwartungen ist sie jedoch bisher die einzige geblieben. Das grundsätzliche Modell greift ebenfalls die Vorgaben des OAIS-Modells auf, und hat zu diesem zusätzlich die Funktion der eigentlichen Langzeitarchivierung (Preservation Management, siehe Abbildung 8) beigetragen. Das Modell bleibt interessant ebenso wie einige bedenkenswerte Empfehlungen und Mahnungen (Steenbakkers 2000): Die Probleme sollten durch die Bibliotheken so definiert werden, dass sie von Anbietern aus dem ICT-Sektor mit dem Entwurf und der Umsetzung praktischer Lösungen beantwortet werden können. Eine zu grosse Betonung der technischen Komplexität der Aufgabe führt zu Diskussionen, die praktische Massnahmen lange hinauszögern. Als Ermutigung wird etwa darauf verwiesen, dass auch für gedruckte Medien keineswegs eine alles umfassende Lösung für eine ewige Erhaltung besteht, dass es aber dennoch 89 NEDLIB - Networked European Deposit Library: 131

132 gelungen ist, umfangreiche Sammlungen über lange Zeit mit angemessenen Massnahmen zu erhalten. In diesem pragmatischen Sinne soll möglichst früh gehandelt werden, um Erfahrungen zu sammeln. Ein Archivsystem sollte selbständig sein mit geeigneten Schnittstellen zum jeweiligen integrierten Bibliothekssystem, jedoch unabhängig davon. Die Kapazität eines Archivspeichers sollte kontinuierlich erweitert werden können. Authentizität ist ein wichtiger Punkt, sie ist aber vermutlich für unterschiedliche Arten von digitalen Objekten unterschiedlich zu definieren und muss pragmatisch betrachtet werden. Es wird daran erinnert, dass die Authentizität eines Mikrofilms einer Zeitung nicht in Zweifel gezogen wird, obwohl sie theoretisch nicht garantiert werden kann. Ein pro-aktiver Ansatz ist nötig, um Daten und ihre Decodierung und Lesbarkeit zu sichern. Bereits kurzfristig werden Speicher benötigt. Keep matters simple : Das Archivsystem muss nicht alle erdenklichen Funktionen innerhalb der digitalen Bibliothek erfüllen. Dies erhöht seine Komplexität unnötig, zumal integrierte Bibliothekssysteme in der Regel bereits vorhanden sind. Archiv und Bibliothekssystem entwickeln sich voraussichtlich mit unterschiedlicher Dynamik, weil sie andere Ansprüche erfüllen müssen. Sie sollten darum nebeneinander funktionieren. Dennoch ist eine Integration in die ICT-Umgebung der Bibliothek oder des Archivs wichtig, und den Schnittstellen kommt besondere Bedeutung zu. Nur ein weitestgehend automatischer Betrieb kann die Aufgaben der grossen Archivbibliotheken bewältigen NDIIPP Preliminary Architecture Proposal Eine immer noch abstrakte Sicht gibt der vorläufige Vorschlag einer Systemarchitektur (Shirky 2002) (aktualisiert zu Version 0.2 (2003)) im Rahmen von NDIIPP (National Digital Information Infrastructure and Preservation Program 90, USA). Er zielt jedoch stärker als das OAIS-Modell darauf ab, Leitlinien für die tatsächliche technische Entwicklung vorzugeben. Er ist zu sehen im Hinblick auf eine umfassende nationale Infrastruktur, so dass nicht alles unmittelbar übertragbar ist. Zu den grundlegenden Annahmen zählt, dass eine Infrastruktur für die digitale Erhaltung sich mit der Zeit entwickeln muss und nie fertig sein kann, da sie die laufenden Veränderungen bei Technik und Formaten nachvollziehen muss. Weitere Annahmen beziehen sich auf das Umfeld des Programms. So soll es auf vorhandene Entwicklungsleistungen zurückgreifen und die Infrastruktur soll so gestaltet sein, dass es möglich ist, Bestehendes zu integrieren. Weiterhin muss sie insgesamt so flexibel sein, dass sie den sich wandelnden Randbedingungen angepasst werden kann, z.b. Veränderungen bei rechtlichen, kulturellen und wirtschaftlichen Normen. 90 National Digital Information Infrastructure and Preservation Program (NDIIPP), Library of Congress, USA: (Zugriff am ) 132

133 Weiter Grundannahmen betreffen die technischen Anforderungen: 1. Modularität Konsortium der Schweizer Hochschulbibliotheken Ein modularer Aufbau der Infrastruktur erlaubt es, diese Stück für Stück und mit der Zeit auf- und auszubauen, und zwar aus Komponenten von verschiedenen Anbietern, die wiederum Stück für Stück weiterentwickelt und ersetzt werden können. Als Beispiel wird das Internet angegeben: Das Internet besteht weiter, auch wenn kein Rechner mehr daran angeschlossen sein sollte, der bei seinem Aufbau dabei war. 2. Minimale Anforderungen für jede Schicht definieren Da ein modularer Aufbau schnell eine hohe Komplexität erzeugen kann, können seine Vorteile nur genutzt werden, wenn die Beziehungen zwischen den Komponenten so einfach sind, dass sie von verschiedenartigen Teilnehmern gebaut, getestet und unterhalten werden können. Konkret müssen darum die Protokolle, die die Kommunikation der Komponenten regeln, sehr einfach gestaltet sein. Dies lässt den Teilnehmern bei Bedarf die Möglichkeit für komplexere Lösungen offen. 3. Heterogenität Über die Modularität hinaus wird gefordert, dass die Infrastruktur eine grosse Vielfalt von Hard- und Software zulässt. Damit wird eine einseitige Abhängigkeit von einem Lieferanten vermieden und eine gewisse Sicherheit geschaffen, dass ein unentdeckter Programmfehler nicht die ganze Struktur bedrohen kann. 4. Keine Optimierung auf einen bestimmten Zustand Es wird erwartet, dass sich die Infrastruktur über lange Zeit entwickeln wird und Ergänzungen und Änderungen erfährt. Sie wird mit einer Stadt verglichen, die nicht fertig werden kann. Eine Optimierung auf den Zustand zu einem bestimmten Zeitpunkt wäre somit in jedem Fall verfrüht und könnte Hindernisse für den nächsen Entwicklungsschritt erzeugen. 5. Ziel: Überstehen einer ersten Migration Die Infrastruktur muss mehrfach Migrationen überstehen, womit in diesem Fall ein kompletter Austausch aller Teile der Struktur gemeint ist, die dennoch weiter funktionieren muss. Als Indikator für diese Überlebensfähigkeit über mehrere Migrationen hinweg wird die Fähigkeit betrachtet, die erste dieser Migrationen heil zu überstehen. In gewisser Weise ist diese Forderung ein anderer Ausdruck der Forderung nach Modularität. Nach der Vernehmlassung und Aktualisierung gilt neu grosse Aufmerksamkeit der Frage, wie bestehende Systeme auf die Architektur der Infrastruktur abgebildet werden können. Darum müssen die minimalen Funktionen definiert werden, die für die digitale Erhaltung nötig sind. Die Architektur von NDIIPP ist insofern nicht als Ersatz für bestehende Installationen zu sehen, sondern als ein Satz von Minimalforderungen, der es erlaubt, reale Lösungen zu bewerten und zu vergleichen. Funktionen, die nur für einzelne Anwendungen von Interesse sind, werden nicht spezifiziert. Es soll möglich sein, bereits frühzeitig aus bestehenden Initiativen und Projekten ein leichtes föderatives System zu bündeln (Near-term Federation). Darum werden neu 133

134 Schnittstellen gefordert, die den Import ganzer Sammlungen zulassen und die es ausserdem ermöglichen, dass eine Institution verschiedene Funktionen ausüben kann. Die eigentliche Architektur sieht einen Aufbau aus neu nur noch drei Lagen vor, die jeweils bestimmte Funktionen wahrnehmen und Schnittstellen mit den Lagen darüber und darunter besitzen. Dieser Aufbau soll die erwähnte Modularität und Heterogenität ermöglichen und es ausserdem zulassen, dass die Erhaltung des digitalen Materials getrennt von den Fragen des öffentlichen Zugangs behandelt werden kann. Abbildung 9: Diagramm der NDIIPP-Architektur (2003). Die Kästen in der Mitte umfassen die Funktionen einer oder mehrerer Institutionen, die mit der langfristigen Erhaltung betraut sind. Von der linken Seite her gelangen Objekt in das Archiv, auf der rechten Seite werden sie bei Bedarf an andere Institutionen weitergegeben zusammen mit Metadaten, die auch nachträglich erweitert werden können (symbolisiert durch den gestrichelten Rahmen). Die eigentliche Nutzung muss durch die Upper Layer hindurch angefragt und durch die tieferen Lagen vermittelt werden. 134

135 1. Untere Schicht (Bottom Layer) Die unterste Lage der Architektur umfasst die Funktionen Speicherung, Verifizierung und Auffinden von digitalen Objekten. Entgegen einem früheren Entwurf wird es als unvermeidlich angesehen, den Objekten bereits auf dieser Ebene bestimmte Metadaten beizufügen, die mit der Zeit angereichert werden können. Jedes Objekt muss mindestens über eine eindeutige Identifikation verfügen. Wenn aus der nächsthöheren Lage ein Aufruf dieser Identifkation (ID) kommt, muss das Repository die erforderliche Aktion mit dem zugehörigen Objekt ausführen. Obwohl verschiedene Funktionen in dieser Schicht zusammengefasst sind, brauchen sie nicht gemeinsam eine technische Einheit zu bilden. So können Objekte und Metadaten verteilt gespeichert sein. Die Auflösung von Bezügen (Pointers) zu IDs kann darum über verschiedene Umleitungen führen. Aus Sicherheitsgründen sollen Repositorien dumm sein und nicht direkt von aussen zugänglich. Für spezielle Zwecke sind Repositorien ohne Netzwerkverbindung denkbar. Sie können Bibliotheken, Verlagen oder Dritten gehören. Gewisse Aktionen wie Versionierung, Prüfsummenvergabe etc. können im Repository ausgeführt werden. Dies ist aber nicht zwingend nötig. 2. Mittlere Schicht (Middle Layer) Diese Lage umfasst die fünf funktionalen Kategorien Ingest: Vgl Pointer Management: Erzeugung und Registrierung von Verweisen auf Objekte in der unteren Schicht. Metadata Management: Erzeugung und Verwaltung von Metadaten zu den gespeicherten Objekten. Metadaten müssen soviel Details wie möglich enthalten oder auf sie verweisen, die für die Benutzung und Interpretation des Objektes nötig sein könnten (Dateiformate, Bedingungen der Erstellung, Software für die Wiedergabe etc.). Life-cycle Management: Alle Massnahmen, die der digitalen Erhaltung im engeren Sinne dienen, d.h. Refreshing, physische und logische Migration, Dokumentation von Emulationsstrategien für die Wiedergabe, Export von Objekten auch zur Übergabe von Metadaten und Archivverantwortung. Views: An dieser Stelle wird der Zugang zu den Objekten kontrolliert und gemäss den jeweils geltenden Regeln gefiltert. Die verschiedenen Kategorien können bei Bedarf auf einem Rechner zusammen mit jenen der oberen und unteren Schicht gekoppelt werden, und es steht Institutionen frei, weitere Funktionen vorzusehen. Die hier genannten Kategorien sind miteinander aber so eng verbunden, dass es schwierig wäre sie zu trennen. Bei einem höheren Grad der Detaillierung treten ausserdem die Unterschiede verschiedener Konzepte und Schemata zu Tage. 3. Obere Lage (Upper Layer) 135

136 Diese Lage umfasst den Zugang von Personen und Institutionen zu Daten oder Metadaten durch die Views -Funktion der mittleren Lage hindurch. Dies betrifft sowohl den internen Zugriff der Systembetreiber als auch den externen Zugriff potentieller Nutzerinnen und Nutzer. Eine wichtige Rolle kommt bei einem so strukturierten System den Verbindungen und Protokollen zu. Im Vorschlag wird Wert darauf gelegt, dass Protokolle und keine APIs (Application Programming Interface) definiert werden: APIs machen Vorgaben für die Anbindung an ganz bestimmte Soft- oder Hardware, während Protokolle unabhängig von konkreten Programmen definieren, wie zwei Software-Komponenten miteinander zu kommunizieren haben. Dies erlaubt den Aufbau und die Anpassung der einzelnen Komponenten ohne das Eingreifen einer zentralen Instanz und ohne intensive Absprachen der Teilnehmer untereinander. Zwingend ist eine maximale Abwärtskompatibilität, wenn Veränderungen an den Protokollen vorgenommen werden. Dynamisches Material ist in der vorgeschlagenen Architektur nicht berücksichtigt, sondern nur digitale Objekte, von denen eine stabile Form vorliegt, die archiviert werden kann. Es könnte der Eindruck entstehen, die langfristige Erhaltung würde in diesem Konzept zu kurz kommen. Der Grund ist, dass sie nicht explizit einem Teil der Infrastruktur zugewiesen wird, sondern dass es die Infrastruktur als Ganzes mit ihren Institutionen ist, die die Erhaltung gewährleistet ( hardware stores, but institutions preserve, (Shirky 2002), S. 248). Als Hilfsmittel dazu dient die Zertifizierung der Einrichtungen. Diese ermöglicht dann die folgende Aussage: Digitales Material wird als langfristig erhalten betrachtet, wenn es in einem zertifizierten Repository gespeichert ist, ein zertifizierter Gateway darauf zugreift und es in einer zertifizierten Collection nachgewiesen ist. Dieser Ansatz hinterlässt zunächst einen unbefriedigenden Eindruck, da er zum jetzigen Zeitpunkt keine inhaltlichen Kriterien vorgibt. Im gegenwärtigen Stadium der Entwicklung ist er aber konsequent. Wie auch in der vorliegenden Arbeit mehrfach betont wird, ist die Erhaltung digitalen Materials keine Aufgabe, die mit technischen Mitteln allein gelöst werden kann. So wird auch darauf hingewiesen, dass die Hauptkosten nicht als einmalige Anfangsinvestition in Hardware anfallen, sondern als laufende Ausgaben für Personal, das die Erhaltung sicherstellt. Offen bleiben in diesem Fall alle Fragen nach Funktionen einzelner Einrichtungen usw. Empfohlen wird eine weitgehend getrennte Betrachtung der Fragen von Erhaltung und Zugang bzw. Präsentation ((Shirky 2002), S 247 und 249). Eine bedenkenswerte Mahnung hinsichtlich der zu erwartenden Kosten findet sich ebenfalls ((Shirky 2002), S. 250): Storage is cheap; preservation is expensive; security is potentially very expensive. Bei aller Vorsicht überrascht diese Gewichtung, da sich nach unserem Verständnis Sicherheitsmassnahmen (abgesehen von Prüfsummen etc.) im Wesentlichen auf das Speichersystem als Ganzes beziehen müssen, während Erhaltungsmassnahmen jedem einzelnen Objekt gerecht werden müssen. Ohne Frage werden jedoch Sicherheitsmassnahmen einen breiteren Raum einnehmen, als Bibliotheken dies bisher von der Archivierung von analogem Material gewohnt sind: Zu den physischen Bedrohungen kommen neue hinzu, die aus der leichten Manipulierbarkeit der Objekte erwachsen (vgl. 4.3). Realistisch ist wohl die Erwartung, dass absolute Sicherheit sehr teuer wird, sofern sie überhaupt erreicht werden kann. 136

137 University of California Konsortium der Schweizer Hochschulbibliotheken Ein weiterer konzeptionell interessanter Ansatz ist das Distributed Collection Model (DCM), das für die Bibliotheken der University of California entworfen wurde (Schottlaender 2004). Er soll kurz vorgestellt werden, weil der Ausgangspunkt in diesem Fall die koordinierte Beschaffung und Aufbewahrung von physischen Medien ist, die im Rahmen der vorliegenden Studie ebenfalls von Interesse ist. Für diese Medien gibt es an der University of California seit langem ein Programm der koordinierten Erwerbung (Shared Collections and Access Program, SCAP), das später ergänzt wurde um gemeinsame Datenbanklizenzen. Für gedruckte Medien gibt es seit über zwanzig Jahren ein gemeinschaftliches Programm zur Bestandeserhaltung. Zu den Zielen gehört einerseits die Optimierung der Bestandespflege vor Ort, explizit z.b. der Verzicht auf den Bezug oder die Archivierung gedruckter Exemplare, wenn ein Online- Zugang besteht. Dies bedingt den Zugang zu Ressourcen im gesamten Bibliothekssystem sowie die Planung und Durchführung einer verlässlichen und kostengünstigen Erhaltung der gedruckten und digitalen Sammlungen. Als eigenständiges Ziel wird die Verbesserung der Verfahren für eine wirksame gemeinschaftliche Verwaltung der Bestände in einer hybriden Druck- und digitalen Informationsumgebung genannt. Im Distributed Collection Model werden drei verschiedene Service Layers vorgeschlagen, die sich im Ausmass der lokalen Kontrolle, der anzubietenden Dienste, der Zugänglichkeit und der Archivsicherheit unterscheiden. In der Primary Service Layer ( bright ) liegen Exemplare von gedruckten oder digitalen Dokumenten je nach Bedarf an verschiedenen Standorten in lokalen Bibliotheken vor. Auf dieser Ebene wären alle Dienstleistungen von Auswahl bis zu Ausleihe und Dokumenten lieferung auszuführen. In der Secondary Service Layer ( dim ) ist die Redundanz der Exemplare reduziert, und auch nicht alle Medien werden in diese Schicht übernommen. Konkret würde es sich um die Bestände handeln, die in zwei regionalen Depots aufgestellt werden. Auf dieser Ebene dominieren Aufbewahrung und Dokumentenlieferung. In der Tertiary Service Layer ( dark ) ist jedes Medium nur noch in einem Exemplar vorhanden. Diese Lage stellt nur Archivierung, Aufbewahrung und Dokumentenlieferung bereit. Es handelt sich um ein konzeptionelles Modell, und es wird betont, dass es kein Hindernis gibt, die verschiedenen Dienstleistungsschichten durch eine Einrichtung bereitzustellen Szenarien für Aufgabenverteilung und Verantwortlichkeiten Die gegenwärtige Studie zielt nicht darauf ab, aus den verschiedenen technischen Ansätzen von Verfahren für die Erhaltung der Benutzbarkeit digitaler Daten (vgl. 5) einen auszuwählen, der von den Schweizer Hochschulbibliotheken umgesetzt werden sollte. Dies ist immer noch nicht möglich. Es geht vielmehr darum, geeignete Strukturen und Vorgehensweisen zu skizzieren, um die jeweils benötigte technische Methode schliesslich sinnvoll zur Anwendung bringen zu können. Zu einem guten Teil ist das Ziel dieser vorbereitenden Massnahmen, Zeit zu gewinnen für das bessere Verständnis der technischen Prozesse, die sich in Entwicklung befinden. So können die Chancen verbessert werden, dass ihre spätere Anwendung den 137

138 gewünschten Erfolg haben wird. Das Zwischenziel, erst einmal Zeit zu gewinnen für die weitere Entwicklung wird international bei Projekten zum E-Archiving immer wieder genannt, weil längst klar ist, dass keiner der bisher diskutierten Ansätze wirklich ausreichend weit entwickelt ist und keiner von ihnen allein zum Erfolg führen wird. Gleichzeitig ist anzustreben, dass die archivierende Institution über das Potential verfügt oder dieses aufbauen kann, zu gegebener Zeit die notwendigen technischen Aufgaben zu bewältigen. Die Varianten, die für die langfristige Sicherung von elektronischen Inhalten diskutiert werden, weisen zahlreiche Berührungspunkte zu jenen Konzepten auf, die uns bereits bei der Sicherung des Zugangs zu erworbenen Inhalten begegnet sind (vgl. 8.5). Es rücken aber mit den Nationalbibliotheken wie der Schweizerischen Landesbibliothek zusätzliche Akteure und Partner ins Blickfeld Archivierung in der Verantwortung des Anbieters Es liegt eine gewisse Logik darin, dass die Anbieter von kommerziell verbreiteten Inhalten ein existentielles Interesse daran haben müssten, die von ihnen produzierten und bereitgestellten Inhalte auf Dauer in einem Zustand zu erhalten, der die Nutzung und kommerzielle Verwertung erlaubt und Möglichkeiten zur weiteren Nachnutzung offen lässt. Auf Dauer kann und muss jedoch für ein Wirtschaftsunternehmen wie einen Verlag eine andere Grössenordnung bezeichnen als für Bibliotheken, die als Hüter der wissenschaftlichen Aufzeichnung ihre Aufgabe jenseits kurzfristiger Interessen wahrnehmen müssen, um die wissenschaftliche Forschung und Lehre langfristig wirkungsvoll unterstützen zu können. Bereits bei traditionellen Medien hat die Erfahrung allerdings gezeigt, dass das Interesse insbesondere von kommerziellen Verlagen an dieser Aufgabe der Archivierung nach einer gewissen Zeit erlahmt, und zwar üblicherweise dann, wenn die Ertragschancen aus bestimmten Inhalten eine gewisse Grenze unterschreiten. Bezogen auf die elektronische Archivierung ist sogar ein grösserer Aufwand zu erwarten, als dies für analoge Medien der Fall war: Höhere Kosten und ein grundsätzlich intensiveres Engagement sind erforderlich. Dies kann bedeuten, dass das Verhältnis von Aufwand zu Ertrag sogar zu einem früheren Zeitpunkt ungünstig wird. Dennoch haben Verlage ein Interesse daran, die Zuverlässigkeit ihrer Archivierungsbemühungen und partner zu belegen, da sie diese als Argumente im Wettbewerb benutzen, um besorgte Autoren, Wissenschaftler und Bibliotheken zu beruhigen. Es gibt trotzdem Zweifel daran, ob sie der Archivierung der wissenschaftlichen Aufzeichnung (scientific record) die gleiche Bedeutung beimessen wie dies wissenschaftliche Bibliotheken lange getan haben und im Interesse zukünftiger wissenschaftlicher Arbeit und Erkenntnis weiterhin tun müssen (Lavoie 2003). Dem Mangel versuchen vor allem grosse Verlage dadurch abzuhelfen, dass sie sich Partner in Gestalt der jeweiligen Nationalbibliothek suchen bzw. eng mit aktiven Nationalbibliotheken zusammenarbeiten. Dies geschieht auch dort, wo eine Abgabepflicht für elektronische Publikationen nicht oder noch nicht besteht. Sogar diese Bereitschaft von Verlagen, ihre Inhalte durch Dritte archivieren zu lassen, hat in dieser Hinsicht mindestens zwei Seiten: Einerseits ist es zu begrüssen, dass Verlage sich in solche Lösungen einbinden lassen, die durch ihre breite Basis eine qualitativ hochwertige Leistung mit guter Akzeptanz versprechen und Synergien nutzen können. Andererseits ist davon auszugehen, dass sich einige Verlage 138

139 hier einer unliebsamen Aufgabe entziehen und sie öffentlichen Einrichtungen überlassen: Die Nationalbibliotheken können sich dem kaum entziehen, obwohl die Konsequenzen noch viel zu wenig bekannt sind. Interessant ist in diesem Zusammenhang der Vorschlag, die Kosten der Archivierung bereits in die Publikationskette einzubauen (Steenbakkers 2004). In Zeiten ohnehin schon stark gestiegener Zeitschriftenpreise ist dies allerdings ein unpopulärer Vorschlag, zumal nur sehr wenig darüber bekannt ist, um welche Kosten genau es sich handeln würde. Die Archivierung durch den Verlag allein bietet aus unserer Sicht jedenfalls keine ausreichende Gewähr dafür, dass die Inhalte langfristig erhalten und benutzbar bleiben. Es ist aber zu wünschen, dass Verlage die Archivierung durch andere Institutionen fördern und im Rahmen ihrer Möglichkeiten unterstützen Archivierung durch die Hochschulbibliotheken Es scheint auf den ersten Blick konsequent zu sein, dass Hochschulbibliotheken, die traditionelle Publikationen erfolgreich über sehr lange Zeit aufbewahren und erhalten, eine ähnliche Funktion auch für elektronische Daten anstreben. Digitale Objekte zeigen jedoch ein völlig anderes Verhalten als analoge Objekte: Sie können ihre Bedeutung weitgehend unbemerkt einbüssen und dies im Prinzip von einem Tag auf den anderen (vgl ). Daraus ergibt sich auch die veränderte Qualität der Aufgabenstellung: Statt der Archivierung im Sinne einer über lange Zeiträume passiven Aufbewahrung sind aktiv geführte Abläufe gefragt, die es erlauben, durch periodische Kontrollen und Eingriffe sicherzustellen, dass bevorstehende Probleme mit der Lesbarkeit und Interpretierbarkeit digitaler Objekte (vgl ) frühzeitig erkannt und umgangen oder vermieden werden können. Hier liegt eine erhebliche Herausforderung an Arbeitsabläufe, Technik und Logistik. Moderne Hochschulbibliotheken bewältigen im täglichen Betrieb informationstechnische Aufgaben von erheblicher Komplexität und mit hohen Ansprüchen an die Verfügbarkeit. Es gibt keinen prinzipiellen Grund, warum Bibliotheken mit den entsprechenden Ressourcen nicht auch ein Archivierungssystem unterhalten könnten. Die reinen Datenmengen, mit denen umgegangen werden muss, zwingen in jedem Fall zu einer technischen Zusammenarbeit mit Hochschulrechenzentren. Es wird hier ein Punkt erreicht, an dem die Auseinandersetzung der Hochschulbibliotheken mit Inhalten übergeht in eine vorrangig technische Aufgabenstellung. Natürlich soll die technische Leistung im Dienste der inhaltlichen Aufgabe der Bibliotheken erfolgen. Es ist aber fraglich, ob es wirklich inhaltlich und wirtschaftlich sinnvoll ist, die massiven Ressourcen, die benötigt werden, bei den Hochschulbibliotheken anzusiedeln. Es sind darum Partnerschaften zu prüfen, die den Bibliotheken eine ausreichende Kontrolle über ihre Inhalte belassen, ohne sie allein mit dem vollen Aufwand des technischen Unterhaltes zu belasten. Dieser Aufwand muss beim Vergleich mit den zeitlichen, finanziellen und personellen Aufwendungen für das Archivsystem der Königlichen Bibliothek in Den Haag mit Sorge betrachtet werden. Auch dieses System bietet bisher vor allem den auf dem OAIS-Modell basierenden Rahmen für die langfristige Erhaltung. Technische Erhaltungsmassnahmen befinden sich erst in der Entwicklung (Wijngaarden and Oltmans 2004). Nach unseren Informationen werden in Den Haag sechs bis sieben Stellen für die laufende Verarbeitung und den Betrieb und weitere drei Stellen für die Entwicklung veranschlagt. 139

140 Selbstverständlich sind die finanziellen Konsequenzen eines vergleichbaren Engagements heute noch schwer abzuschätzen, und das allein zwingt zur Vorsicht. Es ist davon auszugehen, dass nur wenige grosse oder spezialisierte Bibliotheken in dieser Weise aktiv werden können und wollen. Für diese ergibt sich damit die Gelegenheit, sich auf einem Gebiet zu profilieren, das an Bedeutung und Sichtbarkeit zunimmt. Der Gewinn an Kompetenz, der sich hier erreichen lässt, könnte es trotz erheblichen Aufwandes attraktiv machen, diesen Weg zu beschreiten mit den oben angegebenen Vorbehalten zur rein technischen Durchführung im grossen Massstab. Der entscheidende Vorteil einer Archivierung durch die Hochschulbibliotheken selber wäre die Möglichkeit zur unkomplizierten Fortsetzung des Zugriffs. Ziel der Archivierung ist es schliesslich, dass die Inhalte als Aufzeichnung wissenschaftlicher Erkenntnisse mit dem Ziele einer späteren Nutzung erhalten werden. Der Übergang an eine andere Einrichtung würde zumindest die Fortschreibung der anerkannten Nutzungsberechtigungen komplizieren. In den Nationalbibliotheken steht der Nutzungsaspekt aus heutiger Sicht sogar eher im Hintergrund (vgl ). Eine Archivierung durch die Hochschulbibliothek selbst, die bestimmte Inhalte erworben hat, würde die zusätzliche formale Komplikation ersparen, dass Inhalte zum Zwecke der Archivierung an Einrichtungen weitergegeben werden müssten, die selber kein Nutzungsrecht an diesen Inhalten besitzen. Es ist allerdings zu hoffen, dass es am Ende nicht Faktoren wie dieser sind, die eine Entscheidung erzwingen. Schliesslich ist es ohne weiteres möglich, den Zugriff auf die Inhalte soweit einzuschränken, dass nur noch die mit der Archivierung beauftragten Mitarbeiter einer Einrichtung sowie die berechtigten Nutzerinnen und Nutzer in anderen Institutionen zugreifen könnten. Die gleiche Frage stellt sich übrigens auch bei jeder anderen Variante, die eine Übergabe an eine andere Institution vorsieht, die den jeweiligen Inhalt nicht selbst erworben hat. Weiterhin ist zu prüfen, ob die Archivierung durch die Bibliotheken oder durch Partnereinrichtungen überhaupt möglich ist für diejenigen Inhalte, bei denen es vorgezogen wurde, zu angemessenen Bedingungen beim Verlag zuzugreifen. In einigen Fällen kann das Recht auf eine lokale Installation normalerweise nur alternativ zur Weiternutzung beim Verlag in Anspruch genommen werden. Es gibt gute Gründe, warum Hochschulbibliotheken sich möglicherweise dennoch nicht mit ganz eigenständigen Installationen für die Langzeitarchivierung engagieren sollten. So setzt die langfristige Erhaltung die unter genannten Aufwendungen für den lokalen Zugriff bereits voraus, und es muss mit massiven weiteren laufenden Kosten gerechnet werden. Dies gilt auch, wenn keine grundlegende Entwicklungsarbeit mehr geleistet werden muss. Es könnte aber sehr wohl noch eine Notwendigkeit für solche Entwicklungen und Anpassungen bestehen, wie sich am Beispiel des am weitesten fortgeschrittenen Archivsystems der Königlichen Bibliothek DIAS 91 zeigt, auf dem das edepot 92 basiert. Dieses System ist mit erheblichem Aufwand klar monolithisch konzipiert worden für eine zentrale Installation. Wie mehrfach signalisiert wurde, wird eine solche zentralisierte Lösung von den Schweizer Hochschulbibliotheken nicht gewünscht. Vermutlich aus ähnlichen Gründen besteht auch in 91 DIAS: Digital Information Archiving System; erarbeitet von der Königlichen Bibliothek in Den Haag in Zusammenarbeit mit IBM. 92 edepot, Koninklijke Bibliotheek, Den Haag: (Zugriff ) 140

141 Deutschland ein Unbehagen, diese Lösung direkt zu übernehmen. Aus diesem Grunde wurde ein Projekt begonnen, um auf der Basis des niederländischen Systems eine Lösung zu erstellen, die einen verteilten Betrieb ermöglicht. Die Deutsche Bibliothek (DDB), die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) und die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG) arbeiten gemeinsam mit der Firma IBM an diesem Projekt mit dem Namen KOPAL 93. In Deutschland ist ebenfalls erkannt worden, dass es für die international publizierte wissenschaftliche Literatur des Engagements der Hochschulbibliotheken bedarf. Namentlich Sondersammelgebietsbibliotheken wie die Technische Informationsbibliothek (TIB) in Hannover unternehmen hier Aktivitäten. Auch hier wird ein Unterschied gesehen zwischen der fortgesetzten Bereitstellung durch die Hochschulbibliothek und die Langzeitarchivierung nach Konzepten, die im Rahmen des Projektes nestor 94 erarbeitet werden Archivierung durch Nationalbibliotheken Ausgehend von der traditionellen Aufgabe der Nationalbibliotheken wurde bisher in der Regel angenommen, dass jede dieser Bibliotheken auch bei den elektronischen Publikationen mehr oder weniger ausschliesslich jene Dokumente sammeln würde, die den klassischen Kriterien publiziert im Land, über das Land, von Landsleuten im Ausland entsprechen. Für Online-Publikationen wird dieses Prinzip gelegentlich in Frage gestellt, allerdings bisher ohne wirklich zwingende Begründung (siehe z.b. (Steenbakkers 2004)). Die Tatsache, dass z.b. Internetseiten mit relevanten Inhalten in ganz anderen Länder-Domänen auftauchen können, setzt im Grunde nur die bisherigen Erfahrungen bei der Beschaffung traditioneller Medien fort. Die Schwierigkeit, bei bestimmten Internetseiten eine nationale Zuordnung festzulegen, ändert nichts daran, dass Verlagspublikationen, die im Zentrum des Interesses von Hochschulbibliotheken stehen, weiterhin klar einer zuständigen Nationalbibliothek zugeordnet werden können. Folgerichtig sehen sich die meisten Nationalbibliotheken mit der Aufgabe konfrontiert, diese elektronischen Verlagspublikationen zu erfassen und zu erhalten. Mehr oder weniger schnell werden die Sammelaufträge der Nationalbibliotheken entsprechend angepasst werden. Für die Schweizerische Landesbibliothek ist dies mit der Verordnung vom 14. Januar 1998 bereits geschehen. Eine gesetzliche Abgabepflicht ist aber nur in wenigen Ländern in Kraft oder im Gesetzgebungsverfahren 95. Weitere Länder wie die Schweiz oder die Niederlande arbeiten mit freiwilligen Vereinbarungen. Obwohl die Aufgabe im Grundsatz anerkannt und wenig umstritten ist, befinden sich fast alle Aktivitäten noch im Projektstadium, häufig in Form einer Zusammenarbeit mit interessierten Verlagen. Es wird mittelfristig nicht erwartet, dass sich das Sammelspektrum bei elektronischen Daten auf solche Inhalte ausdehnt, die als Verlagsveröffentlichungen klar einem anderen Herkunftsland zugeordnet werden können. Die bekannten Aktivitäten der Königlichen Bibliothek der Niederlande werden als Ausnahme gesehen. Neben den niederländischen Verlags(gruppen) Elsevier und Kluwer werden inzwischen auch Inhalte von ausländischen Anbietern wie BioMed Central und Taylor & Francis gespeichert. 93 KOPAL: Kooperativer Aufbau eines Langzeitarchivs Digitaler Informationen 94 nestor (Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen in Deutschland): 95 nennt im November 2004 nur sechs Länder. 141

142 Nationalbibliotheken, die mit Zeitschriftenverlagen zusammenarbeiten, um deren Inhalte für die Nachwelt zu archivieren, müssen zumeist weitgehende Zugeständnisse machen, die die Nutzbarkeit der archivierten Inhalte stark einschränken. Die Philosophie dahinter ist die einer komplementären Erhaltung: Solange der Verlag den Zugang zu seinen Inhalten selber vermitteln, also verkaufen kann, solange gewährt die jeweilige Nationalbibliothek den Zugang nur vor Ort in ihren Gebäuden (Steenbakkers 2004). Erst bei einem längerfristigen oder vollständigen Ausfall des Verlagsangebotes wird der Zugang über die Bibliothek gewährt. Derartige Regelungen sind bereits aus prinzipiellen Erwägungen heraus kritisiert worden: Da die Inhalte eines solchen dunklen Archivs 96 der Benutzung entzogen sind, fehlt eine regelmässige zufällige Kontrolle der Unversehrtheit der Inhalte durch eine aktive Benutzerschaft. Sie kann durch technische Tests nur zum Teil ersetzt werden. In einer britischen Studie wurde darauf hingewiesen, dass es Unterschiede gibt zwischen Diensten, die darauf abzielen, zahlenden Abonnenten den dauerhaften Zugang auf die von ihnen erworbenen Lizenzen zu sichern und der Rolle von Pflichtexemplarbibliotheken, die sich des publizierten nationalen Erbes annehmen (Jones 2003). Für die Hochschulbibliotheken sind die Regelungen eines solchen dunklen Archivs im Hinblick auf die Nutzung ohnehin nicht zu akzeptieren. Diese Vereinbarungen entlassen einerseits Verlage aus ihrer Verpflichtung, sich selbst aktiv um die Erhaltung ihrer Inhalte zu bemühen. Andererseits helfen sie den Hochschulbibliotheken kaum bei der Erfüllung ihrer Aufgabe, die von ihnen erworbenen Inhalte in nutzbarer Form bereitzustellen. Anerkannt wird darum vor allem die Rolle der Nationalbibliotheken als letzte Zuflucht im Fall einer katastrophalen Störung der Versorgung durch die Verlage (vgl. hierzu auch Frage 9.19 der Umfrage). Es darf erwartet werden, dass dieser Anspruch mittelfristig für die elektronischen Verlagspublikationen aus wichtigen Wissenschafts- und Industrienationen erfüllt werden kann. In diesem Fall wäre es wünschenswert, in einem Register transparent nachvollziehen zu können, welche Inhalte von welcher Institution auf welche Weise und mit welchen Zielen archiviert werden. Wenn aus Sicht der Schweizer Hochschulbibliotheken davon ausgegangen werden soll, dass die Funktion der Archivierung mit den Aktivitäten der jeweils zuständigen ausländischen Nationalbibliotheken hinreichend umfassend abgedeckt ist, dann wird damit naturgemäss auf den Anspruch verzichtet, die Inhalte in der Schweiz aufzubewahren Die Rolle der Schweizerischen Landesbibliothek Die Schweizerische Landesbibliothek hat den Auftrag, gedruckte und elektronische Helvetica zu sammeln, zu erschliessen, zur Verfügung zu stellen und zu archivieren. Der Aufbau der elektronischen Helvetica-Sammlung erfolgt im Rahmen des Projektes e-helvetica 97. Im e- Helvetica-Projekt werden einerseits die Informatikgrundlagen für das elektronische Archiv (Teilprojekt Archivierung) und andererseits der Sammlungsaufbau und die damit verbundenen Aufgaben (Teilprojekt Organisation) entwickelt. Der Sammlungsaufbau wird in exemplarischen Pilotprojekten erarbeitet. Zur Zeit sind drei Pilotprojekte in Bearbeitung: 96 dark archive : Ein Archiv, dessen Inhalt einem Endnutzer nicht zugänglich gemacht wird. 97 Projekt e-helvetica der Schweizerischen Landesbibliothek: 142

143 1. POP Pilotprojekt für kommerzielle Publikationen: Exemplarische Sammlung elektronischer Publikationen der Verlage Karger und Stämpfli 2. Dissertationen: Sammlung der schweizerischen elektronischen Dissertationen in Zusammenarbeit mit der KUB 3. Landeskundliche Websites: Exemplarische Sammlung von landeskundlichen (grauen) Websites in Zusammenarbeit mit den Kantonsbibliotheken Das Ziel ist es, eine exemplarische, aus verschiedenen Publikationstypen bestehende Sammlung elektronischer Helvetica aufzubauen. Weitere Pilotprojekte können bei Bedarf und in Zusammenarbeit mit Partnerinstitutionen gestartet werden. Bei der Definition der Pilotprojekte wurde weitgehend auf die Sammlung von Nicht-Helvetica verzichtet, da diese nicht in den Sammlungsauftrag der Schweizerischen Landesbibliothek gehören. Ein grosser Teil der Hochschulbibliotheken publiziert bereits elektronische Dissertationen und wird vom Pilotprojekt Dissertationen betroffen sein. Ein weiterer Teil der Hochschulbibliotheken nimmt auch die Funktion einer Kantonsbibliothek wahr und wird in dieser Eigenschaft Erfahrungen mit dem Pilotprojekt der Sammlung landeskundlicher Websites machen. Wie dargestellt wurde, haben die Hochschulbibliotheken aber weitere Bedürfnisse, die technisch und inhaltlich über die gegenwärtige Ausrichtung der Arbeiten in der Landesbibliothek hinausgehen. Zu nennen sind insbesondere der Bedarf nach der Aufbewahrung von internationaler wissenschaftlicher Literatur ohne landeskundlichen Bezug und der hohe Anspruch an die Nutzung archivierter Inhalte auch über längere Zeiträume hinweg. Dieser ist zu unterscheiden vom fortgesetzten Zugriff gemäss 8.5. In diesem Sinne erscheint es aus ökonomischen und technischen Gründen sinnvoll, den erwähnten Pilotprojekten der Landesbibliothek weitere Konzepte zur Seite zu stellen, um die spezifischen Bedürfnisse der Hochschulbibliotheken und ihrer Kundinnen und Kunden abzudecken. Der mögliche Bedarf der Hochschulbibliotheken an die Landesbibliothek müsste aber relativ bald geklärt werden, da die Inbetriebnahme des Archivierungssystems der SLB bereits gegen Ende 2007 vorgesehen ist und die vom Archivierungssystem zu erbringenden Leistungen und die dazu gehörende Datenstruktur bereits zur Zeit konzipiert werden. Ob sich eine technische Verbindung der verschiedenen Lösungen aufdrängt, wird sich zeigen müssen. Sie ist am wahrscheinlichsten und am sinnvollsten auf der Ebene der technischen Langzeiterhaltung. Unverzichtbar sind Austausch und Abstimmung bei technischen Standards. Insbesondere die verstärkte Nutzung der URN-Vergabe und Vereinbarungen über beschreibende und technische Metadaten werden als erste Schritte gesehen. Das deutsche Projekt KOPAL ist unter dem Gesichtspunkt einer verteilten Zusammenarbeit von grossem Interesse. Als vielversprechend erscheint hier z.b. die Vision von Archiv- Schliessfächern, die den einzelnen Partnerbibliotheken innerhalb der gemeinsamen Archivlösung zur Verfügung stehen sollen. Wie bereits erwähnt, müssten Abklärungen für eine solche Lösung in Folge des Projektstands von e-helvetica möglichst bald erfolgen. Zwischen dem Projekt E-Archiving des Konsortiums der Schweizer Hochschulbibliotheken und dem Projekt e-helvetica der Schweizerischen Landesbibliothek bestand bisher bereits 143

144 ein loser Austausch. Dieser ist zu intensivieren, um für die Archivierung der für die verschiedenen Bibliotheken relevanten Literatur in der Schweiz qualitativ überzeugende und wirtschaftlich tragbare Lösungen zu erreichen. Dabei müssen Bedürfnisse und Erwartungen klar formuliert werden, um die tatsächlichen Möglichkeiten für ein gemeinsames Vorgehen richtig bewerten und nutzen zu können. Von entscheidender Bedeutung dabei ist die Gestaltung des Überganges von der Bereitstellung für die fortdauernde Nutzung hin zur eigentlichen Archivierung, die weiterhin eine sinnvolle Nutzung gestattet Archivierung durch Drittanbieter Es gibt inzwischen eine Reihe von Unternehmen, die Dienstleistungen unter dem Stichwort elektronische Archivierung anbieten. Dabei handelt es sich häufig um Lösungen für die sichere Speicherung von Daten in ihrem Originalzustand. Diese ist für eine Archivierung im Sinne der logischen Erhaltung notwendig, aber nicht hinreichend. Im Bewusstsein dieses Umstandes lassen sich solche Angebote für bestimmte Zwecke sinnvoll nutzen. Es ist zu erwarten, dass der Umfang der angebotenen Dienstleistungen in den kommenden Jahren zunehmen wird: Bibliotheken und andere Einrichtungen stehen mit ihren Bedürfnissen im Prinzip nicht allein da, so dass sich mit zunehmendem Bewusstsein der Problematik auch ein eigentlicher Markt für entsprechende Lösungen entwickeln müsste. Bibliotheken und Archive betrachten die Archivierung elektronischer Daten mit einem anderen Zeithorizont und in grösserer Tiefe als der grösste Teil der Unternehmen, weil die unbefristete Aufbewahrung der von ihnen erworbenen Materialien zum Kern ihrer Aufgaben gehört, während sie sich bei Unternehmen allenfalls nebenbei aus einem ganz anderen Geschäftsziel ergibt und häufig eine Befristung aufweist. In jedem Unternehmen gibt es Unterlagen, die als Belege für eine gewisse Zeit sicher aufbewahrt werden müssen, aber absehbar keine weitere Nutzung erfahren werden. Die Erwartungen an die Archivierung sind somit deutlich andere. Für diesen Zweck besteht z.b. speziell für kleinere und mittlere Unternehmen ein Angebot zur Umwandlung digitaler oder noch zu scannender Dokumente zu TIFF-Dateien mit zugehöriger Erschliessung 98. Die Daten werden dann in diesem anerkannt archivtauglichen Bildformat aufbewahrt. Textinhalte bleiben so als Seitenbild erhalten und können bei Bedarf auch mit OCR als Text suchbar gemacht werden (vgl ). Das gleiche Prinzip eines Bild-Dokumentenarchivs bietet in grossem Massstab der US-Finanzdienstleister JP Morgan unter dem Produktnamen i-vault! an 99. Es fehlt in beiden Fällen eine Perspektive für die langfristige Erhaltung der Interpretierbarkeit der Daten, die über die Aufbewahrung der Originale hinausgeht. Für die in diesem Bericht diskutierten Aufgaben reicht ein solcher Ansatz ausserdem nicht aus, da keinerlei Funktionalität in oder mit den Ausgangsdaten erhalten werden kann, z.b. zunächst keine Volltextsuche. Lediglich als letzter Ausweg vor dem Inhaltsverlust wird er sehr wohl diskutiert und auch die Entwicklungen der Königlichen Bibliothek in Den Haag zum UVC für TIFF-Dateien steht im Zeichen der Absicherung wenigstens der Anzeige in einem Bildformat, wenn alle anderen Methoden versagen (Wijngaarden and Oltmans 2004). 98 Archivista GmbH, Zürich: 99 JP Morgan i-vault!: 144

145 Für die genannten Zwecke der Speicherung von Geschäftsbelegen über die juristisch relevanten Fristen hinweg ist diese Herangehensweise dagegen von Anfang an völlig berechtigt. Die unter erwähnten Angebote für die Gewährleistung des dauerhaften Zugriffs sind bereits verknüpft mit der Zusicherung der langfristigen Archivierung. Darüber hinaus werden bei OCLC Konzepte diskutiert, die in Anlehnung an diese Angebote weitere Archivierungsdienstleistungen bereitstellen könnten. So sollen Verlage die Möglichkeit erhalten, ihre Daten an OCLC zur Archivierung zu übergeben 100, und zwar nach Wahl ohne Zugang für Nutzerinnen und Nutzer oder mit Zugang über Lizenzverträge der Einrichtungen mit OCLC Electronic Collections Online. Zusätzlich können die vollständigen Abonnements- und Lizenzinformationen jedes Titels für jede Bibliothek erfasst werden, um Institutionen den ihnen zustehenden Zugriff garantieren zu können. Neben der allgemeinen Archivsicherheit können Verlage bei diesem vorgeschlagenen Arrangement frühere Kunden an OCLC verweisen, wenn sie selber durch Verkauf einzelner Titel das Recht verlieren sollten, die entsprechenden Inhalte anzubieten. Ein weiterer Vorschlag zielt darauf ab, Bibliotheken die Möglichkeit zu geben, die von ihnen lizenzierten Inhalte in ein vertrauenswürdiges Archiv einzubringen 101, von wo aus der Zugriff gemäss der Genehmigung des Verlages auf Backfiles und aktuelle Daten gewährt wird. OCLC nimmt dann die notwendigen Massnahmen zur Migration oder Emulation vor. Attraktiv ist die vorgesehene Verknüpfung zum Volltext aus den von OCLC und anderen bereitgestellten Datenbanken. Als Preismodell wurde eine Jahresgebühr angegeben, die nach der Zahl der elektronischen Zeitschriften einer Bibliothek abgestuft wird: Anzahl abonnierter Titel Jährliche Gebühr (in Abhängigkeit von der Zahl der teilnehmenden Bibliotheken!) in $ > < Tabelle 10: Intern diskutierte Vorschläge von OCLC für die Preisgestaltung eines möglichen Angebotes E-Journal Depository Service for Libraries 101. Es ist zur Zeit nicht bekannt, ob die Planungen für die genannten Dienstleistungen bereits weiter gediehen sind. Es handelt sich in jedem Fall um ein noch nicht erprobtes Modell. Dagegen betreibt OCLC seit 2002 das OCLC Digital Archive 102 als Speicher- und Suchsystem auf der Basis des OAIS-Modells (vgl ). Die Kosten für diesen Dienst sind abhängig von der gespeicherten Datenmenge galten folgende Tarife (Chapman 2003): 100 Vorschlag ECO Archive Service for Publishers, vgl. Vorstellung und Diskussion unter (Zugriff ) 101 E-Journal Depository Service for Libraries, ebd. 102 OCLC Digital Archive: 145

146 Gesamtdatenmenge des Kunden Preis pro Gigabyte und Jahr GB $ GB $32 >1.000 GB $15 Tabelle 11: Kosten für die Datenspeicherung im Angebot OCLC Digital Archive. Stand Zum Vergleich: Die Speicherkapazität auf CD-R liegt bei 0,7 GB, auf DVD-R bei 4,7 GB. Das Zeitschriftenarchiv des Institute of Physics für seine über 30 Titel von wird auf 50 GB geschätzt, die Festplattengrösse von Arbeitsplatzrechnern erreichen heute 250 GB und mehr (weitere Vergleichsangaben siehe 4.1) Kostenhinweise Langzeitarchivierung Es fehlt an verlässlichen Angaben, was die Langzeitarchivierung kosten wird. Erste Indizien geben die Kosten für den reinen Serverbetrieb, die unter diskutiert wurden. Dies ist jedoch nur ein Ansatz, so dass im Folgenden weitere verfügbare Zahlen vorgestellt werden sollen Drittanbieter: Vergleich für analoge und digitale Formen Die in Tabelle 11 gezeigten Angaben zu OCLC wurden in einer Fallstudie mit den Kosten der physischen Lagerung von Büchern bzw. Mikroformen in einem Depot der Harvard University verglichen, die ebenfalls Dritten offen steht (Harvard Depository) (Chapman 2003). Bei der physischen Lagerung bestimmt die beanspruchte Lagerfläche den Preis. Für den Vergleich wurde eine reale Sammlung American Historical Textbooks herangezogen. Die Kosten beziehen sich in beiden Fällen auf das Leistungsniveau von Managed Storage, das für die physischen Objekte eine kontinuierliche Kontrolle der Umgebungsbedingungen (Temperatur und Luftfeuchtigkeit) garantiert und für die digitalen Objekte eine fortdauernde Sicherung der Dateien in ihrer ursprünglichen Form. Es sind also keine Massnahmen eingeschlossen, die eine langfristige Benutzbarkeit und Darstellbarkeit der Dateien in jeweils aktuellen IT-Umgebungen garantieren würden. Selbstverständlich ist auch bei einem non-profit-anbieter wie OCLC nicht davon auszugehen, dass die verlangten Tarife lediglich kostendeckend sind. Wichtiger als die absoluten Angaben sind aber ohnehin die Verhältnisse der Kosten für die verschiedenen Formate zueinander. 146

147 Format Menge Platzbedarf Preis pro Einheit in $ Kosten pro Jahr in $ Buch Bände 176 BSF* 3,91/BSF mm Mikrofilm 596 Spulen 43 BSF* 9,85/BSF** 424 ASCII mit Codierung Dateien 2,09 GB 15/GB*** 31 1-Bit Seitenbilder 600dpi dito 70 GB (verlustfrei komprimiert) 15/GB Bit Seitenbilder 300dpi 24-Bit Seitenbilder 300dpi dito GB 15/GB dito GB 15/GB *BSF = billable square foot, Fläche in Quadratfuss; 1 square foot = ca. 0,929 m 2 **höherer Preis wegen zusätzlicher Klimakontrolle ***niedrigster Tarif, setzt Gesamtdatenmenge von 1001 GB voraus Tabelle 12: Fallstudie American Historical Textbooks zum Vergleich der Kosten, die für den gleichen Inhalt in verschiedenen Formaten in einem traditionellen Depot (Harvard Depository) bzw. einem digitalen Speicher (OCLC Digital Archive) anfallen (Chapman 2003) Wie in Tabelle 12 erkennbar ist, hängen die Kosten für die digitale Archivierung ganz extrem vom gewählten Format ab. Die Verwendung des Formats mit dem geringsten Speicherbedarf beinhaltet die weit reichende Entscheidung, lediglich reinen Textinhalt aufzubewahren ohne die Möglichkeit, zu einem späteren Zeitpunkt die äussere Erscheinung oder vorhanden Funktionalität rekonstruieren zu können. Die Bildformate, die zumindest die äussere Erscheinung festhalten, haben einen ungleich grösseren Speicherbedarf. Eine solche Preisgestaltung nach Datenmenge ist nur auf dem Niveau der Bit-Erhaltung sinnvoll. Wenn es um eine differenzierte Behandlung der verschiedensten Formate im Sinne der logischen Erhaltung geht, können derartige Modelle nicht mehr funktionieren: Der Aufwand wächst in diesem Fall vor allem mit der Anzahl unterschiedlicher Formate (Ashley 1999) und es sind andere Preismodelle zu erwarten edepot der Königlichen Bibliothek der Niederlande Beim edepot der Königlichen Bibliothek handelt es sich um eines der wenigen Projekte, das nach substantiellen Mitteln für Forschung und Entwicklung über eine strukturelle Finanzierung seiner fortlaufenden Aktivitäten verfügt. Nach (Jones 2003) handelt es sich um EUR 1,14 Mio. jährlich ab

148 Lebenszykluskosten: Vergleich gedruckte und Online-Zeitschriften Ein Vergleich der nicht durch Abonnemente oder Lizenzen anfallenden Kosten von gedruckten und elektronischen Zeitschriften sollte wichtige Informationen liefern, die einen Wechsel zu E-only-Modellen fördern oder verzögern könnten. Ein sorgfältiger Vergleich der konkreten Kosten von 11 US-Hochschulbibliotheken verschiedener Grösse und Ausrichtung bietet interessante Ergebnisse (Schonfeld, King et al. 2004) für den Aufwand, den die Beschaffung eines Jahrgangs eines Titels im Verlauf von 25 Jahren nach sich zieht. Dabei sind solche Aufwendungen berücksichtigt, die normalerweise nur einmal erbracht werden müssen (Eingangskontrolle, Binden etc.) und solche, die über den gesamten Zeitraum anfallen müssten. Für die Schweiz liegen in einer Untersuchung aus dem Jahr 1993 detaillierte Zahlen für die Kosten vor, die für gedruckt bezogene Zeitschriften in wissenschaftlichen Bibliotheken entstehen (Schneider, Köstler et al. 1993). Kleinere Vorbehalte müssen gemacht werden, weil im Vergleich die Kosten für elektronische Infrastruktur und Support (mit Ausnahme der Arbeitsplatzrechner des Personals) und weitere Posten nicht berücksichtigt werden konnten. Andererseits wurden auch die Aufwendungen für gebende und nehmende Fernleihe nicht berücksichtigt. Die Vergleiche sind ferner nur möglich innerhalb einer Bibliothek mit ihren heute gültigen Prozessen, da die Grösse und Art der Sammlung eine wesentliche Rolle spielt. So zeichnet sich ab, dass grosse Bibliotheken in jedem Fall von Skaleneffekten profitieren und beim vollständigen Übergang von gedruckten zu elektronischen Zeitschriften vergleichsweise geringere Einsparungen erzielen können als kleinere Bibliotheken. Die Zahlen weisen jedoch von Bibliothek zu Bibliothek grosse Unterschiede auf. Kritisch ist dabei die Frage, was während der verschiedenen Stadien eines unvollständigen Übergangs geschieht. In diesem Fall würden die Kosten pro gedrucktem Titel steigen. Der kritischste Punkt an der genannten Studie ist jedoch, dass sie Kosten für die digitale Erhaltung bei dem beachtlichen Zeitraum von 25 Jahren nicht vorsieht, obwohl explizit von Lebenszykluskosten die Rede ist. Als Begründung wird angegeben, dass es keine hinreichend gut bekannte Lösung gibt, auf die sich Bezug nehmen liesse. Selbstverständlich mindert dies die Aussagekraft des Vergleichs massiv, da den gedruckten Titeln entsprechende Kosten belastet werden. Genau dieser Umstand wird jedoch konsequent aufgegriffen: Da bisher implizit oder explizit Mittel für die Erhaltung von gedruckten Zeitschriften zur Verfügung gestanden hätten, müsste es möglich sein, einen Teil dieser Ressourcen für die Arbeit an der elektronischen Archivierung umzuwidmen. Wenn jede Bibliothek einen solchen Beitrag leisten würde, wären gemeinsam Lösungen erreichbar, die für alle günstiger wären. Selbstverständlich weckt die Aussicht auf gewisse Einsparungen auch andere Begehrlichkeiten, und zwar innerhalb der Trägerhochschulen wie auch bei Verlagen. Dies geschieht ungeachtet der Tatsache, dass die Bibliotheken bereits in den vergangenen Jahren umfangreiche Aufgaben ohne zusätzliche reguläre Mittel übernommen haben. Sollte es überhaupt zu einem mehr oder weniger vollständigen Umstieg auf den rein elektronischen Bezug von Zeitschriften kommen und entsprechende Einsparungen spürbar werden, dann ist es zwingend, dass mindestens diese Mittel den Bibliotheken für die elektronische Langzeiterhaltung zur Verfügung stehen. Es ist aber zu erwarten, dass der Mittelbedarf für 148

149 die digitale Archivierung bereits zu einem Zeitpunkt zunehmen wird, an dem der Übergang noch nicht erfolgt ist, sofern er überhaupt angestrebt und umgesetzt werden soll. Auch bei anderen Kostenvergleichen werden die Archivierungskosten für elektronische Inhalte nicht oder nur sehr unzureichend berücksichtigt (Montgomery and King 2002) (Connaway and Lawrence 2003), ausser in sehr allgemeinen Arbeiten, die keine Zahlen nennen (Feeney 1999) (Sanett 2003). Als Hilfsmittel kann davon ausgegangen werden, dass die Angaben für den Unterhalt des ArXiv-Servers ( ) einen Eindruck von der unteren Grenze der Kosten auch eines eigentlichen Archivierungsservers geben. Dabei wird erwartet, dass die Kosten nicht so sehr durch die Menge der aufzunehmenden Objekte ansteigen, sondern durch die zusätzlichen Massnahmen der Langzeitarchivierung, die zu implementieren sind Langzeitarchivierung von anderen Daten Nur lokal vorhandene Daten Aus technischer Sicht stellen Daten, die nicht im Zusammenhang mit dem Konsortium erworben wurden, keine grundsätzlich anderen Anforderungen als gemeinschaftlich lizenzierte Inhalte. Organisatorisch liegen andere Verhältnisse vor. So müsste jede Bibliothek aushandeln, in welcher Form und zu welchen Bedingungen die Inhalte für eine Speicherung und Archivierung vor Ort übernommen werden können. Der Zugang kann nur den Kundinnen und Kunden der besitzenden Bibliothek gewährt werden. Dies gilt ohne spezielle Vereinbarung auch für lokal gekaufte Backfiles von Zeitschriften, selbst wenn die laufenden Titel über das Konsortium lizenziert waren Graue Literatur Für Inhalte, die gar nicht formell veröffentlicht werden, stellt sich die Frage einer Archivierung durch den Verlag in dieser Form nicht. Hier ist es vielfach eine Bibliothek, die eine (wenn auch z. T. informelle) Veröffentlichung bewirkt, wenn sie z.b. ein Dokument auf einem Dokumentenserver zur Benutzung freigibt. Da diese und ähnliche Publikationsformen zumindest mit grossen Interesse beobachtet werden und nach dem Wunsch der Bibliotheken auch vermehrt genutzt werden sollen, muss insbesondere auch für die so publizierten Inhalte eine plausible Lösung für die Archivierung aufgezeigt werden, die dann wiederum anderen Randbedingungen unterliegt. Unter anderem haben es die Bibliotheken in diesem Fall häufig in der Hand, welche Rechte sie dem Autor abverlangen. Sie können so von vorneherein sicherstellen, dass sie selbst oder ein Dritter bestimmte notwendige Massnahmen zur Erhaltung ergreifen kann. Solche Massnahmen sollten in der entsprechenden Vereinbarung verständlicherweise nicht in einer Weise definiert werden, die keinen Spielraum lässt, um später von neuen technischen Entwicklungen profitieren zu können. Darüberhinaus ist es vorstellbar, dass sich einige Bibliotheken auf dem Niveau des qualifizierten Speicherns betätigen, um Zeit für die weitere Entwicklung der Archivierung zu gewinnen. Insbesondere für Inhalte, die nur in der betreffenden Bibliothek vorhanden sind, besteht ein Bedarf, sie vorläufig zu sichern. Eine solche Aktivität müsste dann in geeigneter Weise verknüpft werden einerseits mit dem Dienstleistungsangebot einer Hochschul- 149

150 bibliothek rund um ihren Dokumentenserver und andererseits mit der Tätigkeit einer Archivinstallation, die die betreffenden Inhalte aufnimmt. Diese Vorleistung einer privilegierten Speicherung würde der Situation entsprechen, die im Szenario der lokalen oder regionalen Installation von Zeitschrifteninhalten in Kapitel aufgezeigt wurde. Es gelten genau die gleichen Überlegungen, die dort angestellt wurden. Eine Lösung, die einerseits auf die Zugriffssicherung durch Speicherung bei den Hochschulen setzt und andererseits die Archivierung an anderer Stelle vorsieht, setzt voraus, dass es wohldefinierte Schnittstellen für den Austausch von Daten und Metadaten gibt. Schnittstellen sind dabei sowohl in technischer als auch in organisatorischer Hinsicht zu verstehen Digitalisate Wie bereits früher erwähnt wurde, handelt es sich bei Digitalisaten im Prinzip um digitale Objekte, die die gleichen Anforderungen an die Archivierung stellen wie andere. Bei genauerer Betrachtung müssen jedoch zusätzliche Eigenheiten berücksichtigt werden. Hierzu zählt insbesondere die Verknüpfung von Bilddateien mit einem hinterlegten Text aus der optischen Zeichenerkennung. Auch wenn das System nicht mehr bestehen sollte, das diese Verknüpfung im aktiven Angebot hergestellt hat, muss es dennoch möglich bleiben, die Zuordnung nachzuvollziehen. Zum Teil sind die Verhältnisse komplizierter, weil ein Bild im eigentlichen Archivformat vorliegt und daneben ein oder mehrere weitere Präsentationsformate des gleichen Bildes, die in der Regel aus dem detailliertesten Format auf eine niedrigere Bildauflösung heruntergerechnet worden sind. Mindestens eines dieser Formate muss mit dem hinterlegten Text verbunden bleiben, wenn die Verknüpfung von Volltextsuche und Bildanzeige nachvollziehbar bleiben soll Finanzierungsmodelle Die Finanzierung der Aktivitäten des E-Archiving-Projektes ist bis Ende 2007 gesichert. Da seine Zielsetzungen explizit langfristig sind, muss frühzeitig darüber nachgedacht werden, wie eine gewünschte Fortführung der Arbeiten getragen werden könnte. Die zur Zeit laufenden Gespräche über die angestrebte Fortsetzung der Lizenzierungsaktivitäten der Geschäftsstelle können noch keine konkreten Hinweise liefern. Zudem gibt es strukturelle Unterschiede zwischen beiden Projektteilen: Die Bibliotheken könnten die Lizenzierungstätigkeiten nötigenfalls mit entsprechendem lokalen Mehraufwand individuell weiterführen. Bei der Archivierung ist hingegen absehbar, dass es Installationen und Aktivitäten geben kann, die sich nicht mehr in funktionstüchtige Einzelteile zerlegen lassen. Wie beobachtet wurde (Lavoie 2003), werden Kosten und Finanzierung eher im Gesamtzusammenhang mit digitalen Bibliotheken diskutiert, weil der sichtbare Gegenwert zur Zeit ja in der Regel der Zugang zu Information ist, nicht die Archivierung. Zu den seltenen Ausnahmen gehören die Ausführungen zu prinzipiellen Finanzierungsmodellen für Archivierungslösungen aus einem Projekt der Yale University Libraries (Bennett, Conway et al. 2002): 150 Einmalige Zahlung (Up-front payment): Bibliotheken, Fachgesellschaften, Regierungen oder kulturelle Einrichtungen zahlen einmalig für die potentiell ewige Erhaltung bestimmter Daten(mengen). Auch eine Zahlung bereits durch Autoren wurde genannt.

151 Die Zahlungen müssen zum grossen Teil in einen Fonds fliessen. Da Erfahrungswerte für die realen Kosten fehlen, erscheint eine Vorauszahlung kaum berechenbar. Fortdauernde Zahlungen (Ongoing Archival fees): Hier können die Beiträge dem Bedarf angepasst werden, was die Planbarkeit für die Bibliotheken einschränkt. Verlustrisiko bei Einstellung der Zahlungen. Interessant ist die Überlegung, solche Beiträge bereits mit den Lizenzgebühren für aktuelle Inhalte zu erheben. Traditionelles Bibliotheksmodell: Bibliotheken und verwandte Einrichtungen nehmen sich der Aufgabe an und werden dafür von Dritten finanziert (Staat u.a.). Dienstleistungsgebühren (Fee for services operation): Hier ist offenbar gemeint, dass eine Archiveinrichtung (nur) für besondere Dienstleistungen Gebühren erhebt. Hybrid: Mit einiger Wahrscheinlichkeit wird nicht eine einzige Lösung ausreichen. Insbesondere ist vorstellbar, dass eine der beteiligten Gruppen die einmaligen Startkosten trägt, während eine andere laufende Beiträge leistet für den Unterhalt und den potentiellen Zugriff. Die genannten Optionen beziehen sich auf die Speicherung und auf die eigentlichen Archivierungsmassnahmen. Grundsätzlich andere Möglichkeiten gibt es jedoch auch für die Trägerschaft von Kompetenzzentren oder von weiteren Aktivitäten nicht. Bei jeder Art von Gebühr ist zu beachten, dass keine ideale Grundlage für deren Bemessung gibt: Weder die Anzahl noch die Grösse der zu erhaltenden Objekte ist aus heutiger Sicht wirklich ein geeignetes Mass. Bei einer konsortialen Lösung wird es noch undurchsichtiger, weil nicht mehr klar ist, welcher Inhalt für welche Einrichtungen gepflegt wird, da die Daten allen berechtigten Benutzenden bei Bedarf zur Verfügung stehen sollen. Neben diesen quantitativen Kriterien müssten jedoch viel stärker qualitative Merkmale wie gelieferte Formate und der zu erwartende Aufwand einbezogen werden. Die nötigen Instrumente für eine solche Bewertung fehlen noch. Ebenso fehlt auch ein Verständnis dafür, welche Bedürfnisse die einzelnen Bibliotheken haben und wie viel sie für entsprechende Dienste bezahlen können und wollen, wenn es zu einer Konkurrenz zwischen den laufenden Kosten für die Informationsversorgung und denjenigen für die Archivierung kommt. Wenn man vom institutionellen Auftrag einmal absieht, dann wird sehr schnell klar, dass die Nutzungszahlen für älteres Material rasch sinken: Es gibt Untersuchungen, dass nur 10 bis 15% der gelesenen Artikel älter als fünf Jahre sind (King, Tenopir et al. 2003). Allerdings greift es zu kurz, aktuelle und Archivzugriffe gegeneinander ausspielen zu wollen. Interessant ist in diesem Zusammenhang nämlich die Frage, ob sich mit einem dauerhaften Online-Zugriff der Wert und die Nutzung der älteren Jahrgänge nicht sogar steigern lässt Anreize Noch grundlegender ist die Frage, was eine Einrichtung dazu bringen sollte, selbst digitale Daten zu archivieren. Diese Frage ist deswegen verwirrend, weil Rechteinhaber, Archive und Nutzniesser in sehr verschiedenen Rollenverteilungen agieren können (Lavoie 2003). Dies bedeutet, dass eine Einrichtung gleichzeitig mit der Archivierung weitere Ziele verfolgt, die anderen Rollen entsprechen können. Es ist dann die Frage, in welcher Rolle der Anreiz gross genug ist, sich für die Erhaltung zu engagieren. 151

152 Der Anreiz für eigene Aktivitäten ist dadurch gemindert, dass es aus grundsätzlicher Sicht (Erhaltung der Daten) egal ist, welche Einrichtung mit der Archivierung beginnt: Es besteht eine Versuchung zu warten, bis sich eine andere Institution der Aufgabe für einen bestimmten Inhalt annimmt, da die Kopien aller Einrichtungen ununterscheidbar sein sollten. Trittbrettfahrer werden belohnt. Auch für das bisherige Versagen des Marktes bei der Bereitstellung von Lösungen gibt es eine einleuchtende Erklärung: Da die Anforderungen der potentiellen institutionellen Kunden qualitativ und quantitativ sehr unterschiedlich sind, wird die kritische Grösse des Marktes für jede einzelne Anforderungsebene nicht erreicht Empfehlungen für die Langzeitarchivierung Bis auf weiteres wird keine eigene Infrastruktur der Hochschulbibliotheken zur Langzeitarchivierung im Sinne der Archivinstallation der SLB aufgebaut. Beim Aufbau eines Systems für die Zugriffssicherung (vgl ) sind einschlägige Anforderungen der Langzeitarchivierung zu berücksichtigen (Standards, Formate, Dokumentation usw.). Dies erleichtert die Übernahme in ein Archiv oder bei Bedarf die Weiterentwicklung des Zugriffssystems selber zu einem Archiv. Vertiefung der Kontakte mit der Schweizerischen Landesbibliothek. Prüfung von Möglichkeiten der Zusammenarbeit: o o o Bei der Erarbeitung und Verbreitung von Standards und konkreten Werkzeugen (z.b. URN-Vergabe, Metadaten) und in der strategischen Planung der Erhaltung (Preservation Management). Bei der Entwicklung eines OAIS-konformen Systems bzw. von Komponenten. Hier liegt ein besonderes Interesse der Hochschulbibliotheken bei der Möglichkeit der raschen und zuverlässigen Nutzung von Inhalten ( Access im OAIS-Modell, vgl. Kapitel ). Mögliche Beteiligung am Archivsystem der SLB. Ermittlung weiterer leistungsfähiger Partner innerhalb und ausserhalb der Hochschulen (z.b. Rechenzentren, die bereits grosse Mengen an Primärdaten archivieren müssen). Weiterer Austausch mit ähnlich gelagerten Bemühungen im Ausland, und zwar sowohl Bibliotheksprojekte (KOPAL, edepot u.a.) als auch Drittanbieter (v.a. OCLC). Prüfung der Möglichkeit zur Beteiligung an eigentlichen Forschungsprojekten im Inund Ausland, die die Kernfragen der digitalen Erhaltung untersuchen (Erhaltung der Interpretier und Nutzbarkeit). Prüfung der Möglichkeit von differenzierten Teillösungen je nach Inhalt. Anhand der nationalen und internationalen Erfahrungen vertiefte Aufwandsschätzung für die verschiedenen Optionen (eigenes System, Beteiligung bei Systemen anderer Einrichtungen, Drittanbieter ). 152

153 Falls der Bedarf für eine eigene (Teil-)Lösung bestätigt wird: Vorbereitung des Aufbaues in 2006, Aufbau in Formulierung einer Strategie für die langfristige Trägerschaft. 153

154 8.7 Verteilte Archivierung gedruckter Zeitschriften Die parallele Publikation von gedruckten und elektronischen Ausgaben einer Zeitschrift gilt als Übergangserscheinung auf dem Weg zur nur noch elektronischen Veröffentlichung. Sofern es sich tatsächlich um eine Übergangsphase handelt, so muss ihre Dauer heute weiterhin als unbestimmt gelten. Sicher scheint zu sein, dass in Abhängigkeit von der jeweiligen Fachdisziplin bereits die Akzeptanz der Benutzung der elektronischen Ausgaben sehr unterschiedlich sein kann (Guthrie 2002). In noch stärkerem Masse gilt dies für den endgültigen Verzicht auf die Produktion und den Bezug einer gedruckten Version. Insbesondere nicht-stm-nutzende möchten auch langfristig über eine aktuelle Papierausgabe verfügen können (je nach Fach von 24-63%), 35-74% möchten vorhandene Papierbände nicht entsorgt sehen, auch wenn ein E-Archiv zuverlässig funktioniert. 76% der immerhin antwortenden Dozenten halten die Archivierung elektronischer Zeitschriften für "crucial". 90% stimmen der Aussage zu (70%: entspricht der Meinung sehr gut, 20%: entspricht mehr oder weniger der eigenen Ansicht ), dass eine Print-Archivierung durch einige Bibliotheken immer unentbehrlich sein wird 103. Es ist deshalb davon auszugehen, dass gedruckte wissenschaftliche Zeitschriften noch für längere Zeit von Verlagen produziert und von Bibliotheken abonniert werden dürften. In welchem Umfang dies geschieht, hängt einerseits von Nutzererwartungen ab, andererseits aber von der Entwicklung des Komplexes von Phänomenen, der als Zeitschriftenkrise bekannt geworden ist (Keller 2001). In diesem Zusammenhang sehen Bibliotheken sich unter Druck, einerseits die anerkannten Vorzüge gedruckter Zeitschriften weiterhin zu nutzen und anzubieten, vor allem die Möglichkeit zu einer zuverlässigen Archivierung in Form und Inhalt. Andererseits müssen sich die Bibliotheken allein schon aus Mangel an Ressourcen bemühen, weitere Optimierungsmöglichkeiten bei den Beständen auszuschöpfen. Im Blickpunkt des Interesses stehen dabei mehrfache Abonnemente einer Zeitschrift in der Schweiz. Bisher haben Bereinigungen von Mehrfachexemplaren hauptsächlich zwischen den Bibliotheken innerhalb der Hochschulen stattgefunden. Im Rahmen des E-Archiving- Projektes des Schweizer Konsortiums sollen Möglichkeiten für eine Koordination der Bestände auf nationaler Ebene aufgezeigt werden. Aus der Perspektive des E-Archiving-Projektes stellen gedruckte Zeitschriften nicht mehr das geeignete Format dar, um hinsichtlich des Nutzwertes und der Bedienungsfreundlichkeit von elektronischen Zeitschriften als vollwertiger Ersatz gelten zu können. Sehr wohl können sie aber die elektronische Archivierung ergänzen und bis zu einem gewissen Grad absichern. Als Gründe für die Aufbewahrung von Papierexemplaren werden genannt ((Peters 2003)): Zugang zu älterem Material, das nicht digital vorliegt. Sicherheitskopien von bereits digitalisiertem Material Verwendung für spätere Neu- oder Nachdigitalisierungen Zwecke, die auf das physische Original angewiesen sind. 103 What do faculty think of electronic resources? Präsentation K. Guthrie, R.C. Schonfeld, , CNI Task Force Meeting: 154

155 Zusätzlich stellen nach der gegenwärtigen Rechts- und Vertragslage die gedruckten Ausgaben die einzige Quelle dar, aus der für Dokumentenlieferdienste Reproduktionen von Artikeln angefertigt werden dürfen. Daneben darf nicht vergessen werden, dass es immer noch zahlreiche Zeitschriften gibt, die nicht als Online-Produkte erscheinen. Es ist nicht zu erwarten, dass sich dies schnell ändern wird, und es ist auch nicht sicher, dass dies überhaupt je der Fall sein wird. Es muss Sache der Bibliotheken vor Ort sein zu beurteilen, ob die elektronische Bereitstellung eines Titels die laufenden Bedürfnisse der Kundinnen und Kunden ausreichend abdeckt. Dann kann auf ein eigenes gedrucktes Exemplar verzichtet werden, und es braucht bei Bedarf nur ein Exemplar in der Schweiz zu Archivzwecken aufbewahrt zu werden Ziele Die koordinierte Print-Archivierung verfolgt zwei verschiedene Ziele: Gesicherte Archivierung von gedruckten Zeitschriften in einem Exemplar in der Schweiz. Zu klärende Fragen: o Bei welchen Titeln besteht ein Bedarf zur Archivierung (Einmaligkeit, Bedeutung) aus Sicht der Benutzenden und aus bibliothekarischer Sicht? o Bei welchen Bibliotheken ist dieser Titel in welcher Form und in welchem Umfang vorhanden? o Welche Verpflichtungen umfasst die Archivierung (Erhaltungsmassnahmen, Dokumentenlieferung, Fortsetzung des Bezuges)? o Rein dezentrale Archivierung in den besitzenden Bibliotheken oder Überlegungen für zentrales Depot? Durch eine grössere Transparenz hinsichtlich der Archivierung von Zeitschriften sollen die Bibliotheken ein Hilfsmittel erhalten, um differenzierter über die Fortführung von Abonnementen entscheiden zu können. Dies kann zu einer Ausgabenverringerung bei den Bibliotheken durch Kündigung von Mehrfachabonnementen führen. Dieser Punkt gewinnt vor dem Hintergrund von potentiell attraktiven E-only- Modellen an Bedeutung. Zusätzlich ist er vor allem bei jenen Verlagen interessant, bei denen die Fortsetzung einer konsortialen Lizenzierung mit Abbestellverboten nicht gelingt. Wo Konsortiallizenzen ungebrochen fortgeführt werden können, besteht die Möglichkeit zu solchen Bereinigungen nicht oder erst beim Umstieg auf neue Lizenzmodelle. Jede Regelung, die angestrebt wird, muss aus heutiger Sicht weitere Ansprüche erfüllen: 1. Es sind unkomplizierte Verfahren und Abläufe gefragt, die sich mit den gegenwärtigen Strukturen und Mitteln weitgehend vereinbaren lassen. 2. Die einzelnen Bibliotheken sollen die Möglichkeit zur Selbstbestimmung ihrer Bestandesentwicklung behalten. a. Bibliotheken können und müssen selbst entscheiden, ob bei ihnen Bedarf besteht, einen Titel weiter zu abonnieren, der schon an einem anderen Ort archiviert wird. 155

156 b. Es sind darum Massnahmen nötig, die die Auswirkungen von lokalen Entscheidungen auf andere Partner abfedern. Hier sind vor allem frühzeitige gegenseitige Information und Absprache bei Veränderungen nötig. 3. Zukünftige Entwicklungen sollen nicht blockiert werden. Unter anderem gibt es keinen Grund, warum sich bei einer erfolgreichen Umsetzung nicht später weitere Bibliotheken beteiligen sollten. Auch ist die Ausdehnung auf andere Titel möglich Beispiele Für die koordinierte Archivierung von Printbeständen werden verschiedene Modelle bereits praktiziert. Sie unterscheiden sich unter anderem darin, wie stark sie Bestände physisch zentralisieren und in der Offenheit des Zugangs zu den archivierten Materialien. Ein Artikel aus den USA stellt drei Projekte vor (Peters 2003): Committee on Institutional Cooperation (CIC, 13 Bibliotheken, produktiv ab 2002) Ziel: Einen fairen und verlässlichen Mechanismus zu schaffen, der den Bibliotheken erlaubt, Abonnements von gedruckten Zeitschriften abzubestellen, die elektronisch verfügbar sind, und sicherzustellen, dass innerhalb des Konsortiums ein gedrucktes Exemplar für Forschungs- und Archivzwecke aufbewahrt wird. Den Hintergrund bildeten Abbestellaktionen der Bibliotheken, die koordiniert und für einen Verlag nach dem anderen durchgeführt werden sollten. Die Archivexemplare werden dezentral in den Bibliotheken aufbewahrt und sind für die Nutzung zugänglich. Um dem Risiko von Beschädigungen und Diebstahl zu begegnen, sind die Bibliotheken verpflichtet, regelmässig die Vollständigkeit der von ihnen archivierten Titel zu prüfen. Momentan gelten zwei grundsätzliche Einschränkungen: Die Vereinbarungen zur Aufbewahrung gelten zur Zeit nur prospektiv, also vom aktuellen Jahrgang an in die Zukunft. Die Dauer, für die Bibliotheken sich verpflichten, das Abonnement fortzusetzen und die Bände aufzubewahren, beträgt zunächst nur fünf Jahre. Es war die erklärte Absicht, auf diese Weise die Hürden für die Teilnahme niedrig zu halten. Die Verteilung der Titel erfolgte anhand von Tabellen, in denen die Bibliotheken ihr Interesse zur Weiterführung von Titeln anmeldeten. In einer Nachbearbeitung wurden dann Meldungen mehrerer Bibliotheken für die gleichen Titel verhandelt und abgeglichen, sowie im Sinne einer gleichmässigen Lastenverteilung Titel getauscht. Bis zu diesem Zeitpunkt verwaiste Titel wurden nochmals angeboten. Die Bibliotheken erklären lediglich, dass sie die von ihnen angegebenen Titel in den folgenden fünf Jahren weiterführen und aufbewahren werden. Es ist allen anderen Bibliotheken völlig freigestellt, wie sie verfahren. Sie können gemäss ihrem eigenen Bedarf entscheiden, ob sie ihr Abonnement fortsetzen wollen oder müssen. Dies erlaubt eine relativ einfache, schnelle und kostengünstige Umsetzung, die gut skalierbar sein sollte. Center for Research Libraries (CRL, Geförderter Zweijahres-Test ab 2002) Erstes Ziel des Projektes ist es, die kompletten in JSTOR enthaltenen Bestände in gedruckter Form zusammenzutragen. Dabei wird ein Exemplar zentral und 156

157 unzugänglich aufbewahrt, um im Notfall zur Verfügung zu stehen, während regional mehrere zugängliche Kopien verbleiben. Vorgesehen sind ferner Untersuchungen zu einem nationalen Verzeichnissystem von Printarchiven und letzten Exemplaren. Dieses soll es Bibliotheken ermöglichen, den Standort bestimmter Titel zu lokalisieren und nach Prüfung der Bedingungen des jeweiligen Archivs zu entscheiden, ob weiterhin ein eigenes Exemplar bezogen und/oder archiviert werden soll. In seinem Scholarly Journals Program strebt CRL zusätzlich an, selten genutzte Zeitschriften zentral zu beziehen und allgemein Papier-, elektronische oder Mikrofilm- Archive von nicht zentral beschafften Titeln zusammenzutragen. University of California System Der Aufbau einer gemeinsamen zentralen Sammlung von gedruckten Zeitschriften orientiert sich zunächst am Angebot einzelner Verlage, aber mit der Zeit sind auch andere Konzepte denkbar. Die Sammlung ist zur aktiven Nutzung bestimmt. Zur Zeit werden alle betroffenen Zeitschriften von einer Bibliothek bearbeitet und in einer von zwei regionalen Speicherbibliotheken untergebracht. Interessanterweise scheint beabsichtigt zu sein, die gemeinsamen Bestände in jeder teilnehmenden Bibliothek zum Bestand zu zählen. Five-College Library Depository (Nichols and Smith 2001) Mit einem etwas anderen Ansatz werden hier in einem zentralen Speicher Bestände aus den beteiligten Bibliotheken zusammengetragen, die in elektronischer Form zugänglich sind. Dubletten werden ausgeschieden und die Bestände gehen im Regelfall in den Besitz des Konsortiums über, das als eigenständige Unternehmung das Depot betreibt. Lediglich Bestände einer Bibliothek, die sich nicht im Stande sieht, das Eigentum an ihren Beständen abzutreten, werden im Depot separat aufgestellt. Als ergänzende Massnahme wurden Leitlinien erarbeitet, welche Bestände mit welcher Priorität für das Depot geeignet sind oder wie zu verfahren ist, wenn die einzige Bibliothek, die einen Titel abonniert, diesen abbestellt. Sogar die Rückverschiebung von Beständen auf den Campus bei verändertem Forschungsbedarf ist als Szenario behandelt worden. Plan d élimination et de conservation partagées des périodiques (PECPP 104, Frankreich) Bei diesem Progarmm von Bibliotheken, Mediatheken und verwandten Einrichtungen in der Region Franche-Comté werden zunächst die Institutionen, die mitwirken möchten, zu ihren Wünschen und zum Zustand ihrer Sammlungen befragt. Bei der folgenden Durchsicht der Wünsche werden Ungleichgewichte in der geographischen Verteilung bereinigt. Zudem ist ein Ausgleich nötig, da erfahrungsgemäss von vielen Bibliotheken die gleichen Titel genannt werden und andere dafür gar nicht. Ein Lenkungsausschuss mit Vertretern aller Einrichtungen schlägt dann vor, was archiviert werden könnte. Zu den Kriterien zählen: Geographische Verteilung (je eine Referenzsammlung pro Grossraum), das Alter der Sammlung, die Art der Sammlung, 104 PECPP bei ACCOLAD (Association Comtoise de COopération pour la Lecture, l Audiovisuel et la Documentation) : Wir danken Mme G. von Roten für diesen Hinweis. 157

158 die Zugänglichkeit (inkl. Leihverkehr). Die betroffenen Institutionen müssen die Annahme der Vorschläge bestätigen. Wenn eine Bibliothek die Verantwortung für einen Titel übernimmt, dann verpflichtet sie sich, das Abonnement fortzusetzen. Unter besonderen Umständen kann eine Bibliothek die Verantwortung abgeben, wenn sie eine andere Einrichtung findet, die diese übernimmt. Einrichtungen, die einen Titel nicht selbst archivieren, sondern den Bestand ausscheiden möchten, verpflichten sich zu prüfen, dass der Titel im Programm der verteilten Erhaltung berücksichtigt ist und setzen sich mit der Arbeitsgemeinschaft bzw. mit den für diese Titel verantwortlichen Bibliotheken in Verbindung, um gegebenenfalls dortige Bestände zu vervollständigen. Die Zusage zur Aufbewahrung kann sich auf den gesamten Bestand ab einem bestimmten Jahr beziehen ( ab 1972 ) oder für eine bestimmte Zahl von Jahrgängen vor dem gegenwärtigen ( die letzten fünf Jahre ). Im Artikel (Peters 2003) wird betont, dass die Modelle der Print-Archivierung den einzelnen Bibliotheken grosse Freiheiten lassen können: Das Wissen um eine zuverlässig archiviertes Exemplar kann ganz verschieden umgesetzt werden, z.b. durch Fortführung des Abonnements, aber Verzicht auf Bindung oder eine zeitlich begrenzte Aufbewahrung etc. Als Grundvoraussetzungen für ein funktionsfähiges System werden genannt: Wirklich bindende Verpflichtungen ( commitments with teeth ), die für Notfälle die Ausstiegsmodalitäten klar regeln, so dass keine Verluste entstehen. Sorgfältig geführte Unterlagen bzw. Nachweise, die ein institutionelles Gedächtnis begründen: Es muss in zehn Jahren noch klar ersichtlich sein, was warum für welche Zeitschrift gilt. Es muss verhindert werden, dass eine Bibliothek unbeabsichtigt einen Titel abbestellt, solange sie dessen Weiterbezug und Archivierung zugesagt hat. Vollständige Informationen, die es allen Beteiligten erlauben, qualifizierte Entscheidungen über die Fortführung und Archivierung von Zeitschriften zu treffen. Vertrauen der Bibliotheken untereinander, das sie sich im Idealfall durch ihre Zusammenarbeit auf anderen Gebieten erworben haben. Freiwilligkeit der Beteiligung. Eine zunächst geringe Akzeptanz durch die Benutzerschaft scheint vor allem dann ein Problem zu sein, wenn Bestände ihrem Zugriff entgegen bisheriger Gewohnheit entzogen werden, also vorrangig bei der Verschiebung von Freihandbeständen in ein zentrales Depot. In der angelsächsischen Tradition der Freihandaufstellung wird dies noch stärker wahrgenommen als in der Schweiz, wo ältere Zeitschriftenjahrgänge häufig oder sogar überwiegend in Magazinen aufgestellt werden Schritte für die Durchführung im Konsortium Festlegung der betrachteten Titel Den Ausgangspunkt für die Überlegungen bilden die wissenschaftlichen Zeitschriften in den Hochschulbibliotheken. Für die gedruckten Ausgaben besteht in diesen Fällen Bedarf nach 158

159 einer verlässlichen Archivierung, während die Bereinigung von Mehrfachabonnementen nur in sehr engem Rahmen zulässig ist. Für einen grossen Teil dieser Titel lizenzieren die Bibliotheken Online-Versionen über das Konsortium. Da die Preisgestaltung der Konsortiallizenzen sich in der Regel immer noch an den Kosten der laufenden Printabonnements orientiert, verfügt das Konsortium trotz einiger Vorbehalte hier über recht genaue Informationen zu den laufenden Beständen der Bibliotheken, jedoch nicht zu den zurückliegenden Jahrgängen. Aus diesen Angaben geht häufig nicht hervor, ob ein Abonnement bei einer Hauptbibliothek oder bei einer Institutsbibliothek angesiedelt ist. Zu beachten ist, dass aufgrund der unzureichenden Kontrolle über die Bestände dezentraler Institutsbibliotheken innerhalb der Hochschulen nur die grossen Bibliotheken für eine koordinierte Archivierung herangezogen werden sollten. Nur für sie können die Hauptbibliotheken tatsächlich Aussagen treffen. Die Hauptbibliotheken oder Koordinationsstellen haben dann immer noch die Freiheit, weitere Bestände zu benennen, deren Archivierung sie gewährleisten können. Zur Vereinfachung soll in einem ersten Schritt davon ausgegangen werden, dass jeder Titel, der nur einmal in einer Schweizer Bibliothek vorhanden ist, von der besitzenden Bibliothek archiviert wird. Dies sollte weitgehend der Realität entsprechen: Die Umfrage bei den Bibliotheken hat ergeben, dass sie weit überwiegend ihre gedruckten Zeitschriften aufbewahren und sich meist formal oder zumindest inhaltlich bzw. moralisch in der Pflicht sehen, diese dauerhaft zu archivieren. Es wäre wünschenswert, zu einem späteren Zeitpunkt auch diese Titel explizit in die Koordination einzubeziehen, damit Veränderungen an ihrem Status (Abbestellungen etc.) kommuniziert werden. Für eine erste Phase werden gedruckte Zeitschriften ausgewählt, die die folgenden Kriterien erfüllen: 1. Titel von Verlagen, zu denen Schweizer Konsortiallizenzen bestehen 2. Titel, die in mehreren gedruckten Exemplaren in den Konsortiumsbibliotheken vorhanden sind. Dies betraf nach einer Analyse für das Jahr 2002 z.b. 57% der im Konsortium gedruckt abonnierten Titel von Elsevier/Academic Press, 62% derjenigen von Wiley und 71% der Titel von Springer. 3. Titel, die unter der Kontrolle einer grossen Bibliothek stehen, die selbst Partner des Konsortiums ist. Hier fehlen Informationen weitgehend. Die Beschränkung auf Konsortialtitel bedingt, dass normalerweise keine unmittelbaren Einsparungen durch Abbestellungen erzielt werden dürfen. Dies ist nur in geringem Umfang und in sorgfältiger Abstimmung unter den Partnern hinsichtlich des Kostenvolumens möglich. Grössere Abbestellungen wären lediglich möglich, wenn ein Wechsel des Lizenzmodells zu e-only vorgesehen wird oder die bestehende Lizenz dauerhaft oder vorübergehend nicht fortgesetzt wird. In der Tat könnte es sich als sinnvoll erweisen, Konsortialverträge zeitweise auszusetzen, wenn sich dies als die einzige Möglichkeit erweisen sollte, die eigenen Bestände von der Fortschreibung der Lizenzpakete zu entkoppeln. In einem weiteren Schritt sollten berücksichtigt werden: Alle anderen Titel, von denen Mehrfachexemplare bei den Hochschulbibliotheken in der Schweiz nachgewiesen werden. Hierfür ist zunächst eine entsprechende Datenbasis zu erheben. Dies könnte durch die Nutzung des Schweizer 159

160 160 Zeitschriftenportals 105 der Landesbibliothek erfolgen, das mit den Beständen von RERO und IDS 107 -Bibliotheken sowie des SBT 108 alle Hochschulbibliotheken abdeckt. Auf dieser Stufe ist auch die Einbeziehung der Forschungsanstalten sinnvoll, die dem NEBIS-Verbund angeschlossen sind. Schliesslich alle Zeitschriftentitel, die von den Hochschulbibliotheken, Forschungsanstalten und anderen bezogen werden: Der Wert liegt in diesen Fällen darin, dass Abbestellungen nicht unbemerkt geschehen, wenn die betreffenden Titel in ein Nachweissystem der Archivierung eingebunden sind. Dadurch wird es anderen interessierten Bibliotheken ermöglicht, im Notfall frühzeitig zu überlegen, ob sie ein auslaufendes Abonnement übernehmen wollen oder können. Per definitionem können diejenigen Titel als dauerhaft archiviert betrachtet werden, die bereits im Besitz der Schweizerischen Landesbibliothek sind und weiterhin von ihr gesammelt werden. Dies betrifft naturgemäss Schweizer Zeitschriften. Wegen ihres eindeutigen Archivauftrages kann die Landesbibliothek vermutlich selber nicht von einer Entlastung durch ein verteiltes Modell der Archivierung in den Hochschulbibliotheken profitieren. Es wird daher zu prüfen sein, in welcher Form die Landesbibliothek sich beteiligen möchte und sollte Zuordnung zu Bibliotheken In der Umfrage bei den Bibliotheken wurde versucht herauszufinden, ob die Bibliotheken für die Archivierung der gedruckten Bestände eher eine Aufteilung der Bestände nach fachlichen Schwerpunkten anstreben oder den pragmatischen Ansatz bevorzugen, bei dem eine archivierende Bibliothek sich um ihre eigenen Bestände kümmert. Die Antwortenden bejahten beides (vgl ), was bei näherer Betrachtung auch konsequent ist, da die vorhandenen Bestände bereits dem Profil von Hochschule und Bibliothek entsprechen sollten. Es muss aber betont werden, dass es sich hierbei lediglich um eine passive Schwerpunktsetzung im Rahmen eines Abbaus handelt. Ob damit wirklich Ressourcen freigemacht werden können, um in der Folge einen aktiven Ausbau mit schärferem Profil zu betreiben, bleibt zunächst offen. Die mögliche passive Konzentration ist darum ganz anders zu beurteilen als die aktive Schwerpunktbildung mit einem Ausbau der Bestände, die Anfang der Neunziger Jahre in der Schweiz diskutiert wurde ((KUB) 1991; Schneider, Köstler et al. 1993). Aus praktischer Sicht wird darum der folgende Ablauf vorgeschlagen: Die Bibliotheken erhalten eine Liste der Titel, die unter die angegebenen Kriterien fallen, und geben an, für welche Titel sie die unter angegebenen Verpflichtungen übernehmen möchten. Damit können sie ihre eigenen Schwerpunkte setzen. Der Ausgleich zwischen den verschiedenen Wünschen könnte ein zeitraubender und schwieriger Prozess werden. Es soll darum versucht werden, vorab Regeln zu definieren, die es ermöglichen, über die Zuordnung von strittigen Titeln in nachvollziehbarer Weise zu entscheiden. Es darf jedoch bezweifelt werden, ob dies zur allgemeinen Zufriedenheit möglich ist. Dabei ist zu bedenken, dass die 105 Schweizer Zeitschriftenportal SZP: 106 RERO - Réseau des bibliothèques de Suisse occidentale :http://www.rero.ch/ 107 IDS Informationsverbund Deutschschweiz: 108 SBT - Sistema Bibliotecario Ticinese:

161 Übernahme der Fortsetzungs- und Archivierungsverantwortung das Profil einer Bibliothek stärken kann, dass sie aber in gleichem Masse auch eine Verpflichtung bedeutet, die für eine gewisse Zeit nicht mehr ohne weiteres abgegeben werden kann. Wenn eine Vereinbarung zustande gekommen ist, muss diese zentral dokumentiert werden. Fast noch wichtiger ist aber, dass in jeder teilnehmenden Bibliothek der Inhalt der Vereinbarung an geeigneter Stelle abgelegt ist. Die Titel, die betroffen sind, müssen in dauerhaft nachvollziehbarer Weise gekennzeichnet werden. Dies muss auf jeden Fall durch einen entsprechenden Vermerk in der jeweiligen Titelaufnahme geschehen, der zum Ausdruck bringt, dass ein Titel zur gemeinschaftlichen Archivierung der Schweizer Hochschulbibliotheken gehört und darum nur unter bestimmten Bedingungen abbestellt oder ausgeschieden werden kann. Dieser Vermerk sollte schweizweit im gleichen Feld der Titelaufnahme eingetragen werden. Nicht zuletzt kann dadurch das Schweizer Zeitschriftenportal der Landesbibliothek als wichtiges Hilfsmittel bei der Information über die Archivierungspraxis benutzt werden. Ein zweiter Hinweis am Standort des Exemplars erscheint zwar unzeitgemäss, könnte aber zweckmässig sein Vereinbarungen und Verpflichtungen Die notwendigen Vereinbarungen sollten von den Leitungen der beteiligten Bibliotheken geschlossen werden, um deutlich zu machen, dass es sich um ein institutionelles Engagement handelt. Die inhaltliche Ausgestaltung muss selbstverständlich vom Personal des Projektes und den betroffenen Betriebsabteilungen gemeinsam geleistet werden. Gegenstand der Vereinbarung sollten sowohl die gesamten zurückliegenden Jahrgänge als auch die zukünftig hinzukommenden sein. Im Hinblick auf die Zusammenarbeit der Schweizer Hochschulbibliotheken hiesse es eine wichtige Gelegenheit zu verspielen, wenn die älteren Jahrgänge nicht einbezogen würden. Die Verpflichtungen würden aus heutiger Sicht die folgenden Punkte umfassen, die mit Sicherheit noch weiterer Ausarbeitung bedürfen. Die Bibliothek, die für eine Zeitschrift die Archivverantwortung übernimmt, verpflichtet sich dazu, alle bei ihr bereits vorhandenen Jahrgänge des Titels (idealerweise also von Band 1 an) vor Inkrafttreten der Vereinbarung auf Vollständigkeit und Erhaltungszustand zu prüfen und neu entdeckte Mängel zu dokumentieren. Lücken, die nicht geschlossen werden können, sind wie gewohnt im Katalog zu vermerken, andere Hinweise sollten in noch zu bestimmender Weise erfasst werden. Im Katalog ist in geeigneter Form zu vermerken, dass dieser Bestand besonderen Bedingungen unterliegt. Hierfür ist eine einheitliche Feldnutzung zu vereinbaren. Die Bibliothek verpflichtet sich, sowohl die bereits vorhandenen als auch alle später hinzukommenden Jahrgänge der Zeitschrift zu binden und unter geeigneten Bedingungen aufzubewahren und für die Benutzung bereitzustellen. In Abhängigkeit vom Erhaltungszustand können Einschränkungen der Benutzung verfügt werden. Es wäre denkbar, hier auch zu verankern, dass die besitzende Bibliothek bei einer Verschlechterung der Nutzungsbedingungen des Originals geeignete Vorkehrungen 161

162 für eine ersatzweise Bereitstellung in anderer Form zu treffen hat. Solche Auflagen würden die Teilnahme an der kooperativen Archivierung aber für die Bibliotheken zu einem unberechenbaren Risiko machen und werden darum nicht empfohlen. Die Verpflichtung zur Archivierung erworbener Bände sollte normalerweise keine zusätzliche Belastung darstellen, da sie in der Regel ohnehin stattfindet. Es wird zu klären sein, ob auch Bibliotheken ohne formalen Archivauftrag ihrer Träger sich im Stande sehen, eine Verpflichtung auf unbestimmte Zeit einzugehen. Bestände können nur unter der Bedingung abgegeben werden, dass die übernehmende Bibliothek die gleichen Verpflichtungen übernimmt. Es ist klar, dass es im Grunde kaum eine Handhabe geben dürfte, eine Bibliothek an abweichenden Handlungen zu hindern. Hier ist gewissermassen ein institutionelles Vertrauen gefordert. Es ist eine regelmässige, z.b. jährliche Überprüfung der Vollständigkeit und des Zustandes des archivierten Materials vorzusehen. Verluste sind zu ersetzen. Die vorhergehenden Punkte sind umsetzbar, ohne dass die besitzende Bibliothek sich zum weiteren Bezug der Zeitschrift verpflichten muss. Es wird darum erwartet, dass die Archivierung für längere Zeiträume oder sogar unbefristet vereinbart werden kann. Eine Dauer von weniger als fünf Jahren wird nicht als sinnvoll angesehen. Nach Ablauf dieser Zeit ist eine explizite Bestätigung bzw. Neuvereinbarung vorzusehen, damit das Engagement der Institutionen gesichert ist. Eine Verpflichtung zum Weiterbezug einer Zeitschrift schränkt die Freiheit der betroffenen Bibliothek bei der Entwicklung des eigenen Bestandes ein. Sie kann deshalb nur zeitlich befristet oder unbefristet mit klaren Ausstiegsmodalitäten praktiziert werden. Es wird unter anderem auch vom Anteil der in dieser Form gebundenen Titel am Gesamtbudget einer Bibliothek abhängen, ob Bibliotheken sich im Stande sehen, hier irgendwelche Zusagen zu machen: Wenn diese Zusagen z.b. weniger als drei Prozent des Erwerbungsbudgets binden und die zugehörigen Titel ja offensichtlich zum Kernbestand der Bibliothek gehören, dann kann eine solche Verpflichtung für einige Jahre sicher eher akzeptiert werden, als wenn der Anteil bei 20 oder mehr Prozent liegt. Ein Ablauf für einen geregelten Ausstieg aus einer Bezugsverpflichtung könnte so aussehen, dass die Bibliothek sehr frühzeitig ihre Partner in einem festgelegten Verfahren fragt, ob eine andere Einrichtung den betroffenen Titel übernehmen möchte und kann und von allen die explizite Bestätigung einfordert, dass dies nicht der Fall ist. Leider berücksichtigt ein solches Vorgehen überhaupt nicht den Bedarf nach diesem Titel: Er kann sehr begehrt und wichtig sein, kann aber nicht mehr gehalten werden. Dies ist ein Dilemma, das für die Bibliotheken unabhängig von diesem Modell einer verteilten Archivierung besteht. Es drängt sich zur Zeit leider kein anderes Verfahren auf. Falls generell keine Verpflichtung zur Fortsetzung von Abonnements gewünscht wird, sollte zumindest ein Ablauf vereinbart werden, der sicherstellt, dass alle interessierten Bibliotheken über geplante Abbestellungen informiert werden. Damit erhalten sie die 162

163 Gelegenheit, über einen eigenen Bezug zu entscheiden oder auch ein vorhandenes Abonnement neu zu bewerten Teilnahme, Trittbrettfahrer und Kompensation Die Teilnahme an einem Programm der verteilten Archivierung muss den Bibliotheken freigestellt werden. In der beschriebenen Form bindet die koordinierte Archivierung zwar nur begrenzte personelle Ressourcen (in der Anfangsphase: Auswahlprozess, später Kontrolle und Nachführungen), aber sie schränkt naturgemäss die Entscheidungsfreiheit der Bibliotheken in gewisser Weise ein. Die Zusammenarbeit kann aber in der dargestellten Form für neue Partner offen sein. Die Frage der Teilnahme hat einen weiteren Aspekt, wenn man sich klarmacht, dass Bibliotheken, die sich selbst nicht in die Pflicht nehmen lassen, natürlich trotzdem von der Gewissheit profitieren, dass Material an einem anderen Ort zuverlässig archiviert wird. Es ist nicht vorstellbar, solche Bibliotheken bzw. ihre Nutzerschaft vom Zugriff auf vorhandene Bestände an anderen Orten auszuschliessen. Sofern nur die Archivierung koordiniert wird, scheint dieses Problem der Trittbrettfahrer 109 finanziell gesehen nur geringes Gewicht zu haben, weil jede Bibliothek ein Eigeninteresse an der Archivierung hat und diese in jedem Fall durchführen würde. Bei einer umfassenden Wirtschaftlichkeitsrechnung wird natürlich klar, dass dies so nicht stimmt: Wenn die Archivierung des gleichen Ensembles von Titeln auf mehr Institutionen verteilt werden kann, sinkt die Belastung pro Bibliothek. Es ist vorgeschlagen worden, zur Kompensation dieser Effekte die Dokumentenlieferung zwischen jenen Bibliotheken zu vergünstigen, die sich zur Archivierung oder sogar Fortsetzung von Titeln verpflichten. Eine faire Regelung sollte in einem gewissen Verhältnis zum Engagement der Bibliotheken stehen. Es ist z.b. denkbar, jeder Bibliothek gemäss der Anzahl der von ihr archivierten Titel ein Kontingent an Gratislieferungen zuzuweisen. Dies müsste theoretisch separat für jede der sehr unausgeglichenen Lieferbeziehung geschehen, die eine Bibliothek zu anderen Einrichtungen unterhält. Es wird im Detail zu klären sein, ob und wie eine Kompensation ohne grossen Aufwand erfolgen könnte Verschiebungen von Beständen Aus gegenwärtiger Sicht sollten die jeweils betroffenen Bestände in der besitzenden Bibliothek bleiben, um Aufwand und Hürden für die Bibliotheken niedrig zu halten. Sinnvoll könnten kleinere Zusammenführungen an einem Standort sein, wenn dadurch eine lückenlose Folge von Bänden über einen längeren Zeitraum erreicht werden kann. Auf längere Sicht wird zu überlegen sein, ob Bibliotheken sich von dubletten Beständen trennen möchten, vor allem angesichts bestehender und absehbarer Platzprobleme an verschiedenen Standorten. Dann könnte es interessant sein, Zweitexemplare in ein zentrales Depot zu geben oder sich ganz davon zu trennen. Je nach Bedarf könnte dieses entweder speziell auf wenig genutztes Material ausgerichtet sein oder gerade auf solches, das intensiv für die Dokumentenlieferung benutzt wird. Im einen Fall könnten sich die Mutterbibliotheken von einem Teil ihrer Raumprobleme entlasten, im anderen Fall könnten Dienstleistungen gebündelt und möglicherweise effizienter erbracht werden. Es ist nicht zu verkennen, dass 109 Im Englischen als Free rider -Problem bekannt. 163

164 dies ein schwerwiegender und u. U. irreversibler Schritt ist für Bibliotheken, die sich stark über die vorhandenen Bestände in ihrer Obhut definieren. Ein zentrales gemeinsam betriebenes Depot dürfte an einem ausserstädtischen Standort deutlich kostengünstiger einzurichten sein als bei den Hochschulbibliotheken selber, die sich mit wenigen Ausnahmen in zentraler Lage in Grossstädten befinden. So wurde bereits die Umnutzung von Industriegebäuden für derartige Zwecke demonstriert. Das British Library Document Supply Centre in Boston Spa mit Zeitschriftentiteln hat seinen Sitz in einer früheren Munitionsfabrik und die Technische Informationsbibliothek in Hannover betreibt in einem Industriegebäude in einem Vorort einen zweiten Standort unter anderem mit den Zeitschriftenbeständen, die älter als fünf Jahre sind (z. Zt. 3,6 Millionen Bände) Dokumentenlieferung Auf die Dokumentenlieferung wirkt sich das beschriebene Modell in mehrfacher Hinsicht aus: 1. Wenn Bibliotheken in grösserem Umfang die Möglichkeit nutzen, auf eigene Abonnemente oder gar auf eigene Aufbewahrung zu verzichten, dann ist insgesamt eine Zunahme der Dokumentenlieferungen zu erwarten. Da dies die Kundinnen und Kunden mit Gebühren belastet und weitere Ressourcen der Bibliotheken beansprucht, sind die Auswirkungen abzuwägen. 2. Nach den geltenden Bedingungen können Reproduktionen für die Dokumentenlieferung in den meisten Fällen nur aus den gedruckten Exemplaren angefertigt werden. Die besitzenden Bibliotheken werden so zum Teil stärker belastet. Nur wenige Einrichtungen können erfahrungsgemäss auf diesem Wege nennenswerte Einnahmen erzielen. Diejenigen Bibliotheken, die sich nicht zur Archivierung eines Titels verpflichtet haben, sind nicht zu Abbestellungen gezwungen. Darum können sie jederzeit selber entscheiden, welche Titel bei ihnen so stark nachgefragt sind, dass eine externe Beschaffung der Artikel den Aufwand der Aufbewahrung oder gar Erwerbung übersteigt. Diese können und sollten dann weitergeführt oder zumindest aufbewahrt werden. Die Grundlage für derartige Abwägungen ist aber die Annahme, dass die Gebühren, die für die Dokumentenlieferung erhoben werden, langfristig stabil bleiben bzw. nur im Rahmen der normalen Teuerung steigen. Es dürfte keiner Bibliothek möglich sein, so eine Stabilität fest zuzusagen. Die Entwicklung hin zur Vollkostenrechnung in den verschiedensten Bereichen macht es wahrscheinlich, dass in einem ressourcenintensiven Bereich wie der Dokumentenlieferung früher oder später andere Massstäbe gelten könnten als heute. Für eine hohe Versorgungssicherheit zu tragbaren Bedingungen bedarf es darum vermutlich sogar fester Vereinbarungen zwischen den Trägern der Bibliotheken, also in den meisten Fällen zwischen den Hochschulen: Im Normalfall sind sie es, die den wirtschaftlichen Handlungsspielraum der Bibliotheken bestimmen. Auf dieser Ebene könnte dann eine Festschreibung von Gebühren zumindest unter denjenigen Bibliotheken vereinbart werden, die an der Archivierung teilnehmen. Leider sprechen die gegenwärtigen internationalen Entwicklungen dafür, dass die Rahmenbedingungen für die Dokumentenlieferung sich auf einer anderen Ebene schlagartig verändern könnten. Das Ziel der laufenden Klagen gegen Subito ist es ja gerade, diesen Bezugskanal zu unterbinden bzw. einer Vergütungspflicht zu unterwerfen, die zu deutlichen Gebührenerhöhungen führen müsste (Müller 2004). Dies beträfe auf jeden Fall 164

165 auch Lieferungen aus dem Ausland in die Schweiz. Ähnliche Entwicklungen können auch innerhalb der Schweiz nicht dauerhaft ausgeschlossen werden. Es liegt also nicht einmal in der Hand der Bibliotheken oder ihrer Träger, sich in solcher Weise zu verpflichten. Sie müssen allerdings wachsam entsprechende Vorstösse verfolgen und die bedrohlichen Konsequenzen ihrer Umsetzung für den Wissenschaftsstandort bei den Entscheidungsträgern unmissverständlich klarmachen Empfehlungen für die verteilte Printarchivierung In der zweiten Hälfte des Jahres 2005 sollen erste Schritte gemäss dem Ablauf unter unternommen werden. Die interessierten Bibliotheken und ihre Interessen sind herauszufinden (Archivierung, Abbestellungen, Schwerpunktbildung). Es wird zu klären sein, wie viele und welche Bibliotheken für eine sinnvolle Umsetzung benötigt werden. Es soll modellhaft für ein begrenztes Ensemble von gedruckten Zeitschriften (z.b. eines Verlages) die Verteilung der zu archivierendentitel auf die interessierten Bibliotheken erfolgen. Erst Aufgrund des Ergebnisses soll beurteilt werden, ob ein Mechanismus zur Kompensation von unterschiedlichen lokalen (Mehr-)Aufwänden gefunden werden muss. Es ist darauf zu achten, dass Abläufe und Vereinbarungen auch ohne eine zentrale Instanz Gültigkeit haben, um sie über das Projektende hinaus stabil zu halten. In diesem Szenario könnten allfällige Abbestellungen erst 2006 mit Wirkung für 2007 realisiert werden. Wenn Abbestellungen bereits für 2006 aufgrund einer koordinierten Archivierung möglich sein sollen, dann muss dieser Projektteil entsprechend vorgezogen und zu Lasten anderer Arbeiten prioritär behandelt werden. Hierüber ist zu entscheiden. 165

166 8.8 Open Access und Dokumentenserver In dieser Studie wird der Begriff Dokumentenserver als Ersatz für Institutional Repository gebraucht. Der Betrieb von Dokumentenservern wird leider häufig gleichgesetzt mit der Bereitstellung einer Plattform für Open Access-Publikationen. Dies trifft nicht zu. Um bewusst Entscheidungen im Bereich Open Access treffen zu können, ist es daher nötig die verschiedenen grundlegenden Konzepte zu verstehen, die für eine Umsetzung des Offenen Zugangs zu wissenschaftlichen Inhalten diskutiert werden. Es sind dies: Offener Zugang zu bereits formal in Zeitschriften publizierten Artikeln (Pre- und Postprint- Archivierung durch den Autor). Publikation von Artikeln oder ganzen Zeitschriften nach Prinzipien des offenen Zuganges. Mit diesen beiden Ansätzen sollte die Bereitstellung von anderem Material (z.b. alle Arten von Prüfungsarbeiten und Dissertationen) aus den Hochschulen nicht vermischt werden, an die in der Schweiz beim Begriff Dokumentenserver mit Recht häufig gedacht wird. Diese Angebote haben selbstverständlich ihre eigene Berechtigung, sollten aber unabhängig von den beiden eigentlichen Open Access-Ansätzen betrachtet werden (vgl ). Die Server können in geeigneter Form jedoch die Basis bilden für diese Angebote. Es sind in anderen Arbeiten auch schon sechs verschiedene Varianten von Open Access diskutiert worden ((Okerson 2004), mit Verweis auf eine Arbeit mit sogar neun Typen). Dies schliesst jedoch Sonderkonditionen für Entwicklungsländer und eine verzögerte Freigabe (vgl ) sowie andere Modelle ein, die konzeptionell lediglich Erweiterungen oder Einschränkungen der beiden genannten Teile sind. Es muss ausdrücklich davor gewarnt werden, Open Access als ein Instrument für kurzfristige Einsparungen in Bibliotheksbudgets zu betrachten. Der Aufbau von ernstzunehmenden Angeboten in Technik und vor allem Inhalt kostet zunächst Geld (Halle 2003), und es wird unter Umständen sehr lange dauern, bis die alternativen Publikationswege so anerkannt sind, dass eine Entlastung an anderer Stelle spürbar wird, etwa bei den Zeitschriftenbudgets. Hinzukommt, dass die Angebote im Open Access dauerhaft zugänglich gehalten werden müssen, wenn sie Vertrauen geniessen sollen. Schliesslich muss davor gewarnt werden, das Engagement der Mehrheit der Autoren zu überschätzen. Die Materie ist komplex, und es wird nötig sein, klare Botschaften zu vermitteln, die umgesetzt werden können: Es darf nicht erwartet werden, dass jeder Autor den Blickwinkel der Bibliotheken zu seinem eigenen macht und aus diesem Grund entsprechend handelt. Jede Änderung seines Verhaltens muss erkennbar auch in seinem eigenen Interesse liegen. Ein schlagendes Argument in diesem Zusammenhang müssten die nachweislich häufigeren Zitierungen von Artikeln sein, die dem Open Access unterliegen (Antelman 2004). Auf politischer Ebene prallen verschiedene Interessen aufeinander. Namhafte internationale Einrichtungen der ForschungsFörderung haben sich für eine Open Access-Verfügbarkeit 166

167 ausgesprochen (z.b. Berliner Erklärung 110 ) und es gibt politische Vorstösse, einen offenen Zugang zu fördern oder sogar verpflichtend zu machen. Erst kürzlich wurden entsprechende Empfehlung des britischen Parlamentsausschusses für Wissenschaft und Technik von der Regierung als marktverzerrend abgelehnt (2004) und einige grundlegende Probleme in Abrede gestellt. Der Empfehlung waren umfassende Anhörungen zum wissenschaftlichen Publikationswesen vorangegangen (2004). Trotz der Konzentration auf Grossbritannien sind insbesondere die Ergebnisse und Empfehlungen des Ausschusses auch generell relevant. Zu den Forderungen gehören: Staatliche Förderung für institutionelle Repositorien (IRs) an allen Universitäten. Abgabe von Kopien staatlich geförderter Forschungspublikationen in diese IRs. Zentrale Einrichtung zur Beaufsichtigung des Aufbaus, der Vernetzung und der Einhaltung technischer Standards für maximale Funktionalität der IRs. Zumindest für weitere Experimente sollten Mittel für die Autorengebühren bei Open Access (OA)-Journalen verfügbar sein. Das Modell der Autorengebühren wird aber damit noch nicht akzeptiert. Die Regierung soll dringend eine breitere und langfristige OA-Strategie entwickeln. Explizit wird die Rolle der British Library als Anbieter einer leistungsfähigen Dokumentenlieferung hervorgehoben und ihre zukünftige zentrale Bedeutung bei der Langzeitarchivierung. Für beides werden ausreichende Mittel gefordert. Im Folgenden werden die Elemente vorgestellt die zu Open Access beitragen können Offener Zugang zu formal in Zeitschriften publizierten Artikeln (Pre- und Postprint- Archivierung durch den Autor). Dieser Weg rührt nicht grundsätzlich an der Publikation wissenschaftlicher Inhalte durch Verlage, sondern er ist bestrebt, die so publizierten Inhalte weltweit nutzbar zu machen ohne die Barriere von Zugangsgebühren für den Leser. Die Methode ist die Selbstarchivierung von Beiträgen durch ihre Autoren (Author Self-archiving). Ein Wissenschaftler, der einen Artikel in einer Zeitschrift publizieren lässt, speichert eine Version dieses Artikels auf einem Server seiner Institution ab, wo sie im Idealfall weltweit allgemein zugänglich sein sollte. Man spricht von Preprint- Archivierung, wenn die gespeicherte Version des Artikels jener Fassung des Manuskriptes entspricht, die der Autor zum Begutachtungsprozess eingereicht hat. Bei der Postprint- Archivierung wird eine Version des Manuskriptes gespeichert, die die Änderungen enthält, die im Zuge des Begutachtungsprozesses angebracht wurden. In der Regel entspricht das Layout jedoch noch dem Manuskript und nicht demjenigen der Publikation. Auch in diesem Zusammenhang ist der Gebrauch des Begriffes Archivierung irreführend: Es gehört in den Augen der Verfechter dieser Variante des Open Access zunächst nicht zu den Prioritäten der Initiativen, die Langzeitarchivierung der Inhalte anzustreben. Für diesen Zweck wird weiterhin die gedruckte Version als copy of record betrachtet, die die wissenschaftliche Überlieferung gewährleistet. 110 Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities: 167

168 Diese Art der Speicherung wird inzwischen von einer erheblichen Zahl kommerzieller und nicht-kommerzieller Verlage gestattet 111. Zu den Überlegungen dahinter gehört unter anderem, dass durch den offenen Zugang zu einer Form des Inhaltes die Wahrnehmung und Verbreitung der Ergebnisse verbessert wird, was sich inzwischen auch belegen lässt (siehe z.b. (Harnad and Brody 2004)). Damit steigt die Zahl der Zitierungen der Originalpublikation und mit ihr der Anreiz, in der entsprechenden Zeitschrift selbst zu publizieren. Dies liegt wiederum im Interesse des Verlages. Zum Schutz des direkten Verkaufsinteresses des Verlages werden bestimmte Auflagen gemacht. So wird etwa von der Johns Hopkins University Press und vom Verlag Elsevier vorgeschrieben, dass ein Dokumentenserver, auf dem Postprints hinterlegt werden sollen, nicht fachlich ausgerichtet sein darf, sondern nur die Produktion einer Institution und ihrer Angehörigen abbilden darf. Auch ist die Verwendung des Artikels wie gesagt in der Regel nur in der Gestaltung des inhaltlich korrigierten Manuskriptes zulässig und nicht im Layout der offiziellen Publikation. Ein Werkzeug für die lokale Speicherung könnten Dokumentenspeicher der Hochschulbibliotheken sein. Deren konkrete Gestaltung sollte dem unterschiedlichen Charakter der zu speichernden Objekte Rechnung tragen (vgl. z.b ). Es ist nicht zu übersehen, dass bei der Umsetzung dieses Modells eine starke Abhängigkeit von der jeweiligen Verlagspolitik besteht, die sich mit der Zeit verändern kann. Die Postprint-Archivierung kann im Prinzip kurzfristig umgesetzt werden. Ihr Hauptproblem ist die immer noch geringe Bekanntheit des grundlegenden Konzeptes und der tatsächlichen Möglichkeiten. So besteht weitgehende Unklarheit, darüber, welche Rechte überhaupt bestehen (Gadd, Oppenheim et al. 2003) und wie die Haltung der einzelnen Verlage ist. Die entsprechende Information und Motivation muss in den einzelnen Hochschulen stattfinden, wo sie im Idealfall auf den bestehenden Beziehungen zwischen Wissenschaftlern und Bibliotheken aufbauen kann. Wo die Pflege dieser Beziehungen zugunsten anderer Aufgaben eingeschränkt werden musste, ist dringend zu empfehlen, nach neuen Formen für diese Kontakte zu suchen. Je klarer wird, dass der Ausbau des elektronischen Angebotes sich nicht mehr wie gewohnt fortsetzen lässt, umso wichtiger ist es, die ergänzenden und zum Teil alternativen Möglichkeiten aufzuzeigen, die sich z.b. mit der Postprint-Archivierung bieten. Hier sind die Bibliotheken als kompetente Partner gefragt. Die Ablieferung von Postprints kann verbunden werden mit zusätzlichen Dienstleistungen für die Autoren, z.b. mit dem Angebot von Publikationslisten, bibliographischen Auswertungen oder Nutzungsstatistiken, die allerdings deutlich mehr Personal binden würden als die blosse Bereitstellung einer Speicherplattform. Eine solche Attraktivitätssteigerung ist notwendig, damit die Dokumente auf einem zentralen Server der Hochschule deponiert werden und nicht verstreut auf einer Vielzahl von Instituts- und anderen Servern. Nur so kann eine gewisse Einheitlichkeit der Metadaten und eine Pflege der Daten gewährleistet werden. Ausserdem steigt mit der Anzahl gespeicherter Dokumente auf einem Server die Wahrscheinlichkeit, dass sein Inhalt von den einschlägigen Suchmaschinen indexiert wird, sofern die technischen Voraussetzungen gegeben sind. Die Nutzung von Preprints hat in bestimmten Fächern eine längere Tradition (v.a. (Hochenergie-)Physik) und wird in anderen Bereichen gar nicht akzeptiert (Medizin). 111 Die umfassendste Liste aus dem Projekt RoMEO: 168

169 Wichtige Server in der Physik sind das seit 1991 betriebene ArXiv 112 (z. Zt. Über Preprints) sowie der Document Server des CERN in Genf. Dieser weist ebenfalls etwa Preprints, publizierte Artikel und zahlreiche weitere Dokumente nach, von denen etwa die Hälfte als Volltext verfügbar sein soll (bei insgesamt fast bibliographischen Aufnahmen) 113. Preprints sind offensichtlich in bestimmten Fällen sehr attraktiv für die Forschenden. Sie sind aber keine begutachteten Veröffentlichungen, auch wenn z.b. das ArXiv den Anspruch erhebt, dass jeder Beitrag zumindest so gut sein muss, dass er überhaupt einen Begutachtungsprozess durchlaufen könnte, ohne von vorneherein verworfen zu werden 114. Aus Sicht der Bibliotheken sollten jedoch bevorzugt begutachtete Postprints angeboten werden, da diese Möglichkeit von allen Fachrichtungen mit guter Akzeptanz genutzt werden kann. Nicht zuletzt werden die Bibliotheken nach der Qualität der von ihnen bereitgestellten Inhalte bewertet. Wenn Bedarf besteht, auch Preprints bereitzustellen, dann sollte dies in einem Gefäss geschehen, das vom übrigen Angebot getrennt behandelt und gekennzeichnet wird. So kennt der CERN Document Server eine Rubrik Articles & Preprints, die getrennte Sammlungen für Published Articles, Preprints, Theses, Reports und weitere enthält. Die Speicherung und Archivierung von Postprints ist ein geeigneter Einstieg in ein Engagement für den Offenen Zugang, weil sie verhältnismässig wenige Voraussetzungen benötigt. Entscheidend für den Erfolg aller Initiativen in Richtung Open Access ist nun, dass schnell eine kritische Masse der Angebote erreicht wird, die nicht mehr ignoriert werden kann. Der grösste Aufwand ist darum bis auf weiteres bei der aktiven Information der Autoren und der Fakultäten sowie bei der Akquisition von Postprints zu erwarten. Dies ist eine Erfahrung, die von praktisch allen Projekten bestätigt wird, die sich weltweit mit einem der Themen Selbstarchivierung oder Dokumentenserver befassen (Schlagwort: Advocacy ): Die Bereitstellung der technischen Infrastruktur reicht nicht aus, sie muss durch vielfältige Aktivität und direkten Kontakt mit den Autoren mit Inhalt gefüllt werden. In einer aktuellen Umfrage aus dem Jahr 2004 gaben 82% der befragten wissenschaftlichen Autoren an, nichts oder nur wenig über Open Access zu wissen (Rowlands, Nicholas et al. 2004). Bibliotheken und ihre Vertreterinnen und Vertreter müssen diesen Umstand unbedingt berücksichtigen: Sie können nicht davon ausgehen, dass sie ein bereits breit verankertes Bedürfnis befriedigen. Die Bedeutung der Akquisition wird illustriert durch die hohe Zahl von Volltexten (über 5.200) aus der eigenen Hochschule, die die E-Collection 115 der ETH-Bibliothek bereitstellen kann. Hier sind noch kaum Artikel enthalten, doch der Zustrom an Dokumenten ist durch vielfältige eigene Aktivitäten innerhalb der Hochschule gefördert worden, die kontinuierlich betrieben werden Publikation von Zeitschriften mit offenem Zugang Hier handelt es sich um eigentliche Konkurrenzprodukte zu kommerziellen Verlagszeitschriften. Im Idealfall sollen diese Zeitschriften wirtschaftlich überleben können, ohne 112 ArXiv (Los Alamos Preprint Server, heute Cornell Univ.): 113 CERN Document Server: 114 Can Peer Review be better focused?: 115 ETH E-Collection: 169

170 dass die Leser bzw. deren Bibliotheken eine Abonnements- oder Lizenzgebühr zahlen müssten. Die Publikation von Open Access Zeitschriften wird von verschiedenen Unternehmen und Initiativen betrieben, zu ihnen gehören BioMed Central 116 oder die Public Library of Science (PLoS) 117, aber auch Hochschulen. Das Directory of Open Access Journals (DOAJ) an der Universität Lund weist im Dezember 2004 immerhin 1380 Open Access Zeitschriften nach 118. Entgegen anders lautenden Behauptungen nimmt ihre Zahl weiterhin zu. Betrachtungen der ersten Impact Faktoren von Open Access-Titeln zeigen zudem, dass sie vergleichbare Werte wie konventionelle Zeitschriften erreichen (Testa and McVeigh 2004). Noch bemerkenswerter ist eine Untersuchung der Zitierungen von Artikeln, die zusätzlich zur formalen Publikation von den Autoren selbst mit Offenem Zugang archiviert wurden (vgl ). Im Vergleich mit nicht frei zugänglichen Artikeln aus den gleichen Zeitschriften ist die Wirkung der Open Access-Artikel deutlich höher (Harnad and Brody 2004) Open Access Publikation durch Verlage Um trotz des Verzichts auf Abonnementsgebühren den gleichen inhaltlichen und technischen Qualitätsansprüchen gerecht zu werden (Peer Review etc.), muss eine alternative Finanzierungsmöglichkeit gefunden werden, auch wenn keine Absicht besteht, einen Gewinn zu erwirtschaften. Als Geschäftsmodell wird am häufigsten eine Gebühr genannt, die von den Autoren zu zahlen ist. Die Grössenordnung liegt zumeist bei USD 500 bis USD pro Artikel. Dies würde die Kostenbarriere auf der Leserseite verringern, aber selbstverständlich neue Fragen aufwerfen, da ein gewisser Druck entstehen kann, möglichst viele Artikel zur Veröffentlichung anzunehmen. Eine wirkungsvolle Entkopplung von Qualitätsbeurteilung und finanziellen Erwägungen muss dem entgegenwirken. Bei bestehenden Zeitschriften ist zu dem der Übergang vom leserfinanzierten zum autorfinanzierten Geschäftsmodell zu bewerkstelligen 119 (Prosser 2003). Es wird angenommen, dass das autorenfinanzierte Modell gerade für kleine und mittlere Verlage eine Chance sein könnte, da sie am stärksten von Abbestellungen auf der Abonnementsseite betroffen sind. Als erster Grossverlag bietet Springer mit dem Modell Springer Open Choice 120 den Autoren die Möglichkeit, ihre Artikel gegen eine Einmalzahlung von zur Zeit USD 3.000,- frei zugänglich zu machen. Für eine Gebühr in dieser Höhe gibt es nur bei einer verschwindend kleinen Minderheit von Autoren Verständnis (Rowlands, Nicholas et al. 2004), was jedoch mit einer grundlegenden Unklarheit hinsichtlich der Ziele und Mittel von Open Access verbunden ist. Je nach Nutzung dieser Option sollen die Abonnementspreise angepasst werden. Das American Institute of Physics (AIP) kündigte im November 2004 für 2005 sein Modell Author Select an, das zunächst als Versuch für drei Titel betrachtet wird 121. Bei Zahlung einer Publikationsgebühr von USD 2000,- werden Artikel frei zugänglich gemacht. Ausdrücklich wird darauf hingewiesen, dass den Gutachtern verborgen bleibt, ob Autoren dieses Modell 116 BioMed Central The Open Access Publisher: 117 Public Library of Science PLoS: 118 Directory of Open Access Journals DOAJ: 119 Open Access Journal Business Guides: 120 Springer Open Choice: 0,00.html 121 Pressemeldung vom : American Institute of Physics announces Author Select, a new open access initiative for 2005: 170

171 wählen oder nicht. Der Versuch soll zeigen, ob ein Bedarf nach derartigen Modellen besteht und ob die Gebühr ausreichend ist, Lizenzgebühren für die Leser stabil zu halten, zu senken oder zu streichen. Geplant ist eine direkte Umsetzung des Open Access-Anteils in eine Reduktion der Online-Lizenzgebühr. Für Länder wie die Schweiz mit einer intensiven wissenschaftlichen Publikationstätigkeit drängt sich eine Überschlagsrechnung auf bezüglich der Gesamtkosten bei Gebühren in dieser Höhe. So wurden in den Jahren allein im grössten Fach Klinische Medizin laut ISI Essential Science Indicators nur in den von ISI erfassten Zeitschriften mehr als Artikel mit Schweizer Beteiligung (Hochschulen und Forschungseinrichtungen) publiziert 122, im Jahr ca Artikel. Für die bei ISI vertretenen Fächer zusammen liegt der Wert beim Vierfachen dieser Zahl pro Jahr (ca ). Eine Studie des CEST (Centre d Études de la Science et de la Technologie, Bern) bestätigt diese Grössenordnung: Für die Jahre 1998 bis 2002 findet sie allein für EPFL, ETHZ und die Universitäten in Basel, Bern, Freiburg, Genf, Lausanne, Neuchâtel und Zürich im Durchschnitt jährlich Artikel 123. Die Zählungen enthalten auch Artikel, bei denen nicht der Erstautor einer Schweizer Institution angehört, wobei angenommen werden muss, dass sie auch in diesem Fall anteilig an der Gebühr beteiligt wären. Bei Anwendung des Springer-Modells dürften sich die Werte auf deutlich zweistellige Millionenbeträge in Franken summieren und je nach Szenario an einigen Hochschulen die Höhe des Budgets für die Zeitschriftenerwerbung erreichen. Eine solche absolute Höhe der Ausgaben für Open Access wäre für die Hochschulen nur dann verkraftbar, wenn im Gegenzug tatsächlich in grossem Umfang auf kostenpflichtige Abonnemente und Lizenzen verzichtet werden könnte. Selbstverständlich fallen derartige Kostenschätzungen je nach fachlichem Schwerpunkt der einzelnen Einrichtungen sehr unterschiedlich aus. Das Problem liegt insofern möglicherweise nicht in der absoluten Höhe der Kosten, sondern in der Notwendigkeit, einen Übergang vom Abonnementssystem zum System mit Autorengebühren zu finden. Allerdings liegt der Springer-Verlag mit dieser Gebühr unseres Wissens an der Spitze der Skala. Gar nicht berücksichtigt ist die Möglichkeit, dass die Anzahl der Publikationen wegen einer solchen Gebühr sinken könnte. Von Kritikern wird befürchtet, dass insbesondere Autoren aus wirtschaftlich weniger leistungsfähigen Ländern oder Institutionen ihre Publikationstätigkeit einschränken müssten. Als Ergänzung oder Ersatz sehen einige Geschäftsmodelle von Open Access-Verlagen die beitragspflichtige Mitgliedschaft ganzer Institutionen vor. Deren Angehörige erhalten dann z.b. das Recht, ohne Gebühr Artikel zu publizieren. Bekannt ist das Beispiel von BioMed Central, das etwa 100 Zeitschriften in Open Access umfasst. 122 ISI Essential Science Indicators, Stand CEST: die Daten stammen aus den drei ISI-Datenbanken Science Citation Index, Social Science Citation Index und Arts and Humanities Citation Index und werten jede Adressangabe als eine Publikation der entsprechenden Einrichtung (Methodologie: 171

172 Grösse der Institution* Mitgliedsgebühr im Jahr 2005 in GBP/EUR Very small (20-500) / Small ( ) / Medium ( ) / Large ( ) / Very Large ( ) / *Bemessen nach der Anzahl von Graduierten, Postgraduierten Dozenten und anderem wissenschaftlichen Personal in Biologie und Medizin Tabelle 13: Mitgliedsgebühr von BioMed Central für das Jahr 2005 (Steigerung gegenüber dem Vorjahr: 5,5%). Im Jahr 2004 waren vier Universitäten und zwei Firmen aus der Schweiz Mitglied. Für Firmen, Gesellschaften und Gruppen gelten jedoch andere Tarife. Die Gebühren für die einzelne Einreichung eines Artikels sind abhängig von der gewählten Zeitschrift und betragen im Durchschnitt GBP 450,- (z. Zt. Etwa CHF 1.000,-). Damit steht die Frage im Raum, wer für die Mitgliedschaft oder allgemein für die Publikation unter Open Access Bedingungen bezahlen soll. Es fehlen klare Leitlinien der wissenschaftlichen Fördereinrichtungen, ob deren Beiträge auch zur Deckung von Publikationsgebühren herangezogen werden dürfen. Die Bibliotheken ihrerseits sehen sich mit entsprechenden Anfragen konfrontiert. Theoretisch leuchtet es ein, dass die Bibliotheken, die bisher den Lesezugriff finanziert haben, sich im Open Access Modell an Autorengebühren beteiligen. Dies kann jedoch erst erwogen werden, wenn an anderer Stelle eine Entlastung der Bibliotheken erreicht wird, ohne dass neue Aufgaben hinzukommen. Dies gilt jedoch nur für mehr oder weniger fixe Gebühren und Beiträge. Es ist dagegen aus strukturellen Gründen fragwürdig, ob die Bibliotheken sich an Gebühren beteiligen können, die von der Anzahl wissenschaftlicher Publikationen abhängen, die von Mitarbeitern der Hochschule hervorgebracht werden: Auf diese Zahlen haben die Bibliotheken keinerlei Einfluss und ihre Budgets wären kaum mehr berechenbar. Es erscheint plausibler, entsprechende Gebühren dort zu erheben, wo sie verursacht werden und wo ein Einfluss darauf besteht, wie viele Artikel produziert werden. Generell darf Open Access nicht als ein Weg verstanden werden, um Verlagen zu schädigen oder ihr Geschäft zu beeinträchtigen. Zu einem grossen Teil haben es ohnehin die Verlage in der Hand, welche Rolle sie beim Offenen Zugang spielen werden, der offenbar einem Bedürfnis der wissenschaftlichen Gemeinschaft entspricht. Eine Antwort, die von Verlagen vorgeschlagen wurde, besteht darin, Artikel nach einer bestimmten Zeit (z.b. sechs oder zwölf Monate) frei zugänglich zu machen. Dies ist das Modell, das u. a. die Royal Society 124 verfolgt und das gewissermassen einen weiteren Kanal des Open Access darstellt. Bei besonders grossem öffentlichen Interesse werden einzelne Artikel auch unmittelbar freigegeben. Die Royal Society sieht in der Weiterentwicklung des traditionellen Publikations- 124 The Royal Society: 172

173 modells darum einen Weg zur Verbesserung der wissenschaftlichen Information. Dies hängt auch damit zusammen, dass die Publikationstätigkeit von Fachgesellschaften ein wichtiges Standbein für die Finanzierung der Arbeit dieser Einrichtungen ist. Zudem ist die Rolle der Fachgesellschaften als Verleger deutlich weniger umstritten als die kommerzieller Grossverlage. Die Beurteilung dieses verzögerten Open Access durch Wissenschaftler und Vertreter der Open Access Bewegung ist unterschiedlich und reicht von Zufriedenheit mit derartigen Lösungen bis zur Behauptung, hier würde nicht Open, sondern nur noch eine Art Back Access eingeräumt. Bemerkenswerterweise geht das Institute of Physics (IoP) 125 einen fast konträren Weg: Für 30 Tage im Anschluss an die Veröffentlichung sind die Artikel der Institute of Physics Zeitschriften frei zugänglich. Erst nach Ablauf dieser Frist verschwinden sie hinter der Barriere des Abonnements bzw. der Lizenz. Selbstverständlich besteht keinerlei Notwendigkeit, dass sich zwingend die eine oder andere Lösung vollständig durchsetzen muss. Sie zeigen aber, dass einige Verlage selbst aktiv sind, um zu Lösungen beizutragen. Eine noch unbeantwortete Frage stellt sich angesichts des grossen Nutzens, den kommerzielle Zeitschriftenkunden aus Open Access-Publikationen ziehen können: Firmen handhaben Publikationen durch ihre Mitarbeiter zumeist restriktiv, so dass ein Wissenschaftler eines Industrieunternehmens im Regelfall viel seltener selbst Autor ist als sein Fachkollege in einer Hochschule. Er bzw. sein Arbeitgeber wird also in einem autorenfinanzierten Modell auch finanziell viel weniger beitragen, aber durch den freien Zugang stark profitieren. In anderer Form besteht ein solches Ungleichgewicht auch im traditionellen Modell: Es sind vor allem Angehörige öffentlich finanzierter Einrichtungen, die als Autoren die Zeitschriften unentgeltlich mit Inhalt beliefern, und dennoch müssen die gleichen Einrichtungen eben diese Inhalte zurückkaufen Open Access Publikation durch Hochschulen Die Publikation von Büchern Schriftenreihen oder Zeitschriften durch Hochschulen hat eine Tradition, die am stärksten in den angelsächsischen Ländern und im französischen Sprachraum gepflegt wird. Einige University Presses sind ausgesprochen angesehene und wirtschaftlich erfolgreiche Unternehmungen beträchtlicher Grösse (Halle 2004). In vielen anderen Ländern bestehen gleichfalls Hochschulverlage, bei denen nicht in jedem Fall klar ist, in welcher Beziehung sie zur jeweiligen Hochschule stehen. Zum Teil handelt es sich auch um Gemeinschaftsunternehmen mehrerer Hochschulen. Beispiele für Europäische Hochschulverlage sind neben den University Presses von Oxford 126 und Cambridge 127 etwa die Presses Universitaires de France 128 (neben Verlagen einzelner Universitäten) oder Scandinavian University Press 129. In der Schweiz bestehen z.b. die Presses polytechniques et universitaires romandes 130 sowie lokale Verlage. Die genannten Verlage stehen zum Teil in keiner direkten Beziehung zu den Bibliotheken der Hochschulen. Nicht alle Hochschulverlage geben Zeitschriften heraus. Dies könnte neben vielen anderen Gründen auch daran liegen, dass die Produktion und der Vertrieb von 125 Institute of Physics electronic journals: 126 Oxford University Press: 127 Cambridge University Press: 128 Presses Universitaires de France: 129 Universitetsforlaget (Scandinavian University Press): 130 Presses polytechniques et universitaires romandes : 173

174 Zeitschriften im traditionellen Modell (Leser bzw. Bibliothek zahlt für ein gedrucktes Produkt) zusätzlich zur redaktionellen Arbeit einen erheblichen logistischen Aufwand darstellt. Mit neuen Publikationsmodellen im Zeichen von Open Access entstehen auch neue Initiativen, um Zeitschriften in elektronischer Form produzieren und bereitstellen zu können. Eine generelle Förderung erfahren sie durch die Aktivitäten von SPARC 131 (Scholarly Publishing and Academic Resources Coalition) und SPARCEurope 132. Als ein vergleichsweise prominentes europäisches Beispiel sei die Plattform igitur (Utrecht Publishing and Archiving Services) 133 genannt, die an der Bibliothek der Universität Utrecht angesiedelt ist und elektronische Zeitschriften anbietet und deren Produktion unterstützt und andererseits Dokumentenserver betreibt. Ein jüngeres Beispiel aus den USA ist die Internet-First University Press, die neue und vergriffene Titel zu Herunterladen als PDF bereitstellt und daneben die kostenpflichtige Bestellung als gebundenes Print-on-Demand-Exemplar mit Abholung in einer Partnerbuchhandlung oder bibliothek erlaubt 134. Eine Print-on-Demand Initiative im deutschsprachigen Raum ist das Angebot ProPrint, das eng mit den Aktivitäten zum elektronischen Publizieren und zur Digitalisierung verbunden ist 135 und vom Computer und Medien Service und der Universitätsbibliothek der Humboldt-Universität in Berlin betrieben wird. Partner sind die Universitätsbibliotheken in Göttingen und Graz. Daneben zeigt ein Blick in das Verzeichnis von Open Access Zeitschriften DOAJ 136, dass unter den Verlagen zahlreiche Fakultäten oder hochschulnahe Einrichtungen sind sowie viele kleine und grössere wissenschaftliche Vereinigungen. Dies ist ein Indiz dafür, dass es Bedarf nach alternativen Publikationswegen gibt. Es ist selbstverständlich nicht sinnvoll, dass jede Vereinigung oder gar jede Fakultät innerhalb einer Hochschule selber Strukturen aufbaut, um wissenschaftliche Publikationen zu verbreiten. Dies verschlingt nicht nur zu viele Ressourcen, sondern es würde durch die Zersplitterung auch die Wahrnehmung der entsprechenden Aktivitäten mindern. Es ist vorstellbar, dass sich Bibliotheken ähnlich wie diejenige in Utrecht als Dienstleister für die professionelle elektronische Bereitstellung von Zeitschriften und anderen Inhalten anbieten. Auch die Gründung eigener Hochschulverlage in enger Verbindung mit den Aktivitäten für Dokumentenserver wird angeregt (Halle 2003). Dies muss nicht zwingend nach den Kriterien des Open Access erfolgen, auch wenn dies natürlich ein sehr gewünschtes Ziel ist. Damit die Publikation durch die Bibliothek oder eine mit ihr verbundenen Einrichtung ernst genommen wird, müssten entsprechende Aktivitäten auf professionellem Niveau erfolgen, und zwar sowohl im Hinblick auf die Qualitätssicherung des Inhaltes (Begutachtungsprozess / Peer Review) als auch auf das Dienstleistungsniveau für Autoren und Leser. Es wäre für das Ergebnis und damit für die Hochschulen und Bibliotheken schädlich, eine solche Aufgabe in mehr oder weniger improvisierter Form zu übernehmen, wenn andere Einrichtungen diese in überzeugenderer Weise wahrnehmen können. 131 SPARC (The Scholarly and Academic Resources Coalition): 132 SPARC Europe: 133 igitur (Utrecht Publishing and Archiving Services): 134 Internet-First University Press: 135 ProPrint Print-on-Demand Webservice: 136 Directory of Open Access Journals DOAJ: 174

175 Technisch gesehen ist die elektronische Zeitschriftenproduktion weitgehend automatisierungsfähig und kann mit dem bekannten redaktionellen Aufwand von den publizierenden Wissenschaftlern selbst durchgeführt werden. Diese Aktivitäten weiterzuführen bis hin zum Aufbau eigener Universitätsverlage wird als attraktives Betätigungsfeld für Universitätsbibliotheken gesehen. Es wird davon ausgegangen, dass Universitätsverlage nach der Gründungsphase ihre Leistungen betriebswirtschaftlich kostenneutral erbringen können und volkswirtschaftlich Kosten senkend wirken. Ob sich die zugrunde liegenden Modelle am Markt durchsetzen, hängt davon ab, ob Autoren, Bibliotheken, Rechenzentren, Hochschulleitungen, Fördereinrichtungen und Unterhaltsträger hierzu den politischen Willen haben und gemeinsam handeln (vgl. (Halle 2004)). Es wird kurzfristig (2 Jahre) nicht erwartet, dass die Publikation eigener Open Access- Zeitschriften durch Schweizer Hochschulen bzw. durch ihre Bibliotheken in grösserem Umfang aufgenommen werden kann, auch wenn es erste Beispiele gibt. Aus dem Umfeld von Einrichtungen der Information und Dokumentation stammen die beiden elektronischen Open Access Zeitschriften High Energy Physics Libraries Webzine 137 (CERN, seit 2000)), das auch einen inhaltlichen Schwerpunkt bei Open Access hat, sowie die neue Revue électronique suisse de la science de l information 138 (RESSI, Haute Ecole de Gestion, Genève, seit 2005). Vereinzelt existieren weitere Beispiele, unter anderem in Informatik 139 und Mathematik, die für den Moment durchaus einen Zweck erfüllen. Ihre Produktion ist aber ausserordentlich abhängig vom Engagement einzelner Personen und von den Möglichkeiten, die ihnen zur Verfügung stehen. Dies reicht von der Mitnutzung verfügbarer Hardware bis zum Einsatz von anderweitig beschäftigten Mitarbeitenden. Damit sind die meist unterschätzten Kosten kaum bestimmbar, und dies kann in dieser Form kein tragfähiges Modell sein. Solche Konstellationen weisen ein erhebliches Risiko auf, dass nach dem Ende des einzelnen Engagements gar kein Zugang mehr möglich ist, wenn die Server mit den entsprechenden Inhalten nicht mehr betrieben werden. In diesem Fall würde der offene Zugang ersatzlos enden. Selbstverständlich ist es möglich, diesen Zugangsverlust durch entsprechende Massnahmen zu verhindern. Es ist zu vermuten, dass diese Massnahmen (Übernahme auf Spiegelserver etc.) von institutionellen Trägern besser gewährleistet werden können. Mittelfristig könnte es darum aus Sicht der Bibliotheken sinnvoll sein, die Publikation einzelner bestehender Zeitschriften von wissenschaftlichen Vereinigungen oder Lehrstühlen zu unterstützen, die bereits über eine etablierte redaktionelle Basis verfügen, aber den technischen Aufwand für sich allein scheuen. Natürlich hiesse dies in manchen Fällen, in Konkurrenz zu treten zu bestehenden Hochschulverlagen oder anderen kommerziellen Anbietern. Es ist weitgehend eine politische Frage, ob dies angestrebt werden soll und kann. In jedem Fall wären transparente Kostenmodelle auszuarbeiten, die verdeckte Quersubventionierungen sichtbar machen und eine Beurteilung erlauben. Rein formal ist es darum fraglich, ob entsprechende Aktivitäten wirklich über längere Zeit innerhalb einer Bibliothek in Angriff genommen werden sollen oder ob dies aus Gründen der 137 High Energy Physics Libraries Webzine seit 2000 (ISSN ): 138 Revue électronique suisse de la science de l information (RESSI) seit 2005 (ISSN ): 139 Journal of Object Technology seit 2002 (ISSN ): 175

176 Transparenz nicht früher oder später in Zusammenarbeit mit bestehenden oder neuen Hochschulverlagen geschehen sollte. Eine der Übergangsformen zwischen Dokumentenservern und der Publikation ganzer Open Access-Zeitschriften ist die Bereitstellung von Einzelartikeln mit einem Qualitätsvermerk. So könnten von den Autoren Artikel oder andere Beiträge auf einen Hochschulserver geladen werden. Erst nach einer Qualitätsprüfung erhalten sie ein Kennzeichen für die Zertifizierung ihrer Qualität. Damit wird die Funktion angesehener traditioneller Zeitschriften nachgeahmt, deren Reputation unter anderem auf qualitativer Auswahl beruht. Bei entsprechender Ausgestaltung kann durch die Vergabe eines solchen Zertifikats eine virtuelle Zeitschrift zusammengestellt werden, die dem grundsätzlich offenen Inhalt eine Qualitätsstruktur überlagert. Man spricht darum von Overlay-Journals Allgemeine Dokumentenserver der Hochschulen Unter dieser Kategorie werden all jene Angebote zusammengefasst, die nicht primär auf Postprints oder Open Access-Zeitschriften ausgerichtet sind. Sie stellen die grosse Mehrheit aller gegenwärtig weltweit betriebenen Server Elektronische Dissertationen Im Gegensatz zum Anspruch formaler Publikationen (8.8.2) werden Dokumentenserver von Hochschulen in unterschiedlicher Weise genutzt und beurteilt. In praktisch allen Fällen bilden Dissertationen der eigenen Hochschule den Ausgangspunkt für den Aufbau von Dokumentenservern in Hochschulbibliotheken (zu den Ergebnissen der Umfrage vgl ). Einige Gründe hierfür sind klar: Bei Dissertationen handelt es sich immer um qualitätsgeprüfte Arbeiten, die zur Veröffentlichung bestimmt sind, d.h. die Bibliothek braucht keine Bewertung und Auswahl zu treffen. Gemäss den Vorschriften der Promotionsordnungen gelangen Dissertationen in jedem Fall in die Hochschulbibliotheken. Auch wenn dies in gedruckter Form geschieht, haben Bibliotheken doch zumindest Zugriff auf diese Version als Ausgangspunkt für eine nachträgliche Digitalisierung zur Online-Bereitstellung, sofern sie die entsprechende Berechtigung einholen. Da Dissertationen und ihre Ablieferung Gegenstand der Promotionsordnungen sind, ist es auch möglich, Einfluss darauf zu nehmen, in welcher Form die Arbeiten abzuliefern sind. Es kann durch die Fakultät die Abgabe einer elektronischen Version durch den Autor vorgeschrieben werden, so dass die Notwendigkeit entfällt, bei den Absolventen um die Abgabe zu werben. Zum Teil wird die Formulierung derartiger Vorschriften an die Bibliotheken selber delegiert, und die Promotionsordnungen verweisen lediglich auf die entsprechenden Regelungen. Wie weit die Anforderungen gehen können, hängt entscheidend davon ab, welche Unterstützung von den Fakultäten und der Hochschulleitung gegeben wird. Die Bereitstellung von elektronischen Dissertationen ist an den Schweizer Hochschulen in sehr unterschiedlichem Masse in den Routinebetrieb überführt worden (vgl ). Trotzdem sind für diesen Dokumententyp die Überlegungen für eine zentrale Archivierung durch die Schweizerische Landesbibliothek relativ weit gediehen. Es existiert eine 176

177 Vereinbarung auf der Ebene der Konferenz der Universitätsbibliotheken (KUB) 140, die allgemeine Modalitäten und insbesondere das Metadatenschema für die Ablieferung der Dissertationen definiert. Die entsprechenden Abläufe werden gegenwärtig im Rahmen des Projektes e-helvetica der Landesbibliothek mit Hochschulpartnern erprobt 141. Der Umgang mit elektronischen Dissertationen kann darum nicht ohne weiteres auf andere Dokumente übertragen werden, für die die Möglichkeit zur Speicherung auf einem Dokumentenserver denkbar oder wünschenswert wäre Andere Dokumente Bei Dissertationen bedeutet das Online-Angebot von elektronischen Versionen nur eine zusätzliche Form der Bereitstellung von Dokumenten, die in Papierform schon bisher in die Bibliothek gelangt sind. Daneben wird innerhalb einer Hochschule von Lehrenden, Forschenden und Studierenden eine Vielzahl von Dokumenten erzeugt, die bisher gar nicht in die Bibliotheken gelangen. Dazu gehören in vielen Fällen Diplom-, Lizenziats- und Studienarbeiten, Berichte, Lehrmaterialien etc. Diplomarbeiten werden in manchen Fällen in den Institutsbibliotheken aufbewahrt, zum Teil aber auch gar nicht. Diplomarbeiten werden mancherorts nur als Teil der Prüfungsunterlagen betrachtet und nicht als Publikationen. Darum fallen auch die Antworten auf die Fragen unterschiedlich aus, die sich für diese Arbeiten stellen. Manche Hochschullehrer etwa möchten selber entscheiden, ob von ihnen betreute Arbeiten publiziert werden dürfen oder nicht. Der fehlende Zugang zu Diplomarbeiten wird von potentiellen Nutzenden insgesamt bedauert und ein volkswirtschaftlicher Schaden in Milliardenhöhe behauptet, weil Ergebnisse nicht genutzt würden 142. Insbesondere dort, wo diese Arbeiten in enger Kooperation mit Firmen entstehen, gibt es jedoch Vorbehalte hinsichtlich einer allgemeinen Online- Veröffentlichung. Diese Art der Zusammenarbeit ist bei den Fachhochschulen wegen ihrer Anwendungsorientierung relativ häufig anzutreffen. Die Online-Bereitstellung wird dann nur von Fall zu Fall oder mit einer gebührenden zeitlichen Verzögerung nach der Entstehung zu erreichen sein. Die Möglichkeit dazu sollte auf jeden Fall bestehen. Sehr grob lassen sich diese Punkte zusammenfassen: Nicht alle Dokumente, die an einer Hochschule entstehen, sind unbedingt auch als Publikationen für die allgemeine Benutzung bestimmt, weil o die inhaltliche Qualität nicht gegeben ist, nicht beurteilt wurde oder gar nicht beurteilt werden kann. o o Inhalte (befristet?) ausdrücklich nicht publiziert werden sollen. formale Gründe dagegen sprechen (Einstufung als Prüfungsunterlage etc). Nicht alle Dokumente, die zur Veröffentlichung gelangen, sind für eine dauerhafte Aufbewahrung gedacht, und es ist zu fragen, ob die elektronische Angebotsform daran grundsätzlich etwas ändert oder ändern sollte. 140 Elektronische Dissertationen in der Schweiz: Vereinbarung der Mitglieder der Konferenz der Universitätsbibliotheken der Schweiz (KUB), Definitive Version, 03. November 2003 (www.kub-cbu.ch, Elektronische Dissertationen). 141 Projekt e-helvetica der Landesbibliothek: 142 Siehe z.b. Pressemeldung 177

178 Einige dieser Vorbehalte werden aus bibliothekarischer Sicht dadurch verstärkt, dass die Objekte auf den Dokumentenservern der Hochschulbibliotheken mehrheitlich auch in den Katalogen der Bibliotheken nachgewiesen werden, was die Anbindung an die übrigen Bestände erleichtert und den Wert des Kataloges als zentrales Nachweisinstrument erhöht. Dies hat zur Folge, dass im Bestand einer Bibliothek nebeneinander Objekte verzeichnet werden, die ganz verschieden bewertet werden müssen. Für die Endnutzerschaft ist dies nicht transparent. Natürlich ist auch die Qualität traditioneller Medien sehr unterschiedlich, sie werden gerade darum ja auch meist von den Bibliotheken intellektuell ausgewählt. Neben der Form der Erschliessung ist natürlich auch deren Qualität ein Thema: Die hochwertige Erschliessung ist eine wichtige Kompetenz der Bibliotheken. Wenn sie als verzichtbar angesehen wird, schwinden die Grundlagen dafür, bestimmte Aufgaben natürlicherweise bei den Bibliotheken anzugliedern Folgerungen für einen Dokumentenserver Die Dokumente, die in der Regel mit Dokumentenservern in Verbindung gebracht werden, haben also sehr unterschiedlichen Charakter und dienen verschiedenen Zwecken. Es ist darum wenig sinnvoll, zu viele der verschiedenen Funktionen miteinander zu vermischen, die ein Dokumentenspeicher haben kann. Der Dokumentenserver stellt dabei zunächst nur eine technische Plattform bereit, die für inhaltlich unterschiedliche Angebote genutzt werden kann. Der Sprachgebrauch führt hier zu einiger Verwirrung, da sowohl diese Plattform als auch die inhaltlichen Angebote auf dieser Basis als Dokumentenserver verstanden werden. Idealerweise sollte das inhaltliche Konzept für die Speicherung von grauer Literatur aus einer Hochschule bestimmen, welche technische Lösung in Betracht gezogen wird. In der Praxis setzen die Möglichkeiten der verfügbaren Software weiterhin mehr oder weniger enge Grenzen für die Umsetzung (vgl ). Es gibt im Übrigen auch den Fall, dass verschiedene Softwareplattformen nebeneinander für unterschiedliche Zwecke verwendet werden. Im Projekt Daedalus 143 an der University of Glasgow werden publizierte und begutachtete Artikel auf einer anderen Plattform (Eprints ) angeboten als Preprints, Technische Berichte, Dissertationen (DSpace 145 ). Eine separate Plattform für Dissertationen ist anscheinend zwischenzeitlich aufgegeben worden. Ein inhaltliches Konzept könnte auf einer geeigneten Plattform für eine Hochschule die folgenden Bestandteile vorsehen. Dabei sind naturgemäss nicht alle Teile für alle Hochschulen von Bedeutung: Speicher für qualitätsgeprüfte Dokumente auf wissenschaftlichem Niveau. Dissertationen, Postprints etc.; mit Einschränkungen und bei Bedarf auch Diplomarbeiten etc. Dieser kann gegliedert sein nach Departementen oder Fakultäten, Fächern etc. Es ist denkbar, nur bibliographisch eigenständige Veröffentlichungen zusätzlich im Katalog nachzuweisen, Postprints usw. jedoch nur auf dem Server. Für die genannten Publikationen wäre der Anspruch, sie dauerhaft verfügbar zu halten. 143 Projekt Daedalus der Univ. of Glasgow: 144 EPrints.org - Self-Archiving and Open Access (OA) Eprint Archives: 145 DSpace: 178

179 Speicher für nicht qualitätsgeprüfte Dokumente oder solche, die unterhalb eines wissenschaftlichen Niveaus eingestuft werden. Preprints, Diplom- und Lizenziatsarbeiten?, Studienarbeiten. Der Nachweis kann hier nach Bedarf nur auf den Server beschränkt und nicht im Katalog geführt werden. Auch hier besteht der Anspruch, sie dauerhaft verfügbar zu halten. Speicher für Dokumente aus Lehre und Forschung, die nur vorübergehend Bedeutung als Arbeitsmaterial haben (Vorlesungen und Präsentationen etc.). Hier könnte auf eine Katalogaufnahme verzichtet werden, wenn in anderer geeigneter Form ein Recherchezugriff besteht. Bereits bei der Speicherung ist zu entscheiden, wie lange ein Objekt gespeichert bleiben soll. Dies könnte eine fixe Zeitdauer für alle Dokumente sein oder eine, die vom Autor zu bestimmen ist. Es gibt mehrere Einwände gegen eine solche Ausgestaltung mit einer institutionellen Gliederung: So führt eine solche oder ähnliche Aufteilung gerade in der Anfangszeit mit wenigen Dokumenten zu einer Zersplitterung des Angebotes. Eine Aufteilung nützt ausserdem unmittelbar nur denjenigen Nutzerinnen und Nutzern etwas, die die qualitätsgeprüften Dokumente aus der Fakultät X der Hochschule Y durchblättern möchten. Dies dürfte vor allem für interne Nutzende interessant sein. In der Praxis wird aber eher ein Zugriff erwartet, bei dem eine interne oder externe Kundschaft ein Postprint des Artikels K vom Autor L sucht. Bei der Suche ist es ihr in weiten Grenzen egal, wo sie den Artikel findet und ob dieser am gleichen Ort liegt wie andere, weniger hochwertige Objekte. Wird dann allerdings am Speicherort noch etwas geblättert, so stellt sich unter Umständen wieder ein zwiespältiger Eindruck ein durch die Vermischung der verschiedenen Ebenen. Technisch schliessen sich beide Arten des Zugriffs natürlich nicht aus, und es ist dem Bedarf an Ort und Stelle zu überlassen, welche Art der Aufteilung für nötig gehalten wird. Denkbar ist auch eine Trennung von dauerhaft zu speichernden Objekten und solchen, die nach einer gewissen Zeit gelöscht werden können. Die Entscheidung für oder gegen einen Nachweis im Katalog der Bibliothek kann ebenfalls zur Kennzeichnung der Qualität genutzt werden, indem nur die Dokumente, die dauerhaft zum Bestand der Bibliothek zählen sollen, dort nachgewiesen werden. Es muss dann aber in anderer Form gewährleistet sein, dass der Endnutzerschaft ein zentraler Einstieg zu allen Ressourcen angeboten wird, wenn sie dies wünscht. Unabhängig von der Frage, wer einen Speicher technisch betreibt und wie dieser aussieht, ist es aber vor allem von Bedeutung, die Nutzung durch Autoren und Leser in der Institution als Selbstverständlichkeit zu verankern und schliesslich einen Kulturwandel zu bewirken. Erst dann kann vermieden werden, dass auf derartigen Servern vor allem zweitklassige Resultate und Sitzungsberichte abgelegt werden, während weiterhin Zeitschriften die Repositorien für die wichtigen Publikationen darstellen (Kohl 2003) Standards und Empfehlungen für Dokumentenserver Die bisherigen Ausführungen waren im Prinzip bezogen auf einen einzelnen Dokumentenserver, der relativ frei gemäss den Bedürfnissen der jeweiligen Institution gestaltet werden kann. Auf der inhaltlichen Ebene ist diese Freiheit wünschenswert, auf der technischen Ebene kann sie im ungünstigen Fall aber einen Austausch unter den verschiedenen Servern 179

180 erschweren. Da Austausch und Vernetzung den Wert der Information auf Dokumentenservern stark erhöhen, sollten gemeinsam gewisse Standards definiert und eingehalten werden, um diese Vernetzung zu erleichtern. Nützliche Empfehlungen für den Betrieb von Dokumenten- und Publikationsservern sind im Zusammenhang mit der Schaffung eines Zertifikats für solche Server durch die Deutsche Initiative für Netzwerkinformation (DINI) 146 zusammengestellt worden 147. Es handelt sich um Mindestanforderungen für die Erlangung des Zertifikates und um zusätzliche Empfehlungen für erwünschte Weiterentwicklungen. Da sie auch international gewürdigt werden, sollen Richtlinien und Empfehlungen hier in der Kurzfassung wörtlich wiedergegeben werden. 1. Leitlinien (Policy): Der Betreiber des Dokumentenservers formuliert Leitlinien für inhaltliche Kriterien sowie den Betrieb des Servers und veröffentlicht diese. Darin müssen die Rechte und Pflichten des Betreibers des Dokumentenservers sowie der Autoren/Herausgeber festgeschrieben [sein]. Die Policy 148 muss enthalten: Festlegungen der inhaltlichen, funktionalen und technischen Qualität der Dokumente, die auf dem Dokumentenserver veröffentlicht werden Eine Garantien für bestimmte Archivierungszeiträume in Abhängigkeit der inhaltlichen, funktionalen und technischen Qualität der Dokumente Verfahren zum Betrieb des Dokumentenservers und die Festlegung bestimmter Leistungen, die der Betreiber des Dokumentenservers den Autoren und Herausgebern anbietet Die Festlegung von Rechten und Pflichten der Autoren und Herausgeber 2. Autorenbetreuung Mindeststandard: Nach außen sichtbares Beratungsangebot ( z.b. WWW-Seiten und - Kontaktadressen, telefonische und persönliche Autorenbetreuung) Unterstützung des gesamten Publikationsprozesses (einschließlich rechtlicher und technischer Problemstellungen) Empfehlungen: Kursangebot zum elektronischen Publizieren mindestens einmal im Semester Angebote zum strukturierten Schreiben für Autoren Verwendung von Helpdesk- Systemen 3. Rechtliche Aspekte Mindeststandard: Der Betreiber des Servers muss berechtigt sein, die eingereichten Dokumente auf dem Server zu veröffentlichen (Recht zur elektronischen Speicherung, insbesondere in Datenbanken, und zum Verfügbarmachen für die Öffentlichkeit zum individuellen Abruf, zur Wiedergabe auf dem Bildschirm und zum Ausdruck beim Nutzer [Online-Nutzung], auch auszugsweise), Die Weitergabe der Dokumente an eine Archivierungsinstitution muss gestattet sein. Die Dokumente müssen durch den Betreiber zum Zweck der Sicherung der Langzeitverfügbarkeit technisch verändert werden dürfen. Haftungsausschluss muss in einem Disclaimer formuliert sein. 146 Deutsche Initiative für Netzwerkinformation (DINI): 147 DINI Zertifikat Dokumenten- und Publikationsserver (Stand ): 148 Vgl. Policy des Dokumenten- und Publikationsservers der Humboldt-Universität zu Berlin (http://www.edoc.hu-berlin.de/e_info/leitlinien.php) 180

181 Empfehlungen: Es wird empfohlen, die unterschiedlichen Rechte in den Metadaten zu verankern. 4. Authentizität und Integrität: Der folgende Punkt bezieht sich auf die Sicherheit des Servers: Mindeststandard: Dokumentation des technischen Systems Es wird davon ausgegangen, dass der Server darauf ausgelegt ist, dass er 365 Tage im Jahr zur Verfügung steht. Existenz eines Systems zur Sicherung der Server, Metadaten und Dokumente Kontrollierte und nachweisbare Aufnahme von Dokumenten aus technischer Sicht Empfehlungen: SSL Zertifizierung Der folgende Punkt bezieht sich auf die Sicherheit der Dokumente: Mindeststandard: Persistent Identifier Ein inhaltlich verändertes Dokument ist wie ein neues Dokument zu behandeln (neuer Persistent Identifier). Archivierung der eingereichten Dateien des Autors im Ablieferungsformat Empfehlungen: Einsatz eines Verfahrens zum Nachweis der Unversehrtheit der Dokumente (z.b. Hash- Wert) Fortgeschrittene digitale Signatur nach 2 Abs. 2 SigG 2001 Erstellung von Archivierungsformaten im Hinblick auf den Export in Langzeitarchivierungssysteme(vgl. Abschnitt 2.7 und 4.7) Darstellung der Dokumente in einem gängigen Präsentationsformat. Wenn dies nicht möglich ist, sollte ein Viewer entweder zum Herunterladen oder eine Internetreferenz für den Viewer angeboten werden. 5. Erschließung 5.1 Sacherschließung Mindeststandard: Definierte Policy zur Sacherschließung muss vorhanden sein. Mindestens verbale Sacherschließung durch freie Schlagwörter oder klassifikatorische Erschließung Empfehlungen: Dewey-Dezimalklassifikation (DDC) gemäß der Verwendung in der Deutschen Nationalbibliografie als allgemeine klassifikatorische Erschließung aller Dokumente (entsprechend den DINI-OAI Empfehlungen). Mindestens ein weiteres normiertes System verbaler oder klassifikatorischer Erschließung (allgemein oder fachspezifisch, z.b. Schlagwortnormdatei, LoC, CCS, MSC, PACS etc.) Englischsprachige Schlagwörter Kurzzusammenfassung / Abstracts in deutsch und englisch 5.2 Metadatenexport Mindeststandard: Metadaten werden frei zugänglich angeboten Dublin Core Simple (ANSI/NISO Z )

182 Empfehlungen: DC qualified ONIX 150 Technische und/oder Archivierungsmetadaten, Print on demand Daten werden angeboten (z.b. METS 151 ). Export in Langzeitarchivierungssysteme Export in bibliographische Datenbanken (z. B. Literaturverwaltungsprogramme, Verbünde, OPACs) 5.3 Schnittstellen Mindeststandard: Webserverschnittstelle für Nutzer OAI-PMH Empfehlungen: Erweiterung des OAI-Protokolls (zum Austausch komplexerer Metadatenschemata) Webserviceschnittstelle (z. B. SOAP 153 ) Z Zugriffsstatistik Mindeststandard: Jeder Dokumentenserver muss eine eigene konsistente Zugriffsstatistik führen im Rahmen der rechtlichen Bestimmungen (Webserver-Logs). Empfehlungen: Die Statistik sollte als dynamisches Metadatum dem jeweiligen Dokument zugeordnet sein. 7. Langzeitverfügbarkeit Mindeststandard: Dauerhafte Verbindung der Metadaten mit den Dokumenten (z.b. Verbindung über Persistent Identifier oder zusammen in einem Container) Definition einer Mindestzeit der Dokumentverfügbarkeit in der Policy, die 5 Jahre nicht unterschreiten darf [damit ist die Zeit gemeint, während der die Objekte auf dem Dokumentenserver selbst vorgehalten werden] Empfehlungen: Sicherstellung der Langzeitverfügbarkeit durch ggf. Kooperation mit einer Archivierungsinstitution Diese Liste von Anforderungen und Empfehlungen erscheint auf den ersten Blick als sehr umfangreich. Sie soll auf keinen Fall eine Barriere für den Aufbau von Servern darstellen. Vielmehr kann sie zusammen mit den Erläuterungen 147 eine sehr nützliche Hilfe sein und sollten wann immer möglich berücksichtigt werden. Relativ viele Forderungen ergeben sich bei genauerer Betrachtung von selbst. Für manche der genannten Punkte besteht unmittelbar ein Bedarf, der sonst weniger konkret formuliert werden könnte. Anderes muss

183 mit dem Ausbau des Angebotes ergänzt werden, je weiter die Vernetzung vorangetrieben wird. Auf keinen Fall dürfen die gesammelten Anforderungen, Empfehlungen und Standards dazu führen, dass die Umsetzung in der Praxis sich auf unbestimmte Zeit verzögert. Ideal sind Systeme, die so offen gestaltet sind, dass nachträgliche und stückweise Ergänzungen möglich sind. Wo Standardisierungen unverhältnismässig oder unerwünscht sind, müssen Wege gefunden werden, um mit der verbleibenden Heterogenität umzugehen Dokumentenserver-Software Zu Beginn der Studie hatte die Absicht bestanden, zu einer Empfehlung zur Verwendung einer bestimmten Dokumentenserver-Software zu gelangen. Dies hat sich als nicht sehr sinnvoll und nur wenig praktikabel erwiesen. Die Unterschiede der verschiedenen Systeme lassen sich erst in der Anwendung für einen konkreten Zweck wirklich beurteilen, wie bei einer Testinstallation festgestellt wurde. Es gibt sogar ein Projekt DAEDALUS 155 der University of Glasgow, das drei verschiedene Plattformen einsetzt, weil sie für die verschiedenen Zwecke (Publikationen vs. Arbeitspapiere vs. Doktorarbeiten) jeweils spezifische Vorteile haben sollen (Eprints vs. DSpace vs. ETD-db 156 ) (Nixon 2003; Jones 2004). Ausserdem befinden sich die in Frage kommenden Systeme in ständiger Weiterentwicklung, so dass auch die Ablehnung eines Systems verfrüht sein könnte. Konkret hat z.b. DSpace in der Version 1.1 in einer Installation für Testzwecke nicht überzeugt (vgl. Anhang II (Kapitel 13)), doch die Diskussion innerhalb der Nutzer- und Entwicklergemeinschaft zeigte bereits, dass die von uns bemängelten Punkte bereits Gegenstand der Arbeiten für neue Versionen sind. Kleinere Mängel wurden in einer Version 1.2 zumindest teilweise gemildert. Für die Behebung grösserer struktureller Probleme wird aber erst auf eine Version 2.0 verwiesen, von der nicht bekannt ist, wann sie nutzbar sein wird. Eine Nutzung unterschiedlicher Software an den Hochschulen kann dazu dienen, im Austausch der Erfahrungen Stärken und Schwächen der einzelnen Systeme aufzuzeigen. Es wären in jedem Fall sehr gewichtige Gründe nötig, um vorhandene Installationen auf ein anderes System umzustellen. Es erscheint daher als sinnvoller, aus der Erfahrung einer Testinstallation heraus Hinweise dafür zu geben, welche Punkte bei der Auswahl beachtet werden sollten. Eine gute Grundlage existiert mit der vergleichenden Zusammenstellung von Informationen zu Open Repository Software des Open Society Institute 157. Weitere Hinweise finden sich in zwei Tabellen in den Anhängen IIIa und IIIb (Kap. 14 und 15). Als Open Source-Produkte haben alle verfügbaren Systeme den Anspruch, eine niedrige wirtschaftliche und technische Barriere für die Installation zu bieten. Dieser Anspruch wird auch eingelöst, und im Gegensatz zu anderen Anwendungen gibt es nur geringe Vorbehalte gegen die Verwendung von Software auf Open Source-Basis. Sobald jedoch Bedarf für grössere Anpassungen an die Verhältnisse vor Ort besteht, kann ein erheblicher Aufwand entstehen. Im günstigsten Fall reichen Eingriffe in die Konfiguration aus, im ungünstigeren 155 DAEDALUS (Data Providers for Academic E-content and the Disclosure of Assets for Learning, Understanding and Scholarship): 156 ETD-db (Electronic Theses and Dissertations Database): 157 A Guide to Institutional Repository Software (z. Zt. V 3.0): 183

184 Fall muss in die Programmierung eingegriffen werden, was naturgemäss andere Qualifikationen erfordert. Im Rahmen der Studie wurde eine Testinstallation der Software DSpace vorgenommen und getestet. Die Ergebnisse sind im Anhang II (Kapitel 13) wiedergegeben. Sie sollen vor allen Dingen illustrieren, an welchen Punkten der örtliche Bedarf nach bestimmten Eigenschaften der Software genau abgeklärt werden muss. Empfohlene Eigenschaften und Möglichkeiten betreffen die folgenden Punkte, die nicht für alle Anwendungszwecke die gleiche Bedeutung haben: Strukturierung und Inhalt Möglichkeit, hierarchische Strukturen abzubilden o o innerhalb einer Institution. innerhalb der Dokumente (z.b. Zeitschriften). Gleichzeitige Zuordnung eines Dokumentes zu verschiedenen Sammlungen. Möglichkeit zum einfachen Import einer grösseren Anzahl von Objekten und Metadaten. Wenn ein Import eine seltene Ausnahme ist, reichen allenfalls weniger komfortable Werkzeuge. Hohe Skalierbarkeit o o o o hinsichtlich der Grösse der Einzelobjekte. hinsichtlich der Anzahl der Objekte. hinsichtlich der Anzahl von Hierarchieebenen einer Sammlung oder Institution. hinsichtlich der Anzahl gleichzeitiger Nutzungen. Metadaten Möglichkeit zur Verwaltung von Metadatensätzen, zu denen kein Objekt gespeichert wird, sondern nur eine Verknüpfung nach aussen. Dies ist zum Beispiel für das Konzept eines zentralen Metadatenservers unerlässlich. Möglichkeit zur Verwendung von verschieden ausführlichen oder ganz unterschiedlichen Metadatenschemata je nach Sammlung. Dies ist insbesondere dann von Bedeutung, wenn ganz unterschiedliche Fächer vertreten sein können. Unterstützung der Vergabe von persistenten Identifikatoren. Funktion und Oberfläche Suchfunktionen o Suche in Metadaten o Suche im Volltext: Sehr wünschenswert, aber im Einzelfall entbehrlich vor allem natürlich, wenn nur Metadaten zusammengeführt werden sollen. o Differenzierte Suche in einzelnen Metadatenfeldern, auch gleichzeitig. o Blättern in Indices mit der Möglichkeit, neue Indices nach Bedarf erstellen zu lassen. 184

185 o Möglichkeit zu einem mehrdimensionalen Einstieg in die Sammlungen, also z.b. über eine Gliederung nach Dokumenttypen oder Abteilung oder Fach? Gewisse Gestaltungsmöglichkeiten für die Oberfläche. Korrekte Sortierung und Darstellung zumindest der gängigen lateinischen Schriften. Bei Spezialsammlungen z.b. mit kyrillischen Zeichen o.ä. ist die Verwendung von Unicode zu fordern. Die Möglichkeit, kontrollierte Vokabulare z.b. für die Schlagwortvergabe einzubinden, die in Dropdown-Menüs angeboten werden. Sie ist wünschenswert, wenn auch mit unterschiedlicher Priorität je nach Anwendungszweck. Verwaltung Je nach Anwendung ist eine Nutzerverwaltung auf der Ebene der Gesamtinstallation oder auf der Ebene der Institute oder der Sammlungen gewünscht. Der Anschluss an ein System zur Authentifizierung und Autorisierung sollte sich mit vertretbarem Aufwand vollziehen lassen. Die Priorität ist abhängig von den Plänen der Institution. In der Schweiz wird mit dem AAI-Projekt von Switch an einer landesweiten Infrastruktur gearbeitet 158. Mandantenfähigkeit. Hier können die Ansprüche weit auseinander gehen: Während im einfachsten Fall grundsätzlich alle Objekte in einem Speicher für alle sichtbar sein sollen, sind Fälle denkbar, in denen die Vergabe detaillierter Berechtigungen (wer darf was) bis zur Ebene der Einzeldatei nötig wird. Möglichkeit zur Definition von Arbeitsabläufen mit der Zuweisung von Rollen an die Bearbeitenden. Der Bedarf hierfür hängt wiederum von der vorgesehenen Betriebsweise ab: Wenn Objekte einen Begutachtungsprozess durchlaufen sollen, müssen die Funktionen jeder Rolle recht genau definiert werden können. Wenn lediglich Metadaten angepasst und überarbeitet werden müssen, dann können auch weniger differenzierbare und auch weniger flexible Abläufe ausreichen. Flexible Aufgabenverteilung zwischen Endnutzenden und Bibliothekspersonal. Diese kann mit der Zuweisung von Rollen verbunden sein und ist in jedem Fall sehr stark abhängig vom Konzept eines Servers. Nutzungsstatistiken auf Artikelebene Möglichkeiten zur Personalisierung einschliesslich der Speicherung von Suchabfragen etc. können für bestimmte Anwendungsfälle interessant sein. Sie sind jedoch nicht notwendig, um einen Dokumentenspeicher sinnvoll und flexibel betreiben zu können. Nicht erwähnt ist die Fähigkeit, mit dem OAI-Protokoll für den Metadatentransfer umgehen zu können. Da alle Produkte in der Open Access-Bewegung verankert sind, wird diese Kompatibilität vorausgesetzt. Bei Eigenentwicklungen muss sie allenfalls nachträglich erreicht werden. 158 Authentification and Authorization Interface (AAI): Demonstration unter 185

186 Die meisten Beurteilungen von Dokumentenserver-Software und auch die Systeme selber geben wenig Auskunft zu den Aspekten der Langzeitarchivierung. Eine Ausnahme bildet (Wheatley 2004). Generell sollen möglichst modulare, flexible und erweiterbare Entwicklungen bei Erhaltungsfunktionen in Dokumentenserver-Software angestrebt werden, um neue Lösungen integrieren zu können. Die Langzeitarchivierung sollte darum von Beginn an in alle Überlegungen einbezogen werden. Möglichst genaue Erkennung des Dateiformats und Dokumentation in den Metadaten. Verwendung von Prüfsummen oder anderen geeigneten Verfahren, um die Authentizität der Inhalte zu gewährleisten. Erfassung von technischen Metadaten zum Ausgangsobjekt und zu allen Manipulationen, die mit ihm ausgeführt werden. Versionierung mit dauerhafter Speicherung des Originalobjektes. Impulse im Hinblick auf die Erhaltung könnte eine neue Initiative geben, die auf der Basis von DSpace aufbaut Project Digital Preservation Programme, Cambridge University), das jedoch gerade erst beginnt 159 ). Grundsätzliche Überlegungen betreffen die Frage, wie intensiv sich eine Einrichtung mit der Installation oder mit Anpassungen auseinandersetzen kann und will. Danach richtet sich, welches Ausmass an Dokumentation und Support erwartet wird. Bei den Open Source- Projekten kommt noch hinzu, ob und wie sich eine Institution allenfalls auch aktiv an der Weiterentwicklung beteiligen könnte Vernetzung von Dokumentenservern Dokumentenserver stellen Dokumente für den Online-Zugriff bereit und sind damit prinzipiell mit dem Internet verbunden. An dieser Stelle soll unter Vernetzung jedoch das Zusammenwirken mehrerer Dokumentenserver verstanden werden, das es ermöglicht, zusätzliche Dienstleistungen und Daten für den Benutzerschaft an einer Stelle anzubieten. Aus Sicht des Konsortiums geht es hier vor allem um die Zusammenführung der Metadaten der lokal gespeicherten Dokumente, da sonst theoretisch bei der Suche nach einem Schweizer Hochschuldokument alle Server einzeln durchsucht werden müssten. Als Werkzeug für den Export gilt das Protocol für Metadata Harvesting (OAI-PMH) 152 der Open Archives Initiative 160. Hierbei handelt es sich um ein vergleichsweise einfaches Protokoll, das unabhängig von der Software eines Dokumentenspeichers die Voraussetzungen schafft, um Metadaten von einem Server übernehmen zu können. Es ist kein Werkzeug für Endnutzerinnen und Endnutzer. 159 Project Digital Preservation Workplan: 160 Open Archives Initiative (OAI): - nicht zu verwechseln mit OAIS! 186

187 Abbildung 10: Funktionsschema des Open Archives Initiative Protocol for Metadata Harvesting: Ein zentraler Dienst, der die Metadaten anbieten möchte (Service Provider), sammelt periodisch und unabhängig von konkreten Anfragen Metadaten von den Dokumentenservern (Data Provider) ein. Die Metadaten werden dann auf dem zentralen Server gespeichert und stehen dort für konkrete Anfragen zur Verfügung. Für den Volltextzugriff wird dann in jedem Fall auf den lokalen Dokumentenserver verwiesen. Natürlich bleibt es möglich, direkt auf einem lokalen Server zu suchen. Die Funktionsweise ist in Abbildung 10 dargestellt. Entscheidend ist der Charakter des OAI- PMH als Protokoll für die asynchrone Übernahme der Metadaten: Sie ist unabhängig von konkreten Anfragen durch Endnutzende und kann so gesteuert werden, wie dies für den Dokumentenserver als Data Provider günstig ist. Die Metadaten werden sozusagen auf Vorrat zusammengetragen und stehen dann an einem Ort für die Endnutzerschaft zur Verfügung, der nicht mehr an verschiedenen Orten nach einem gewünschten Dokument suchen muss. Wenn es gewünscht ist, kann eine anfragende Person jederzeit einen lokalen Server direkt ansprechen. Der Zugriff auf einen Volltext erfolgt in jedem Fall auf dem lokalen Server, auf dem dieser gespeichert ist. Auf diese Weise werden mehrere Ziele erreicht: Das Angebot der vereinigten Metadaten ist für externe Zugriffe attraktiver, weil es Zugang zu mehr Inhalt bietet. Damit wachsen die Sichtbarkeit jedes einzelnen Objektes und die Wahrscheinlichkeit, dass es beachtet wird. Der Metadatenserver ist seinerseits auch ein attraktiveres Ziel für andere Service Provider, da er über deutlich mehr Daten verfügt als jeder andere einzelne Server. Auch dies trägt zur Verbreitung der Inhalte bei. 187

188 Die Metadaten der lokalen Server werden zwar regelmässig angefragt, ihre neuen Metadaten zu schicken. Diese automatisierte Prozess ist aber steuerbar (z.b. dass nur eine bestimmte Anzahl von Datensätzen auf einmal geliefert wird) und reduziert ausserdem die Belastung durch Suchanfragen von Endnutzenden: Diese sollten bevorzugt beim Service-Provider erfolgen. Der Inhalt und der Zugang zum Inhalt bleiben unter der vollen Kontrolle der Betreiber des lokalen Servers. Der Aufwand für den lokalen Betreiber eines Dokumentenservers beschränkt sich weitgehend auf die einmalige Einrichtung für den OAI-Zugriff. Mehrere Dokumentenserver in der Schweiz sind bereits für die Abfrage mit dem OAI-PMH eingerichtet und es besteht einiges Interesse für ein gemeinsames Angebot (vgl ). Aus Sicht des Projektes besteht das Ziel, die Metadaten der Schweizer Dokumentenserver zusammenzuführen, um die verstreuten Ressourcen einfacher auffinden zu können. Ein gemeinsamer Server soll mit Hilfe des OAI-PMH regelmässig die Metadaten der Dokumentenserver der Hochschulen einsammeln und bereitstellen. Dafür sind ausser der teilweise bereits vorhandenen OAI-Kompatibilität und einer gewissen Absprache über die Metadaten keine Vorleistungen der einzelnen Bibliotheken bzw. Serverbetreiber nötig. Wünschenswert ist allerdings zusätzlich eine Abstimmung der inhaltlichen Ansprüche. Ein Beispiel für eine derartige Zusammenarbeit bietet das niederländische Projekt DARE 161 (Kuil and Feijen 2004). Dieses Projekt vereinigt alle 13 niederländischen Universitäten und drei grosse akademische Einrichtungen zu einem Netzwerk digitaler Dokumentenspeicher für die wissenschaftlichen Ergebnisse der Niederlande. Interessant sind die Trennung einer Datenebene (v.a. Infrastruktur) von der Service-Ebene sowie die grundlegende Einigkeit zu Beginn des Projektes (Kuil and Feijen 2004): Anwendung relevanter Standards. Nutzung vorhandener Systeme als Werkzeug zum Aufbau von OAI-konformen Institutional Repositories. Nicht jede Lösung ist für alle Partner geeignet. Es muss aus der Praxis gelernt werden. Die Herangehensweise war und ist pragmatisch. Der Anschein eines vollständigen theoretischen Modells wird nicht angestrebt, sondern es sind rasche Resultate bevorzugt. Wie wir aus einem Gespräch wissen, wurde das Projekt ursprünglich nur mit denjenigen Partnern begonnen, die von Anfang an aktiv interessiert waren: Weitere wurden durch die ersten Erfolge überzeugt und für die Teilnahme gewonnen. Aus Sicht der Archivierung ist anzumerken, dass die Inhalte der lokalen Repositorien automatisch durch die Königliche Bibliothek in Den Haag in ihr edepot 162 aufgenommen werden. Die Nationalbibliothek war von Beginn an in das Projekt eingebunden und nimmt zentral für die Partner die Langzeitarchivierung vor. Auf das archivierte Material haben die 161 Digital Academic Repositories (DARE) Demonstrations-Installation: 162 edepot, Koninklijke Bibliotheek, Den Haag: (Zugriff ) 188

189 lokalen Einrichtungen keinen Zugriff mehr, d.h. auch Löschungen sind nicht vorgesehen. Nur im Notfall können Daten zur lokalen Wiederherstellung exportiert werden. Wir halten das Konzept von DARE für ein taugliches Modell einer Zusammenarbeit der Schweizer Hochschulbibliotheken. Es lässt den Partnern lokal grosse Freiheit und volle Kontrolle ihrer Inhalte und verspricht eine zügige Umsetzung. Diese hängt allerdings sehr stark davon ab, in welchem Masse die Bibliotheken bereit sind, sich zu engagieren und z.b. in Arbeitsgruppen mitzuwirken. Vergleichbare Ziele verfolgt das australische Projekt ARROW (Australian Research Repositories Online to the World) 163 (2003). Es umfasst zusätzlich aber ausdrücklich elektronische Publikationen, die von E-presses produziert und von diesen auch kommerziell vertrieben werden. Gemeint sind digital publizierende Hochschulverlage. Das Projekt ist weniger weit fortgeschritten als DARE. Eine Testinstallation 164 kann genutzt werden Zentrale Speicherung von Inhalten Bei den Hochschulbibliotheken besteht im Vergleich zur Zusammenführung von Metadaten ein etwas geringeres Interesse daran, auch Inhalte zentral zu speichern (vgl ). Das Hauptziel dabei ist die Gewährleistung der Langzeitarchivierung derjenigen Inhalte, die nicht von der Landesbibliothek im Rahmen ihres Auftrages abgedeckt werden. In der Tat besteht keine Notwendigkeit für eine zentrale Speicherung der Inhalte, solange von den gemeinsam vorgehaltenen Metadaten problemlos auf die lokalen Speicher verwiesen werden kann. Ein möglicher minimaler Gewinn bei der Zugriffsgeschwindigkeit rechtfertigt dies nicht. Dagegen besteht zum Teil ausdrücklich Interesse daran, Inhalte zentral abzulegen, um die eigenen Ressourcen zu entlasten, die vielfach mit dem Hinzukommen neuer Aufgaben nicht gewachsen sind. Gleichzeitig wird erwartet, dass ein gemeinsames Angebot mit entsprechend landesweitem Auftritt eine grössere Anziehungskraft ausübt als ein eigener Server der Hochschule. Es ist nicht zwingend nötig, von vorneherein zu entscheiden, welche Bibliothek an welchem Verfahren teilnehmen möchte. Es darf aber nicht aus den Augen verloren werden, dass jedes zentrale Angebot auch über die Projektdauer hinaus einen gesicherten Bestand haben sollte und eine entsprechende Finanzierung voraussetzt. Eine gewisse Zentralisierung könnte vor allem lokale technische Infrastrukturen und Dienste entlasten. Es kann nicht davon ausgegangen werden, dass sich personalintensive Arbeitsschritte wie die Akquisition und Bearbeitung ohne weiteres abgeben lassen, und zwar sowohl aus inhaltlichen Gründen als auch aus finanziellen Überlegungen für das Gesamtsystem. Auf jeden Fall sollten die dezentral vorgehaltenen Inhalte in ein eigentliches Langzeitarchiv eingehen. Dieses müsste vor allem dem gleichen Zweck dienen wie das edepot beim DARE-Projekt: Wiederherstellung im Notfall und Langzeiterhaltung. Es kann darum auch erwogen werden, ob ein im Wesentlichen dunkles Archiv den Zweck erfüllt. Aus praktischer Sicht würde es sich um die gleiche Installation handeln, in der die Archivierung der Zeitschrifteninhalte erfolgen soll (vgl. 8.6). Falls diese nicht umgesetzt werden sollte, sind alternative Massnahmen nötig. 163 ARROW: Australian Research Repositories Online to the World: 164 ARROW-Test : 189

190 Daneben könnte das Angebot einer zentralen Speicherung der Inhalte von Interesse sein für Partner im Konsortium, die selber keinen eigenen Server betreiben können oder wollen. Bedarf wird insbesondere bei den Fachhochschulen gesehen, die als Zusammenschlüsse in ihrer jetzigen Gestalt erst wenige Jahre alt sind und entsprechend heterogene Strukturen aufweisen. Wenn ein solches zentrales Angebot gewünscht ist, wäre es allenfalls sinnvoll, einen gemeinsamen Server für Archivierung und Zugriff zu betreiben, also einen hellen Archivserver. Als Alternative könnten möglicherweise auch Einrichtungen bilateral für ihre Dokumente bei grösseren Institutionen ein Gastrecht auf deren Dokumentenspeicher erhalten. Dies würde den separaten Betrieb eines zentralen Inhaltsservers überflüssig machen RERO DOC Vor diesem Hintergrund werden mit grossem Interesse die Aktivitäten des RERO 165 verfolgt, das für seine Mitglieder einen zentralen Dokumentenserver bereitstellt 166. Auf diesem Server sind die Dissertationen der Universitäten Genf, Fribourg, Lausanne und Neuchâtel sowie weitere Dokumente zu finden. Wie im DARE-Projekt besteht die Möglichkeit, lokale Sichten anzuwählen, so dass nur die Inhalte einer Hochschule sichtbar sind. Zusätzlich werden die Metadaten weiterer Dissertationen via OAI-PMH geladen. Die entsprechenden Volltexte verbleiben in diesem Fall auf dem Quellserver 167. Dieses Angebot geht also über die Erfassung der Metadaten hinaus, und die entsprechenden Erfahrungen sollten unbedingt berücksichtigt werden. Der Server verfügt im Übrigen sogar über eine viersprachige Suchoberfläche und weist in die Richtung, die auch innerhalb des Projektes verfolgt wird. Die Preisgestaltung des Dienstes RERO DOC für das Jahr ist unten in Übersetzung angegeben: "Übernahme der Dokumente: o kostenlos für die Standarddokumententypen, die direkt durch die Institutionen hochgeladen werden [... ]; o für die Bereitstellung digitaler Sammlungen, die eine Analyse und Arbeit der Zentrale, die Personalisierung einer Schnittstelle und/oder ein Laden von Daten erfordern, wird die Zentrale ein personalisiertes Angebot anfertigen, basierend auf einer einmaligen Bearbeitungsgebühr und einer Abrechnung der ganzen oder eines Teils der durchzuführenden Arbeit zu einem Tarif von Fr / Stunde [... ]. Der benötigte Speicherplatz: o Mitglieder RERO: kostenlos (bis zu 200 Gigabyte); 190 o Nichtmitglieder: jährlicher Pauschalbetrag von Fr. 3' für bis zu 100 Gigabyte; o zusätzlicher Speicherplatz wird pro Jahr und in Tranchen von 100 GB in Rechnung gestellt; die von den Gremien des RERO festgesetzten Kosten werden auf Anfrage mitgeteilt. 165 RERO Reseau des bibliothèques de Suisse occidentale: 166 RERO DOC (bibliothèque numérique): 167 Thèses-en-ligne - Serveur des Thèses Multidisciplinaire : 168 Description du projet RERO DOC et conditions de participation, ,

191 Der Speicherplatz, der durch Dokumente mit Zugangsbeschränkung belegt wird, zum Beispiel durch solche, die nur im Intranet einer Institution zugänglich sind, wird pro Jahr und in Tranchen von 100 GB in Rechnung gestellt; die von den Gremien des RERO festgesetzten Kosten werden auf Anfrage mitgeteilt." Kommerzielle Hosting-Angebote Institutional Repositories bzw. Dokumentenspeicher sind auch als Markt entdeckt worden. Kürzlich wurde von BioMed Central sein Angebot Open Repository lanciert und von ProQuest UMI das Produkt Digital Commons. Beide Angebote stellen die technische Plattform für einen Speicher bereit und betreiben diese im Auftrag ihrer institutionellen Kunden. Eine Auslagerung des Serverbetriebes bietet den Vorteil, dass für diesen Zweck kein oder sehr viel weniger neues Personal benötigt wird. Dies gilt jedoch nur für den technischen Betrieb, während die erfahrungsgemäss sogar aufwändigere Arbeit der Akquisition von Dokumenten und der Autorenbetreuung intern geleistet werden muss. In der Praxis ist der Aufbau lokaler Server zumeist so abgelaufen, dass die Arbeit mit den vorhandenen Mitarbeitern bewältigt wurde. Das hat fast immer zur Folge, dass der technische und formale Ablauf mehr oder weniger gewährleistet ist, dass aber die Füllung mit relevanten Inhalten nicht aktiv unterstützt werden kann. Bei der externen Vergabe werden die Kosten für den technischen Betrieb zumindest einmal klar, auch wenn keine Kontrolle im Detail besteht. BioMed Central Open Repository Open Repository wird in den drei Leistungsstufen Standard Edition, Silver Edition und Gold Edition angeboten 169. Alle verwenden DSpace 170 als technische Plattform. Geboten wird grundsätzlich die Einrichtung des Speichers bei BioMed Central, Hosting und Wartung, Backups, technische Unterstützung. Die Unterschiede der Editionen liegen bei verschiedenen Zusatzfunktionalitäten für Formatkonversionen (z.b. zu PDF oder für eine XML-Auszeichnung) usw. Zudem sind Standard und Silver Edition lediglich Communities in einer gemeinsamen DSpace Installation von BioMed Central, während die Gold Edition eine ganz eigene Installation von DSpace darstellt. 169 Open Repository (BioMed Central): 170 DSpace: 191

192 Standard Edition Silver Edition Gold Edition Einmalige Installationsgebühr in GBP Jährliche Wartungsgebühr in GBP inkl. 5GB Speicherplatz inkl. 10GB Speicherplatz inkl. 50GB Speicherplatz XML Artikel auszeichungen (sonst 95/Artikel) Zusätzlicher Speicherplatz Inklusive Backups in GBP/Jahr Exklusive Backups in GBP/Jahr 50GB GB GB TB Tabelle 14: Kostenbestandteile für das Produkt Open Repository von BioMed Central (Stand ). BioMed Central rechnet mit 5GB Speicherbedarf für 1000 durchschnittliche Artikel. Wird der Dienst nicht verlängert, dann werden die enthaltenen Inhalte den Kundeneinrichtungen übergeben. Die Kostenangaben geben aufschlussreiche Anhaltspunkte für die Höhe und vor allem für das Verhältnis der einzelnen Kostenfaktoren zueinander. Der Vergleich mit den Kosten, die für das ArXiv betrachtet wurden, drängt sich auf (vgl ). Dort wurden für das Hosting der etwa Artikel des ArXiv ungefähr USD ,- (z. Zt. ca. CHF ,-) veranschlagt. Mit der Annahme von BioMed Central, dass 1000 durchschnittliche wissenschaftliche Artikel einen Speicherplatz von 5GB beanspruchen, ergibt sich ein Bedarf von ca. 1,5TB. Je nach gewählter Edition bedeutet dies im Open Repository jährliche Kosten von GBP ,- bis GBP ,- (z. Zt. CHF ,- bis CHF ,-) zuzüglich der einmaligen Installationskosten. Da wachsender Speicherplatz offensichtlich rabattiert ist (vgl. Tabelle 14), ist mit etwas geringeren Kosten zu rechnen. Natürlich ist zu berücksichtigen, dass BioMed Central ein Wirtschaftsunternehmen ist. Trotz der ausserordentlich umfassenden Rechnung für das ArXiv mit immerhin zwei Vollzeitstellen liegen die Kosten deutlich niedriger. Es ist aber möglich, dass in der Übersicht in Tabelle 5 die Kosten für die rein technische Speicherung und das Backup zu niedrig angesetzt sind. Selbst die interne Verrechnung zwischen Rechenzentrum und Bibliothek einer öffentlichen Einrichtung könnte diesen Rahmen sprengen, wenn die Datenmengen entsprechend zunehmen sollten. 192

193 ProQuest/UMI Digital Commons 171 Die technische Basis dieses Dienstes von ProQuest/UMI ist die Software bepress, die an der University of California in Berkeley entwickelt wurde 172. Sie weist mehr Funktionalitäten als DSpace auf, muss aber in Berkeley lizenziert werden. Eine Stärke des Systems ist seine Funktion als Plattform für Publikationsprozesse. Sie wird in Berkeley und anderen Orten u. a. zur Produktion von elektronischen Zeitschriften mit Begutachtungsprozess eingesetzt. Das Angebot von ProQuest unter dem Namen Digital Commons betont zur Zeit vor allem die Dienste eines klassischen institutionellen Repositoriums für Artikel, Arbeitspapiere etc. Preisangaben liegen nicht vor Empfehlungen Im Jahr 2005 soll mit interessierten Partnerbibliotheken die gemeinsame Nutzung eines Dokumentenservers erprobt werden. Einholen verbindlicher Interessenbekundungen für Metadaten bzw. Inhaltsspeicherung. Es werden Partner gesucht, die den Aufbau aktiv mittragen (Teilnahme an Arbeitsgruppen, Anpassungen am eigenen Server). Es ist zu vereinbaren, welche Daten gespeichert werden sollen. Das betrifft sowohl die inhaltliche Auswahl als auch formale Fragen (welche Metadaten etc.). Je nach Interessenlage und Arbeitsaufwand sollen Metadaten- und Inhaltsspeicherung gleichzeitig oder nacheinander eingerichtet werden. Die Erfahrungen des RERO sollen in beide Teile einfliessen. Die Möglichkeiten zur Zusammenarbeit mit vorhandenen Servern, insbesondere dem des RERO, müssen geprüft werden. Die Nutzung eines kommerziellen Dienstes wird nicht weiterverfolgt. Postprints bieten die beste Aussicht, schnell nennenswerte Zahlen von relevanten Dokumenten zusammenzutragen. Voraussetzung dafür ist, dass parallel zum technischen Aufbau in den einzelnen Bibliotheken Massnahmen vor Ort geplant werden, wie die Autoren lokal an ihrer Hochschule zur Teilnahme motiviert oder gar bis zu einem gewissen Grad verpflichtet werden können. Dies kann nicht zentral geleistet werden. Ein gemeinsamer Auftritt wäre wünschenswert, er kann aber den lokalen Einsatz nur unterstützen. Die Langzeitarchivierung ist vorzubereiten. Die Form der Zusammenarbeit sollte geregelt sein. Dabei ist darauf zu achten, dass Abläufe und Vereinbarungen sich auch für den Fall anpassen lassen, dass nach Projektende keine zentrale Einrichtung mehr besteht: Welche Aufgaben fallen dem Projekt E-Archiving zu und welche sind lokal zu erledigen? 171 ProQuest UMI Digital Commons: 172 Bepress (The Berkeley Electronic Press): 193

194 Wer trifft welche Entscheidungen für eine Bibliothek und für den Gesamtserver? In welchem Mass und in welcher Form vereinfachen wenige gemeinsame Sitzungen auf der Ebene der ausführenden Personen die Koordination? 194

195 8.9 Eigene Digitalisierungen In Kapitel 3.4 wurden wichtige Hintergünde der Digitalisierung dargestellt. An dieser Stelle geht es um die Digitalisierung von Zeitschriften, die im Rahmen der Studie begonnen wurden. Zum Auftrag der Studie gehörte es, in einem Pilotprojekt Erfahrungen mit der Digitalisierung von gedruckten Zeitschriftenbänden zu sammeln. Während viele Bibliotheken eigene Erfahrungen mit der Digitalisierung von attraktiven alten Drucken, Handschriften oder Bildmaterial aus landeskundlichen Beständen haben, ist die Digitalisierung von Zeitschriften bisher meist in ausländischen Grossprojekten erfolgt. Die KUB Freiburg bietet aus einem Versuchsprojekt heraus zumindest einige Jahrgänge von zwei kantonal bedeutsamen Zeitungen online an 173. Grössere wissenschaftliche Verlage haben die bisher nur gedruckt vorhandenen Bände ihrer Zeitschriftenproduktion bereits digitalisiert und als kostenpflichtige Erweiterung ihres Angebotes bereitgestellt (Elsevier, Springer, Institute of Physics, American Physical Society und andere). Es ist zu erwarten, dass diese Entwicklung von weiteren Verlagen fortgesetzt wird. Dort, wo Verlage im Auftrag von wissenschaftlichen Gesellschaften Zeitschriften publizieren, ist die Lage weniger klar, und noch weniger bei der Vielzahl von Zeitschriften von Fachgesellschaften, die ohne eine umfassende Verlagsinfrastruktur produziert werden. Dies betrifft häufiger Publikationen in den Geistes- und Sozialwissenschaften und spiegelt nicht zuletzt auch den unterschiedlichen Stellenwert, den Zeitschriftenartikel in den jeweiligen Fächern besitzen (Tenopir and King 2001). Es ist zwar angesichts der Unterschiede innerhalb der Geistes- und Sozialwissenschaften eine grobe Verallgemeinerung, doch tendenziell haben hier monographische Publikationen grössere Bedeutung als in Naturwissenschaften, Technik oder Medizin. Zahlreiche Projekte unterschiedlichster Grösse beschäftigen sich ebenfalls mit Zeitschriftendigitalisierungen. Sie haben es sich meist zum Ziel gesetzt, jene Lücken zu schliessen, die die Vorhaben der Verlage hinterlassen. So setzen sie etwa ihren inhaltlichen Schwerpunkt eher bei den Geistes- und Sozialwissenschaften und bei nicht-englischsprachigen Titeln. Bereits mehrfach erwähnt wurde JSTOR, und dieses Projekt dient teilweise als Vorbild für das deutsche Projekt DIGIZeitschriften 174. Beide sind kostenpflichtig. Bei DIGIZeitschriften besteht die Absicht, zumindest diejenigen Inhalte frei zugänglich zu machen, deren urheberrechtliche Schutzfristen abgelaufen sind. Für die geschützten Inhalte bestehen bei diesem Projekt Vereinbarungen mit Verlagen und den zuständigen Verwertungsgesellschaften, in Deutschland also mit der VG Wort 175. Vorläuferprojekte des GDZ, die sowohl Monographien als auch Periodika enthalten, bleiben zugänglich 176. Das freie Angebot der Bibliothèque nationale de France Gallica 177 stellt neben Belletristik und Monographien auch Periodika bereit, darunter auch einzelne deutsch- und englischsprachige Titel. 173 La Liberté und Freiburger Nachrichten, Jahrgänge : 174 DIGIZeitschriften Das digitale Zeitschriften Archiv: 175 VG Wort Verwertungsgesellschaft Wort: 176 Göttinger Digitalisierungszentrum GDZ: 177 Gallica la bibliothèque numérique : 195

196 Weitere Projekte sind fachlich enger ausgerichtet, etwa Compact Memory als Internetarchiv deutschsprachiger jüdischer Periodika 178 oder EMANI in der Mathematik 179. Auf der Basis internationaler Aktivitäten und bestehender Kontakte wurden drei Schweizer Mathematikzeitschriften für die Digitalisierung vorgesehen: L Enseignement Mathématique mit Sitz in Genf sowie Commentarii Mathematici Helvetici und Elemente der Mathematik. Die Ausgangslage unterscheidet sich für alle drei Titel: L Enseignement Mathématique wird von einer gleichnamigen Stiftung publiziert. Eine laufende Online-Version existiert nicht und ist mit Rücksicht auf den Absatz der gedruckten Version auch nicht vorgesehen. Die Publikationsrechte liegen bei der Stiftung. Die Commentarii Mathematici Helvetici wurden bis Ende 2004 vom Birkhäuser Verlag (als Teil des Springer-Konzerns) im Auftrage der Schweizerischen Mathematischen Gesellschaft (SMG) herausgegeben. Eine laufende Online-Version wird über die Plattform Springer-Link seit 1997 angeboten. Die Publikationsrechte liegen bei der SMG. Diese hat nachträglich einer bereits erfolgten Digitalisierung aller älteren Jahrgänge ( ) und ihrer Bereitstellung durch das Göttinger Digitalisierungszentrum (GDZ) zugestimmt, und zwar mit der Auflage, die Daten auch für das Projekt des Konsortiums zur Verfügung zu stellen. Ab 2005 erscheinen die Commentarii beim European Mathematical Society Publishing House 180. Bei der Zeitschrift Elemente der Mathematik ist die Lage zunächst ähnlich, jedoch ist hier noch keine Digitalisierung erfolgt. Auch dieser Titel wird von der Rechteinhaberin SMG auf Anfang 2005 zum European Mathematical Society Publishing House transferiert. Die internationale Gemeinschaft der wissenschaftlich tätigen Mathematiker ist vermutlich diejenige, die insgesamt am stärksten an der Digitalisierung ihrer älteren Literatur mitwirkt. Es bestehen unter dem Namen Digital Mathematics Library vielfältige Aktivitäten und einige Empfehlungen für die Durchführung von Digitalisierungsprojekten (Bouche and Rehmann 2003) 181. Der Grund hierfür liegt einerseits in der Arbeitsweise des Faches begründet, in der ältere Literatur eine grössere Bedeutung hat als in anderen Fächern. In gewisser Weise schlägt hier der geisteswissenschaftliche Charakter der Mathematik durch. Gemäss einer Untersuchung zur Nutzung der mathematischen Inhalte von JSTOR ist dort die Intensität der Nutzung fast nicht mit dem Alter korreliert: Weder die jüngsten noch die meistzitierten Artikel sind auch die meistgenutzten (Guthrie 2002). Zu beachten ist allerdings, dass die jüngsten Artikel unter Umständen auch auf anderen Wegen zugänglich sind und genutzt werden. Die Nutzung älterer Publikationen in der Mathematik ist andererseits gepaart mit einer grossen Offenheit gegenüber dem digitalen Medium, so dass insgesamt günstige Voraussetzungen vorliegen, um Digitalisate von Zeitschriften nutzbringend einsetzen zu können. 178 Compact Memory Internetarchiv jüdischer Periodika: 179 EMANI - Electronic Mathematical Archiving Network Initiative: 180 European Mathematical Society Publishing House: 181 Digital Mathematics Library - Report of the Technical Standards Working Group

197 Da die Commentarii bereits digitalisiert worden waren und die Situation für die Elemente aufgrund des anstehenden Verlagswechsels noch unklar war, wurde L Enseignement Mathématique zuerst bearbeitet Vorgehen Absprache mit dem Herausgeber Der Herausgeber der Zeitschrift stand dem Vorhaben von Anfang an positiv gegenüber. Zum Schutze seiner Interessen beim Vertrieb der auch zukünftig nur gedruckt erhältlichen Zeitschrift wurde eine Moving Wall von fünf Jahren vereinbart. Die Dokumente aus den letzten fünf Jahren sollten zwar verarbeitet, aber noch nicht zugänglich gemacht werden. Rechtliche Fragen wurden letzten Endes pragmatisch gelöst. So wird darauf verzichtet, Autoren zu kontaktieren, da davon ausgegangen wird, dass sie das grösste Interesse an einer weiten Verbreitung ihrer Arbeiten haben und in der Regel mit Zeitschriftenartikeln keine wirtschaftlichen Ziele verbinden. Juristisch gesehen ist fraglich, ob diese Sichtweise statthaft ist und nicht die explizite Zustimmung des Autors oder seiner Nachkommen zu dieser Form der Veröffentlichung nötig ist. Eine schriftliche Vereinbarung zwischen Herausgeber, Konsortium und der SMG als Beraterin regelt insbesondere folgende Punkte: Das Konsortium erhält ein nicht-exklusives Recht, die digitalisierten Inhalte weltweit online anzubieten. Es gilt eine Moving Wall von fünf Jahren ohne das laufende Jahr. Der Online-Zugriff soll prinzipiell frei sein. Eine allenfalls nötige geringe Gebühr zur Kostendeckung ist zulässig. Das Konsortium kann die Daten zur Sicherung des langfristigen Zugriffs unter gleichen Bedingungen einer Nachfolgeeinrichtung oder einem dritten Partner übergeben. Der Herausgeber erhält ebenfalls Metadaten und Inhalt, um sie allenfalls später mit einem aktuellen Angebot zu verknüpfen. Er hat jedoch nicht das Recht, die Inhalte zu verkaufen oder kommerziell zu nutzen. Es besteht ausdrücklich keine Verpflichtung zur Fortsetzung der Digitalisierung in der Zukunft Überprüfung der Bestände Aus praktischen Gründen sollte weitgehend auf die Bestände der ETH-Bibliothek zurückgegriffen werden. Hierfür wurden Katalogaufnahmen bereinigt und ergänzt sowie ein spezieller Ausleihstatus vereinbart. Die Sichtung des Bestandes ergab, dass drei Bände nur als Nachdruck zur Verfügung standen. Um alle Bände im Original verwenden zu können, wurden die fehlenden Bände vom Herausgeber entliehen. Dabei zeigte sich bereits, dass die gebundenen Exemplare besser und risikoloser zu handhaben sein würden als ungebundene, unaufgeschnittene Bände, die der Herausgeber gleichfalls angeboten hatte. 197

198 Eine Durchsicht der einzelnen Bände diente dazu, die folgenden Angaben zusammenzustellen: Bestätigung der angegebenen Gesamt-Seitenzahl Klärung von Besonderheiten der beiden Sérien 1 und 2. Wichtig z.b.: In der Série 2 wird ein Bestandteil ( Bulletin Bibliographique ) mit eigener Seitenzählung geführt, d.h. einzelne Seitenzahlen treten doppelt auf. Auffinden von Seiten, die eine Sonderbehandlung erfordern: o Reproduktionen von Fotografien (Scan in Graustufen) o Überformatige Beilagen sowie Grafiken und Tabellen, die den Satzspiegel überschreiten (Scan mit grösserem Ausschnitt) Insbesondere die Angaben zu den Besonderheiten der Bände haben sich als nützliche Grundlage erwiesen, um gemeinsam mit dem Dienstleister zu klären, wie die Vorlagen behandelt werden müssen. So wurden die Abmessungen des Bildausschnittes so gewählt, dass der weitaus grösste Teil der Seiten ohne weitere Anpassungen zu erfassen war, und zwar mit einer echten optischen Auflösung von 600dpi. Gleichzeitig wurde ein zu breiter unbedruckter Rand vermieden Scanning in Dienstleistung Das Scanning der Vorlagen wurde nach Vorgesprächen, Tests und zwei Angeboten extern an eine Schweizer Firma vergeben. Als Bestandteil des eigentlichen Auftrages wurde ein Band je Série als Prototyp verarbeitet und sorgfältig überprüft. Folgende Vorgaben wurden nach Empfehlungen aus anderen Projekten gewählt: Format TIFF, 600dpi, schwarz/weiss, verlustfrei komprimiert gemäss TIFF G4 (CCITT). Dies ist eine relativ hohe Qualität, die es erlauben soll, die zahlreichen Formeln und Grafiken des Originals angemessen wiedergeben zu können und bei Bedarf Reproduktionen anzufertigen. Der TIFF-Header: Nur ASCII-Zeichen der Bytes für die folgenden Informationen: o o o Tag 270: ImageDescription L Enseignement Mathematique, Vol. [Nr], ([Jahrgang]). Fondation L Enseignement Mathematique, Geneve. Tag 297: PageNumber: [Seitenzahl des Originals] Tag 315: Artist (ASCII 0-127): Konsortium der Schweizer Hochschulbibliotheken / Consortium des bibliothèques universitaires suisses / Consortium of Swiss Academic Libraries 198 Es erfolgt eine automatische Schärfe- und Tonwertkorrektur zur Optimierung der Ausgangsbasis im Hinblick auf OCR und PDF-Erstellung. Einzelseiten, ausgerichtet. Originalgrösse. Benennung der Bilddateien: Die Benennung der Dateien muss eindeutig sein, und für die spätere Verarbeitung (siehe unten) ist es zwingend notwendig, dass die Seiten in

199 der gleichen Reihenfolge wie in der Vorlage sortiert werden können. Dies führte zu längeren Diskussionen, weil anfangs versucht wurde, dennoch die Seitenzahl des Originals im Dateinamen abzubilden. Darauf wurde schliesslich verzichtet, da die Originalseitenzahl notfalls im TIFF-Header enthalten ist. o Alle Bilddateien werden in aufsteigender Reihenfolge von vorne nach hinten durchnumeriert, und zwar ohne Rücksicht auf die Seitenzahl im Original, d.h. Beginn mit ENSMATH_[Jahr]_[logischer Band]_[Dateinummer] Beispiel: ENSMATH_1904_6_001. Der vorgeschlagene Standardausschnitt misst 19,25cm x 12,75cm. Leerseiten markiert vide leer empty. Fotos in Graustufen scannen. Vereinbarung des Verfahrens, wenn zwei Bände zusammengebunden sind bzw. ein Band sich über mehrere Jahre erstreckt (Benennung, Unterordner). Qualitätskontrolle: Quantitativ Abgleich von Seitenzahlen und Bildnummern. Qualitativ: Ausschnitte korrekt? Strukturierung und Metadatenerfassung In Kapitel 3.4 wurde bereits kurz dargestellt, dass reine Seitenbilder nur für bildlastige Inhalte ein befriedigendes Medium darstellen. Für die Erschliessung von Textinhalten aus den Seitenbildern Bedarf es zunächst der optischen Zeichenerkennung (OCR, Optical Character Recognition), die aus dem Bild eines Wortes den Text zurückgewinnen kann. Sie ist Voraussetzung für eine Suchmöglichkeit im Volltext und kann darüber hinaus verwendet werden, um Metadaten der einzelnen Dokumente zu gewinnen. Dabei darf nicht vergessen werden, dass die Qualität der OCR stark von der Bildqualität abhängt. Eine hohe Richtigkeit der Zeichenerkennung unter Zuhilfenahme von Wörterbüchern und Korrekturalgorithmen ist nötig, da manuelle Korrekturen für den Volltext viel zu aufwendig sind. Angestrebt wird ein Anteil von deutlich mehr als 99,5% korrekt erkannter Zeichen, da ein Wert von 99,5% immer noch einem falschen Zeichen in zwei bis drei Textzeilen entspricht. Nur Metadaten wie Titel etc. werden z. T. manuell korrigiert. Während der Vorbereitungen zum Projekt hat die Software docworks/metae 182 international grosse Beachtung gefunden. Ihr Anspruch ist es, für gedruckte Literatur ab etwa 1850 eine weitgehend automatische Metadatenerfassung auf Grundlage der Bilddateien und anschliessender OCR zu leisten. Dies ist interessant, weil davon ausgegangen werden muss, dass die Kosten für die Metadatenerfassung und Erschliessung zumeist teurer sind als die gesamte Erstellung und Bearbeitung der Bilder. Zur Zeit erfolgt eine Bearbeitung von L Enseignement Mathematique mit der Software docworks/metae in Dienstleistung bei der Firma CCS. Für das Jahr 2005 ist eine testweise Installation für das Konsortium vorgesehen, über die die Konsortialpartner informiert werden sollen. Bei genügendem Interesse könnte sie in eine reguläre Dienstleistung für die Partner einfliessen. Bei den Vorbereitungen waren insbesondere die folgenden Punkte zu beachten: 182 Seite des Forschungsprojektes METAe (Metadata engine): Firmenpartner CCS GmbH, Hamburg: 199

200 Die Vorlage enthält sehr viele Formeln und Grafiken, die die OCR stören könnten. Die OCR muss mit vier Sprachen umgehen können (Französisch, Deutsch, Englisch, Italienisch). Sonderzeichen sollen in Titeln korrekt angezeigt werden. Anzeigeformat ist PDF. Das Resultat der Bearbeitung mit docworks sind Volltexte im XML-Format, die den Bildern der Seiten hinterlegt werden. Das XML-Dokument enthält zusätzlich zum Textinhalt auch die Koordinaten jedes Elementes auf der Seite. Mit einer geeigneten Oberfläche führt dann die Suche nach einem Wort im Volltext direkt auf die richtige Position im Seitenbild. Mit TIFF- Bildern und Metadaten in einem XML-Format liegt ein Ergebnis vor, das auch unter Gesichtspunkten der Langzeiterhaltung vertreten werden kann. Mit den bekannte Einschränkungen gilt dies auch für das PDF-Format der Präsentation. Parallel gleicht docworks die logischen Seitenzahlen, die es in den Seitenbildern vorfindet, mit der Reihenfolge der Dateien ab und ergänzt selbständig fehlende Seitenzahlen, wobei in Zweifelsfällen der Bediener angefragt wird. Schliesslich werden Metadaten wie Titel, Autorennamen, Kapitelbezeichnungen erkannt und Elemente wie Fussnoten, Formeln, Tabellen und Abbildungen identifiziert. Sie können sowohl zur gezielten Suche nach einem bestimmten Element als auch zur Navigation benutzt werden. Die entscheidende Frage im Zusammenhang mit der Verwendung der Software wird sein, ob die Vorteile ihres Einsatzes im richtigen Verhältnis zu den Kosten stehen Präsentation: Software Die Bilder und ihre Metadaten sollen in funktionaler und attraktiver Weise im Internet bereitgestellt werden. Dazu bedarf es einer geeigneten Oberfläche für die Präsentation, die sich auf eine leistungsfähige Datenbank abstützt. Ein reines Online-Angebot mit Suchmöglichkeiten lässt sich auf verschiedene Arten realisieren. Anspruchsvoller ist es dagegen, auch noch eine komfortable Möglichkeit zur Erfassung bzw. (Nach-)Bearbeitung von Metadaten sowie weitere Bearbeitungsfunktionen zu integrieren, die ihrerseits auf OCR- Funktionen aufbauen. Dies ist der Fall bei der Software AGORA 183, die vom Göttinger Digitalisierungszentrum und der Firma Satz-Rechen-Zentrum (SRZ) speziell für die Metadatenerfassung, Strukturierung und Präsentation entwickelt wurde. In der Kombination dieser Funktionen ist sie vermutlich einmalig. Vergleichsprodukte wurden lediglich für den Bereich der Suchfunktionen und Indexierung gefunden. Eine definitive Entscheidung steht noch aus. In Göttingen wird Agora auch in Verbindung mit docworks getestet. Dem Wunsch nach dem Einsatz von Open Source Software wird darum voraussichtlich für das Pilotprojekt nicht entsprochen werden. Es wird unter anderem bezweifelt, dass sich für so spezifische Anwendungen genügend Interessenten finden, um eine Entwicklung in Gang zu bringen und langfristig tragen zu können. Für die Zukunft soll diese Option weiterhin verfolgt werden, um die Möglichkeiten für kleinere Einrichtungen zu verbessern. Dies setzt 183 Agora Content Management System: 200

201 voraus, dass sich genügend grosse Institutionen finden, die für alle gemeinsam die weitere Entwicklung sicherstellen Präsentation: Verknüpfungen Es zeigt sich regelmässig, dass verstreut vorhandene Online-Ressourcen nicht automatisch ins Blickfeld der potentiellen Nutzerschaft gelangen. Bei nachträglich digitalisierten Inhalten ist dies noch verschärft der Fall, weil sie ihre bisher gewohnte Angebotsform verlassen. Verzeichnisse der bereits digitalisierten Inhalte sollen hier Abhilfe schaffen (in der Mathematik z.b. eine Liste aus Bielefeld 184. In diesem Fall muss sich die Endnutzerschaft bewusst sein, dass das entsprechende Verzeichnis existiert. Komfortabler werden Auffinden und Nutzung der Inhalte durch das Anlegen sinnvoller Verknüpfungen. Als absolutes Minimum müssen die digitalisierten Ausgaben vom Katalog der besitzenden Bibliothek aus zugänglich sein sowie aus ihrem sonstigen elektronischen Angebot heraus. Sofern der jeweilige Verlag den Titel fortsetzt, ist selbstverständlich dort ebenfalls eine Verknüpfung vorzusehen. Wie bei den vorher genannten ist dabei an Verweise auf der Ebene des Zeitschriftentitels gedacht. Sofern für das Fach einschlägige bibliographische Nachweisinstrumente bestehen, können diese für Verknüpfungen auf Artikelebene genutzt werden. In der Mathematik sind dies Zentralblatt MATH 185 einschliesslich des früheren Jahrbuchs über die Fortschritte der Mathematik sowie MathSciNet / Mathematical Reviews 186. Beide ermöglichen Verweise von ihren bibliographischen Aufnahmen auf online verfügbare Inhalte und umgekehrt. Dies Verknüpfungen sind für eine intensive Nutzung unerlässlich, sie werden aber nicht von Beginn an für das Angebot zur Verfügung stehen Zwischenbilanz Die begonnene Digitalisierung hat sich als relativ aufwendig erwiesen: Für die Vorbereitung und Qualitätskontrolle war ein hoher interner Aufwand nötig, während sich die eigentliche externe Durchführung des Scannens und der Verarbeitung auf wenige Wochen verteilten. Im Rahmen des Projektes sollen Arbeiten für die Digitalisierung mit geringerer Priorität weitergeführt werden. Die entsprechenden Werkzeuge können nach erfolgter Installation bei genügendem Interesse bis zum Projektende 2007 für die Partner verfügbar gehalten werden. Es ist aber nicht vorgesehen, mit Projektmitteln weitere als die begonnenen Arbeiten aufzugreifen. Das Interesse an den digitalisierten Zeitschriften kann erst nach der Online-Bereitstellung beurteilt werden. In der gegenwärtigen Form war das Projekt darauf ausgerichtet, Inhalte mit einer qualitativ hochwertigen Erschliessung zugänglich zu machen, die naturgemäss kostenintensiv ist. Als radikale Alternative wird vorgeschlagen, auf eine Erschliessung mehr oder weniger zu verzichten und stattdessen ganz auf die Volltextsuche zu setzen. Als jüngste Entwicklung in diese Richtung sind Grossprojekte zu sehen, wie sie das Internetarchive Retrodigitized Mathematics Journals and Monographs: 185 Zentralblatt MATH: 186 MathSciNet Mathematical Reviews on the Web: 187 The Internet Archive Million Book Project: 201

202 und Google 188 getrennt voneinander unternehmen. In Kooperation mit grossen Bibliotheken haben beide das Ziel, je eine Million Bücher zu digitalisieren, worunter anscheinend tatsächlich Belletristik und Monographien zu verstehen sind. Es besteht der Anspruch, den gesamten Volltext suchbar zu machen. Eine gezielte inhaltliche Auswahl der Bestände soll es aus Kostengründen nicht geben, wenn man von der Unterscheidung von urheberrechtsfreien von geschützten Texten absieht. Für den Scan-Vorgang wird laut Google mit Kosten von etwa USD 10,- pro Band gerechnet, wobei nicht ganz klar ist, welche Arbeitsschritte enthalten sind. Derartig niedrige Kosten lassen sich auf zwei Arten erreichen. Google scheint auf eine weitgehende Automatisierung des Scannens zu setzen. Dies erfordert hohe Investitionen in Geräte, und ferner muss die Beschaffenheit der Vorlage ein automatisches Scannen zulassen. Die Alternative wäre, die entsprechenden Vorlagen in Ländern mit sehr niedrigen Arbeitskosten verarbeiten zu lassen. Als Ziel wird zumindest beim Google-Projekt die Digitalisierung der gesamten Bestände der Partnerbibliotheken genannt. Dabei soll bei noch geschützten Werken zum Ausleihexemplar der Bibliothek bzw. zum Buchhandel verwiesen werden. Hier liegt vermutlich ein Anreiz für die beteiligten Bibliotheken, die zudem nicht die Kosten des Unternehmens tragen. Der Einfluss derartiger Projekte ist noch schwer abzuschätzen: Falls sie nicht die bereits vorhandene Erschliessung aus den Bibliothekskatalogen übernehmen sollten, würden sie es weiter erschweren, den Nutzwert differenzierter Suchmethoden zu vermitteln, wie sie Datenbanken anbieten. Andererseits werden sie einem grossen Teil der Benutzerschaft das bieten, was er sucht. Der blinde Fleck für den Blick auf alles, das nicht online verfügbar ist, wird sich darum mit grosser Wahrscheinlichkeit ausdehnen. Dies ist nicht diesen neuen Projekten anzulasten, da die Bibliotheken selber schon seit Jahren bemüht sein müssen, im Sinne eines aktiven Angebotes ihre Kundinnen und Kunden online abzuholen. Die Frage wird also eher sein, ob dies weiterhin nach bibliothekarischen Massstäben mit einer guten, aber teuren Erschliessung geschehen soll oder ob die Menge an verfügbarem Inhalt Priorität haben soll, die es im Idealfall einer grossen Zahl potentieller Nutzerinnen und Nutzer ermöglichen kann, auf Bestände zuzugreifen, die sie sonst nicht konsultieren könnten. Es ist bereits kritisch gefragt worden, ob die Bibliotheken hier möglicherweise Inhalte gratis bereitstellen, die sie später zurückkaufen müssen. Das Projekt von Google sieht ausdrücklich vor, dass die beteiligten Bibliotheken eine Kopie der kompletten Daten erhalten und diese frei verwenden können. Die zugegebenermassen aufwendige Auswahl könnte hier wiederum den Schlüssel bilden: Dort, wo Bedarf nach einer Erschliessung mit verlässlichen Metadaten besteht, also insbesondere bei der wissenschaftlichen Zeitschriftenliteratur, wird sie weiter stattfinden, wenn sie finanzierbar ist. Ein Hilfsmittel bei der Erschliessung der Beiträge in Periodika können dabei bibliographische Datenbanken sein, wie dies oben für die mathematischen Zeitschriften beschrieben wurde. In diesem Fall ist die eigentliche Erschliessung traditionell aus den Bibliotheken ausgelagert und vom Suchergebnis aus der Datenbank führen Verknüpfungen zum Volltext und umgekehrt. Bei Bibliotheksbeständen wie Belletristik und Monographien sollte die vorhandene Erschliessung aus den Katalogen übernommen werden. 188 Google Digitization of Books Project: 202

203 Der Bedarf nach einem grösseren schweizerischen Digitalisierungsprojekt für wissenschaftliche Zeitschriften erscheint als gering. Wie die Umfrage gezeigt hat, bestehen auch nur vereinzelt Pläne. Dies hat vermutlich auch damit zu tun, dass die Bibliotheken sich bei landeskundlichen Inhalten eher in der Pflicht sehen, dass vielfach einmalige Material besser zugänglich zu machen. Wichtige wissenschaftliche Zeitschriften haben hingegen eine gewisse Verbreitung und die Online-Ergänzung laufender Titel um ältere Jahrgänge wird mit Recht als Verantwortung und im Interesse des jeweiligen Verlages gesehen. Zusätzlich decken die kulturellen Verbindungen der Landesteile zu drei grossen jeweils gleichsprachigen Ländern einen nennenswerten Teil der Bedürfnisse bereits ab. Exemplarisch ist die Verbindung des Birkhäuser-Verlages mit Springer: Der Springer-Verlag startet ein Digitalisierungsprojekt seiner älteren Jahrgänge, in das auch die Titel des Birkhäuser-Verlages einbezogen werden, sofern sie zumindest teilweise auf Englisch publiziert wurden. Zur Zeit ist eine dauerhafte Nutzung dieser Backfiles gegen eine Einmalgebühr geplant. Damit sind auch die verbleibenden Lücken klar: Hochwertige Publikationen von kleineren Fachverlagen oder Gesellschaften sind insbesondere dann schlecht abgedeckt, wenn sie nicht auf Englisch veröffentlicht wurden. Es ist nicht zuletzt eine politische Entscheidung, ob weitere Projekte hier unterstützend eingreifen sollen. Im Rahmen des laufenden Projektes werden hierfür jedoch keine Kapazitäten gesehen Empfehlungen zur Zeitschriftendigitalisierung Abschluss der begonnenen Arbeiten: L Enseignement Mathématique online von im Frühjahr Einbindung der Commentarii Mathematici Helvetici. Abklärungen hinsichtlich der Elemente der Mathematik, nach Möglichkeit Digitalisierung in Verknüpfungen aus bzw. zu Zentralblatt MATH und MathSciNet. Für die dauerhafte Präsentation der digitalisierten Inhalte ist eine Lösung zu finden, die eine Perspektive für die Zeit nach dem Projektende bietet. Auswertung der Ergebnisse und Erfahrungen für eine Nachnutzung in Projekten der Partnerbibliotheken. Auswertung der Ergebnisse der laufenden Produktion mit docworks (automatische Strukturierung und Metadaten-Extraktion). Testinstallation von docworks bei der Geschäftsstelle und bei Interesse Tests mit den Konsortialpartnern im Sommer Unterhalt der gewählten Software, solange Interesse besteht. Im Projekt möglich maximal bis Ende 2007, danach durch Partner (Bibliotheken und Herausgeber). Bei grossem Interesse Weiterverfolgung von Open Source Alternativen für die Nachnutzung nach Projektende. Kosten entstehen dann verstärkt für Personal der Partner. Insgesamt soll die ressourcenintensive Digitalisierung im Projekt nicht prioritär weitergeführt werden. 203

204 8.10 Übersicht der Teilprojekte Die folgende Abbildung veranschaulicht den Zusammenhang der einzelnen Teile des Gesamtkonzeptes, die in diesem Kapitel diskutiert wurden. Abbildung 11: Schematischer Zusammenhang der im Rahmen des Projektes E-Archiving vorgesehenen Teilprojekte. 204

Archivrechte bei Datenbanken und ejournals. Zukunft der digitalen Bestandeserhaltung?

Archivrechte bei Datenbanken und ejournals. Zukunft der digitalen Bestandeserhaltung? Digitale Bibliotheken und Recht Tagung 2011 der Vereinigung der juristischen Bibliotheken der Schweiz Bern, 23. Juni 2011 Archivrechte bei Datenbanken und ejournals. Zukunft der digitalen Bestandeserhaltung?

Mehr

Archivrechte bei Datenbanken und ejournals

Archivrechte bei Datenbanken und ejournals Archivrechte bei Datenbanken und ejournals Zukunft der digitalen Bestandeserhaltung Susanne Manz Inhaltsübersicht I. Einleitung 89 II. Archivrechte nach Ende eines Lizenzvertrags 90 A. E-Journals 90 B.

Mehr

(1) In welchen Fachbereichen ist eine kumulative Dissertation möglich?

(1) In welchen Fachbereichen ist eine kumulative Dissertation möglich? 26. Juni 2012 bearbeitet von: Heidi Griefingholt heidi.griefingholt@uni-osnabrueck.de 4655 Kumulative Dissertation Kumulative Dissertation bezeichnet eine Art der schriftlichen Promotionsleistung, bei

Mehr

Lizenzen. Was muss ich wissen? Michaela Selbach. 24.02.2015 AG Bibliotheken privater Hochschulen

Lizenzen. Was muss ich wissen? Michaela Selbach. 24.02.2015 AG Bibliotheken privater Hochschulen Lizenzen Was muss ich wissen? Michaela Selbach Themen Welche Lizenzprodukte gibt es? Welche Lizenztypen gibt es? Welche Lizenzparameter? Elektronische Medien sind Medien, die auf elektronischem Weg übermittelt

Mehr

Das Pilotprojekt zur Langzeitarchvierung an der

Das Pilotprojekt zur Langzeitarchvierung an der Das Pilotprojekt zur Langzeitarchvierung an der ETH ZürichZ Pascalia Boutsiouci, ETH-Bibliothek Deutscher Bibliothekartag 2007, nestor-workshop, Leipzig, 21. März 2007 Ausgangslage Wissenschaftliche Prozesse

Mehr

E-BOOKS: DREI PRINZIPIELLE GESCHÄFTSMODELLE. Frustliste: Dr. Klaus Junkes-Kirchen 14.09.2013. E-Medien : E-Books 1

E-BOOKS: DREI PRINZIPIELLE GESCHÄFTSMODELLE. Frustliste: Dr. Klaus Junkes-Kirchen 14.09.2013. E-Medien : E-Books 1 E - B O O K S 1 E-BOOKS: DREI PRINZIPIELLE GESCHÄFTSMODELLE Definitorische Einschränkungen: Für das Angebot von E- E Books im institutionellen Rahmen von Hochschuleinrichtungen mit campusweiter Freischaltung

Mehr

Dokumentenserver an der Stabi Angebot, Nutzen, Vernetzung. Dr. Jan F. Maas, Isabella Meinecke

Dokumentenserver an der Stabi Angebot, Nutzen, Vernetzung. Dr. Jan F. Maas, Isabella Meinecke Dokumentenserver an der Stabi Angebot, Nutzen, Vernetzung Dr. Jan F. Maas, Isabella Meinecke 30.11.2011 Dokumentenserver an der StaBi 2 Überblick Einleitung Dokumentenserver an der StaBi ein Überblick

Mehr

Trefferanzeige polynomial

Trefferanzeige polynomial Trefferanzeige polynomial Ergebnisliste Springer Link Titelanzeige Samordnitzky SFX-Effekte Wahlangebot Abstract bei Springer LINK Die unterschiedlichsten Zugangssystememe Dezentrale Authentifizierung/Autorisierung

Mehr

Open Access als strategische Aufgabe für die Hochschulleitung. Prof. Dr. Gerhard Peter Rektor Hochschule Heilbronn

Open Access als strategische Aufgabe für die Hochschulleitung. Prof. Dr. Gerhard Peter Rektor Hochschule Heilbronn als strategische Aufgabe für die Hochschulleitung Prof. Dr. Gerhard Peter Rektor Hochschule Heilbronn 13. Februar 2006 Freunde Hochschule Heilbronn Seite 1 Seite 1 Übersicht 1. Grundlage von 2. Politische

Mehr

Copyright Compliance FÜR DEUTSCHE UNTERNEHMEN LEICHT GEMACHT

Copyright Compliance FÜR DEUTSCHE UNTERNEHMEN LEICHT GEMACHT Copyright Compliance FÜR DEUTSCHE UNTERNEHMEN LEICHT GEMACHT Urheberrecht jederzeit über alle globalen Standorte einhalten Im Zeitalter der elektronischen Datenübermittlung sind Unternehmen gefordert,

Mehr

PREMIS Aktuelle Entwicklungen und Perspektiven

PREMIS Aktuelle Entwicklungen und Perspektiven PREMIS Aktuelle Entwicklungen und Perspektiven Olaf Brandt Gliederung Hintergrundinformationen zu PREMIS Aktivitäten Welchen Stand haben wir erreicht? Wohin geht die Entwicklung? Was ist PREMIS? Das Akronym

Mehr

NS Raubgut. Projekt zur Katalogisierung von Literaturzugängen an der UBL zwischen 1933 und 1945. Beschreibung der programmtechnischen Umsetzung

NS Raubgut. Projekt zur Katalogisierung von Literaturzugängen an der UBL zwischen 1933 und 1945. Beschreibung der programmtechnischen Umsetzung NS Raubgut Projekt zur Katalogisierung von Literaturzugängen an der UBL zwischen 1933 und 1945 Beschreibung der programmtechnischen Umsetzung auf Basis der Content Management Anwendung des MyCoRe Arbeitskreises

Mehr

15 Jahre GASCO: Aktuelle Schwerpunkte und Herausforderungen der Konsortialarbeit Dr. Hildegard Schäffler Bayerische Staatsbibliothek

15 Jahre GASCO: Aktuelle Schwerpunkte und Herausforderungen der Konsortialarbeit Dr. Hildegard Schäffler Bayerische Staatsbibliothek 15 Jahre GASCO: Aktuelle Schwerpunkte und Herausforderungen der Konsortialarbeit Dr. Hildegard Schäffler Bayerische Staatsbibliothek Herbstsitzung Sektion 4 im dbv - Fulda 27.11.2014 Die GASCO als Konsortium

Mehr

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Prof. Dr. Wolf-Tilo Balke Institut für Informationssysteme Technische Universität Braunschweig http://www.ifis.cs.tu-bs.de Herausforderung

Mehr

Inhalte des Workshop: Was ist Copyright geschützt? Stoffsammlung. Zusammentragen der Ergebnisse der Arbeitsgruppen

Inhalte des Workshop: Was ist Copyright geschützt? Stoffsammlung. Zusammentragen der Ergebnisse der Arbeitsgruppen Inhalte des Workshop: Fallbeispiele Was ist Copyright geschützt? Stoffsammlung Arbeitsgruppen Zusammentragen der Ergebnisse der Arbeitsgruppen Diskussion Lizenzverträge eines urheberrechts-konformen Unternehmens

Mehr

EBS an der UB Wien oder EBS: das bessere PDA

EBS an der UB Wien oder EBS: das bessere PDA EBS an der UB Wien oder EBS: das bessere PDA Brigitte Kromp and Wolfgang Mayer Universität Wien Bibliotheks- und Archivwesen Universitätsring 1 1010 Wien, Österreich Begriffsverständnis: PDA (Patron Driven

Mehr

Vor- und Nachteile von Open Source Software (OSS) im Schulbereich

Vor- und Nachteile von Open Source Software (OSS) im Schulbereich Vor- und Nachteile von Open Source Software (OSS) im Schulbereich (Zusammenfassung Vorlesungsteil OSS) Vorteile: LANGFRISTIGE KOSTEINSPARUNGEN Mittels Open Source Software können gegenüber konventioneller

Mehr

EKANNTMACHUNGEN UNIVERSITÄT ROSTOCK. Seiten. Inhalt. Ordnung über die Bereitstellung von Pflichtexemplaren

EKANNTMACHUNGEN UNIVERSITÄT ROSTOCK. Seiten. Inhalt. Ordnung über die Bereitstellung von Pflichtexemplaren UNIVERSITÄT ROSTOCK A MTLICHE B EKANNTMACHUNGEN Jahrgang 2008 Nr. 2 Rostock, 29.02. 2008 Inhalt Seiten Ordnung über die Bereitstellung von Pflichtexemplaren im Rahmen von Promotionsund Habilitationsverfahren

Mehr

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung

2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer. Beitrag von Peter Küsters. Spiegelung. Archiv. Bild 1: Unterschied zwischen FTP und Spiegelung 2. DFG- Workshop 3.1. Erfassung/Bewertung/Transfer Beitrag von Peter Küsters Formen des Datentransfers bei der Erfassung von Websites Im folgenden werden Methoden und Software zur Erfassung vorgestellt.

Mehr

Medienzentrum Satzung für das Medienzentrum der Hochschule Darmstadt

Medienzentrum Satzung für das Medienzentrum der Hochschule Darmstadt Medienzentrum Satzung für das Medienzentrum der Hochschule Darmstadt Version 1.0.3 Stand 08.01.2015 Historie Version Datum Änderung Autor 1.0.0 29.07.2014 Dokument angelegt Str 1.0.1 11.08.2014 Änderungen

Mehr

Lizenz- und Nutzungsbedingungen für die Nomos elibrary

Lizenz- und Nutzungsbedingungen für die Nomos elibrary Seite 1 von 5 Lizenz- und Nutzungsbedingungen für die Nomos elibrary Die folgende Lizenz- und Nutzungsvereinbarung regeln die gegenseitigen Rechte und Pflichten der Kunden und Nutzer der Nomos elibrary

Mehr

Center für Digitale Systeme (CeDiS) Dr. Albert Geukes. 12. Berliner DH-Rundgang, 29. Oktober 2015 E-Publishing und Open Access

Center für Digitale Systeme (CeDiS) Dr. Albert Geukes. 12. Berliner DH-Rundgang, 29. Oktober 2015 E-Publishing und Open Access Center für Digitale Systeme (CeDiS) Dr. Albert Geukes 12. Berliner DH-Rundgang, 29. Oktober 2015 E-Publishing und Open Access 1 Dedizierte Projekte (1) Themen Authoring Redaktionelle Abläufe/ Qualitätssicherung

Mehr

Langzeitarchivierung von Netzpublikationen Das DFG-Projekt BABS an der Bayerischen Staatsbibliothek

Langzeitarchivierung von Netzpublikationen Das DFG-Projekt BABS an der Bayerischen Staatsbibliothek Langzeitarchivierung von Netzpublikationen Das DFG-Projekt BABS an der Bayerischen Staatsbibliothek nestor, Frankfurt a. M., 19. Juni 2006 Ref. Digitale Bibliothek 1 Elektronische Dokumente in der BSB

Mehr

nestor: Projektdaten

nestor: Projektdaten nestor Kompetenznetzwerk Langzeitarchivierung CASHMERE-int Workshop: Preservation and DC-Tools: Standards and Standardisation acitivities SUB Göttingen, 28. Februar 2004 Stefan Strathmann Research & Development

Mehr

Lösungen zur digitalen Langzeitarchivierung

Lösungen zur digitalen Langzeitarchivierung Lösungen zur digitalen Langzeitarchivierung 4. Tag der Unternehmensgeschichte 7.Mai 2015 SERVICE ROVIDER Backup - Archivierung - Erhaltung Backup: Anfertigung von Kopien verschiedenster Dateien Archivierung:

Mehr

Freie und Quelloffene Softwarelizenzen im Vergleich

Freie und Quelloffene Softwarelizenzen im Vergleich Freie und Quelloffene Softwarelizenzen im Vergleich Themen Geschichte Idee der Freien und Quelloffenen Software Gesetzeslage in Deutschland Institute Definition von freier Software Definition von quelloffener

Mehr

Technische Aspekte der Langzeitarchivierung

Technische Aspekte der Langzeitarchivierung Technische Aspekte der Langzeitarchivierung Matthias Razum Dr. Matthias Hahn Fortbildungsveranstaltung der AjBD Karlsruhe, 25.11.2011 Agenda Was versteht man unter Langzeitarchivierung? Wie betrifft das

Mehr

Lokalsysteme in der Cloud Architektur der nächsten Generation

Lokalsysteme in der Cloud Architektur der nächsten Generation Neue Strukturen und Anforderungen im wissenschaftlichen Bibliothekswesen Lokalsysteme in der Cloud Architektur der nächsten Generation Reiner Diedrichs Verbundzentrale des GBV (VZG) 101. Deutscher Bibliothekartag

Mehr

Archivierung digitaler Dokumente

Archivierung digitaler Dokumente Archivierung digitaler Dokumente Problemstellung - kooperative Lösungsansätze - Aktivitäten der Österreichischen Nationalbibliothek Teil 1 (Max Kaiser) Max Kaiser / Bettina Kann max.kaiser@onb.ac.at bettina.kann@onb.ac.at

Mehr

EBSCO ebooks Pick & Choose im Konsortialmodell

EBSCO ebooks Pick & Choose im Konsortialmodell EBSCO ebooks Pick & Choose im Konsortialmodell Bibliothekartag Wien, 25.04.2013 Ca. 450.000 internationale Titel von 800+ Verlagen Zahlreiche deutschsprachige Verlage De Gruyter Karger Vandenhoeck & Ruprecht

Mehr

MCP Managing Conference Proceedings

MCP Managing Conference Proceedings Workshop zur Global Info SFM WEP, 15. November 2001, Frankfurt MCP Managing Conference Proceedings Neue Erfahrungen, weitere Einsätze und Abschlussbericht bmb+f Global Info SFM MM-WEP Prof. Dr. D. Fellner,

Mehr

und der Helmut-Schmidt-Universität / Universität der Bundeswehr (HSU) Universitätsbibliothek (UB) Holstenhofweg 85 20043 Hamburg

und der Helmut-Schmidt-Universität / Universität der Bundeswehr (HSU) Universitätsbibliothek (UB) Holstenhofweg 85 20043 Hamburg OPUS-ID: Vertrag über die Erst-/Zweitveröffentlichung eines Werkes auf dem Volltextserver der Helmut-Schmidt-Universität / Universität der Bundeswehr zwischen Frau /Herrn Fakultät Privatadresse E-Mail

Mehr

Phaidra Permanent Hosting, Archiving and Indexing of Digital Resources and Assets. https://phaidra.univie.ac.at/

Phaidra Permanent Hosting, Archiving and Indexing of Digital Resources and Assets. https://phaidra.univie.ac.at/ Phaidra Permanent Hosting, Archiving and Indexing of Digital Resources and Assets https://phaidra.univie.ac.at/ Phaidra steht für Langzeitarchivierung und Digital Asset Management System und eröffnet

Mehr

Praxisbeispiel: Deutsche Digitale Bibliothek

Praxisbeispiel: Deutsche Digitale Bibliothek Praxisbeispiel: Deutsche Digitale Bibliothek Kooperationsplattform und netzwerk Der Weg zum Portal? Dr. Uwe Müller Deutsche Nationalbibliothek Mannheim, 25.10.2012 Was ist die Deutsche Digitale Bibliothek?

Mehr

Kapitel 1 Überblick Content Management und Digitale Bibliotheken

Kapitel 1 Überblick Content Management und Digitale Bibliotheken Kapitel 1 Überblick Content Management und Digitale Bibliotheken Prof. Dr.-Ing. Stefan Deßloch Geb. 36, Raum 329 Tel. 0631/205 3275 dessloch@informatik.uni-kl.de 1 Überblick Was ist Content? Daten, Dokumente,

Mehr

Präsentation des ebook-angebotes auf der Homepage der Universitätsbibliothek Freiburg

Präsentation des ebook-angebotes auf der Homepage der Universitätsbibliothek Freiburg Präsentation des ebook-angebotes auf der Homepage der Universitätsbibliothek Freiburg Oberwolfach, 29.10.2009 Bernhard Hauck, UB Freiburg Anlass für die Erarbeitung der ebook-seiten Ende 2008 / Anfang

Mehr

"Vermittlung von Informationskompetenz an fortgeschrittene Studierende, Promovierende, Wissenschaftlerinnen und Wissenschaftler"

Vermittlung von Informationskompetenz an fortgeschrittene Studierende, Promovierende, Wissenschaftlerinnen und Wissenschaftler Best-Practice-Wettbewerb Gemeinsame Kommission Informationskompetenz von VDB und dbv "Vermittlung von Informationskompetenz an fortgeschrittene Studierende, Promovierende, Wissenschaftlerinnen und Wissenschaftler"

Mehr

Backend des Bibliothekars. Tobias Höhnow Bibliothek des Wissenschaftsparks Albert Einstein

Backend des Bibliothekars. Tobias Höhnow Bibliothek des Wissenschaftsparks Albert Einstein ERM - Ressourcenmanagement im Backend des Bibliothekars Tobias Höhnow Bibliothek des Wissenschaftsparks Albert Einstein Wissenschaftspark Albert Einstein Bibliothek des Wissenschaftsparks Albert Einstein

Mehr

DIGITALISIEREN SIE IHR ARCHIV MIT HP PLATZSPAREND UND RECHTSKONFORM

DIGITALISIEREN SIE IHR ARCHIV MIT HP PLATZSPAREND UND RECHTSKONFORM DIGITALISIEREN SIE IHR ARCHIV MIT HP PLATZSPAREND UND RECHTSKONFORM VERGESSEN SIE DAS ALTE ARCHIV ...IHR NEUES ARCHIV KANN MEHR! EINFACH, KOSTENGUNSTIG, SICHER UND RECHTSKONFORM Die Menge der im Unternehmen

Mehr

Bücher online lesen E-Books an der Staatsbibliothek zu Berlin

Bücher online lesen E-Books an der Staatsbibliothek zu Berlin Bücher online lesen E-Books an der Staatsbibliothek zu Berlin Friederike Glaab-Kühn Elektronische Ressourcen für das moderne wissenschaftliche Arbeiten Haus Potsdamer Straße 15. Mai 2012 10 17 Uhr Was

Mehr

Technische Aspekte der Archivierung von On-line Medien

Technische Aspekte der Archivierung von On-line Medien Technische Aspekte der Archivierung von On-line Medien Dr. Andreas Rauber (ifs) Technische Universität Wien Favoritenstr. 9-11/ 188; A - 1040 Wien http://www.ifs.tuwien.ac.at TU Überblick Archivierung

Mehr

Rechtliche Aspekte des Konsortiums der Schweizer Hochschulbibliotheken

Rechtliche Aspekte des Konsortiums der Schweizer Hochschulbibliotheken Rechtliche Aspekte des Konsortiums der Schweizer Hochschulbibliotheken Pascalia Boutsiouci Inhaltsübersicht I. Ausgangslage 79 II. Das Konsortium heute 80 A. Organisationsstruktur des Konsortiums 80 1.

Mehr

University of Bamberg Press

University of Bamberg Press University of Bamberg Press ein Universitätsverlag zahlt sich aus Bayerischer Bibliothekstag, 20.11.2014 Fabian Franke, fabian.franke@uni-bamberg.de Barbara Ziegler, barbara.ziegler@uni-bamberg.de S. 1

Mehr

Automatisiertes Informationsmanagement für Microsoft Exchange Server

Automatisiertes Informationsmanagement für Microsoft Exchange Server Windream Exchange Automatisiertes Informationsmanagement für Microsoft Exchange Server Facts: Zugriff auf E-Mails sowohl aus Microsoft Outlook als auch aus Windream Komfortable Recherche und Verwaltung

Mehr

Sabine Häußermann Universitätsbibliothek Heidelberg 95. Deutscher Bibliothekartag Dresden, 21. März 2006

Sabine Häußermann Universitätsbibliothek Heidelberg 95. Deutscher Bibliothekartag Dresden, 21. März 2006 Sabine Häußermann Universitätsbibliothek Heidelberg 95. Deutscher Bibliothekartag Dresden, 21. März 2006 arthistoricum.net Die Virtuelle Fachbibliothek Kunstgeschichte Ziel: Aufbau eines zentralen kunsthistorischen

Mehr

Die ETH-Bibliothek: Volkswirtschaftlich wertvoll dank qualitativ hochstehenden Dienstleistungen

Die ETH-Bibliothek: Volkswirtschaftlich wertvoll dank qualitativ hochstehenden Dienstleistungen Die ETH-Bibliothek: Volkswirtschaftlich wertvoll dank qualitativ hochstehenden Dienstleistungen Ergebnisse der Kundenumfrage 2011 Begeisterte Kunden und viel Lob so lassen sich die Ergebnisse der im Jahr

Mehr

Customer Relationship Marketing

Customer Relationship Marketing Customer Relationship Marketing Marc Müller Die Entwicklung des Marketings hin zum Customer Relationship Marketing lässt sich unter anderem auf die technologische Entwicklung zurückführen. Die Änderungen

Mehr

Discovery Einführung. DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz

Discovery Einführung. DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz Discovery Einführung DigiBib IntrOX, LBZ RP Koblenz Juli 2014 Christine Baron, hbz 1 Discovery-Einführung Motivation Ziel: Vereinheitlichung Suchindizes Unterschiede Katalog / Discovery Beispiele Und nun?

Mehr

Emulation als alternative Erhaltungsstrategie. Ergebnisse des Bibliotheksservice-Zentrums und des Landesarchivs Baden-Württembergs im Projekt bwfla

Emulation als alternative Erhaltungsstrategie. Ergebnisse des Bibliotheksservice-Zentrums und des Landesarchivs Baden-Württembergs im Projekt bwfla Emulation als alternative Erhaltungsstrategie Ergebnisse des Bibliotheksservice-Zentrums und des Landesarchivs Baden-Württembergs im Projekt bwfla 5. Leipziger Kongress für Information und Bibliothek,

Mehr

Das Umkehren der Finanzierungsströme ein neuer Ansatz der Etatallokation

Das Umkehren der Finanzierungsströme ein neuer Ansatz der Etatallokation Das Umkehren der Finanzierungsströme ein neuer Ansatz der Etatallokation Dr. Ralf Schimmer Max Planck Digital Library, München Tagung Die Finanzierung wissenschaftlicher Publikationen zwischen print und

Mehr

Umgang mit Forschungsdaten Institutional Long Tail Research Data

Umgang mit Forschungsdaten Institutional Long Tail Research Data Umgang mit Forschungsdaten Institutional Long Tail Research Data Jochen Schirrwagen Universität Bielefeld RDA-Deutschland-Treffen Potsdam, 20-21 Nov 2014 Agenda FDM - Strategie an der Uni Bielefeld RDA

Mehr

Nutzungsvereinbarung für LEA der Hochschule Bonn-Rhein-Sieg

Nutzungsvereinbarung für LEA der Hochschule Bonn-Rhein-Sieg Nutzungsvereinbarung für LEA der Hochschule Bonn-Rhein-Sieg Geltungsbereich Die vorliegende Nutzungsvereinbarung gilt für die Nutzung der Lernplattform LEA der Hochschule Bonn-Rhein-Sieg. Mit der Nutzung

Mehr

Das Wissensportal der ETH-Bibliothek Ein Fallbeispiel für User-Centered-Design

Das Wissensportal der ETH-Bibliothek Ein Fallbeispiel für User-Centered-Design Das Wissensportal der ETH-Bibliothek Ein Fallbeispiel für User-Centered-Design 4. Herbstschule: Benutzerfreundlichkeit in Bibliotheken, 16. November 2011 Annette Guignard, ETH-Bibliothek, Leitung Team

Mehr

W I S S E N S I C H E R N

W I S S E N S I C H E R N W I S S E N S I C H E R N Wissensmanagement als Mittel zum effizienten Ressourceneinsatz Ingenieurbüro für D i p l. - I n g. P e t e r L e h m a c h e r S t e t t i n e r S t r a ß e 1 7, 5 3 1 1 9 B o

Mehr

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG Oracle Database 11g Standard Edition One Die passende Datenbank-Lösung

Mehr

Digitalisierungsportal Rheinland-Pfalz

Digitalisierungsportal Rheinland-Pfalz Digitalisierungsportal Rheinland-Pfalz Elmar Schackmann Jahresversammlung des VDB-Regionalverbandes Südwest am 25. Aprill 2008 in Speyer dilibri...... ist die digitalisierte Sammlung von landeskundlichen

Mehr

www.infostelle.ch Ihre Online-Plattform des Sozialwesens Eine Dienstleistung der Hochschule für Soziale Arbeit Zürich

www.infostelle.ch Ihre Online-Plattform des Sozialwesens Eine Dienstleistung der Hochschule für Soziale Arbeit Zürich www.infostelle.ch Ihre Online-Plattform des Sozialwesens Eine Dienstleistung der Hochschule für Soziale Arbeit Zürich WER SUCHT,... Nachschlagewerke, Verzeichnisse, Listen, Archive jede Information ist

Mehr

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek

Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Forschungsdaten in der Hochenergiephysik - Aufgaben der Bibliothek Dr. Zaven Akopov Deutsches Elektronen-Synchrotron DESY Inhalt DPHEP Aktivität HEP Daten: Herausforderungen und Besonderheiten Anforderungen

Mehr

Information vernetzen Wissen aktivieren

Information vernetzen Wissen aktivieren Information vernetzen Wissen aktivieren Strategisches Positionspapier zur Zukunft der wissenschaftlichen Information in Deutschland Christa Schöning-Walter DLR Projektträger NMB+F, 11.3.2003 (IuK-Tagung,

Mehr

BESCHAFFUNG UND LIZENZIERUNG

BESCHAFFUNG UND LIZENZIERUNG BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG: ORACLE LIZENZIERUNG Fragen Sie uns! Oracle Database 12c Standard

Mehr

DDM9000 : Kurz und bündig

DDM9000 : Kurz und bündig LTE Consulting GmbH Ihr Partner für InformationsLogistik DDM9000 : Kurz und bündig Kennen Sie das? Langes Suchen nach Unterlagen, aktuellen Dokumenten und anderen Informationen Wo sind wichtige, aktuelle

Mehr

E-Books und PDA in den deutschen Verbünden. Volker Conradt

E-Books und PDA in den deutschen Verbünden. Volker Conradt E-Books und PDA in den deutschen Verbünden Volker Conradt Motivation 1 Gemeinsamer Bibliotheksverbund Hochschulbibliothekszentrum Bibliotheksservice- Zentrum Warum beschäftigen sich die Verbundzentralen

Mehr

Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin

Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin Monika Kuberek Universitätsbibliothek der TU Berlin Webinar 12./20.05.2015 Helmholtz Open Science Webinare zu Forschungsdaten

Mehr

Revisionssicherheit und Langzeitarchivierung für

Revisionssicherheit und Langzeitarchivierung für Connect to Product Info Revisionssicherheit und Langzeitarchivierung für Connect to verbindet Microsoft Office mit dem Dokumentenmanagement-System DocuWare. -Anwender gewinnen eine ideale Lösung, um Dokumente

Mehr

Medizinische Informationen finden und nutzen Inhalt

Medizinische Informationen finden und nutzen Inhalt Medizinische Informationen finden und nutzen Inhalt 1. Recherche nach E-Books und Büchern... 2 2. Fachinformationsseiten Medizin Einstieg zur Recherche nach E-Journals und in Datenbanken... 3 3. E-Journals

Mehr

Professionelles. Zeitschriften- Management Transparent flexibel preisgünstig

Professionelles. Zeitschriften- Management Transparent flexibel preisgünstig Professionelles Zeitschriften- Management Transparent flexibel preisgünstig Optimiertes Informationsmanagement schafft Kompetenz. So kommt die Information an die richtigen Stellen. Ihre Mitarbeiter sollten

Mehr

Perspektiven der Langzeitarchivierung an der Bayerischen Staatsbibliothek. Dr. Astrid Schoger, 09.06.2011, 100. Bibliothekartag, Berlin

Perspektiven der Langzeitarchivierung an der Bayerischen Staatsbibliothek. Dr. Astrid Schoger, 09.06.2011, 100. Bibliothekartag, Berlin Praxis und Perspektiven der Langzeitarchivierung i an der Bayerischen Staatsbibliothek Dr. Astrid Schoger, 09.06.2011, 100. Bibliothekartag, Berlin Agenda Langzeitarchivierung als Aufgabe der BSB Praxis

Mehr

MHD: unbekannt. Was sind eigentlich E-Books und wie kann man sie dauerhaft erhalten?

MHD: unbekannt. Was sind eigentlich E-Books und wie kann man sie dauerhaft erhalten? MHD: unbekannt Was sind eigentlich E-Books und wie kann man sie dauerhaft erhalten? Dr. Michaela Hammerl 7. November 2013 2 Der aktuelle E-Book-Markt Amazon verkauft seit 2010 mehr E-Books als gedruckte

Mehr

Sammelprofil der ZBW ZBW Deutsche Zentralbibliothek für Wirtschaftswissenschaften Leibniz-Informationszentrum Wirtschaft

Sammelprofil der ZBW ZBW Deutsche Zentralbibliothek für Wirtschaftswissenschaften Leibniz-Informationszentrum Wirtschaft ZBW Deutsche Zentralbibliothek für Wirtschaftswissenschaften Leibniz-Informationszentrum Wirtschaft Stand: 15.09.2010 Seite 2 Inhaltsverzeichnis Vorbemerkung... 3 1. Aufgaben und Sammelgebiet... 3 2. Grundsätze

Mehr

Human Capital Management

Human Capital Management Human Capital Management Raimund Birri Human Capital Management Ein praxiserprobter Ansatz für ein strategisches Talent Management 2., überarbeitete Auflage Raimund Birri Zürich, Schweiz ISBN 978-3-8349-4574-7

Mehr

Mandantenfähige Online-Beteiligungsplattform

Mandantenfähige Online-Beteiligungsplattform Mandantenfähige Online-Beteiligungsplattform ViR Nordwest-Plenum Oldenburg, 2. November 2007 Dr. Hilmar Westholm EDEN Project - Electronic Democracy European Network Themen Vorstellung der Plattform Mandanten-gerechte

Mehr

Merkblatt des Fachgebiets Empirische Medienforschung und Politische Kommunikation zur Anfertigung von Masterarbeiten

Merkblatt des Fachgebiets Empirische Medienforschung und Politische Kommunikation zur Anfertigung von Masterarbeiten Merkblatt des Fachgebiets Empirische Medienforschung und Politische Kommunikation zur Anfertigung von Masterarbeiten Die hier festgelegten Regeln gelten nur für Arbeiten, die von Mitgliedern dieses Fachgebiets

Mehr

Zeutschel s Lösungs-Portfolio für Digitalisierungsprojekte. Michael Luetgen Vertriebsleiter Softwarelösungen

Zeutschel s Lösungs-Portfolio für Digitalisierungsprojekte. Michael Luetgen Vertriebsleiter Softwarelösungen Zeutschel s Lösungs-Portfolio für Digitalisierungsprojekte Michael Luetgen Vertriebsleiter Softwarelösungen Unser Antrieb Papier, wie alle wissen, ist nur ein dürres Laub, Es wird vom Wind zerrissen, Und

Mehr

PRODUKTBEDINGUNGEN FÜR MINDJET SOFTWARE ASSURANCE AND SUPPORT. Datum: Dezember 2012

PRODUKTBEDINGUNGEN FÜR MINDJET SOFTWARE ASSURANCE AND SUPPORT. Datum: Dezember 2012 PRODUKTBEDINGUNGEN FÜR MINDJET SOFTWARE ASSURANCE AND SUPPORT Datum: Dezember 2012 Diese Produktbedingungen für Mindjet Software Assurance und Support (die MSA- Produktbedingungen ) gelten für Mindjet

Mehr

Digitale Langzeitarchivierung in Deutschland mit LOCKSS und kopal

Digitale Langzeitarchivierung in Deutschland mit LOCKSS und kopal Digitale Langzeitarchivierung in Deutschland mit LOCKSS und kopal Das Projekt LuKII Prof. Dr. Michael Seadle Langzeitarchivierung im Kontext Bit Rot -- Bitstrom Aufbewahrung Lesbarkeit / Benutzbarkeit

Mehr

Bücher rund um die Uhr lesen! E-Books an der Staatsbibliothek zu Berlin. Janin Taubert

Bücher rund um die Uhr lesen! E-Books an der Staatsbibliothek zu Berlin. Janin Taubert Bücher rund um die Uhr lesen! E-Books an der Staatsbibliothek zu Berlin Janin Taubert Elektronische Ressourcen für das moderne wissenschaftliche Arbeiten Was sind E-Books? E-Books = Bücher in digitaler

Mehr

PRAKTIKUMSBERICHT. Archiv in der Abteilung Öffentlichkeitsarbeit von KölnMusik GmbH. Foto: KölnMusik/Jörg Hejkal

PRAKTIKUMSBERICHT. Archiv in der Abteilung Öffentlichkeitsarbeit von KölnMusik GmbH. Foto: KölnMusik/Jörg Hejkal PRAKTIKUMSBERICHT Foto: KölnMusik/Jörg Hejkal Archiv in der Abteilung Öffentlichkeitsarbeit von KölnMusik GmbH KölnMusik GmbH Bischofgartenstrasse 1 50667 Köln, Deutschland Praktikantin: Sarah Amsler Praktikumsverantwortliche:

Mehr

IdM-Studie der Hochschule Osnabrück Identity Management lokal oder aus der Cloud?

IdM-Studie der Hochschule Osnabrück Identity Management lokal oder aus der Cloud? IdM-Studie der Hochschule Osnabrück Identity Management lokal oder aus der Cloud? 02.07.12 Autor / Redakteur: Daniel Kasperczyk und André Schekelmann, HS Osnabrück / Stephan Augsten Identity Management

Mehr

CIB DOXIMA PRODUKTINFORMATION

CIB DOXIMA PRODUKTINFORMATION > CIB Marketing CIB DOXIMA PRODUKTINFORMATION Dokumentenmanagement & Dokumentenarchivierung > Stand: Februar 2012 THE NEXT GENERATION DMS Mit neuen Ideen, innovativen Lösungen und dem Produkt CIB doxima

Mehr

Repeatable Benchmarking Mahout

Repeatable Benchmarking Mahout Studienarbeitsexposé Repeatable Benchmarking Mahout Entwicklung eines Lasttest-Rahmenwerkes für Apache Mahout von: Oliver Fischer Institut für Informatik Humbold-Universität zu Berlin Matrikelnummer: 19

Mehr

Unterstützung durch Agenturen

Unterstützung durch Agenturen Unterstützung durch Agenturen 2 Ein gut auf die Anforderungen der Kanzlei abgestimmtes Kanzleimarketing bildet die Basis für ihren wirtschaftlichen Erfolg. Allerdings muss der Rechtsanwalt, Steuerberater

Mehr

ETH World Präsentation neue Projektorganisation ETH World Neptun Besprechung: Ausgangslage und Ziele mit der IT EK; Ablauf

ETH World Präsentation neue Projektorganisation ETH World Neptun Besprechung: Ausgangslage und Ziele mit der IT EK; Ablauf ETH World Präsentation neue Projektorganisation ETH World Neptun Besprechung: Ausgangslage und Ziele mit der IT EK; Ablauf Dr. Christof Hanser Projektentwicklung des VP Planung u. Logistik ETH Zürich IT

Mehr

Elektronisches Pflichtstück und Langzeitarchivierung

Elektronisches Pflichtstück und Langzeitarchivierung Elektronisches Pflichtstück und Langzeitarchivierung am Beispiel von Silke Schomburg, Elmar Schackmann Hochschulbibliothekszentrum des Landes NRW (HBZ) Landesbibliothekszentrum Rheinland-Pfalz Rheinische

Mehr

Das PDA Modell Ciando. Jürgen Stickelberger

Das PDA Modell Ciando. Jürgen Stickelberger Das PDA Modell Ciando Jürgen Stickelberger Über Ciando Über Ciando Über 1000 Verlage haben ciando als Partner in Sachen ebook-vertrieb gewählt,... Direkt 350.000 Nutzer machen ciando zu einer der großen

Mehr

Gültigkeitsmodell der elektronischen Arztausweise und Laufzeit der Zertifikate

Gültigkeitsmodell der elektronischen Arztausweise und Laufzeit der Zertifikate Seite 1 von 6 Autor: G. Raptis Gültigkeitsmodell der elektronischen Arztausweise und Laufzeit der Zertifikate Gültigkeitsmodelle beschreiben den Algorithmus nach dem ein Client oder Dienst entscheidet,

Mehr

Rechtsfragen digitaler Bibliotheken. Ein Überblick über die wichtigsten urheber- und haftungsrechtlichen Probleme

Rechtsfragen digitaler Bibliotheken. Ein Überblick über die wichtigsten urheber- und haftungsrechtlichen Probleme Rechtsfragen digitaler Bibliotheken Ein Überblick über die wichtigsten urheber- und haftungsrechtlichen Probleme Übersicht 1. Was leistet eine digitale Bibliothek? 2. Allgemeine Pflichten des Diensteanbieters

Mehr

MuM Software Servicevertrag Exklusive Vorteile für Kunden von Mensch und Maschine

MuM Software Servicevertrag Exklusive Vorteile für Kunden von Mensch und Maschine MuM Software Servicevertrag Exklusive Vorteile für Kunden von Mensch und Maschine Der Mensch und Maschine Software Servicevertrag (SSV) ist für Ihr Unternehmen die kostengünstigste Weise, CAD Software

Mehr

Ein neues Bibliotheksmanagementsystem für wissenschaftliche Bibliotheken? Eine Evaluation von GBV und hbz

Ein neues Bibliotheksmanagementsystem für wissenschaftliche Bibliotheken? Eine Evaluation von GBV und hbz Ein neues Bibliotheksmanagementsystem für wissenschaftliche Bibliotheken? Eine Evaluation von GBV und hbz Kirstin Kemner-Heek (GBV) Roswitha Schweitzer (hbz) 5. Kongress Bibliothek & Information Deutschland,

Mehr

ThULB Suche. Ein Discovery System für die ThULB Jena. GeSIG Discovery Summit, 08.05.14. Dr. Thomas Mutschler

ThULB Suche. Ein Discovery System für die ThULB Jena. GeSIG Discovery Summit, 08.05.14. Dr. Thomas Mutschler GeSIG Discovery Summit, 08.05.14 ThULB Suche Ein Discovery System für die ThULB Jena Dr. Thomas Mutschler Thüringer Universitäts- und Landesbibliothek Jena Created with wordle 2 Agenda 3 ThULB Jena: Über

Mehr

Vergesst die ebooks - It's the link stupid

Vergesst die ebooks - It's the link stupid Vergesst die ebooks - It's the link stupid Interessengemeinschaft Wissenschaftliche Bibliothekar/innen Zürich Andreas Von Gunten, buch & netz 10. Dezember 2014 http://andreasvongunten.com, @avongunten

Mehr

April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT

April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT Bedeutung der Cloud-Technologie 2 Als neues Schlagwort der Informationstechnik ist "Cloud Computing" in aller Munde,

Mehr

DFG. Verwendungsrichtlinien. Sachbeihilfen (Drittmittel) - Publikationsbeihilfen in Open Access Zeitschriften. DFG-Vordruck 2.023 8/10 Seite 1 von 6

DFG. Verwendungsrichtlinien. Sachbeihilfen (Drittmittel) - Publikationsbeihilfen in Open Access Zeitschriften. DFG-Vordruck 2.023 8/10 Seite 1 von 6 -Vordruck 2.023 8/10 Seite 1 von 6 Verwendungsrichtlinien Sachbeihilfen (Drittmittel) - Publikationsbeihilfen in Open Access Zeitschriften - -Vordruck 2.023 8/10 Seite 2 von 6 1. Allgemeines Diese Richtlinien

Mehr

Keine Angst vor einem digitalen Bildarchiv

Keine Angst vor einem digitalen Bildarchiv Keine Angst vor einem digitalen Bildarchiv Vortrag von Dr. Christoph Müllerleile vor der AG Digitale Archivierung des Vereins für Geschichte und Heimatkunde Oberursel e.v. am 11. September 2012 im Alten

Mehr

Christoph Igel / Renate Wobken / Reinhard Daugs. Erste Erfahrungen mit neuen Formen des Publizierens. Münster 2002

Christoph Igel / Renate Wobken / Reinhard Daugs. Erste Erfahrungen mit neuen Formen des Publizierens. Münster 2002 Christoph Igel / Renate Wobken / Reinhard Daugs Das ejournal Motor Control and Learning Erste Erfahrungen mit neuen Formen des Publizierens Münster 2002 Wissenschaft und Medien Wissenschaftler entwickeln

Mehr

Swiss Universities: vereint für Open Access? Open-Access-Tage Zürich, 7. September 2015

Swiss Universities: vereint für Open Access? Open-Access-Tage Zürich, 7. September 2015 Swiss Universities: vereint für Open Access? Eine Zwischenbilanz Open-Access-Tage Zürich, 7. September 2015 SUK P-2 «Wissenschaftliche Information: Zugang, Verarbeitung und Speicherung» Gabi Schneider,

Mehr

Archive für Künstlerpublikationen der 1960er bis 1980er Jahre

Archive für Künstlerpublikationen der 1960er bis 1980er Jahre Isabelle Schwarz Archive für Künstlerpublikationen der 1960er bis 1980er Jahre Salon Verlag Schriftenreihe für Künstlerpublikationen Band 4 Isabelle Schwarz Archive für Künstlerpublikationen der 1960er

Mehr

Aufbau einer Infrastruktur für die digitale Archivierung im Staatsarchiv Basel-Stadt

Aufbau einer Infrastruktur für die digitale Archivierung im Staatsarchiv Basel-Stadt Digitale Archivierung im Basel-Stadt 2. März 2010 Aufbau einer Infrastruktur für die digitale Archivierung im Basel-Stadt Werkstattbericht - 14. Tagung des AK AUdS, 2010 Lambert Kansy AKAUdS 2010 1 Digitale

Mehr

Informationskompetenz - Was macht die Bibliothek der Universität Konstanz?

Informationskompetenz - Was macht die Bibliothek der Universität Konstanz? Informationskompetenz - Was macht die Bibliothek der Universität Konstanz? Vortrag im Rahmen der Weiterbildung zum Thema Informationskompetenz Oberwolfach, 24.-28. Oktober 2005 Überblick 1. Die Ausgangssituation

Mehr

Fragebogen zu betrieblichen Anforderungen der Rechenzentren (R 3.2.2)

Fragebogen zu betrieblichen Anforderungen der Rechenzentren (R 3.2.2) Fragebogen zu betrieblichen Anforderungen der Rechenzentren (R 3.2.2) Version 12. Aug. 2014 Cluster 3 Verantwortlicher Partner GWDG DARIAH-DE Aufbau von Forschungsinfrastrukturen für die e-humanities Dieses

Mehr

Die ETH-Bibliothek: unentbehrliche Dienstleisterin für die ETH Zürich. Ergebnisse der Umfrage 2012 bei Kundinnen und Kunden der ETH Zürich

Die ETH-Bibliothek: unentbehrliche Dienstleisterin für die ETH Zürich. Ergebnisse der Umfrage 2012 bei Kundinnen und Kunden der ETH Zürich Die ETH-Bibliothek: unentbehrliche Dienstleisterin für die ETH Zürich Ergebnisse der Umfrage 2012 bei Kundinnen und Kunden der ETH Zürich Die ETH-Bibliothek erhält innerhalb der ETH Zürich in ihrer Funktion

Mehr