RADAR. Research Data Repositorium. Antrag auf Gewährung einer Sachbeihilfe im Rahmen der Ausschreibung

Größe: px
Ab Seite anzeigen:

Download "RADAR. Research Data Repositorium. Antrag auf Gewährung einer Sachbeihilfe im Rahmen der Ausschreibung"

Transkript

1 RADAR Research Data Repositorium Antrag auf Gewährung einer Sachbeihilfe im Rahmen der Ausschreibung Neuausrichtung überregionaler Informationsservices Themenfeld 4: Forschungsnahe Informationsinfrastruktur

2 Verantwortlich für die Durchführung des Vorhabens sowie für die Bewirtschaftung und Abrechnung der Mittel: - Technische Informationsbibliothek (TIB) Hannover (AP 1, AP 3, AP 5) - FIZ Karlsruhe Leibniz-Institut für Informationsinfrastruktur (AP 1, AP 4, AP 6) - Ludwigs-Maximilians-Universität (LMU) München (AP 2, AP 3, AP 7) - Leibniz-Institut für Pflanzenbiologie (IPB) (AP 2, AP 3, AP 7) - Karlsruher Institut für Technologie (KIT)/SCC (AP4, AP 6) 1.2 Thema Etablierung eines Research Data Repositoriums (RADAR) als Basisdienstleistung für wissenschaftliche Institutionen zur Archivierung und Publikation von Forschungsdaten 1.3 Förderprogramm / Fach- und Arbeitsrichtung Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS), Förderbereich Informationsmanagement Ausschreibung Neuausrichtung überregionaler Informationsservices ( ) Themenfeld 4: Forschungsnahe Informationsinfrastruktur 1.4 Voraussichtliche Gesamtdauer Vorgesehene Gesamtdauer: 36 Monate; vorgesehene Förderung durch die DFG: 36 Monate. 1.5 Antragszeitraum 36 Monate, gewünschter Beginn der Förderung: Zusammenfassung Die digitale Datenproduktion hat in den letzten Jahren rasant zugenommen, ein Ende des Wachstums ist nicht absehbar. Damit diese Datenmengen auch für nachfolgende Generationen verfügbar und nachnutzbar bleiben, bedarf es entsprechender Infrastrukturen für die Archivierung und Publikation von Forschungsdaten. RADAR zielt auf den Aufbau und die Etablierung einer solchen Infrastruktur, um das in vielen Disziplinen noch fehlende Forschungsdatenmanagement zu unterstützen. Damit trägt RADAR in erheblichem Maß zur verbesserten Verfügbarkeit und nachhaltigen Bewahrung von Forschungsdaten bei. RADAR verfolgt dabei einen zweistufigen Ansatz mit einem (nicht disziplinspezifischen) Einstiegsangebot zur Archivierung von Forschungsdaten und einem höherwertigen Angebot mit integrierter Datenpublikation. Das vorgesehene Geschäftsmodell mit Einmalzahlungen in Abhängigkeit von Datenumfang und Haltefristen bildet die Voraussetzung für einen nachhaltigen Betrieb des Datenarchivs. Die Angebote richten sich sowohl an Wissenschaftler 11, die Forschungsanträge stellen und darin direkt Mittel zur Archivierung ihrer Daten vorsehen, als auch an Forscher (auch aus der Industrie), die an der Nachnutzung der Daten interessiert sind. Die enge Zusammenarbeit mit Wissenschaftlern, Fachgesellschaften und Verlagen ermöglicht die bedarfsgerechte Entwicklung der Infrastruktur. 2. Ausgangslage / Stand der Forschung bzw. Entwicklung 2.1 Darstellung Die Verfügbarkeit wissenschaftlicher Daten ist einer der Schlüsselfaktoren für die weitere Entwicklung der (empirischen) Wissenschaften. Ungeachtet der mittlerweile zahlreichen politischen Vorgaben und Richtlinien (z.b. durch die OECD 12, UNESCO 13, EU 14 oder die DFG 15 ) ist jedoch nur ein geringer Teil 11 Die Verwendung der männlichen oder weiblichen Sprachform schließt die jeweilig andere nicht aus und soll lediglich der besseren Lesbarkeit dienen 12 OECD Principles and Guidelines for Access to Research Data from Public Funding, 2007, Charta zur Bewahrung des digitalen Kulturerbes: 14 High Level Expert Group on Scientific Data: Riding the wave How Europe can gain from the rising tide of scientific data,

3 der produzierten Daten tatsächlich verfügbar, da eine auf Dauerhaftigkeit angelegte und verlässliche Infrastruktur zur Erschließung, Archivierung, Bereitstellung und Nach-nutzung von Forschungsdaten in vielen Fachdisziplinen fehlt. Die folgenden fünf Abschnitte zeigen den aktuellen Stand und die bestehenden Herausforderungen und Defizite auf Infrastrukturbedarf (AP 4, AP 7) Sowohl international wie auch national gibt es erfolgreiche Beispiele für Forschungsdaten-Repositorien, etwa das World Data System der International Council of Science (ICSU) 16 mit seinen mehr als 50 weltweit verteilten disziplinspezifischen Datenzentren oder GESIS Leibniz-Institut für Sozialwissenschaften 17 mit seinen archivierten Studien und empirischen Primärdaten aus den Sozialwissenschaften. Auch Fachdatenbanken wie z.b. die Protein Data Bank (PDB) 18 nehmen Forschungsdaten auf. Gerade letztere zeigt aber auch, dass diese existierenden Angebote oft nur einen Ausschnitt der insgesamt anfallenden Forschungsdaten erfassen. Um Nachvollziehbarkeit und Reproduzierbarkeit von Forschungsergebnissen zu gewährleisten, muss ihr Entstehungsprozess nachvollziehbar erhalten bleiben, inklusive der Rohdaten und Zwischenergebnisse. Diesem Ziel haben sich die meisten disziplinspezifischen Datenzentren bewusst nicht verschrieben. In manchen Disziplinen fehlen entsprechende Repositorien sogar vollständig. Dem Mangel an einer entsprechenden Forschungsdateninfrastruktur stehen die enormen Zuwächse an digitalen Forschungsdaten gegenüber, dies betrifft sowohl ihr Volumen als auch die Art, Verwendung und Nachnutzungswert. Was letztlich relevante erhaltenswerte Forschungsdaten sind, ist dabei häufig abhängig vom Kontext, der Zeit und nachfolgenden zukünftigen Erkenntnissen und Entdeckungen, kann also nicht notwendigerweise bereits zum Zeitpunkt ihres Entstehens bewertet werden Heterogenität (Daten, Metadaten und Formate) (AP 2, AP 3) In seinen Empfehlungen zur Weiterentwicklung der Informationsinfrastruktur in Deutschland bis 2020 unterscheidet der Wissenschaftsrat sechs Forschungsformen: experimentierende, beobachtende, auf Simulation beruhende, hermeneutisch-interpretierende, begrifflich-theoretische und gestaltende. 19 Nicht für alle Forschungsformen besitzen (digitale) Forschungsdaten schon heute den gleichen hohen Stellenwert. Experimentelle Daten entstehen z.b. in Beschleunigern, chemischen, biologischen oder medizinischen Laboren und sind oft gekennzeichnet durch große Datenmengen und vielfach proprietäre Datenformate. Simulationsdaten entstehen durch Berechnungen mit Hilfe von Computern. Hier stellen eher die Ausgangsdaten sowie die verwendeten Simulationsalgorithmen und deren Parametrisierung die Herausforderung für die Archivierung dar. Beobachtungsdaten entstehen z.b. durch Teleskope, Mikroskope, Satelliten, aber auch durch Interviews oder durch Audio- und Videoaufzeichnungen und können oftmals nur schwer reproduziert werden, da es sich teilweise um singuläre Ereignisse handelt. Darüber hinaus sind als weitere Datengruppe Referenzdaten zu nennen, wie z.b. Genomdatenbanken, die disziplinübergreifend von Wissenschaftlern genutzt werden. Hinzu kommt begleitendes Material, wie Kalibrierungsdaten, Parameter des Experimentes, Laborbücher etc., die die eigentlichen Daten in einen Kontext setzen und damit erst verständlich machen. Die enorme disziplinabhängige Vielfalt der Datenformen und -typen ist kaum einzuschränken: sie reichen von proprietären Formaten über Audio- und Videostreams, Textkorpora bis hin zu Webarchiven 20 und Datenbanken. Neben der großen Vielfalt an Datentypen und der zu ihrer Speicherung eingesetzten Datenformaten kommen noch auf die disziplinspezifischen Anforderungen hin abgestimmte beschreibende Metadaten hinzu. Diese stellen die Vielzahl der Datenobjekte oft erst in einen Zusammenhang, machen ihre Genese nachvollziehbar und machen sie überhaupt erst auffindbar. Wissenschaftler stellen auf ihrem jeweiligen Fachgebiet individuelle und höchstspezifische Anforderungen an das Forschungsdatenmanagement. Großforschungseinrichtungen wie z.b. CERN 15 Deutsche Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme: Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten, GESIS - Leibniz-Institut für Sozialwissenschaften, 18 Die PDB wird vom Research Collaboratory for Structural Bioinformatics (RCSB) unterhalten, 19 Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020, Wissenschaftsrat, Berlin, 2012, S. 36f. 20 Die Library of Congress archiviert die Daten des Microblogdienstes Twitter u.a. zu Forschungszwecken ( 3

4 oder big data -Disziplinen wie z.b. die Klimaforschung pflegen einen anderen Umgang mit ihren Forschungsdaten und sehen sich mit anderen Herausforderungen konfrontiert 21 als z.b. kleine Forschergruppen in der Archäologie. Dementsprechend unterschiedlich ist der Grad der Standardisierung von Datenformaten und Metadatenformaten. Gleichwohl können vier Ansätze 22 in Hinblick auf den Umgang der unterschiedlichen Fachdisziplinen mit der Formatvielfalt und - heterogenität unterschieden werden: 1. die Formate können durch Richtlinien der Institution oder 2. durch Fakten (z.b. Standards, Geräteabhängigkeiten) eingeschränkt sein, 3. es hat u.u. noch keine Standardisierung in dieser Fachdisziplin stattgefunden, 4. die Formate können nicht eingeschränkt werden, da dies z.b. innovationshemmend wäre. Die enorme Vielzahl der Daten- und Metadatenformate stellt für die langfristige Nachnutzbarkeit der Daten eine große Herausforderung insbesondere für die funktionale Langzeitarchivierung dar. 23 Die Beobachtung der sich entwickelnden Technologie der digitalen Langzeitarchivierung und der Anforderungen der relevanten Zielgruppen haben einen großen Einfluss auf notwendige Preservation Policies und Datenmanagementpläne. Viele dieser Fragestellungen sind zurzeit noch Gegenstand der Forschung. 24 Um das hier beantragte Projekt nicht zu überfrachten, verzichtet RADAR vorerst bewusst auf eine funktionale Langzeitarchivierung der Daten, beobachtet aber relevante Projekte 25 und Initiativen Lebenszyklus von Forschungsdaten (AP 2) Die Nachnutzung von Forschungsdaten kann zum Zwecke der Kooperation, zum Austausch mit anderen Wissenschaftlern, für eine wissenschaftliche Publikation oder für eine an die Allgemeinheit gerichtete Veröffentlichung erfolgen. Die Veröffentlichung von Forschungsdaten sollte ein integraler Bestandteil des Forschungsprozesses sein 27, jedoch kennt die klassische wissenschaftliche Abbildung 1: Lebenszyklus von Forschungsdaten Publikationsweise kaum Standards, wie mit den zugrundeliegenden Forschungsdaten zu verfahren ist. Forschungsdaten entstehen zu einem anderen Zeitpunkt als klassische Publikationen und durchlaufen 21 Bicarregui, J., Gray, N., Henderson, R., Jones, R., Lambert, S. und Matthews, B., DMP Planning for Big Science Projects, S. 6f. Online: 22 Neuroth, H., Strathmann, S., Oßwald, A., Scheffel, R., Klump, J., Ludwig, J. [Hrsg], Langzeitarchivierung von Forschungsdaten Eine Bestandsaufnahme, Online: 23 Seeing Standards: A Visualization of the Metadata Universe, 24 Becker, C. Vertrauenswürdige Planung in der digitalen Langzeitarchivierung, Online: 25 z.b. SCAPE Scalable Preservation Environments ( oder bwfla ( 26 z.b. NESTOR ( 27 EU-GRDI2020 Roadmap Report, Global Scientific Data Infrastructures: The Big Data Challenges,

5 einen eigenen Lebenszyklus. Zur Illustration dieser Prozesse im Forschungsdatenmanagement legen wir das Domänenmodell von Treloar 28 und Klump 29 zugrunde (siehe Abbildung 1). Demzufolge werden die Forschungsdaten durch den Wissenschaftler (private Domäne) erzeugt und analysiert. Zur Diskussion der Ergebnisse mit ausgewählten Kollegen innerhalb und außerhalb seiner Institution macht er diese meist in bereits bearbeiteter Form über geeignete Systeme eingeschränkt zugreifbar (kollaborative Domäne) Datenpublikation (AP 5) Sollen Teile von Forschungsdaten Bestandteil einer wissenschaftlichen Publikation werden, sei es als Ergänzung zu einer klassischen Publikation ( supporting material ) oder als eigenständige Datenpublikation, so müssen sie zwei elementare Anforderungen erfüllen: eindeutige und persistente Identifizierbarkeit und verlässlicher dauerhafter Zugriff. Das Domänenmodell sieht hierfür den Übergang in die öffentliche Domäne vor. Doch was im Domänenmodell der logisch nächste Schritt ist, stellt Wissenschaftler und Verlage in vielen Disziplinen vor große Probleme. Wer übernimmt für sie die Identifizierung und Speicherung der Daten weit über die Dauer ihrer Forschungsprojekte hinaus? Wissenschaftliche Verlage widmen sich in jüngster Zeit selbst diesem Thema und suchen neue Wege der Publikation von Forschungsergebnissen und der zugrundeliegenden Daten. 30 Darüber hinaus wurde eine Kooperation zwischen STM-Verlagen 31 und DataCite vor kurzem beschlossen Vertrauenswürdigkeit und Nachhaltigkeit (AP 6, AP 1) Ein verlässlicher dauerhafter Zugriff auf Forschungsdaten muss von Datenzentren garantiert werden. 33 In der Vergangenheit wurden hierfür unterschiedliche Kriterienkataloge entwickelt und Zertifizierungsstellen geschaffen (z.b. World Data System 34, TRAC 35, Nestor 36, DCC 37, DINI 38 und Data Seal of Approval 39 ). Dadurch erlangen Archive das Siegel der Vertrauenswürdigkeit. Die Harmonisierung der Kriterienkataloge und die Klärung von Zuständigkeiten sind jedoch noch offen. Neben den technischen, organisatorischen und juristischen Aspekten des Forschungsdatenmanagements ist die wirtschaftliche Sicht ebenfalls wichtig. Dem ökonomischen Aspekt des Datenmanagements widmete sich zum ersten Mal umfassend der BRTF Final Report. 40 Für den Bereich des Forschungsdatenmanagements spricht der Report fünf Empfehlungen für Institutionen und Geldgeber aus. Weitere Publikationen auf diesem Gebiet sind Keeping Research Data Safe 41 und Aligning National Approaches to Digital Preservation. 42 Belastbare Zahlen und Geschäftsmodelle fehlen aber bis dato. 28 Treloar, A.; Harboe-Ree, C., Data management and the curation continuum. How the Monash experience is informing repository relationships. VALA th Biennial Conference. Melbourne, Klump, J., Managing the Data Continuum, Online: Unter dieser Abkürzung werden Verlage aus dem Bereich Science, Technology und Medicine zusammengefasst 32 und 33 Klump, J., Criteria for the Trustworthiness of Data Centres, D-Lib Magazine, Vol. 17, Number 1-2, Ambacher, B., Trustworthy Repository Audit & Certification: Criteria and Checklist (TRAC) 36 Dobratz, S. et. al., Catalogue of Criteria for Trusted Digital Repopsitories, nestor materials, Digital Curation Center (DCC), and Digital Preservation Europe (DPE), 2007, Audit Method Based on Risk Assessment (DRAMBORA) 38 DINI AG Elektonisches Publizieren, DINI-Certificate Document and Publication Services, Sesink L., van Horik R., Harmsen H., Data Seal of Approval, Data Archiving and Networked Services (DANS), Sustainable Economics for a Digital Planet: Ensuring Long Term Access to Digital Information, Final Report of the Blue Ribbon Task Force on Sustainable Digital Preservation and Access, Beagrie, N. et al., Keeping Research Data Safe, A Cost Model and Guidance for UK Universities, JISC, Final Report, 2008, 42 McGovern, N. Y. (Volume Editor), Aligning National Approaches to Digital Preservation,EDUCOPIA INSTITUTE PUBLICATIONS, Atlanta, Georgia,

6 2.2 Vorarbeiten der Partner Technische Informationsbibliothek Hannover Für die Identifizierung, eindeutige Referenzierung und Sicherung der Zitierfähigkeit von Forschungsdaten hat die in der Leibniz-Gemeinschaft vertretene Technische Informationsbibliothek (TIB), die zentrale Fachbibliothek für Technik sowie Architektur, Chemie, Informatik, Mathematik und Physik seit dem Jahr 2005 als weltweite erste nicht-kommerzielle Registrierungsagentur 43 durch die DOI-Vergabe sowohl die nötige Infrastruktur als auch inhaltliche Kompetenzen in diesem Bereich aufgebaut, die letztlich in 2009 zur Gründung des internationalen Vereins DataCite, 44 führte. 45 Dessen Geschäftsstelle ist an der TIB ansässig. Der DOI (Digital Object Identifier) als persistenter Identifier dient zur Referenzierung und dauerhaften Verfügbarkeit von Forschungsdaten. Gleichzeitig ist er als Qualitätsmerkmal für die referenzierten Objekte und für die Publikation von Daten ein unabdingbarer Bestandteil. In GetInfo, dem Fachportal für Technik und Naturwissenschaften, können zudem nicht nur herkömmliche Publikationen verzeichnet und bereitgestellt werden, sondern auch Forschungsdaten, 3D-Objekte und AV-Medien. Diese erweiterte Dienstleistung ermöglicht in einem ersten Schritt den auf Metadaten basierenden Nachweis von archivierten und referenzierten Forschungsdaten in einem Fachportal gemeinsam mit Publikationen. Anhand der im Jahr 2010 erstellten DFG-geförderten Konzeptstudie Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie, die grundlegend den Umgang mit Forschungsdaten in wissenschaftlichen Prozessen analysierte, kann der aktuelle Bedarf zur Archivierung und Publikation von Forschungsdaten in der chemischen Wissenschaft abgelesen werden. Aufbauend auf diesen Erkenntnissen kann in diesem Projekt bedarfsgerecht die notwendige Infrastruktur entwickelt und implementiert werden. Das ebenfalls von der DFG geförderte Kompetenzzentrum für Forschungsdaten aus Erde und Umwelt, KomFor, 46 welches als Bindeglied zwischen wissenschaftlichen Einrichtungen, Verlagen, Bibliotheken und einem bestehenden Archivnetzwerk für Daten aus Erd- und Umweltforschung geplant ist, erzeugt Synergieeffekte für den Aufbau einer generischen Forschungsdatenmanagement-Infrastruktur. FIZ Karlsruhe Leibniz-Institut für Informationsinfrastruktur FIZ Karlsruhe arbeitet seit mehreren Jahren intensiv und erfolgreich an e-science-lösungen für die Wissenschaft. Grundlage für die im vorliegenden Projektantrag vorgesehene Software bildet die e- Science-Infrastruktur escidoc, die gemeinsam mit der Max-Planck-Gesellschaft (MPG) in einem vom BMBF geförderten Projekt zwischen 2004 und 2009 entstanden ist und seitdem kontinuierlich weiterentwickelt wird. FIZ Karlsruhe hat in mehreren Projekten die Einbindung einer Dateninfrastruktur in virtuelle Forschungsergebnisse erfolgreich umgesetzt. Zum einen wurden in den von Baden-Württemberg geförderten Projekten BW-eLabs ( ) und BW-eSci(T) ( ) erste Schritte in ein durchgängiges Forschungsdatenmanagement getan. Diese Ergebnisse wurden im DFG-geförderten Projekt e-kinematix ( ) nachgenutzt und generalisiert. Im EU-Projekt SCAPE (Scalable Preservation Environments, ) befasst sich FIZ Karlsruhe mit den Herausforderungen der digitalen Langzeitarchivierung sehr großer Repositorien. Mitte 2010 wurde FIZ Karlsruhe vom Kompetenznetzwerk Deutsche Digitale Bibliothek als Betreiber ausgewählt. Die im Rahmen des wettbewerblichen Auswahlprozesses dargestellten Qualitäten als zuverlässiger und vertrauenswürdiger Betreiber komplexer IT-Infrastrukturen und Softwaresysteme sowie darauf aufsetzender Geschäftsprozesse qualifizieren FIZ Karlsruhe auch als Betreiber eines zertifizierten Datenzentrums. 43 Vgl Vgl. Senat der Leibniz Gemeinschaft, Stellungnahme zur Technischen Informationsbibliothek Hannover (TIB), Besonders hervorzuheben ist dabei der Betrieb der nationalen DOI-Registrierungsagentur zur Referenzierung von Forschungsdaten. Mit ihr bietet die TIB einen innovativen und bedeutenden Dienst an, der auch international wahrgenommen wird. (Ebd. S. B-9)

7 Karlsruher Institut für Technologie (KIT), Steinbuch Centre for Computing (SCC) Das Karlsruher Institut für Technologie (KIT) wurde durch den Zusammenschluss des Forschungszentrums Karlsruhe und der Universität Karlsruhe durch die Bundesrepublik Deutschland und das Land Baden-Württemberg gegründet. Das Steinbuch Centre for Computing (SCC) ist das Information Technology Centre des KIT und betreibt, neben den für ein IT-Service-Center spezifischen Aufgaben, eigene Forschung und nimmt dabei eine führende Rolle in den Gebieten High Performance Computing (HPC) & Data Intensive Computing (DIC), Scientific Computing und Simulation, Grid und Cloud Computing sowie Large Scale Data Management & Analysis (LSDMA) 47 ein. Das SCC entwickelte und betreibt seit 2009 die Large Scale Data Facility (LSDF), die zu einer der größten Einrichtungen Europas für die Speicherung, Analyse und Archivierung von Forschungsdaten aus Physik-, Bio- und Geisteswissenschaften heranwächst. Dazu werden am SCC seit 2011 im Rahmen des DFG Projekts Beweissicheres elektronisches Laborbuch (BeLab) praxisnahe Lösungen für die beweiswerterhaltende Archivierung von Forschungsdaten umgesetzt. Das SCC kann in seiner Rolle als Dienstleister für Datenspeicherung in Baden-Württemberg und in der Helmholtz-Gemeinschaft umfangreiche Erfahrungen einbringen. LMU München Department Chemie Das Department Chemie bildet zusammen mit den Departments Biochemie (mit angeschlossenem Genzentrum) und Pharmazie die traditionsreiche Fakultät Chemie und Pharmazie der LMU. Zahlreiche interdisziplinäre Arbeitsgruppen haben sich als Projektpartner in DFG- und sonstigen Forschungsprojekten in exzellenter Forschung ausgezeichnet. Diese Forschergruppen werden an der Fakultät neben gruppeneigenen Messwerterfassungssystemen durch eine zentrale Analytik-Abteilung mit verschiedenen, hochmodernen Methoden unterstützt. Die anfallenden Daten reichen von physikochemischen Datenpunkten über Spektren hin zu Bildern aus dem Life-Science Bereich und reflektieren damit die breite Datenvielfalt in chemischen Publikationen. Die nachhaltige Bereitstellung der Daten stellt dabei eine immer größer werdende Herausforderung für die Fachbereiche dar. RADAR bietet für das Department Chemie der LMU erstmalig einen Ansatz, das Thema Forschungsdatenmanagement anzugehen. Leibniz-Institut für Pflanzenbiochemie (IPB) Das Leibniz-Institut für Pflanzenbiochemie (IPB), Halle, betreibt als Mitglied der Leibniz-Gemeinschaft anwendungsorientierte Grundlagenforschung. Im Mittelpunkt des einzigartigen Forschungsprofils steht die umfassende Analyse pflanzlicher und pilzlicher Naturstoffe, die im Rahmen einer multidisziplinären Strategie mit chemischen, spektroskopischen, biochemischen, zellbiologischen, physiologischen und genetischen Methoden bearbeitet werden. Die Schwerpunkte der Arbeiten liegen in der Analyse von Naturstoffen, der Erforschung molekularer Interaktionen komplexer biologischer Prozesse in Pflanzen und der Aufklärung von Genfunktionen. Zunehmende Bedeutung erlangen Arbeiten auf den Gebieten von Proteomik und Metabolomik. Ein integraler Bestandteil aller dieser Aktivitäten ist die Chemo- und Bioinformatik. Die fächerübergreifenden Forschungsansätze und das damit verbundene vielfältige Methodenspektrum führen zur Erzeugung sehr großer Datenmengen von hoher Komplexität und Diversität. Speicherung, Auswertung, Verknüpfung und Nutzung dieser Daten erfordern den Einsatz angepasster Informatikwerkzeuge. Die dazu am IPB in einem abteilungsübergreifenden Forschungsund Kompetenzschwerpunkt begonnenen Arbeiten würden durch das RADAR-Projekt wesentlich unterstützt und ergänzt werden. 2.3 Verzeichnis projektspezifischer Publikationen Potthoff, J., Rieger, S., und Johannes, P. C. (2012). Enhancing the Provability in Digital Archives by Using a Verifiable Metadata Analysis Web Service, Proc. 7th ICIW 2012, 27. Mai 1. Juni 2012, Stuttgart. Potthoff, J. (2012). Beweiswerterhaltendes Datenmanagement im elektronischen Forschungsumfeld. In: Bonn Gesellschaft für Informatik e.v., P. Müller, B. Neumair, H. Reiser und G.D. Rodosek (Hrsg.): Proceedings DFN-Forum Kommunikationstechnologien: Fachtagung Regensburg , Köllen (S )

8 Hackel, S., Johannes, P.C., Madiesh, M., Potthoff J. und Rieger, S. (2011). Scientific Data Lifecycle Beweiswerterhaltung und Technologien. In: BSI (Hrsg.): Sicher in die digitale Welt von morgen - Tagungsband zum 12. Deutschen IT-Sicherheitskongress, SecuMedia (S ). Brase, J. (2011). Access to Research Data, D-Lib Magazine, Volume 17, Number 1/2, doi: /january2011-brase Brase, J., Farquhar, A., Gastl, A., Gruttemeier, H., Heijne, M., Heller, A., Piguet, A., Rombouts, J., Sandfaer, M., Sens, I. (2009). Approach for a joint global registration agency for research data, Information Services and Use, 29 (1) (S ). Razum, M., Einwächter, S., Fridman, R., Herrmann, M., Krüger, M., Pohl, N., et al. (2010). Research Data Management in the Lab. 5th International Conference on Open Repositories. Madrid, Spanien. Razum, M., Schwichtenberg, F., Wagner, S., & Hoppe, M. (2009). escidoc Infrastructure: A Fedora-Based e-research Framework. In M. Agosti et al., ECDL 2009, LNCS 5714: Springer, (S ). Jeschke, S., Burr, B., Hahn, J. U., Helmes, L., Kriha, W., Krüger, M., et al. (2009). Networking Resources for Research and Scientific Education in BW-eLabs. 10th ACIS International Conference on Software Engineering, Artificial Intelligences, Networking and Parallel/Distributed Computing, London, UK: IEEE Computer Society (S ). TIB, FIZ Chemie, Universität Paderborn (2010). Konzeptstudie Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie, Hannover, TIB [u.a.]. 3. Ziele und Arbeitsprogramm 3.1 Ziele Das Ziel von RADAR ist es, in einem Zeitraum von drei Jahren eine Infrastruktur für die Datenarchivierung und -publikation (Datenzentrum) aufzubauen, der ein sich selbsttragendes, zweistufiges Geschäftsmodell zu Grunde liegt. Der Aufbau und die Etablierung einer solchen Infrastruktur umfasst Werkzeuge und Prozesse, um Forschungsdaten systematisch zu erschließen, dauerhaft in einem Datenarchiv zu bewahren und der Öffentlichkeit zugänglich zu machen, durch DOI-Vergabe verfügbar, zitierfähig und verlinkbar zu machen sowie für die Nachnutzung qualitätsgesichert bereitzustellen. Je mehr man sich dem Arbeitsplatz der Wissenschaftler annähert (siehe Abb. 1, kollaborative bzw. private Domäne), desto offensichtlicher wird die Vielfalt der Forschungsprozesse und die Heterogenität der damit verbundenen Datentypen, Formate und Metadaten (vgl ). Daher ist es zielführend, den Schwerpunkt von RADAR zuerst auf die dritte, öffentliche Domäne (vgl ) zu legen, da dies die einzige Stelle ist, an der sich eine generische, disziplinübergreifende Dienstleistung etablieren lässt. Gleichzeitig wirkt ein verlässliches und auf Dauerhaftigkeit ausgelegtes Datenarchiv dem Defizit einer fehlender Infrastruktur (vgl ) entgegen. Das Datenarchiv bildet eine wesentliche Grundlage für die Nachnutzung und Publikation von Forschungsdaten (vgl ) und bringt allein dadurch bereits einen erheblichen Nutzen für Forschende (auch in der forschenden Industrie), Wissenschaft und Gesellschaft. Die Datenarchivierung ermöglicht Transparenz und schnellere Überprüfbarkeit von Forschungsergebnissen in der Wissenschaft. Die Wiederverwertbarkeit von Daten schafft Vergleichsmöglichkeiten und verringert redundante Datenerhebungen, wodurch sich Zeit und Kosten in erheblichem Maß einsparen lassen. Für den Aufbau und Betrieb eines disziplinübergreifend nutzbaren Forschungsdatenarchivs verfolgen wir einen zweistufigen Ansatz, der sich auch im geplanten Umfang der angebotenen Dienstleistung niederschlägt. Das Einstiegsangebot zeichnet sich durch formatunabhängige Archivierung, Bitstream Preservation sowie einem minimalen Metadatensatz mit einem standardisierten Kern aus. Sie erlaubt 8

9 eine Verknüpfung von Daten mit Metadaten, die Verwaltung von Zugriffsrechten und gewährleistet den öffentlichen Zugang zu den Daten. Dieses Angebot richtet sich an Wissenschaftler aus den small sciences, die primär an der Einhaltung von empfohlenen Haltefristen 48 interessiert sind. Darüber hinaus eignet es sich aber auch für andere Daten wie z.b. Negativdaten 49, die man nicht als Teil einer Publikation verwenden möchte, die aber für andere von hohem Interesse sein können. Das Einstiegsangebot unterscheidet sich von kommerziellen Diensten wie z.b. Dropbox 50 oder figshare 51 durch das hinter ihm stehende Betreiberkonsortium aus wissenschaftsnahen Gedächtnisorganisationen und Infrastruktureinrichtungen, die deutschem Recht unterliegen und keine kommerziellen Interessen verfolgen, sowie in dem gegenüber diesen Diensten gebotenen Mehrwert wie die Überwachung von Haltefristen, die Vergabe von persistenten Identifiern (Handles) und der zugesicherten Bitstream Preservation. Darüber hinaus ist bei entsprechender Aufbereitung der Daten ein Übergang aus dieser Stufe in eine höherwertige Angebotsstufe, wie im nächsten Absatz beschrieben, jederzeit möglich. Die zweite, höherwertige Angebotsstufe eignet sich für die dauerhafte Datenarchivierung mit (optionaler) Datenpublikation. Neben den Diensten des Einstiegsangebots ist hier die Vergabe von formatund disziplinspezifischen Metadaten sowie von dauerhaften DOI-Namen in den Publikationsprozess implementiert. Bei der Ausgestaltung der Metadatenprofile kann über eine Kooperation mit dem Projekt LSDMA auf umfangreiche Vorarbeiten zurückgegriffen werden. Der Fokus von RADAR wird vorerst auf der Publikation von Forschungsdaten liegen, die im Zusammenhang mit einer (traditionellen) wissenschaftlichen Publikation stehen. 52 Dafür sollen Workflows für den Archivierungs- und Publikationsprozess von Forschungsdaten erarbeitet und die Wissenschaftler bei der Speicherung und Identifizierung ihrer Daten auch über den Zeitraum eines Forschungsprojekts hinaus unterstützen werden (vgl ). Das vorgesehene Geschäftsmodell baut auf Einmalzahlungen für die Archivierung der Forschungsdaten in Abhängigkeit von Datenumfang und Haltedauer auf. Damit können Wissenschaftler die zu erwartenden Kosten schon während der Antragstellung ihrer Forschungsprojekte abschätzen und mit beantragen. Wissenschaftliche Ergebnisse bleiben sowohl im Rahmen der Regeln guter wissenschaftlicher Praxis der DFG überprüfbar als auch für nachfolgende Generationen auffindbar und für andere Forschungsfragen verfügbar. Forschungsdaten können somit nachgenutzt und von anderen Forschungsgruppen nachvollzogen werden. Dadurch wird in den wissenschaftlichen Communities die notwendige Transparenz in den Forschungsaktivitäten und gleichzeitig die Voraussetzung für die eigenständige Publikation der Daten geschaffen. Das Datenzentrum übernimmt die dauerhafte und zuverlässige Speicherung der Daten und garantiert dies gegenüber den Wissenschaftlern mittels einer geeigneten Zertifizierung. RADAR will bewusst nicht in Konkurrenz zu existierenden Datenzentren und Fachdatenbanken treten, sondern diese ergänzen und komplettieren. Es deckt auch das Vorhalten nicht publizierter Daten für eine spezifizierte Haltefrist ab (etwa 10 Jahre nach Projektende gemäß DFG-Empfehlung) und hilft damit das Dilemma aufzulösen, dass Forschungsförderer einerseits ein Vorhalten der Daten fordern, andererseits aber keine verlässliche Infrastruktur dafür bereitsteht. Das geplante Datenzentrum hilft, die bisherige, oft wenig organisierte Speicherung der Daten (im Extremfall auf dem Speicherstick des Wissenschaftlers) zu überwinden. Die angeschlossene DOI-Registrierung ermöglicht die Vergabe von eindeutigen und persistenten Identifikatoren (DOI-Namen) für Forschungsdaten und damit eine eindeutige Referenzierbarkeit. Die Vergabe von DOI-Namen für Forschungsdaten gilt zudem als Qualitätsmerkmal für die Referenzierung vor allem auch durch die Verknüpfung der Daten mit dem dazu gehörigen wissenschaftlichen Artikel. Durch die zusätzliche Publikation und Referenzierbarkeit der Daten ergibt sich weiterhin die Möglichkeit die wissenschaftliche Reputation der (Daten-)Autoren in ihrer jeweiligen Fachcommunity zu erhöhen. Die enorme Relevanz der Themen Referenzierung und Reputation spiegeln sich auch bei dem Aufbau 48 Deutsche Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme: Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten, Daten, die zu keinem Ergebnis geführt haben Vgl. TIB, FIZ Chemie, Universität Paderborn, Konzeptstudie Vernetzte Primärdateninfrastruktur für den Wissenschaftler-Arbeitsplatz in der Chemie, Online: 9

10 des Data Citation Index in Thomson Reuters Web of Science wider, der das Auffinden von Forschungsdaten und ihrer Urheber deutlich verbessert. 53 Die Möglichkeit zur Zitierung von Forschungsdaten erhöht somit nicht nur die Anerkennung von Datenproduzenten sondern auch die Sichtbarkeit und damit die Verfügbarkeit ihrer Forschungsergebnisse. 54 In Zusammenarbeit mit dem Thieme Verlag und dem GDCh/Wiley-VCH Verlagsbeirat werden exemplarisch für den naturwissenschaftlichen Sektor mögliche Workflows entwickelt, die den Wissenschaftler bei der Publikation von Forschungsdaten unterstützen. Dabei müssen sowohl Autorenrichtlinien, Zitierstandards und Datenmanagementpläne definiert als auch Modelle für mögliche Kosten erstellt werden (vgl. auch AP 5). Die erarbeiteten Workflows sollen an zwei Beispielen, der NMR-Spektroskopie und 2D/DIGE-Bildern, 55 getestet, evaluiert und die Ergebnisse anschließend mit Hilfe eines im Projekt entwickelten Leitfadens (vgl. AP 2.2 und AP 4.2) auf andere Disziplinen übertragen werden. Dadurch wird RADAR den Anforderungen an eine generische Infrastruktur gerecht und gibt anderen wissenschaftlichen Disziplinen die Möglichkeit, durch entsprechende Aufbereitung ihrer Daten das höherwertige Dienstleistungsangebot zur Publikation ihrer Daten in Anspruch zu nehmen. Dabei ist eine Analyse bestehender und Identifizierung neuer, auch fachspezifischer Datenformate sowie die Erarbeitung datentechnischer und fachspezifischer Metadatenschemata (vgl. AP 3) für den Umgang mit der vorhandenen Heterogenität in diesem Bereich unabdingbar (vgl ). Perspektivisch sieht RADAR auch eine eigenständige Datenpublikation ohne deren Verknüpfung mit einem wissenschaftlichen Artikel vor. Hierfür können sowohl die publizierten als auch weitere im Rahmen der Forschungsansätze dokumentierten Daten in Betracht gezogen werden, die somit den gesamten Forschungsprozess nachvollziehbar machen. Die Fachwissenschaftler müssen dazu in Zusammenarbeit mit Fachgesellschaften beispielhaft (Qualitäts-)Standards etablieren und Kriterien für die Auswahl publikations- und damit auch archivierungswürdiger Daten entwickeln 56 (vgl. AP 2 und 5). Besonderes Augenmerk muss hierbei auf den gegenwärtigen, aber auch zukünftigen Nutzen der zu archivierenden Daten für die jeweilige Fachcommunity gelegt werden. Auch aus diesem Grund ist es wichtig, die Auswahlkriterien und -prozesse in Kooperation mit übergeordneten Organisationen wie den Fachgesellschaften als jeweilige Interessensvertretung einer Fachwissenschaft, zu erarbeiten. 57 Die Archivierung von Forschungsdaten ist ein zentraler Baustein im übergreifenden Forschungsdatenmanagement und somit unabdingbar für die Publikation von Forschungsdaten sowie deren persistente Identifizierung und Referenzierung. Sie stellt gleichzeitig einen generalisierbaren Baustein einer übergreifenden Infrastruktur dar. Vor diesem Hintergrund bildet ein Archiv perspektivisch den Nukleus für weitere Dienste wie: fachspezifische Datenportale zur Dissemination und Nachnutzung der Daten, die Verknüpfung mit institutionellen Systemen des Forschungsdatenmanagements über eine weitergehende Automatisierung der (Meta-)Datenübernahme und die möglichst zeitnahe Erfassung der Forschungsdaten während oder nach ihrer Entstehung in einer Dateninfrastruktur und (teil-)automatische Erfassung kontextueller Informationen (als Metadaten). Die vorgesehene, offene Systemarchitektur des Datenzentrums und seine offenen Programmierschnittstellen (API) erlauben es den Systembetreibern und Dritten, über die im Antrag beschriebenen Grundfunktionen von RADAR hinaus derartige Dienste aufzubauen (vgl. AP 4). Damit kann RADAR perspektivisch als Backend für weitere disziplinspezifische Angebote dienen. 53 Vgl. auch 54 Vgl. Kotarski, R., Reilly, S., Schrimpf, S., Smit, E., und Walshe, K., Report on Best Practices for Citability of Data and Evolving Roles in Scholarly Communication Online: content/uploads/downloads/2012/08/ode- ReportBestPracticesCitabilityDataEvolvingRolesScholarlyCommunication.pdf 55 2D-/DIGE steht für "Differential In-Gel Electrophoresis", einem bildbasierten Verfahren aus den Lebenswissenschaften zur Proteinanalyse 56 Vgl. hierzu auch Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020, Wissenschaftsrat, Berlin, 2012, S Vgl. Sustainable Economics for a Digital Planet: Ensuring Long-Term Access to Digital Information, Blue Ribbon Task Force, Final Report, Feb. 2010, S. 2f. und 75f.; 10

11 Für die Akzeptanz des Datenarchivs in den Fachcommunities ist eine eindeutige und transparente Definition der Verantwortlichkeiten der verschiedenen Akteure unabdingbar, um die Qualität der archivierten Daten und damit auch die des Datenzentrums zu sichern. Dies beinhaltet die kooperative Entwicklung von Policies zur Datenerhaltung (vgl. AP 6) zwischen den Akteuren der Datenproduktion und Datenarchivierung, um archivierungswürdige, qualitativ hochwertige Daten als nationales Kulturgut langfristig zu erhalten und nachhaltig auch über institutionelle Grenzen hinweg verfügbar zu machen. 58 Auch die Zertifizierung des Datenarchivs sowie ein transparentes Geschäftsmodell (vgl. AP 6) zur Gewährleistung von Nachhaltigkeit dienen der Vertrauenswürdigkeit gegenüber den Wissenschaftlern. Damit deckt RADAR in seiner ersten Ausbaustufe zunächst nur einen gleichwohl essentiellen Teilaspekt des überregionalen Forschungsdatenmanagements ab, bietet jedoch einen evolutionären Ansatz zur Erweiterung. In Folgeprojekten können wissenschaftliche Institutionen ihr fach- und gruppenspezifisches Datenmanagement in die hier geschaffene generische Infrastruktur integrieren. 3.2 Arbeitsprogramm Das Arbeitsprogramm ist in sieben Arbeitspakete (AP) gegliedert (s. a. Kapitel 4: Beantragte Mittel). Die Reihenfolge der im Folgenden aufgeführten Arbeitspakete und -schritte entspricht dabei nicht der tatsächlichen geplanten zeitlichen Durchführung im Projektverlauf. In der Regel werden die Arbeitspakete und -schritte parallel bearbeitet. Um die Einbindung einer breiteren Fachöffentlichkeit über die Pilotdisziplinen hinaus sicherzustellen, sehen die Antragsteller zum Abschluss der Konzeptionsphase der AP 2/3, AP 4 und AP 5 jeweils einen Workshop mit Vertretern aus den Fachwissenschaften, Bibliotheken und Rechenzentren vor, auf dem die bis dahin erzielten Ergebnisse vorgestellt und diskutiert werden. Das so gesammelte Feedback soll in die finale Spezifikation mit einfließen. Organisiert werden die Workshops im Rahmen von AP 1. AP 1: Projektmanagement Leitung: TIB und FIZ Ziele Leitung und Erfolgskontrolle des Projekts. Aufgaben Das Projektmanagement gewährleistet die Zusammenarbeit und den Informationsfluss im verteilten Projektteam. Dazu gehören die Organisation regelmäßiger Telefonkonferenzen sowie die Durchführung von Projekttreffen. Darüber hinaus stellt es in enger Abstimmung mit allen Projektpartnern eine angemessene Dissemination der Projektergebnisse in Form von Publikationen, Konferenzbeiträgen und Workshops sicher. Ein Konzept zur Nachhaltigkeit und Verstetigung der Infrastruktur ist hier zunächst exemplarisch mit den kooperierenden wissenschaftlichen Partnern aus den Natur- und Lebenswissenschaften zu entwickeln und umzusetzen, wobei ein Erfolg maßgeblich vom zugrunde liegenden Geschäftsmodell (s. a. AP 6) abhängig ist. Die gewonnenen Erkenntnisse sollen anschließend auf andere Fachgebiete ausgeweitet und übertragen werden. Ein weiterer Schwerpunkt des Projektmanagements wird in der Beobachtung anderer relevanter Projekte auf diesem Gebiet, wie z.b. Radieschen 59 oder auch re3data 60 liegen. Die dort erarbeiteten Ergebnisse sollen in die Konzeption des Datenzentrums und des zugehörigen Geschäftsmodells einbezogen werden. Dadurch sollen Synergien genutzt und Doppelarbeit vermieden werden. Weiterhin stellt das Arbeitspaket die Zusammenarbeit und Abstimmung mit existierenden Datenzentren und entsprechenden Kompetenzzentren sicher. 58 Vgl. Sustainable Economics for a Digital Planet: Ensuring Long-Term Access to Digital Information, Blue Ribbon Task Force, Final Report, Feb. 2010,

12 Arbeitsschritte Schritt Beschreibung Aufwand AP 1.1 Koordinierung der arbeitspaketübergreifenden Aktivitäten der Projektpartner 2 PM 61 AP 1.2 Dissemination der Projektergebnisse (Workshops, Publikationen) 2 PM AP 1.3 Nachhaltigkeits- und Verstetigungskonzept 2 PM AP 1.4 Kooperation mit anderen relevanten Projekten, Daten- und Kompetenzzentren 2 PM und Einbeziehung der dort gewonnenen Erkenntnisse und Ergebnisse in das Konzept von RADAR AP 1.5 Abschlussbericht 1 PM Summe AP 1: 9 PM AP 2: Anforderungsanalyse Leitung: IPB und LMU Ziele Erhebung der fachwissenschaftlichen Anforderungen an Datenarchivierung und -publikation Aufgaben Die moderne wissenschaftliche Forschung ist mit der Erzeugung zunehmend komplexer digitaler Informationen verbunden, für die eine adäquate, forschungsnahe Informationsinfrastruktur noch weitgehend fehlt (vgl ). In diesem Arbeitspaket wird der Ist-Zustand analysiert und mit den erforderlichen und von den Forschern gewünschten Möglichkeiten verglichen, Forschungsdaten betriebssystemneutral und datenformatunabhängig zu sammeln, langfristig, sicher und wiederauffindbar zu speichern sowie für eine disziplinübergreifende Nachnutzung bereitzustellen. Die wissenschaftlichen Partner Leibniz-Institut für Pflanzenbiochemie (IPB), Halle und Department Chemie der LMU München erfassen im Rahmen einer Anforderungsanalyse beispielhaft für die durch sie vertretenen Disziplinen diese Parameter, beschreiben bereits etablierte oder zukünftige Prozesse für die Datenpublikation (in Kombination mit herkömmlichen Publikationen oder eigenständig, vgl. AP 5), spezifizieren gewünschte Ablieferungsprozesse, für die Nachnutzung notwendige Suchoptionen und weitere relevante Eigenschaften wie (abgestufte) Zugriffsrechte. Die Anforderungsanalyse untersucht Arbeitsschritte von der Erzeugung der Forschungsdaten unmittelbar am Entstehungsort bis zur Ablage in generisch nutzbaren Informationsinfrastrukturen. Die gewählten Beispiele der NMR-Spektroskopie und bildgebenden Verfahren zeichnen sich dabei durch eine große Diversität und Komplexität der Daten und Formate aus. Daher können mit den im Projekt gewonnenen Erfahrungen und Erkenntnisse auch andere nicht-textuelle Informationen wie Audio- und Video-Daten leichter erschlossen werden. Die erarbeiteten Anforderungsanalysen, Leitfäden und Prozesse sind somit auf das Datenmanagement anderer Wissenschaftsdisziplinen übertragbar. Arbeitsschritte Schritt Beschreibung Aufwand AP 2.1 Ausarbeitung von allgemeinen Richtlinien für erhaltungswürdige Primärdaten 2 PM AP 2.2 Erarbeitung eines Leitfadens mit Auswahlkriterien für die Nutzung des 2 PM Einstiegs- bzw. des höherwertigen Angebots für die Speicherung von Forschungsdaten AP 2.3 Analyse bestehender Datenformate und zugehöriger Software für die 2 PM exemplarisch ausgewählten datenproduzierenden Prozesse aus der NMR- Spektroskopie und bildgebenden Verfahren AP 2.4 Evaluierung bestehender Prozesse für die Sammlung und Registrierung von 3 PM Forschungsdaten (s. auch AP 5) AP 2.5 Ausarbeitung prototypischer Workflows für die Sammlung und Registrierung 4 PM von Forschungsdaten AP 2.6 Dokumentation der Ergebnisse 1 PM Summe: 14 PM 61 geplanter Aufwand in Personenmonaten (PM) 12

13 AP 3: Metadatenprofile Leitung: IPB und LMU, Mitarbeit von TIB Ziele Erarbeitung von fachspezifischen Metadatenprofilen für Archivierung und Publikation anhand zweier beispielhafter Datentypen. Aufgaben Um archivierte Forschungsdaten wiederfinden (und damit nachnutzen) zu können, benötigen diese eine systematische und standardisierte Beschreibung durch Metadaten. Dabei sind sowohl allgemeine als auch fachspezifische Anforderungen zu berücksichtigen. Da Fachwissenschaftler und Informatiker/Programmierer z.t. ein unterschiedliches Vokabular benutzen, ist auch eine Zusammenstellung und Erläuterung der verwendeten Begriffe (Glossar) Teil dieses Arbeitspaketes. Metadaten im informationswissenschaftlichen Kontext beschreiben datentechnische Aspekte innerhalb der Dateninfrastruktur (wie Datentyp, Nutzungsrechte). Diese Metadaten sind standardisiert und haben einen fachübergreifenden Charakter. Sie dienen einer übergeordneten Suche in Fachportalen, Datenbanken und Katalogen und sind auch die Grundlage um Forschungsdaten so zu beschreiben, dass sie eindeutig zitiert werden können (vgl. AP 5). Fachspezifische Metadaten beschreiben sowohl experimentelle Einzelheiten der Datenerzeugung und Verknüpfung zwischen Daten (wie NMR-Spektrum eines Pflanzenrohextraktes und Pflanzenart) als auch aus den Primärdaten abgeleitete Informationen und Erkenntnisse (wie aus der Strukturaufklärung anhand von NMR-Spektren ermittelte chemische Struktur). Diese Metadaten sind oft sehr spezifisch und weisen eine hohe Diversität auf, sind aber zum Verständnis und zur Analyse der Forschungsdaten unbedingt notwendig. Die wissenschaftlichen Partner IPB und LMU definieren im Arbeitspaket Metadatenprofile anhand ihrer Analyse der fachspezifischen Anforderungen (AP 2) geeignete Metadatenterme und Metadatenstandards für alle relevanten Datentypen. Die beiden wissenschaftlichen Partner gehen dabei sowohl arbeitsteilig als auch kooperativ vor, der Schwerpunkt für den Partner LMU liegt bei nichttextuellen Daten (Bildern) und den spezifischen universitären Anforderungen, der Partner IPB bearbeitet schwerpunktmäßig spektroskopische Daten (NMR) und berücksichtigt die besonderen Anforderungen außeruniversitärer Forschungsinstitute. Die wissenschaftlichen Partner IPB und LMU erarbeiten für exemplarisch ausgewählte spektroskopische und bildgebende Experimente und damit verbundenen Datentypen (gemäß Anforderungsanalyse) adäquate Metadatenprofile. Die Profile bestimmen für jedes Metadatenelement dessen Kardinalität und dokumentieren die Bedeutung und Anwendung im fachwissenschaftlichen Kontext. Die entwickelten Metadatenprofile werden in den Workflow (vgl. AP 2.5 und 5.1) integriert. Insbesondere der Ausarbeitung des internen Metadatenschemas in Zusammenarbeit mit den Wissenschaftlern für die ausgewählten experimentellen Verfahren kommt große Bedeutung zu, da diese die Grundlage für eine Übertragbarkeit der Konzepte der ausgewählten Pilotdatenformate auf andere Verfahren und Bereiche darstellen. Arbeitsschritte Schritt Beschreibung Aufwand AP 3.1 Entwicklung eines Metadatenschemas für datentechnische Metadaten von 4 PM Forschungsdaten AP 3.2 Entwicklung eines Metadatenschemas für fachspezifische Metadaten von 4 PM Forschungsdaten AP 3.3 Einbindung der Metadatenschemata in den Workflow 2 PM AP 3.4 Technische Realisierung der Metadatenschemata (RDF, XML-Derivate, etc.) 4 PM Summe: 14 PM 13

14 AP 4: Datenmanagement Leitung: FIZ und SCC Ziele Erstellung einer technischen Anforderungsanalyse für das Datenarchiv sowie die Implementierung der notwendigen Software. Aufgaben Die Speicherung der Forschungsdaten in einem vertrauenswürdigen, zertifizierten Datenzentrum (in der öffentlichen Domäne) ist die Grundlage für die Publikation und Nachnutzung dieser Daten. Das Rechenzentrum (SCC) des KIT und FIZ Karlsruhe, beides Infrastruktureinrichtungen, befassen sich im Arbeitspaket Datenmanagement mit der Konzeption und der Bereitstellung entsprechender Systeme und Prozesse. Das Datenmanagement umfasst auch Werkzeuge zum einfachen Ingest der Daten, eine auch für Gelegenheitsnutzer intuitiv verständliche Benutzungsoberfläche zur Provisionierung von Speicherplatz im self- service, Rechte- und Lizenzverwaltung sowie ein aussagekräftiges Reporting. In Hinblick auf die Zugriffsrechte stellt sich hier die Anforderung, diese über unterschiedliche Institutionen und Anwendungen hinweg nachhaltig zu gewährleisten. Hierfür sind u. a. für die Langzeitarchivierung geeignete Authentifizierungs- und Autorisierungsverfahren zu berücksichtigen, die auch nach einer Migration der Daten an verschiedene Standorte den Zugriff sicherstellen. Die Konzeption des Gesamtsystems erfolgt in zwei Schritten. In einem ersten Schritt erfolgt eine Anforderungsanalyse für das Einstiegsangebot, das mit den wissenschaftlichen Partnern abgestimmt und im Rahmen eines Workshops mit einer breiteren Fachöffentlichkeit diskutiert wird. Dabei spielt die Untersuchung bestehender Systeme hinsichtlich ihrer Eignung für die Datenarchivierung eine zentrale Rolle. Im zweiten Schritt folgt dann die Berücksichtigung der fachspezifischen Anforderungen (vgl. AP 2 und AP 3) für das höherwertige Angebot. Wichtig ist dabei die Sicherstellung der Übertragbarkeit der gewählten Ansätze auf andere Fachdisziplinen, um das Angebot später über die Pilotdisziplinen Chemie/Biochemie hinaus für weitere Fachdisziplinen öffnen zu können. Die Konzeption des Gesamtsystems berücksichtigt die vorhandenen Speichersysteme am SCC sowie die dort etablierten Prozesse für das Datenmanagement. Zwischen der Software und Hardware müssen geeignete Schnittstellen entworfen werden, die die konkreten Speichersysteme abstrahieren und so für Zukunftssicherheit der Architektur sorgen. Gleichzeitig müssen die vorhandenen Prozesse untersucht und gegebenenfalls an die Anforderungen aus AP 2 und AP 3 sowie die Kriterien eines zertifizierten Datenzentrums adaptiert werden. Durch eine enge Zusammenarbeit mit den wissenschaftlichen Partnern während der Entwurfsphase wird eine bedarfsgerechte Entwicklung sichergestellt. Dies geschieht insbesondere durch die Erstellung von Anwendungsfällen (vgl. AP 2), die die definierten Prozesse formal beschreiben und die Grundlage für den Systementwurf bilden. Gleichzeitig soll ein Leitfaden entstehen, der die Besonderheiten bei der Umsetzung fachspezifischer Anforderungen festhält und die notwendigen Schritte für die Berücksichtigung weiterer Disziplinen für das höherwertige Angebot dokumentiert. RADAR ist als offenes System geplant, das sich in die nationale und internationale Informationsinfrastruktur einfügt. Deshalb gilt dem Design geeigneter, öffentlich zugänglicher Programmierschnittstellen ein besonderes Augenmerk, um die Integration mit Diensten Dritter möglichst einfach zu gestalten. Primär zählen dazu die Anbindung an den DOI-Service bei der TIB Hannover (DataCite) und die e-journal-systeme der Verlage, potenziell aber auch die Verwendung von RADAR als Backend für Fachportale und als Andockpunkt für Datenmanagementsysteme in der ersten und zweiten Domäne ( privat und kollaborativ ). Des Weiteren ist die systemeigene Schnittstelle zwischen dem niederschwelligen und höherwertigen Angebot zu definieren, um Daten im Verlauf ihres Lebenszyklus z.b. zu Publikationszwecken überführen zu können. In einer abschließenden Testphase (vgl. AP 7) setzen die wissenschaftlichen Partner definierte Abläufe (Ingest, Anreicherung mit Metadaten, Datenpublikation, etc.) um und überprüfen so die Funktionalität und Praxistauglichkeit des Gesamtsystems. Sich daraus ergebende Anpassungen werden in einer abschließenden Projektphase umgesetzt. 14

15 Arbeitsschritte Schritt Beschreibung Aufwand AP 4.1 System- und Prozessanalyse 6 PM AP 4.2 Konzeption und Entwicklung eines Leitfadens 2 PM AP 4.3 Realisierung von Schnittstellen zwischen Speicher- und Softwaresystemen 10 PM AP 4.4 Realisierung des generischen Systems ( Einstiegsangebot ) 22 PM AP 4.5 Realisierung der fachspezifischen Sicht ( höherwertiges Angebot ) 12 PM AP 4.6 Testphase und Anpassung 4 PM Summe: 56 PM AP 5: Datenpublikation Leitung: TIB Ziele Veröffentlichung von Daten als Bestandteil einer klassischen, wissenschaftlichen Publikation oder als eigenständige Publikation zu ermöglichen und dauerhaft zu gewährleisten. Aufgaben Die Anreicherung einer wissenschaftlichen Publikation durch die ihr zugrunde liegenden Forschungsdaten erhöht die Transparenz, Vertrauenswürdigkeit und Nachvollziehbarkeit wissenschaftlicher Kommunikation. Die Publikation von Forschungsdaten ermöglicht den Wissenschaftlern eine zeitnahe Veröffentlichung ihrer Forschungsergebnisse sowie einen schnelleren Austausch in der Wissenschaft, wie es vergleichsweise auf dem Preprint-Server arxiv 62 bereits umgesetzt ist. Damit wird im Vergleich zum klassischen Publikationsprozess ein Mehrwert für die Wissenschaftler geschaffen. In Zusammenarbeit mit dem Thieme Verlag und dem GDCh/Wiley-VCH Verlagsbeirat werden dafür mögliche Workflows entwickelt, die die Wissenschaftler beim Publikationsprozess von Forschungsdaten unterstützen. Dabei sind Autorenrichtlinien sowie Zitierstandards zu definieren und transparent nachvollziehbare Kostenmodelle für die Publikation zu erarbeiten, die sich auch im zu erarbeitenden Geschäftsmodell widerspiegeln (vgl. AP 6). Zusätzlich soll die Datenablegung in die Arbeitsprozesse der Wissenschaftler soweit integriert werden, dass ein kaum spürbarer Mehraufwand für den gesamten Arbeits- und Publikationsprozess entsteht. Deshalb muss das Datenmanagement und seine zu erarbeitende Infrastruktur (vgl. AP 4) auf die Arbeitsprozesse der Wissenschaftler abgestimmt und gleichzeitig so einfach wie möglich gehalten werden. Voraussetzung für eine Publikation ist ihre Referenzierbarkeit. Damit Forschungsdaten eindeutig identifizierbar und dauerhaft wiederzufinden sind, benötigen sie einen persistenten Identifier. Durch die Vergabe eines DOI werden Daten eindeutig zitierfähig und referenzierbar gemacht. Die Vergabe von DOIs für Forschungsdaten gilt als Qualitätsmerkmal für deren Referenzierung vor allem auch durch die Verknüpfung der Daten mit dem dazu gehörigen wissenschaftlichen Artikel. Die qualitätsgesicherte Zitierung von Forschungsdaten ermöglicht den Wissenschaftlern einen Reputationsgewinn in ihrer Fachcommunity auch durch eine nachgewiesene Steigerung der Zitierhäufigkeit von Forschungsergebnissen. 63 RADAR wird die DOI-Registrierung in Kooperation mit den Verlagen in bestehende Publikationsprozesse einbinden und dazu ein Verfahren entwickeln, das bei einer integrativen Publikation die DOI-Namen der Artikel und Daten miteinander verknüpft. Die mit der DOI-Registrierung erstellten Metadaten (s. a. AP 3) werden sowohl für den Nachweis der Publikation im Fachportal der TIB GetInfo als auch für die Archivierung im Datenzentrum abgelegt. Durch Kooperation des DOI- Service an der TIB mit dem internationalen Verein DataCite können die Forschungsdaten nicht nur national in der eigenen Fachcommunity, sondern auch weltweit und fachübergreifend zugänglich gemacht werden. Durch Kooperation der Fachwissenschaftlern mit ihrer jeweiligen Fachgesellschaft sollen (Qualitäts-) Standards erarbeitet und etabliert werden. Anhand dieser (fach-)spezifischer Kriterien entscheiden die Piwowar H.A., Day R.S., Fridsma D.B., Sharing Detailed Research Data Is Associated with Increased Citation Rate. PLoS ONE 2(3), 2007 e308. Online: doi: /journal.pone

16 Datenproduzenten, welche Forschungsdaten publikations- und damit auch archivierungswürdig sind (AP ). Damit wird ein Mindestmaß an Qualität der Daten gewährleistet. Arbeitsschritte Schritt Beschreibung Aufwand AP 5.1 Entwicklung eines Workflows zur Erweiterung des wissenschaftlichen 6 PM Publikationsprozesses AP 5.2 Erarbeitung von Autorenrichtlinien, Zitierstandards und transparenten 6 PM Kostenmodellen AP 5.3 Etablierung exemplarischer Verfahren zur Einreichung elektronischer 5 PM Manuskripte mit Forschungsdaten AP 5.4 Entwicklung von Qualitätsstandards zur Datenpublikation 4 PM AP 5.5 Automatisierte Integration der DOI-Registrierung in den Publikationsprozess 5 PM AP 5.6 Entwicklung von Schnittstellen zur Interaktion von DOI-Registrierung und 5 PM Datenarchiv AP 5.7 Schnittstellen zur Integration in TIB Infrastruktur 3 PM Summe: 34 PM AP 6: Geschäftsmodell und Rahmenbedingung Leitung: FIZ, Mitarbeit SCC Ziele Entwicklung eines selbsttragenden Geschäftsmodells für die Archivierung von Forschungsdaten und die Schaffung eines organisatorischen Rahmens. Aufgaben Die Speicherung und vor allem Archivierung von Forschungsdaten ist eine auf Dauerhaftigkeit angelegte Dienstleistung. Im Arbeitspaket Geschäftsmodell und Rahmenbedingungen erarbeiten FIZ Karlsruhe und KIT/SCC die dafür notwendigen ökonomischen, juristischen und organisatorischen Grundlagen. Das anvisierte Geschäftsmodell berücksichtigt die aktuellen Gegebenheiten des Wissenschaftsbetriebs mit seiner starken Ausrichtung auf geförderte Projekte mit einer begrenzten Laufzeit und ohne Möglichkeit, nach Projektende für die Datenarchivierung zu bezahlen. Trotzdem soll ein Großteil der bei der Archivierung entstehenden Kosten auf die wissenschaftlichen Nutzer des Datenzentrums umgelegt werden. Eine direkte Förderung des Datenzentrums wird bei dem angedachten Geschäftsmodell weitgehend vermieden. Erreicht werden soll dieses Ziel durch ein System von Einmalzahlungen: bei der Hinterlegung der Daten können die Nutzer festlegen, ob sie die Daten für eine Haltefrist von zehn Jahren ( Einstiegsangebot ) oder aber ad infinitum ( höherwertiges Angebot ) archivieren wollen. Letzteres ist insbesondere für publizierte und mit einem DOI versehene Daten (vgl. AP 5) interessant. Für beide Angebote wird RADAR einen Festpreis anbieten, der zum Anfang der Haltefrist bei Hinterlegung der Daten fällig wird. Damit ist es den Wissenschaftlern möglich, bei der Planung ihrer Projekte bereits die Kosten für die Archivierung der entstehenden Forschungsdaten abzuschätzen und bei der Budgetierung zu berücksichtigen, also z.b. in Förderanträge mit aufzunehmen. Den Kern für dieses Geschäftsmodell bildet die Ausarbeitung eines Kostenmodells, das die benutzten Speichermodalitäten sowie zukünftige technische Entwicklungen berücksichtigt. Hier kann auf umfangreiche Vorarbeiten Dritter zurückgegriffen werden. 64 Das vorgesehene Geschäftsmodell befördert zwei wichtige Aspekte: Zum einen erhalten die Wissenschaftler durch die Kostentransparenz einen Anreiz, aus ihren Rohdaten nur die für die Archivierung relevanten Daten auszuwählen, zum anderen muss das Datenzentrum durch den marktorientierten Ansatz fortwährend eine am Bedarf der Wissenschaft orientierte Dienstleistung anbieten. 64 z.b. Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastruktur in Deutschland bis 2020, Wissenschaftsrat, Berlin, 2012, S. 14 und S. 61; Beagrie, N., Chruszcz, J. und Lavoie B., Keeping Research Data Safe. Final Report, Online: 16

17 Über das Geschäftsmodell hinaus sind in diesem Arbeitspaket vertragliche und rechtliche Regelungen für den Betrieb und das Dienstleistungsangebot des Datenzentrums zu erarbeiten, sowohl im Verhältnis zu den Wissenschaftlern wie auch zu wissenschaftlichen Verlagen. Dazu gehören insbesondere die Frage geeigneter Lizenzen (hier ist die enge Abstimmung mit weiteren Projekten im Bereich Forschungsdatenmanagement und dem Zentrum für Angewandte Rechtswissenschaft (ZAR) des KIT vorgesehen), die Klärung von Fragen der Haftung und der Weiterverwertung der Daten durch Dritte sowie die Erstellung geeigneter Allgemeiner Geschäftsbedingungen (AGB) für das Angebot des Datenzentrums. Zum Ende der Projektlaufzeit wird eine Zertifizierung des Datenzentrums angestrebt (z.b. nach den Vorgaben von DINI e.v. 65 oder des Data Seal of Approval 66 ). Da eine Vielzahl von Zertifizierungen auf diesem Gebiet existieren, befasst sich das Projektmanagement auch mit der Bewertung dieser Zertifikate und der Auswahl eines geeigneten Verfahrens für RADAR. Die Zertifizierung umfasst sowohl das Datenarchiv als auch die Datenpublikation. Um das Angebot von RADAR im wissenschaftlichen Umfeld bekannt zu machen, ist es geplant, in einem ersten Schritt auf Bibliotheken und Rechenzentren an Hochschulen mit Informationsmaterial und im Rahmen von Vorträgen zuzugehen, die als Multiplikatoren die Wissenschaftler auf RADAR aufmerksam machen können. Arbeitsschritte Schritt Beschreibung Aufwand AP 6.1 Entwicklung eines tragfähigen Geschäftsmodells 8 PM AP 6.2 Evaluierung relevanter Lizenzen für Forschungsdaten; Einbindung in RADAR 2 PM AP 6.3 Erstellung allgemeiner Geschäftsbedingungen für RADAR 2 PM AP 6.4 Erstellung von Informationsmaterial 2 PM AP 6.5 Auswahl eines geeignetes Zertifizierungsverfahrens für das Datenzentrum und 2 PM Durchführung der Zertifizierung Summe: 16 PM AP 7: Evaluierung Leitung: IPB und LMU Ziele Sicherstellung eines praxisnahen Angebots, das die Anforderungen der Wissenschaft abdeckt und sich in bestehende Arbeitsabläufe einfügt. Aufgaben Das Datenzentrum mit seinem Geschäftsmodell, seinen Werkzeugen und vorgesehenen Prozessen für eine fachübergreifende Datenablieferung, -aufbereitung und publikation kann nur dann langfristig erfolgreich sein, wenn die Prozesse den Anforderungen der Wissenschaft gerecht werden. Die wissenschaftlichen Partner IPB und LMU überprüfen im Arbeitspaket Evaluierung laufend die Arbeitsergebnisse aus den AP 4, 5 und 6 auf ihre Praxistauglichkeit. Sie stellen so bereits frühzeitig sicher, dass die gewählten Ansätze in der späteren Betriebsphase (nach Projektende) tragfähig sind und zur Akzeptanz des Datenzentrums und der damit verbundenen Dienstleistungen in der wissenschaftlichen Community führen. Um die Praxistauglichkeit insbesondere auch des Einstiegsangebots zu evaluieren, streben die Antragsteller noch während der Projektlaufzeit an, über die beiden wissenschaftlichen Partner hinaus weitere Kunden aus anderen Fachdisziplinen zu gewinnen. In Anlagen 6 und 7 finden sich dazu zwei Letter of Intent des Hornemann-Instituts der HAWK, Hildesheim, und des Georg-Eckert-Instituts für Internationale Schulbuchforschung, Braunschweig, die bereits ihr Interesse an dem geplanten Service bekundet haben

18 Die Ergebnisse der projektbegleitenden Evaluierung finden Berücksichtigung bei der weiteren Erarbeitung des Forschungsdatenmanagements in den AP 2 6 und ermöglichen so in einem iterativen Prozess die Etablierung eines optimalen, nutzerfreundlichen, fachübergreifenden Research Data Repositoriums (RADAR). Arbeitsschritte Schritt Beschreibung Aufwand AP 7.1 Überprüfung der Anwendungsfälle und des Konzepts für das Datenzentrum 1 PM AP 7.2 Inhaltliche Aufbereitung der konzeptionellen Ergebnisse auf AP 2 und AP 3 für 1 PM einen Workshop und Auswertung des Feedbacks AP 7.3 Testläufe für das Ablegen und Wiederabrufen wissenschaftlicher Daten 2 PM AP 7.4 Testläufe für die Datenpublikation 2 PM AP 7.5 Akzeptanzstudien der entwickelten Workflows im wissenschaftlichen 2 PM Arbeitsprozess AP 7.6 Umfrage unter Nutzer aus Produzenten- und Konsumentensicht 2 PM Summe: 10 PM Zeitplan 3.3 Umgang mit den im Projekt erzielten Forschungsdaten bzw. anderen Ergebnissen Die im Rahmen des Projekts entwickelten Software-Komponenten werden unter einer Apache 2.0 Software-Lizenz (ASL) als Open Source veröffentlicht. Bei der Einbindung von Komponenten Dritter wird nach Möglichkeit darauf geachtet, dass deren Lizenzen kompatibel zur ASL sind. Alle erstellten Dokumente (wie z.b. Leitfäden) werden unter einer Creative-Commons-Lizenz veröffentlicht. Die durch die wissenschaftlichen Partner und weiteren Kunden zur Archivierung eingebrachten Forschungsdaten sind nicht notwendigerweise frei zugänglich, auch obliegt den Datenproduzenten die Wahl einer geeigneten Lizenz für ihre Daten. Die Nachhaltigkeit des Forschungsdatenzentrums ist durch das vorgesehene Geschäftsmodell gewährleistet. 18

RADAR. Wo steht das Projekt? RESEARCH DATA REPOSITORIUM Matthias Razum FIZ Karlsruhe. mit Beiträgen der RADAR-Projektpartner

RADAR. Wo steht das Projekt? RESEARCH DATA REPOSITORIUM Matthias Razum FIZ Karlsruhe. mit Beiträgen der RADAR-Projektpartner RESEARCH DATA REPOSITORY RADAR Wo steht das Projekt? Matthias Razum FIZ Karlsruhe mit Beiträgen der RADAR-Projektpartner RADAR - dbv Sektion 4 Frühjahrstagung 2015 Projektübersicht Ziel: Etablierung eines

Mehr

VRE als Prêt à Porter

VRE als Prêt à Porter VRE als Prêt à Porter Session: Virtuelle Forschungsumgebungen 101. Deutscher Bibliothekartag 2012 R. Bertelmann (Bibliothek des Wissenschaftsparks Albert Einstein) J. Klump (Zentrum für Geoinformationstechnologie)

Mehr

Umsetzung und Strategieentwicklung für die digitale Langzeitarchivierung an der ETH Zürich und der Universität Göttingen

Umsetzung und Strategieentwicklung für die digitale Langzeitarchivierung an der ETH Zürich und der Universität Göttingen Umsetzung und Strategieentwicklung für die digitale Langzeitarchivierung an der ETH Zürich und der Universität Göttingen Pascalia Boutsiouci ETH-Bibliothek Daniel Metje SUB Göttingen Deutscher Bibliothekartag

Mehr

- Entwurf - Datenpublikation Workflows für die Archivierung und Publikation wissenschaftlicher Forschungsdaten in RADAR

- Entwurf - Datenpublikation Workflows für die Archivierung und Publikation wissenschaftlicher Forschungsdaten in RADAR Research Data Repositorium http://www.radar-projekt.org - Entwurf - Datenpublikation Workflows für die Archivierung und wissenschaftlicher Forschungsdaten in RADAR Version 0.1 August 2014 Dieses Dument

Mehr

RADAR. Matthias Razum. 30. April 2014 dbv Sektion 4: Frühjahrssitzung 2014

RADAR. Matthias Razum. 30. April 2014 dbv Sektion 4: Frühjahrssitzung 2014 RADAR Matthias Razum 30. April 2014 dbv Sektion 4: Frühjahrssitzung 2014 Agenda Das DFG-Projekt RADAR Kostenmodelle der LZA Geschäftsmodell für RADAR LZA als Service Seite 2 Motivation /1 Several researchers

Mehr

RADAR. FDM Dienstleistungen, Organisation & technische Infrastruktur RESEARCH DATA REPOSITORY. Angelina Kraft1, Thomas Engel2

RADAR. FDM Dienstleistungen, Organisation & technische Infrastruktur RESEARCH DATA REPOSITORY. Angelina Kraft1, Thomas Engel2 http://www.radar RADAR FDM Dienstleistungen, Organisation & technische Infrastruktur Angelina Kraft1, Thomas Engel2 eresearch und Forschungsdaten Kommission Virtuelle Bibliothek (KVB) im BVB München, 16.

Mehr

Vertrauenswürdiges digitales Langzeitarchiv Zertifizierung an der TIB

Vertrauenswürdiges digitales Langzeitarchiv Zertifizierung an der TIB Vertrauenswürdiges digitales Langzeitarchiv Zertifizierung an der TIB Franziska Schwab 3. DINI/nestor-Workshop "Langzeitarchivierung von Forschungsdaten" 19.06.2015 Wer oder was ist Goportis? Goportis

Mehr

FORGE2015 HDC Session 4. Nachhaltige Infrastruktur als technologische Herausforderung. Tibor Kálmán Tim Hasler Sven Bingert

FORGE2015 HDC Session 4. Nachhaltige Infrastruktur als technologische Herausforderung. Tibor Kálmán Tim Hasler Sven Bingert FORGE2015 HDC Session 4 Nachhaltige Infrastruktur als technologische Herausforderung Tibor Kálmán Tim Hasler Sven Bingert Diskussionsgrundlage: Liste der Infrastrukturprobleme Wir unterscheiden gute (leicht

Mehr

Geyer & Weinig: Service Level Management in neuer Qualität.

Geyer & Weinig: Service Level Management in neuer Qualität. Geyer & Weinig: Service Level Management in neuer Qualität. Verantwortung statt Versprechen: Qualität permanent neu erarbeiten. Geyer & Weinig ist der erfahrene Spezialist für Service Level Management.

Mehr

.. für Ihre Business-Lösung

.. für Ihre Business-Lösung .. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Planung, Auswahl und Ingest

Planung, Auswahl und Ingest Planung des Forschungsdaten-Managements: Planung, Auswahl und Ingest Gabriel Stöckle ZAH Heidelberg gst@ari.uni-heidelberg.de Überblick Planung Ziele des Projekts Beziehung zu vorhandene Daten Bewertung

Mehr

Servicezentrum Forschungsdaten und -publikationen Open Access für Forschungsdaten und Publikationen

Servicezentrum Forschungsdaten und -publikationen Open Access für Forschungsdaten und Publikationen Servicezentrum Forschungsdaten und -publikationen Open Access für Forschungsdaten und Publikationen M. Kuberek UB/Leitung HA 3 Elektronische Dienste Open-Access-Strategie für Berlin, 13.10.2014 Inhalt

Mehr

Sammeln, sortieren, sichern Klimadaten für unsere Zukunft. Ein DFG-gefördertes Forschungsprojekt zur Langzeitarchivierung von Wetter- und Klimadaten

Sammeln, sortieren, sichern Klimadaten für unsere Zukunft. Ein DFG-gefördertes Forschungsprojekt zur Langzeitarchivierung von Wetter- und Klimadaten Sammeln, sortieren, sichern Klimadaten für unsere Zukunft Ein DFG-gefördertes Forschungsprojekt zur Langzeitarchivierung von Wetter- und Klimadaten Wir sammeln Wetterdaten für bessere Voraussagen und genauere

Mehr

«PERFEKTION IST NICHT DANN ERREICHT, WENN ES NICHTS MEHR HINZUZUFÜGEN GIBT, SONDERN DANN, WENN MAN NICHTS MEHR WEGLASSEN KANN.»

«PERFEKTION IST NICHT DANN ERREICHT, WENN ES NICHTS MEHR HINZUZUFÜGEN GIBT, SONDERN DANN, WENN MAN NICHTS MEHR WEGLASSEN KANN.» «PERFEKTION IST NICHT DANN ERREICHT, WENN ES NICHTS MEHR HINZUZUFÜGEN GIBT, SONDERN DANN, WENN MAN NICHTS MEHR WEGLASSEN KANN.» www.pse-solutions.ch ANTOINE DE SAINT-EXUPÉRY 1 PROJECT SYSTEM ENGINEERING

Mehr

[Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL

[Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL [Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL Was bedeutet Customer Service by KCS.net? Mit der Einführung von Microsoft Dynamics AX ist der erste wichtige Schritt für viele Unternehmen abgeschlossen.

Mehr

RADAR. Ein Datenrepositorium für den Long Tail of Research Data RESEARCH DATA REPOSITORY. Angelina Kraft1, Jan Potthoff2

RADAR. Ein Datenrepositorium für den Long Tail of Research Data RESEARCH DATA REPOSITORY. Angelina Kraft1, Jan Potthoff2 http://www.radar RADAR Ein Datenrepositorium für den Long Tail of Research Data Angelina Kraft1, Jan Potthoff2 7. 8. September 2015 1 Technische Informationsbibliothek (TIB), Hannover 2 Karlsruhe Institute

Mehr

Das Repositorium für Forschungsergebnisse der TU Berlin. Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10.

Das Repositorium für Forschungsergebnisse der TU Berlin. Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10. Das Repositorium für Forschungsergebnisse der TU Berlin Pascal-Nicolas Becker Universitätsbibliothek PubMan Days 2013 München, 23.10.2013 Forschungsdaten, Rohdaten, Primärdaten, Forschungsprimärdaten Unter

Mehr

aéìíëåüé= cçêëåüìåöëöéãéáåëåü~ñí= = ^ìññçêçéêìåö=òìê=^åíê~öëíéääìåö=

aéìíëåüé= cçêëåüìåöëöéãéáåëåü~ñí= = ^ìññçêçéêìåö=òìê=^åíê~öëíéääìåö= aéìíëåüé cçêëåüìåöëöéãéáåëåü~ñí ^ìññçêçéêìåöòìê^åíê~öëíéääìåö fåñçêã~íáçåëã~å~öéãéåí ^ìëëåüêéáäìåö łfåñçêã~íáçåëáåñê~ëíêìâíìêéå ÑΩê cçêëåüìåöëç~íéå EOUKMQKOMNMF I. Hintergrund Im Positionspapier Schwerpunkte

Mehr

StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung.

StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung. StuPro-Seminar Dokumentation in der Software-Wartung StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung Folie 1/xx Software-Wartung: theoretisch Ausgangslage eigentlich simpel: fertige

Mehr

nestor: Projektdaten

nestor: Projektdaten nestor Kompetenznetzwerk Langzeitarchivierung CASHMERE-int Workshop: Preservation and DC-Tools: Standards and Standardisation acitivities SUB Göttingen, 28. Februar 2004 Stefan Strathmann Research & Development

Mehr

Auswertung des Fragebogens Rahmenbedingungen des Umgangs mit Forschungsdaten in der Region

Auswertung des Fragebogens Rahmenbedingungen des Umgangs mit Forschungsdaten in der Region Auswertung des Fragebogens Rahmenbedingungen des Umgangs mit Forschungsdaten in der Region Interdisziplinäres Symposium Umgang mit Forschungsdaten 29. September 2011 Roland Bertelmann Bibliothek des Wissenschaftsparks

Mehr

Wir organisieren Ihre Sicherheit

Wir organisieren Ihre Sicherheit Wir organisieren Ihre Sicherheit Wir organisieren Ihre Sicherheit Unternehmen Die VICCON GmbH versteht sich seit 1999 als eigentümergeführtes und neutrales Unternehmen für Management- und Sicherheitsberatung.

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Erfolgreiche ITIL Assessments mit CMMI bei führender internationaler Bank

Erfolgreiche ITIL Assessments mit CMMI bei führender internationaler Bank Turning visions into business Oktober 2010 Erfolgreiche ITIL Assessments mit CMMI bei führender internationaler Bank David Croome Warum Assessments? Ein strategisches Ziel des IT-Bereichs der Großbank

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen!

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! www.wee24.de. info@wee24.de. 08382 / 6040561 1 Experten sprechen Ihre Sprache. 2 Unternehmenswebseiten

Mehr

Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems

Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems Name: Bruno Handler Funktion: Marketing/Vertrieb Organisation: AXAVIA Software GmbH Liebe Leserinnen und liebe Leser,

Mehr

Wissenswertes über die Bewertung. Arbeitshilfe

Wissenswertes über die Bewertung. Arbeitshilfe Wissenswertes über die Bewertung Arbeitshilfe Grundlagen 02 Der Zweck der Archivierung ist es, Rechtssicherheit und Rechtsstaatlichkeit zu gewährleisten, eine kontinuierliche und rationelle Aktenführung

Mehr

Dokumentenserver: Praxisfragen

Dokumentenserver: Praxisfragen Dokumentenserver: Praxisfragen Workshop in Bern, 18. Mai 2006 Dr. Matthias Töwe Gliederung Situation in der Schweiz Offene Fragen zum Betrieb Lokale Server vs. zentrale Dienste (z.b. RERO DOC) Sind die

Mehr

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Prof. Dr. Wolf-Tilo Balke Institut für Informationssysteme Technische Universität Braunschweig http://www.ifis.cs.tu-bs.de Herausforderung

Mehr

Management, Recht und Finanzierung

Management, Recht und Finanzierung Planung des Forschungsdaten-Managements: Management, und Finanzierung Harry Enke Leibniz-Institut für Astrophysik Postdam (AIP) henke@aip.de 6. Dezember 2011, Göttingen Management und Organisation Typ

Mehr

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist

Mehr

Beweiswerterhaltendes Datenmanagement im elektronischen Forschungsumfeld

Beweiswerterhaltendes Datenmanagement im elektronischen Forschungsumfeld Beweiswerterhaltendes Datenmanagement im elektronischen 5. DFN-Forum Kommunikationstechnologien in Regensburg Jan Potthoff 22. Mai 2012 (SCC) KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft. Rede Hans-Joachim Otto Parlamentarischer Staatssekretär

Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft. Rede Hans-Joachim Otto Parlamentarischer Staatssekretär Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft Rede Hans-Joachim Otto Parlamentarischer Staatssekretär Veranstaltung der Microsoft Deutschland GmbH in Berlin

Mehr

Kooperation & Nachnutzung der kopal- Lösung. Frank Klaproth

Kooperation & Nachnutzung der kopal- Lösung. Frank Klaproth Kooperation & Nachnutzung der kopal- Lösung 1 Frank Klaproth Kooperation & Nachnutzung der kopal-lösung Die kopal Servicebereiche Das kopal Mandatenmodell Kostenfaktoren LZA kooperativer Ansatz kopal für

Mehr

www.odgersberndtson.de HUMAN ASSET REVIEW

www.odgersberndtson.de HUMAN ASSET REVIEW www.odgersberndtson.de HUMAN ASSET REVIEW DAS STRATEGISCHE WERKZEUG HUMAN ASSET REVIEW Erfolgreiche Strategen schauen durch das Fernglas und das Mikroskop sie erkennen Trends und gleichzeitig analysieren

Mehr

IDV Assessment- und Migration Factory für Banken und Versicherungen

IDV Assessment- und Migration Factory für Banken und Versicherungen IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein

Mehr

Kriterienkatalog und Vorgehensweise für Bestätigungen und Konformitätsnachweise gemäß Signaturgesetz. datenschutz cert GmbH Version 1.

Kriterienkatalog und Vorgehensweise für Bestätigungen und Konformitätsnachweise gemäß Signaturgesetz. datenschutz cert GmbH Version 1. Kriterienkatalog und Vorgehensweise für Bestätigungen und Konformitätsnachweise gemäß Signaturgesetz (SigG) datenschutz cert GmbH Version Inhaltsverzeichnis Kriterienkatalog und Vorgehensweise für Bestätigungen

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Data Librarians oder: Welche Ausbildung brauchen wir für das Forschungsdatenmanagement in Deutschland?

Data Librarians oder: Welche Ausbildung brauchen wir für das Forschungsdatenmanagement in Deutschland? Data Librarians oder: Welche Ausbildung brauchen wir für das Forschungsdatenmanagement in Deutschland? 1 Welche Qualifizierungsmöglichkeiten sollte es geben? Welche Einrichtungen/ Akteure sind gefragt?

Mehr

LZA-Metadaten für Retrodigitalisate. Anna Kugler 20.01.11

LZA-Metadaten für Retrodigitalisate. Anna Kugler 20.01.11 LZA-Metadaten für Retrodigitalisate Anna Kugler 20.01.11 1. LZA-Metadaten Ziele Suchen/ Bereitstellen/ Verwalten: Identifikation Auffindbarkeit Darstellung Rechte-Management Import/ Export: Datenaustausch

Mehr

Umgang mit Forschungsdaten Institutional Long Tail Research Data

Umgang mit Forschungsdaten Institutional Long Tail Research Data Umgang mit Forschungsdaten Institutional Long Tail Research Data Jochen Schirrwagen Universität Bielefeld RDA-Deutschland-Treffen Potsdam, 20-21 Nov 2014 Agenda FDM - Strategie an der Uni Bielefeld RDA

Mehr

Mehrwerte aus SAM-Projekte generieren AVISPADOR

Mehrwerte aus SAM-Projekte generieren AVISPADOR Mehrwerte aus SAM-Projekte generieren AVISPADOR SAMVANTAGE ist ein integriertes und modulares Beratungsmodel, das Entscheidern in Anwenderunternehmen die Möglichkeit bietet, vom Hersteller avisierte SAM-Projekte

Mehr

Zwischenbericht der UAG NEGS- Fortschreibung

Zwischenbericht der UAG NEGS- Fortschreibung Zwischenbericht der UAG NEGS- Fortschreibung Vorlage zur 16. Sitzung des IT-Planungsrats am 18. März 2015 Entwurf vom 29. Januar 2015 Inhaltsverzeichnis 1 Anlass für die Fortschreibung der NEGS... 3 2

Mehr

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt?

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt? DGSV-Kongress 2009 Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt? Sybille Andrée Betriebswirtin für und Sozialmanagement (FH-SRH) Prokuristin HSD Händschke Software

Mehr

Projektmanagment-Zertifizierung als Beleg für Ihre Kompetenz

Projektmanagment-Zertifizierung als Beleg für Ihre Kompetenz Projektmanagment-Zertifizierung als Beleg für Ihre Kompetenz Name: Manfred Pfeifer Funktion/Bereich: Managing Partner Organisation: next level academy GmbH Liebe Leserinnen und liebe Leser, Projektmanagement,

Mehr

Umgang mit Daten in der Medizinischen Forschung Bedeutung von Datenbrücken

Umgang mit Daten in der Medizinischen Forschung Bedeutung von Datenbrücken Umgang mit Daten in der Medizinischen Forschung Bedeutung von Datenbrücken Wolfgang Kuchinke Heinrich-Heine Universität Düsseldorf RDA Deutschland Treffen, Potsdam 20.11.-21.11.2014 Medizinische Forschung

Mehr

DATORIUM. Data Sharing Repositorium

DATORIUM. Data Sharing Repositorium o DATORIUM Data Sharing Repositorium Digitales Daten-Repositorium für WissenschaftlerInnen zur eigenständigen Archivierung und Dokumentation ihrer Daten und Metadaten mit dem Ziel der langfristigen Datensicherung,

Mehr

Projektmanagement in der Spieleentwicklung

Projektmanagement in der Spieleentwicklung Projektmanagement in der Spieleentwicklung Inhalt 1. Warum brauche ich ein Projekt-Management? 2. Die Charaktere des Projektmanagement - Mastermind - Producer - Projektleiter 3. Schnittstellen definieren

Mehr

Digitalisiert und dann?

Digitalisiert und dann? Digitalisiert und dann? Der Aufbau eines Workflows zur Verwaltung und Online-Stellung digitaler Reproduktionen des Landesarchivs Baden-Württembergs Made digital Wege und Ziele Koblenz, 26. November 2014

Mehr

Fragment Identifiers, Template Handles

Fragment Identifiers, Template Handles Fragment Identifiers, Tibor Kálmán Gesellschaft für wissenschaftliche Datenverarbeitung mbh Göttingen (GWDG) Tibor [dot] Kalman [at] gwdg [dot] de 1 Übersicht Problematik der Referenzierung Technische

Mehr

Anforderungen an ein Tool zur Erstellung von Forschungsdatenmanagementplänen. Jochen Klar

Anforderungen an ein Tool zur Erstellung von Forschungsdatenmanagementplänen. Jochen Klar Anforderungen an ein Tool zur Erstellung von Forschungsdatenmanagementplänen Jochen Klar Projekt FDMP-Werkzeug Ziel des Projekts ist es, ein Werkzeug zur Verfügung zu stellen, das die strukturierte Planung,

Mehr

Der Einsatz von PIDs und Normdaten bei wirtschaftswissenschaftlichen

Der Einsatz von PIDs und Normdaten bei wirtschaftswissenschaftlichen Der Einsatz von PIDs und Normdaten bei wirtschaftswissenschaftlichen Forschungsdateninfrastrukturen Sven Vlaeminck ZBW Leibniz-Informationszentrum Wirtschaft DINI AG KIM - Workshop Mannheim, 4.4.2016 Die

Mehr

GPP Projekte gemeinsam zum Erfolg führen

GPP Projekte gemeinsam zum Erfolg führen GPP Projekte gemeinsam zum Erfolg führen IT-Sicherheit Schaffen Sie dauerhaft wirksame IT-Sicherheit nach zivilen oder militärischen Standards wie der ISO 27001, dem BSI Grundschutz oder der ZDv 54/100.

Mehr

Architektur der DARIAH-DE Forschungsinfrastruktur

Architektur der DARIAH-DE Forschungsinfrastruktur Architektur der DARIAH-DE Forschungsinfrastruktur 1. Sitzung des Wissenscha2lichen Beirates von DARIAH- DE 14. September 2012, GöHngen Rainer Stotzka, Peter Gietz, Rene Smolarski, u.v.a. de.dariah.eu Dienste

Mehr

Anforderungen an die HIS

Anforderungen an die HIS Anforderungen an die HIS Zusammengefasst aus den auf IBM Software basierenden Identity Management Projekten in NRW Michael Uebel uebel@de.ibm.com Anforderung 1 IBM Software Group / Tivoli Ein Feld zum

Mehr

Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient.

Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient. Beschreibung der Focus Methode Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient. 1. F = Failure / Finding An dieser Stelle wird der

Mehr

Das System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert.

Das System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert. Usability Heuristiken Karima Tefifha Proseminar: "Software Engineering Kernkonzepte: Usability" 28.06.2012 Prof. Dr. Kurt Schneider Leibniz Universität Hannover Die ProSeminar-Ausarbeitung beschäftigt

Mehr

Mitteilung zur Kenntnisnahme

Mitteilung zur Kenntnisnahme 17. Wahlperiode Drucksache 17/1970 14.11.2014 Mitteilung zur Kenntnisnahme Lizenzmanagement Drucksache 17/0400 ( II.A.14.6) Schlussbericht Abgeordnetenhaus von Berlin 17. Wahlperiode Seite 2 Drucksache

Mehr

Digitalisierung - und was kommt dann? Langzeitarchivierung in Deutschland und Europa

Digitalisierung - und was kommt dann? Langzeitarchivierung in Deutschland und Europa Digitalisierung - und was kommt dann? Langzeitarchivierung in Deutschland und Europa Ute Schwens Die Deutsche Bibliothek Schriftliches Kulturerbe erhalten, 1 Langzeitarchivierung Langzeitarchivierung ist

Mehr

Die vorliegende Arbeitshilfe befasst sich mit den Anforderungen an qualitätsrelevante

Die vorliegende Arbeitshilfe befasst sich mit den Anforderungen an qualitätsrelevante ISO 9001:2015 Die vorliegende Arbeitshilfe befasst sich mit den Anforderungen an qualitätsrelevante Prozesse. Die ISO 9001 wurde grundlegend überarbeitet und modernisiert. Die neue Fassung ist seit dem

Mehr

Mobile Intranet in Unternehmen

Mobile Intranet in Unternehmen Mobile Intranet in Unternehmen Ergebnisse einer Umfrage unter Intranet Verantwortlichen aexea GmbH - communication. content. consulting Augustenstraße 15 70178 Stuttgart Tel: 0711 87035490 Mobile Intranet

Mehr

Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen.

Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen. Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen. Immer schon ein gutes Zeichen. Das TÜV Rheinland Prüfzeichen. Es steht für Sicherheit und Qualität. Bei Herstellern, Handel

Mehr

Metadaten bei der Digitalisierung von analogen archivalischen Quellen. Kathrin Mileta, Dr. Martina Wiech

Metadaten bei der Digitalisierung von analogen archivalischen Quellen. Kathrin Mileta, Dr. Martina Wiech Metadaten bei der Digitalisierung von analogen archivalischen Quellen Kathrin Mileta, Dr. Martina Wiech 2014 Metadaten Aufgabe des LAV NRW im DFG-Pilotprojekt zur Digitalisierung archivalischer Quellen:

Mehr

Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung

Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung Philip Michel CRM Project Manager 23 June 2011 Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung 2009 IBM Corporation Die Multichannel Challenge eines

Mehr

1. Einleitung. 1.1 Hintergrund. 1.2 Motivation. 1.3 Forschungsansatz - These

1. Einleitung. 1.1 Hintergrund. 1.2 Motivation. 1.3 Forschungsansatz - These 1. Einleitung 1.1 Hintergrund Im Rahmen der Erstellung von Prüfberichten im Kontrollamt der Stadt Wien traten seit dem Jahr 2006 verstärkt Bemühungen auf, diese mithilfe einer einheitlichen und standardisierten

Mehr

Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung

Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung Dr.-Ing. Frauke Weichhardt, Semtation GmbH Christian Fillies, Semtation GmbH Claus Quast, Microsoft Deutschland GmbH Prozessmodellierung

Mehr

Mitteilung zur Kenntnisnahme

Mitteilung zur Kenntnisnahme 17. Wahlperiode Drucksache 17/1319 14.11.2013 Mitteilung zur Kenntnisnahme Leitlinien für einen standardisierten IT-Arbeitsplatz offen und Zukunftsorientiert Drucksachen 17/1077 Neu und 17/0996 und Zwischenbericht

Mehr

Inside. IT-Informatik. Die besseren IT-Lösungen.

Inside. IT-Informatik. Die besseren IT-Lösungen. Inside IT-Informatik Die Informationstechnologie unterstützt die kompletten Geschäftsprozesse. Geht in Ihrem Unternehmen beides Hand in Hand? Nutzen Sie Ihre Chancen! Entdecken Sie Ihre Potenziale! Mit

Mehr

Symposium Forschendes Lernen im kulturellen Bereich Möglichkeiten und Herausforderungen im Kontext von Schule 23. und 24. September 2010 in Berlin

Symposium Forschendes Lernen im kulturellen Bereich Möglichkeiten und Herausforderungen im Kontext von Schule 23. und 24. September 2010 in Berlin Symposium Forschendes Lernen im kulturellen Bereich Möglichkeiten und Herausforderungen im Kontext von Schule 23. und 24. September 2010 in Berlin Protokoll AG INTERDISZIPLINÄRES ARBEITEN (Nena Osmers)

Mehr

PRÜFMODUL D UND CD. 1 Zweck. 2 Durchführung. 2.1 Allgemeines. 2.2 Antrag

PRÜFMODUL D UND CD. 1 Zweck. 2 Durchführung. 2.1 Allgemeines. 2.2 Antrag 1 Zweck PRÜFMODUL D UND CD Diese Anweisung dient als Basis für unsere Kunden zur Information des Ablaufes der folgenden EG-Prüfung nach folgenden Prüfmodulen: D CD Es beschreibt die Aufgabe der benannten

Mehr

Das Handwerkszeug. Teil I

Das Handwerkszeug. Teil I Teil I Das Handwerkszeug Beratung in der IT 3 Beratung ist ein häufig gebrauchter und manchmal auch missbrauchter Begriff in der IT. Wir versuchen in diesem Einstieg etwas Licht und Klarheit in diese Begriffswelt

Mehr

Gewerke übergreifend gestalten. Gebäude-System-Designer.

Gewerke übergreifend gestalten. Gebäude-System-Designer. Gewerke übergreifend gestalten. Gebäude-System-Designer. 1 Gebäude-System-Design Hintergrund der Weiterbildung zum Gebäude-System-Designer sind die rasante Entwicklung moderner technischer Gebäudeausrüstung

Mehr

Fachhochschule für Technik und Wirtschaft Berlin FB4: Wirtschaftsinformatik

Fachhochschule für Technik und Wirtschaft Berlin FB4: Wirtschaftsinformatik Fachhochschule für Technik und Wirtschaft Berlin FB4: Wirtschaftsinformatik Entwicklung und Evaluation eines Vorgehensmodells zur Optimierung des IT-Service im Rahmen eines IT-Assessment Framework Oliver

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

Wer wir sind. Qualität ist das Ergebnis gewissenhafter Arbeit. Denn nur die setzt sich durch. Unser Profil

Wer wir sind. Qualität ist das Ergebnis gewissenhafter Arbeit. Denn nur die setzt sich durch. Unser Profil Wer wir sind Unser Profil Die Geschichte der CORYX Software GmbH begann im Jahr 2001 im fränkischen Coburg. Ein kleines Team rund um Unternehmensgründer Uwe Schenk übernahm den Support für das Reuters

Mehr

Passgenau schulen Bedarfsanalyse

Passgenau schulen Bedarfsanalyse Passgenau schulen Bedarfsanalyse Mit unserer Online-Bedarfsanalyse bringen Sie Ihre Schulungen auf den Punkt. Sie sparen Zeit und Geld effizient und passgenau. de Office-Training.de ist eine Marke der

Mehr

Skript Pilotphase em@w für Arbeitsgelegenheiten

Skript Pilotphase em@w für Arbeitsgelegenheiten Die Pilotphase erstreckte sich über sechs Meilensteine im Zeitraum August 2011 bis zur EMAW- Folgeversion 2.06 im August 2013. Zunächst einmal musste ein grundsätzliches Verständnis für das Verfahren geschaffen

Mehr

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was

Mehr

Formwerk AG. Die Sicherstellung konsistenter Nutzungserlebnisse über den gesamten SW-Produktlebenszyklus durch Human Centered Design.

Formwerk AG. Die Sicherstellung konsistenter Nutzungserlebnisse über den gesamten SW-Produktlebenszyklus durch Human Centered Design. Formwerk AG Die Sicherstellung konsistenter Nutzungserlebnisse über den gesamten SW-Produktlebenszyklus durch Human Centered Design. Design on Strategy UX über den Produkt Life Cycle Vor der Nutzung In

Mehr

1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß

1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß 13 1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß In diesem einleitenden Kapitel wird ein Überblick über die Ziele und Merkmale der berufsbegleitenden Nachqualifizierung gegeben. Unter der

Mehr

Leseauszug DGQ-Band 14-26

Leseauszug DGQ-Band 14-26 Leseauszug DGQ-Band 14-26 Einleitung Dieser Band liefert einen Ansatz zur Einführung von Prozessmanagement in kleinen und mittleren Organisationen (KMO) 1. Die Erfolgskriterien für eine Einführung werden

Mehr

Pflegende Angehörige Online Ihre Plattform im Internet

Pflegende Angehörige Online Ihre Plattform im Internet Pflegende Angehörige Online Ihre Plattform im Internet Wissen Wichtiges Wissen rund um Pflege Unterstützung Professionelle Beratung Austausch und Kontakt Erfahrungen & Rat mit anderen Angehörigen austauschen

Mehr

Das Laborbuch. Jeder Naturwissenschaftler kennt das

Das Laborbuch. Jeder Naturwissenschaftler kennt das Das Laborbuch Jeder Naturwissenschaftler kennt das Spätestens seit dem ersten Praktikum (Lästiger?) Begleiter durch das Studium (Lieber Freund) beim Schreiben der Arbeit Berühmtestes Laborbuch Sudelbücher

Mehr

CVS. Schwerpunkte der Arbeiten des CVS bilden. für komponentenbasierte, sich selbst an veränderte. und industrielle Kommunikationssysteme.

CVS. Schwerpunkte der Arbeiten des CVS bilden. für komponentenbasierte, sich selbst an veränderte. und industrielle Kommunikationssysteme. Schwerpunkte der Arbeiten des CVS bilden Architekturen, Implementierungstechnologien und Engineeringprozesse für komponentenbasierte, sich selbst an veränderte Umweltbedingungen anpassende Steuerungssysteme

Mehr

SERVICE SUCHE ZUR UNTERSTÜTZUNG

SERVICE SUCHE ZUR UNTERSTÜTZUNG SERVICE SUCHE ZUR UNTERSTÜTZUNG VON ANFORDERUNGSERMITTLUNG IM ERP BEREICH MARKUS NÖBAUER NORBERT SEYFF ERP SYSTEME Begriffsbestimmung: Enterprise Resource Planning / Business Management Solution Integrierte

Mehr

DER SELBST-CHECK FÜR IHR PROJEKT

DER SELBST-CHECK FÜR IHR PROJEKT DER SELBST-CHECK FÜR IHR PROJEKT In 30 Fragen und 5 Tipps zum erfolgreichen Projekt! Beantworten Sie die wichtigsten Fragen rund um Ihr Projekt für Ihren Erfolg und für Ihre Unterstützer. IHR LEITFADEN

Mehr

Deutsches Forschungsnetz

Deutsches Forschungsnetz Deutsches Forschungsnetz Speichern in der Cloud - aber sicher Jochem Pattloch 11. Tagung der DFN-Nutzergruppe Hochschulverwaltung "Mobiler Campus" vom 6. - 8. Mai 2013 an der Universität Mannheim Kooperativer

Mehr

Planspiele in der Wirtschaft.

Planspiele in der Wirtschaft. Planspiele in der Wirtschaft. Kompetenz als Erfolgsfaktor Der Wettbewerb der Unternehmen wird immer mehr zu einem Wettbewerb um Kompetenzen. Dazu gehört natürlich fundiertes Sach- und Fachwissen, aber

Mehr

Vgl. Kapitel 4 aus Systematisches Requirements Engineering, Christoph Ebert https://www.sws.bfh.ch/studium/cas/swe-fs13/protected/re/re_buch.

Vgl. Kapitel 4 aus Systematisches Requirements Engineering, Christoph Ebert https://www.sws.bfh.ch/studium/cas/swe-fs13/protected/re/re_buch. Vgl. Kapitel 4 aus Systematisches Requirements Engineering, Christoph Ebert https://www.sws.bfh.ch/studium/cas/swe-fs13/protected/re/re_buch.pdf Nachdem die Projekt-Vision und die Stakeholder bekannt sind,

Mehr

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Der plixos Tender Manager reduziert drastisch den Aufwand bei der Durchführung

Mehr

Mitarbeiterbefragung als PE- und OE-Instrument

Mitarbeiterbefragung als PE- und OE-Instrument Mitarbeiterbefragung als PE- und OE-Instrument 1. Was nützt die Mitarbeiterbefragung? Eine Mitarbeiterbefragung hat den Sinn, die Sichtweisen der im Unternehmen tätigen Menschen zu erkennen und für die

Mehr

Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin

Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin Forschungsdaten-Infrastruktur und Forschungsdatenmanagement an der TU Berlin Monika Kuberek Universitätsbibliothek der TU Berlin Webinar 12./20.05.2015 Helmholtz Open Science Webinare zu Forschungsdaten

Mehr

Vernetzte Kommunikation / Vernetzte Daten die Forschungsdaten-Infrastruktur der TU Berlin

Vernetzte Kommunikation / Vernetzte Daten die Forschungsdaten-Infrastruktur der TU Berlin Vernetzte Kommunikation / Vernetzte Daten die Forschungsdaten-Infrastruktur der TU Berlin Monika Kuberek, Universitätsbibliothek der TU Berlin Daten, nichts als Daten? VDB-Fortbildungsveranstaltung für

Mehr

Einführung in die digitale Langzeitarchivierung. Natascha Schumann. nestor-geschäftsstelle

Einführung in die digitale Langzeitarchivierung. Natascha Schumann. nestor-geschäftsstelle Einführung in die digitale Langzeitarchivierung Natascha Schumann nestor-geschäftsstelle Zunahme digitaler Objekte Netzpublikationen/eBooks ejournals Online-Dissertationen Elektronische Akten Wissenschaftsdaten/Forschungsdaten

Mehr

Organisation des Qualitätsmanagements

Organisation des Qualitätsmanagements Organisation des Qualitätsmanagements Eine zentrale Frage für die einzelnen Funktionen ist die Organisation dieses Bereiches. Gerade bei größeren Organisationen Für seine Studie mit dem Titel Strukturen

Mehr

Von der Mathematik und Philosophie hin zur universitären Informationsinfrastruktur

Von der Mathematik und Philosophie hin zur universitären Informationsinfrastruktur Von der Mathematik und Philosophie hin zur universitären Informationsinfrastruktur im digitalen Zeitalter Ania López (@alofro) Universitätsbibliothek Duisburg-Essen vdb-fortbildung Neue bibliothekarische

Mehr

Betreuung durch HIGHEST über den gesamten Prozessablauf. 5. Überführung des Ideenpapiers in BP-Entwurf. 3. Erstellung des Ideenpapiers. 1.

Betreuung durch HIGHEST über den gesamten Prozessablauf. 5. Überführung des Ideenpapiers in BP-Entwurf. 3. Erstellung des Ideenpapiers. 1. start-up Ziele des HIGHEST Start-up Gründerlabels Die HIGHEST-Gründungsberatung der Technischen Universität Darmstadt und externe Experten unter Führung der IHK Darmstadt haben mit dem Label HIGHEST Start-up

Mehr