Tagung «Fragile Daten»: Abstracts 1. und 2. März 2013 BBAW, Einstein-Saal Hans-Jörg Rheinberger Max-Planck-Institut für Wissenschaftsgeschichte, Berlin Fragile Daten Der Daten-«Hype» in den Wissenschaften unserer Tage ist unübersehbar. Der Ruf nach mehr Daten ist allgegenwärtig. Aber ist es mit den Daten getan? Was für eine Rolle spielen «Daten» im wissenschaftlichen Forschungsprozess? Dieser Frage geht der Vortrag nach, erläutert am Beispiel der Biowissenschaften. Dabei wird auch in den Blick genommen, was den Daten im Experiment vorausgeht, wie sie also «erhoben» und schließlich «verarbeitet» werden. Beide Prozesse lassen Daten in der Wissenschaft als fragile Dinge erscheinen. Sie sind eben nicht einfach das «Gegebene», wie es die lateinische Wortwurzel suggeriert. Hans Hofmann University of Texas at Austin Wo sind die Originaldaten? Spurensuche zwischen Datenfluten und Analysenmangel Die moderne Biologie ist mit einem Daten-Tsunami ungeheuren Ausmaßes konfrontiert. War es bis vor Kurzem noch sehr arbeits- und kostenaufwendig, große Mengen an Daten zu generieren, so ist dies mit Next-Generation Sequencing und Massenspektrometrie in der «-ome»-forschung, bildgebenden Verfahren in den Neurowissenschaften und Global Information Systems in den Umweltwissenschaften nicht mehr der Fall. Viele dieser Messdaten führen eine ephemere Existenz, da sie oft unmittelbar nach ihrer Generierung in andere Formen umgewandelt werden, die einfacher gelagert bzw. analysiert werden können. Das Konzept der «Originaldaten» wird dadurch zunehmend infrage gestellt. Um mit dem exponenziellen Zuwachs an Daten Schritt halten zu können, werden High Performance Computing und Bioinformatik immer wichtiger für die Datenanalyse und letztendlich für die Wissensgewinnung. 1
Staffan Müller-Wille University of Exeter «An einem dünnen Faden» Der schwedische Naturforscher Carl von Linné verwendete am Ende seiner Schaffenszeit in den Jahren 1767 bis 1773, bevor eine Reihe von Schlaganfällen weiteres Arbeiten unmöglich machte kleine Papierzettel von einheitlichem Format für die Aufzeichnung neuer Beobachtungen zu Pflanzen, Tieren und Mineralien. Was im Rückblick wie die Erfindung einer Papiertechnologie von offenbar praktischem Nutzen aussieht, war tatsächlich eine Notlösung. Linné und seinen Zeitgenossen war das Konzept der «Zettelwirtschaft» bekannt, aber der Gedanke, dass Wissen sich in einem Konvolut loser Zettel nachhaltig und geordnet aufbewahren ließ, lag ihnen noch fern. Es war allein die immer mehr anschwellende Flut von Informationen, die Linné erreichte, sowie seine nachlassende Arbeitskraft, die ihn dazu bewegte, lang bewährte Annotationstechniken aufzugeben und auf lose Zettel zurückzugreifen. In Linnés Fall ist es also die Fragilität des Wissenssubjekts, die zu einer scheinbaren Fragmentierung des Wissens führt. Gabriele Gramelsberger FU Berlin / KHM Köln Datenfluten Die Informatisierung der Biologie führt zu einer Unmenge an («-omics»-)daten, die die Rede von der Datenflut, Data Deluge oder datengetriebenen Forschung geprägt haben. Dabei wird oft vergessen, dass Wissenschaft von jeher und in Bezug auf die zur Verfügung stehenden Speichermedien von Datenmassen überflutet wurde. Das Panel spannt den Bogen von Linnés genetischen Experimenten und seiner Datensammlung bis zum aktuellen High Performance Computing / High Throughput Experiments in der Biologie. Mit zwei Kurzvorträgen des Wissenschaftshistorikers Dr. Staffan Müller-Wille (University of Exeter) und des Biologen Prof. Dr. Hans Hofmann (University of Texas at Austin) wird der Beginn der Datenflut wie der aktuelle Höchststand beleuchtet. 2
Philipp Fischer Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz- Gemeinschaft, Biologische Anstalt Helgoland Datenströme in der marinen Verhaltensökologie. Eine Herausforderung an die moderne Wissenschaft Der rasante technologische Fortschritt in der Online-Datenübertragung erreicht zunehmend auch die wissenschaftlichen Disziplinen der ökologischen marinen Forschung. Dies bewirkt, dass die über die letzten Jahrzehnte stark entwickelte hypothesen- und theoriegetriebene ökologische Forschung verfahrenstechnisch zurückschreitet und die Phase der explorativen Forschung eine Wiedergeburt erlebt. Diese Wiederkehr der explorativen Ausrichtung der ökologischen Meeresforschung wird getrieben durch Projekte, die modernste Datentransfertechnologie zur Online- Anbindung von Sensoren unter Wasser und in entferntesten Gebieten entwickeln. So entstehen derzeit in vielen Ländern marine Online-Observatorien, die chemische, hydrografische und biologische Daten im Sekundentakt ins Labor bringen. Sie erlauben Einsichten in die zeitliche und räumliche Dynamik von Ökosystemen, die bis dato aufgrund der in der Regel zeitlich und räumlich extrem begrenzten Datenaufnahme unter Wasser nicht möglich waren. Diese Datenflut ermöglicht einerseits, neue Fragen zu stellen, bewirkt aber auch, dass die bisherigen Forschungsansätze überdacht und an die zur Verfügung stehende Technologie angepasst werden müssen. Im Rahmen des Vortrags wird exemplarisch am Beispiel einer seit 2012 bestehenden Online-Datenverbindung zu einem Unterwasser- Observatorium in einem arktischen Fjord-System in 12 Meter Wassertiefe gezeigt, welche Auswirkung diese neuen Möglichkeiten auf den Forschungsansatz haben. Peter Bexte KHM Köln Trennungshilfen im Datenraum. Überlegungen zu Metadaten Claude Lévi-Strauss hat das Trennen und Verbinden als die grundlegende Arbeit von Kulturen bezeichnet. Dies gilt auch für Wissenskulturen, nicht zuletzt unter den Bedingungen von Big Data. Nun kommen Daten selten allein; typischerweise begegnet man ihnen im Verbund. Was sie verbindet oder trennt, ist durchaus variabel. Bei solchem Trennen und Verbinden von Daten spielen Metadaten eine entscheidende Rolle. Der Vortrag wird einige Überlegungen dazu anstellen, und zwar vor dem Hintergrund eines größeren Projekts zu Konnektoren. 3
Christoph Hoffmann Universität Luzern Datenarbeit Seit einigen Jahren ist in verschiedenen Wissenschaften und im Nachgang hierzu auch in der Wissenschaftsforschung von «datengetriebener Forschung» (Datadriven Research) die Rede. Was damit genau gemeint ist, lässt sich nicht ohne Weiteres sagen. Nach der Wortbildung will man die Forschungspraxis derartiger Wissenschaften offenkundig von anderen, experiment-, beobachtungs- oder theoriegetriebenen Wissenschaften unterscheiden. Eine Datenflut, eine stark auf die Generierung und Auswertung von Daten fokussierte Forschungspraxis und, allgemeiner gesagt, eine «Sorge um die Daten» bilden allerdings Merkmale fast aller heutigen Natur-, Human- und Sozialwissenschaften; insofern wäre die Rede von datengetriebener Forschung nicht sonderlich spezifisch. Ich möchte deshalb vorschlagen, die mögliche Potenz einer solchen Perspektive auf die Wissenschaften dadurch zu erproben, dass etwaige Besonderheiten in den Arbeitsabläufen identifiziert werden und nach deren Konsequenzen für die jeweils gewonnenen Erkenntnisse gefragt wird. Welche Operationen erweisen sich im Umgang mit Daten als kritisch, welche Aspekte charakterisieren Data Work als eine eigene Domäne des Forschens? Hannes Rickli ZHdK, Zürich Elektrische Bilder Nicht Zeichen, Inhalt oder Auswertung zeitgenössischer biologischer Bildproduktion stehen im Fokus meines künstlerischen Interesses, sondern die materiellen Voraussetzungen, unter denen sie stattfindet. Digital ist immer elektrisch basiert. Diese Dimension nehmen wir im Alltag kaum wahr. Sie drängt sich jedoch in unwegsamen Umgebungen der Datenerhebung und -prozessierung in den Vordergrund. Erzeugt hier das Diktum «Physik als Kunst» des frühromantischen Physikers Johann Wilhelm Ritter (1776 1810) einen neuen Sinn? Die Elektrizität hält nicht nur die wissenschaftlichen Dinge am Laufen, sondern sie gestaltet wesentlich deren Rahmungen und Abläufe und formt mit, was wir wissen können. Das Ästhetische verschiebt sich auf das Partikulare von Orten und Witterungen, auf die Möglichkeit von Strom- und Internetabbrüchen. 4
Franz Krähenbühl ZHdK, Zürich Bedeutet sichtbar erfahrbar? Im Projekt «Computersignale» verwendet der Künstler Hannes Rickli dasselbe Bild- und Datenmaterial wie die Naturwissenschaftler. Dieses Ausgangsmaterial transferiert er in Kombination mit eigenen aufgezeichneten akustischen Signalen und weiterem, mitunter frei zugänglichem Bildmaterial in einen Ausstellungsraum. Welches Potenzial birgt diese Kontextualisierung wissenschaftlicher Datenerhebung für den Kunstkontext? Welche Formen der Erkenntnis über die Visualisierung und Dokumentation wissenschaftlicher Tätigkeit hinaus vermag die Kunst hier zu erzeugen? Was für ein Werkverständnis kann die künstlerische Praxis des Sammelns sowie des Live-Streamings von digitalen Daten fassen? Als beobachtendes Projektmitglied möchte ich solche Fragen zur Disposition stellen. Rupert Mutzel FU Berlin, Institut für Biologie Mikrobiologie Turbidity in Experimentalsystemen Die Trübung einer Suspension von lebenden Zellen ist ein quantitatives Maß für die Dichte der Organismen. Sie informiert über eine vorhergegangene Wechselwirkung zwischen der Population von Organismen und ihrer Umwelt je stärker die Trübung, desto «fitter» der Organismus unter den herrschenden Bedingungen. Durch die willkürliche Reduktion eines quantitativen, kontinuierlich registrierten Trübesignals auf eine Abfolge binärer Entscheidungen in diskreten Zeitabständen können in automatisierten Systemen zur gerichteten Evolution biologischer Aktivitäten Kultivierungsregime gestaltet werden, welche die kontinuierliche genetische Adaptation von Populationen von Organismen an physikalische, chemische und biologische Herausforderungen erzwingen, indem besser angepasste genetische Varianten einen Proliferationsvorteil erhalten. Die Daten des Evolutionsprozesses werden dabei in Form von Fossil Records im genetischen Material (der DNA) der evolvierenden Organismen gespeichert. 5
Kathrin Friedrich KHM Köln «Zerrissene Bilder». Diagrammatisches Design in der Synthetischen Biologie Computer-Aided Design spielt eine entscheidende Rolle im Unternehmen Synthetische Biologie. Software-Anwendungen wie CellDesigner schaffen vielfältige Verbindungen und Verbindlichkeiten zwischen Daten und Visualisierungen, Online- Datenbanken und verschiedenen Laboren sowie zwischen Nutzern und ihren «Forschungsobjekten». Insbesondere die Verwendung standardisierter diagrammatischer Notationen innerhalb der Software verschafft den biologischen Datenfluten und Computermodellen eine wahrnehmbare und operable Sichtbarkeit. Doch ist es die bildhafte Seite der Diagramme, die für das computergestützte, synthetischbiologische Konstruieren einen ästhetischen und epistemischen «Mehrwert» verspricht? Was macht diagrammatisches Design in Verbindung mit Software- Anwendungen besonders interessant für biologische Forschung? Und was bedeutet die mediale und ästhetische «Zerrissenheit» dieser Bilder für eine medienwissenschaftliche Reflexion? 6