Eine Notiz von Ben Kaden (@bkaden)
1.
Das Thema Datenjournalismus bleibt, erwartungsgemäß, überall dort ein zentrales Diskursobjekt, wo es um digitalen Journalismus geht. Auf der Technologieseite von Vox Media arbeitet Simon Rogers entsprechende Chancen (Zugang) und Herausforderungen (Archivierung) auf und erneut zeigen sich Parallelen zu den Digital Humanities.
„[T]he web has revolutionized online journalism so that the way we consume the news changes daily; the basics of modern data journalism are grounded in that ability to visualize that data in more and more sophisticated ways.“
Ersetzen wir „online journalism“ durch „digital research“, „news“ durch „research publications“ sowie „modern data journalism“ durch „Digital Humanities“, lässt sich der Satz problemlos in jeden Sammelbandbeitrag für eine Tagung zum Thema Digitalisierung der Geisteswissenschaften einpassen.
Hervorzugeben ist ein Aspekt, der uns aus Sicht der Bibliothekswissenschaft abstrakt und bei Fu-PusH sehr konkret beschäftigt. Für die Datenvisualisierung, bekanntermaßen auch Kernelement erweiterter Forschungsdatenpublikationen, ist die Langzeitarchivierung ein ungelöstes Problem. Was man vom Forschungsoutput der Projektwissenschaft sehr gut kennt, steht auch hier im virtuellen Raum:
„Much of it has become a victim of code rot – allowed to collapse or degrade so much that as software libraries update or improve, it is left far behind. Now when you try to find examples of this work, as likely as not you will end up at a 404 page.“
Im Unterschied zu der sehr im Umbruch befindlichen Welt des Journalismus, in der viele hauseigene Archive eingedampft bis eingestampft wurden und oft im besten Fall noch als Volltextdatenbanken bleiben, gibt es in der Wissenschaft glücklicherweise mit den Bibliotheken und zunehmend auch digitalen Publikations- bzw. Forschungsdatenrepositorien (hoffentlich) zeitstabile Infrastrukturen, die es ermöglichen sollten, sämtlichen Forschungsoutput, vielleicht auch -input sowie die jeweiligen Werkzeuge aufzubewahren. Pionierarbeit zum Thema Softwarearchivierung, die auch das Erkennen der entsprechenden Hürden beinhaltet, wird dabei wiederum im Bereich der Computerspiele geleistet (vgl. exemplarisch diesen Beitrag bei Golem).
Die Archivierung von Software ist bekanntlich deshalb weitaus anspruchsvoller als die Archivierung vieler Formen von Inhaltsdaten bzw. Dokumenten, weil sie erheblich stärker als diese an bestimmte System- bzw. Hardwarevoraussetzungen gebunden ist. Für digitale Werkzeuge muss folglich auch der konkrete Funktionsrahmen mitarchiviert und verfügbar gehalten werden. Angebote wie Github, die aktuell als eine Lösung zur Softwarearchivierung gesehen werden, werfen auch jenseits der Grenzen der Systemarchivierbarkeit genug offene Fragen auf. Sie sind daher vermutlich bestenfalls Zwischenschritte und keine stabilen Lösungen.
Regelmäßige Migrationen, bisher angedachtes Allheilmittel der digitalen Langzeitarchivierung, sind beim Anspruch, den jeweiligen Systemrahmen zu bewahren, naturgemäß nicht möglich. Eine wirklich umfassende Dokumentation der jeweiligen Systemkonstellationen könnte in der Zukunft immerhin eventuelle Rekonstruktionen der jeweiligen Produktions- und Rezeptionssettings ermöglichen. Angesichts der dabei auflaufenden Kosten wird deutlich, dass solche Archivierungsansätze unbedingt priorisieren werden müssen und dass daher sehr sicher ein großer Teil der Geschichte der Digitalität bestenfalls als Narration überleben wird.
2.
Das Phänomen des Datenjournalismus illustriert ebenso wie andere Formen des digitalen Enhanced Publishing, wie viel größer die Herausforderung sich dann darstellt, wenn Inhalte, deren Anzeige und die dafür notwendigen Werkzeuge bzw. Software untrennbar sind. Je offener, dynamischer und vernetzter ein Inhaltsobjekt desto komplizierter wird eine Archivierung. Konsequent gedacht handelt es sich nämlich nicht um fixe Dokumente sondern um situativ und ephemer erzeugte Repräsentationen. Vermutlich werden wir bei diesen Formen von vernetzten und erweiterten Publikationsstrukturen aus medientheoretischer Sicht bald mit Ephemertheorien für einst stabil aufzeichenbare und reproduzierbare Kommunikationen (Text, Bild, Ton) umgehen müssen, die in ihrer Komplexität an das erinnern, was man von vergänglichen und bislang für die Erkenntnisproduktion eher verdrängten Sinneseindrücken kennt (z.B. Düften). Womöglich braucht es bei der digitalen Langzeitarchivierung eine Differenzierung und regelmäßige Redefinition der gewünschten und der praktikablen Zeithorizonte.
Wolfgang Ernst vertrat jedenfalls unlängst eine archivtheoretische Position, die für digitale Zusammenhänge ein neues Verständnis der Zeitlichkeit feststellte und daher die Konzentration auf die Bewahrung eines Ergebnisses durch das Prinzip der Speicherung von Zwischen(zu)ständen ersetzt:
„Die algorithmischen Forschungsmethoden der Digital Humanities praktizieren längst schon eine andere Form der »historischen« Forschung, die den non-human agencies (der Software) den entscheidenden Part überlässt. Zum Zweck der Bereitstellung von Big Data als Zeitzeugnis obliegt es Gedächtnisinstitutionen weiterhin, wohldefinierte Datenbanken vorzuhalten. Lineare Datenströme lassen sich im Normalfall nicht in Echtzeit, sondern erst nachträglich analysieren; die Zwischenarchivierung von Datenströmen ist daher notwendig wie je.“ (Ernst, 2015)
„The idea that an actual human being or ‘legal person’ stands behind the invention of every machine who might ultimately be found responsible when things go wrong, or even when they go right, is no longer tenable and obfuscates the fact that complex systems are rarely, if ever, the product of single authorship; nor do humans and machines operate in autonomous realms. Indeed, both are so thoroughly entangled with each other that the notion of a sovereign human agent functioning outside the realm of machinic mediation seems wholly improbable.” (Schuppli, 2014)
Selbstverständlich kommen wir nicht um den Aspekt herum, den Simon Rogers betont:
„Nobody says archiving is easy, but what will be left otherwise?“
Auf Archivierung zu verzichten ist, jedenfalls aus wissenschaftlicher Sicht, keine Option. Vielmehr wird die technische Archivierung und Verfügbarhaltung angesichts des Nachvollziehbarkeitsanspruchs in der Wissenschaft umso notwendiger, je komplexer und technikgestützter sich Forschung vollzieht. Aber eine solche Archivierung ist nicht nur nicht leicht, sondern auch teuer. Sie sollte systematisch, koordiniert und übergreifend angegangen werden. Derzeit jedoch fehlen Standards oder überhaupt nur überzeugende Best-Practice-Lösungen, mitunter sogar das Bewusstsein.
Die treibenden Kräfte der Digitalindustrie scheinen diesem Aspekt über die einfache Dateiarchivierung hinaus bisher wenig Aufmerksamkeit zu schenken. Kompatibilitätssicherung findet nur in sehr begrenzten Zeitfenstern und über wenige Softwaregenerationen statt. Von Seiten der Nutzer_innen fehlen möglicherweise bislang die Nachfrage oder überhaupt ein Problemverständnis, das immerhin Softwareentwickler_innen mittlerweile mitbringen und das, wie der Beitrag von Simon Rogers zeigt, den Journalismus erreicht. Die klassischen Gedächtnisinstitutionen und insbesondere die Bibliotheken behandeln das Thema dagegen eher nur peripher in ihren Diskursen zur Digitalität und Technologie. Die Bibliothekswissenschaft, deren informatische Wende derzeit in Berlin durch die Ausschreibung einer entsprechenden Professur nochmals unterstrichen wird, wäre sicherlich die Disziplin, die die Herausforderungen einer digitalen Langzeitarchivierung über die reine Daten- und Dokumentenbewahrung hinaus aufgreifen müsste. Bibliothekswissenschaftlich geprägte Projekte wie das unsere können sich immerhin um entsprechende Impulse bemühen. Was u.a. mit diesem Beitrag geschehen soll.
(Berlin, 10.11.2015)
Wolfgang Ernst: Memorisierung des Web – Von der emphatischen Archivierung zur Zwischenarchivierung. In: Zeitschrift für Bibliothekswesen und Bibliographie (ZfBB), Mai-Aug 2015, Vol. 62 Issue 3/4, S. 144-152. DOI: 10.3196/1864295015623424
Simon Rogers: We need a Data Journalism Archive. Before it becomes just another 404 error. In: Vox Technology, 09.11.2015
Susan Schippli: Deadly algorithms: Can legal codes hold software accountable for code that kills? In: Radical Philosophy, No. 187, Sept/Oct 2014, S. 2-8
Pingback: »Alles Relevante auf Papier, alles andere ins Netz«? Zur Doppelläufigkeit gegenwärtiger Medienkulturen. | Future Publications in den Humanities
Pingback: Über digitale Hilfswissenschaften, Bibliothekswissenschaft und Digital Humanities. | Future Publications in den Humanities