Archiv für Schlagwort Langzeitarchivierung

Open Access in Berlin: Heiße Luft oder Hot Topic?

Ein Gastbeitrag von Anne Baillot

Nach der Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities 2003 schien sich bis zum 10jährigen Jubiläum derselben in der Hauptstadt in Sachen Open Access noch nicht sehr viel bewegt zu haben. Die Tatsache, dass die Implementierung der im Jahr 2003 unterzeichneten Ziele einige Institutionen nach wie vor vor große Herausforderungen stellte, regte den Einstein-Zirkel Digital Humanities 2015 dazu an, in Form von Interviews mit VertreterInnen einschlägiger Forschungseinrichtungen aus Berlin und Brandenburg den Status quo in der geisteswissenschaftlichen Forschung zu erheben, Best Practices zu erfassen und Zukunftsperspektiven darzustellen. Doch noch ehe die Interviewergebnisse ausgewertet und veröffentlicht werden konnten, hat die Thematik eine neue Dimension gewonnen. Open Access gehört inzwischen zur Digitalen Agenda der Hauptstadt; die Max-Planck-Gesellschaft hat eine Gold-OA-Offensive unter dem Banner „OA2020“ hervorgetrommelt und in einem offiziellen Amtsakt wird eine neue Bekräftigung der Berliner Erklärung von einigen Schlüsselakteuren veröffentlicht und beworben. Zentral scheint nicht nur die Frage zu sein, welche Formen von Wissenschaft Open Access ermöglichen, sondern auch, wenn nicht vorrangig, welche Art von Wissenschaftspolitik.

Das Open-Access-Kapitel des vom Einstein-Zirkel vorbereiteten Sammelbandes, der im Juni 2016 unter dem Titel Berliner Beiträge zu den Digital Humanities erscheinen wird, widmet sich dem Thema Open Access in den Geisteswissenschaften. Es enthält neben Aufsätzen (bereits als Preprint: „Open Humanities?“ von Michael Kleineberg) die Ergebnisse und das Wortlaut von 2015 an einschlägigen Einrichtungen durchgeführten Interviews zum Thema Open Access. Ausgangspunkt der Reflexion war die einmalige Situation der deutschen Hauptstadt, in der Open Access geisteswissenschaftlich Forschende an den Hochschulen und außeruniversitären Forschungseinrichtungen ebenso betrifft wie GLAM-Einrichtungen (Galerien, Bibliotheken, Archive, Museen). Es ist diese einmalige Berlin-Brandenburgische Landschaft, die in den Mittelpunkt der Open Access-Interviews gerückt wurde.

Die Interviews gehen auf die breit gefächerten, auf die Bedürfnisse der jeweiligen Einrichtung zugeschnittenen, in den Jahren seit der Berlin Declaration jeweils entwickelten Portfolios ein. Der pragmatische Teil der Auseinandersetzung mit dem Open-Access-Prinzip im Bereich der geisteswissenschaftlichen Forschung wird damit deutlich: Wer Lust hat, Open Access zu publizieren, findet in Berlin und Umgebung in seiner Einrichtung einen erprobten Weg, dies zu tun. Doch die Hauptfrage bleibt: Wer hat Lust, Open Access zu publizieren, und wer kann es sich leisten? An dieser Stelle gilt es zu unterstreichen, dass trotz der ebenfalls vielfältigen Beratungsangebote der jeweiligen Einrichtungen die Kluft zwischen Reputation und Leserschaft bei den WissenschaftlerInnen nach wie vor nicht überbrückt zu sein scheint: Papier ist für die Reputation, Open Access um gelesen zu werden, wobei Ersteres die akademischen Karrieren dominiert.

Aber es geht bei Weitem nicht nur um akademische Karrieren. Ein Blick nach Frankreich, wo die Verankerung von Text und Data Mining im neu entstehenden „Digitalen Gesetz“ von WissenschaftlerInnen und PolitikerInnen im Gespräch mit einander ausgearbeitet und debattiert wird (vgl. die Wiedergabe der Vorschläge und Gegenvorschläge zum neuen Gesetz unter dem Hashtag #PJLNumerique und auf der Webseite des Französischen Senats zu diesem Gesetz), zeigt, dass die politische, wirtschaftliche, aber auch beispielsweise gesundheitsökonomische Brisanz von Open Access, gekoppelt mit juristischen Fragen wie dem Schutz der Privatsphäre, unsere Zukunft entscheidend prägen wird. Und deswegen sollte es nicht nur darum gehen, sich zu fragen, ob NachwuchswissenschaftlerInnen ihre Preprints online stellen sollten (die Antwort darauf ist eindeutig: Ja!), und auch nicht darum, ob Bücher abgeschafft werden sollen (die Antwort darauf ist eindeutig: Nein!), sondern, welche Zivilgesellschaft dadurch entsteht, dass sie zu dieser Art von Wissen Zugang hat: Wie bringen wir unseren Kindern bei, das Internet sinnvoll zu nutzen? Welche juristischen Weichen können wir heute stellen? Wie können wir dafür sorgen, dass das, was wir heute Open Access veröffentlichen, morgen noch zugänglich sein wird? Diese Fragen sind die der Digital Humanities.

Workshopbericht Enhanced Publications, in der CZ#141

Jetzt, da das Fu-PusH-Projekt auf sein Ende zusteuert, fällt auf, dass wir erstaunlich selten Gelegenheiten hatten, etwas in unsere Pressemappe zu legen. Eine Ursache ist sicherlich, dass sich einerseits unsere Aktivitäten im Kreis einer bestimmten Fachöffentlichkeit entfalteten sowie, dass wir andererseits vieles von dem, was uns aus dem laufenden Projekt heraus als wichtig für die Öffentlichkeit erschien, direkt in diesem Blog und in unserer Materialsammlung (und ein wenig bei Github) publiziert haben. Unser Anspruch an transparente Wissenschaft und ihre Kommunikation wurde damit bereits erfüllt.

Umso mehr freuen wir uns, dass wir mit dem Bericht zu unserem Workshop zu Enhanced Publications und Bibliotheken, den Maja Stark in der Zeitschrift des Exzellenzclusters Bild Wissen Gestaltung der Humboldt-Universität zu Berlin, CZ#, veröffentlichte, nun doch einen externen Blick auf unserer Projekt dokumentieren können.

Nichts ist für die Ewigkeit: Enhanced Publications. (Maja Stark in CZ#141, S. 10)
Nichts ist für die Ewigkeit: Enhanced Publications. (Maja Stark in CZ#141, S. 10 – PDF-Download)
29. März 2016 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Enhanced Publications, Veranstaltungen

Eine kurze Nachlese zum Fu-PusH-Workshop Enhanced Publications und Bibliotheken vom 16.03.2016

Am 16.März veranstaltete das Fu-PusH-Projekt einen Workshop zum Themenkomplex Enhanced Publications und Bibliotheken im Grimmzentrum. Dieser bestätigte im Ergebnis eine ganze Reihe der Einsichten aus den Erhebungen des Projektes (mehr dazu u.a. in unseren Dossiers), erweiterte aber zudem unsere Perspektive gerade auch um die Situation bei den Publikumsverlagen und entsprechenden erweiterten Publikationen (dort auch bekannt als Enriched (E-)Books). Die dort relevanten Erweiterungen sind vor allem Multimedialität und Social-Reading-Funktionen. Die Zukunft dürfte in diesem Bereich möglicherweise weniger nah am Ausgangspunkt Buch zu suchen sein und mehr im Bereich der Applications.

Erweiterte Publikationen sind in diesem Kontext konsequent als Hybride zwischen Buch, von dem mutmaßlich das Element Text mit seinem Narrationsfunktion und die Nutzungsform des Lesens übernommen werden, und Software als Umsetzungsform zu verstehen. Interessant ist nun, was mit den unterschiedlichen Akteuren und Aufgabenbereichen der Branche geschieht. Guido Stemme vom Mainzer bureau23 betonte, dass im Herstellungsworkflow solcher Publikationen Programmierer im Prinzip die Rollen übernehmen, die in der Druckkultur in den Händen von Setzern, Druckern und Buchbindern lagen. Die Formgebung von Enhanced Publications bzw. Enhanced E-Books unterscheidet sich abstrakt erst einmal wenig von anderer Softwareentwicklung, weshalb sich dafür auch der Scrum-Ansatz naheliegend eignet, den die Entwicklungsteams für Digitale Publikationen an der Universitätsbibliothek Göttingen verfolgen wie Daniel Beucke erläuterte. Jeder der vier Vorträge sowie die Diskussion ingesamt führte unvermeidlich zu der Kernerkenntnis des Workshops, dass neue, also erweiterte Publikationsformen, nur mit entsprechend angemessenen und in der Regel ebenfalls neu zu entwickelnden und zu implementierenden Herstellungsworkflows realisiert werden können. Neue Publikationsformen brauchen neue Entwicklungsmethoden – kann als Merksatz gelten. …weiterlesen »

Fu-PusH Dossier: Förderinstitutionen und Empfehlungen

In den Fu-PusH-Dossiers werden die im Projekt erhobenen Forschungsdaten ausgewertet und zusammengefasst. Die Datengrundlage des vorliegenden Dossiers umfasst die 41 Statements, die mit sowohl mit Förderinstitutionen als auch mit Empfehlungen gefiltert wurden.

 

Auswertung

Prinzipiell wird anerkannt, dass den Förderinstitutionen im Bereich des geisteswissenschaftlichen Publizierens eine hohe wissenschaftspolitische Bedeutung zukommt (2594). Dies gilt insbesondere bei Standardisierungsprozessen (2734), bei der Etablierung bzw. Weiterentwicklung von projekt- bzw. institutionsübergreifenden Infrastrukturen (2799) sowie bei der Ausrichtung hin zu einer offenen Wissenschaft.

Die Förderung von Open Access wird sowohl im nationalen (z.B. DFG) als auch im europäischen Kontext (z.B. Horizon2020) als Leitlinie begrüßt (507, 558, 559, 911, 1581, 1984). Zum Teil wird sich auch dafür ausgesprochen, Open Access noch stärker und langfristiger zu fördern (2973, 2974, 3375) oder sogar als Bedingung vorzugeben (2972, 3064). Als wichtige förderpolitische Maßnahmen gelten vor allem die Etablierung von Publikationsfonds sowie die Deckelung von Publikationspauschalen im Zusammenhang mit Article Processing Charges (3255).

Vor allem die Deutsche Forschungsgemeinschaft (DFG) wird als eine Institution wahrgenommen, die sich aktiv um die Förderung einer offenen Wissenschaft bemüht und zugleich darauf bedacht ist, ihre Vorgaben nicht abgekoppelt von den Interessen der jeweiligen Fach-Communities zu treffen (309, 507, 1209). Der von der DFG besonders betonte Aspekt der Nachhaltigkeit beim wissenschaftlichen Publizieren, etwa bei der Langzeitarchivierung und -verfügbarkeit oder bei der Nachnutzung von Forschungsdaten und -infrastrukturen wird von den Befragten als wichtig und richtig angesehen (353, 2798). Auch die Vorgabe, dass es für jedes geförderte Projekt eine digitale Komponente geben muss, wird für sinnvoll erachtet (2324). Als Desiderat wird dagegen die Unterstützung der zentralen Diskussionen innerhalb einzelner Wissenschaftsbereiche formuliert (310, 311, 312, 2733).

Als eine Herausforderung wird die Zunahme des Publikationsaufkommens empfunden, die zum Teil auch durch bestehende Anreizsysteme mit verursacht wird, weshalb durchaus erwogen wird, diesem Phänomen förderpolitisch entgegen zu wirken (478).

Kritisch wird die Fokussierung der Forschungsevaluation auf quantitative Indikatoren eingeschätzt, da diese als ungeeignet gelten sowohl für die Grundlagenforschung als auch für viele genuin geisteswissenschaftliche Forschungsansätze (479, 2862).

Forschungs- und Infrastruktureinrichtungen spielen förderpolitisch eine große Rolle etwa bei der Etablierung offener Publikationsformen (3065) oder der Nutzung des Zweitveröffentlichungsrechtes (890). Allerdings sollte durch förderpolitische Maßnahmen weder die Verlagsvielfalt (511) noch die Publikationsfreiheit eingeschränkt werden (3211, 3282).

Bei der finanziellen Projektförderung wird die Möglichkeit einer flexibleren Umwidmung der Mittel als sinnvoll erachtet (509). Prinzipiell wird sich dafür ausgesprochen, dass die Publikationskosten als Teil der Programmpauschale aufgefasst werden sollten (566, 1576).

Beim wissenschaftlichen Publizieren wird auch die Förderung von innovativen und experimentellen Ansätzen wie beispielsweise im Bereich des Enhanced Publishing als wichtig angesehen (1464, 1465). In diesem Zusammenhang wird gefordert, dass alternative Kommunikations- und Publikationsformen (z.B. Blogs) sowohl bei der Kreditierung (2736) als auch bei den Publikationskosten stärker berücksichtigt werden (826).

Darüber hinaus sollten Förderinstitutionen auch Richtlinien vorgeben für den Umgang mit Forschungsdaten und entsprechende Ressourcen bei der Projektbewilligung bereitstellen (823). Im Hinblick auf die Langzeitarchivierung und -verfügbarkeit wird betont, dass auch die Dokumentation der Software bzw. digitalen Werkzeuge als Richtlinie verankert werden sollte. Zudem erscheint es gerade für die Geisteswissenschaften unerlässlich, über den üblichen Zeitraum von 10 Jahren für die Bewahrung digitaler Publikationen hinaus zu denken (2329).

 

(Berlin, 11.02.2016)

Fu-PusH Dossier: Enhanced Publications

In den Fu-PusH-Dossiers werden die im Projekt erhobenen Forschungsdaten ausgewertet und zusammengefasst. Die Datengrundlage des vorliegenden Dossiers umfasst 113 Statements, die mit Enhanced Publication aus dem Gesamtbestand der Aussagen im Statement Finder gefiltert wurden.
 

Kernaussagen

  • Erweiterte Publikationen bzw. Enhanced Publications stellen eine Stufe des digitalen Publizierens dar, die sich nicht mehr am Printparadigma orientiert.
  • Es gibt unterschiedliche Auffassungen von den konstituierenden Merkmalen einer Enhanced Publication.
  • Zu den zentralen funktionalen Erweiterungen zählen (a) Modularität, (b) Multimedialität, (c) Interaktivität sowie (d) Semantische Strukturierung.
  • Im engeren Verständnis sind Enhanced Publications so genannte Compound Objects, also modulare Publikationsobjekte, die zu einem Gesamtobjekt verknüpft werden.
  • Ein großes Potential für Enhanced Publishing in den Geisteswissenschaften wird im Umgang mit Forschungsdaten als eigenständige Publikationsobjekte gesehen.
  • Digitale Editionen werden als Hauptanwendungsfelder für erweitere Funktionalitäten in den Geisteswissenschaften angesehen.
  • Das Konzept einer Prozesspublikation, die Aspekte der Prä- bzw. Postpublikationsphase transparenter macht, findet viel Beachtung, wird aber kaum umgesetzt.
  • Beispiele und Akzeptanz erweiterter Publikationen in den Fachgemeinschaften werden nur sehr eingeschränkt beobachtet.
  • Ob sich die Einstellungsmuster zu Enhanced Publications bei nachfolgenden Wissenschaftsgenerationen ändern könnte, wird widersprüchlich bewertet.
  • Notwendig für die Umsetzung und Etablierung von Enhanced Publications sind Standards, Produktions- und Hostingmöglichkeiten sowie eine weitgehende Automatisierung der für die Produktion notwendigen Prozesse.
  • Die Langzeitarchivierung- und verfügbarkeit gelten als zentrale Herausforderung für Enhanced Publications.

 

Auswertung

…weiterlesen »

Fu-PusH Dossier: Forschungsdaten und Bibliotheken

In den Fu-PusH-Dossiers werden die im Projekt erhobenen Forschungsdaten ausgewertet und zusammengefasst. Für die Auswertung werden jeweils aus Sicht des Projektes relevante thematische Relationen, ermittelt anhand von Kookkurrenzen von Tags, betrachtet. Die Datengrundlage des vorliegenden Dossiers umfasst die 47 Statements, die sowohl mit Bibliotheken als auch mit Forschungsdaten gefiltert wurden.

 

Kernaussagen

  • Bibliotheken sind Forschungsdatenlieferanten vieler Geisteswissenschaften, da für diese Disziplinen häufig die in Bibliotheken vorhandenen Bestände als Forschungsgrundlage genutzt werden. Dazu zählen besonders digitalisierte Quellenmaterialien, die einem engeren Verständnis geisteswissenschaftlicher Forschungsdaten entsprechen.
  • Digitale Forschungsdaten wirken vor allem im Bereich des Zugangs, führen aber, u.a. im Umfeld der Digital Humanities, zu methodologischen Veränderungen geisteswissenschaftlicher Forschung.
  • Die Rolle der Bibliotheken für das Forschungsdatenmanagement wird unterschiedlich bewertet. Bislang liegt die Zuständigkeit für das, was unter Forschungsdatenverwaltung verstanden wird, eher bei IT-Abteilungen.
  • Es wird gefordert, dass Bibliotheken einschlägige Expertise aufbauen und zumindest Beratungsdienstleistungen zu Forschungsdaten und zur Forschungsdatenpublikation entwickeln.
  • Bibliotheken werden durchgängig mit dem Aspekt der digitalen Langzeitarchivierung assoziiert. Entsprechende Lösungen werden von dieser Seite erwartet.
  • Forschungsdaten spielen sowohl für die Forschung wie auch für das Forschungscontrolling (Nachvollziehbarkeit) eine zentrale Rolle.
  • Herausforderungen nicht zuletzt für Langzeitverfügbarkeit von Forschungsdaten liegen in der sich potentiell entwickelnden Datenmenge, der Datenheterogenität sowie den rechtlichen Hürden.
  • Die Herausforderungen des Forschungsdatenmanagements erfordern kooperative Lösungen zwischen Bibliotheken, technischen Anbietern und den Fachwissenschaften.

 

Auswertung

…weiterlesen »

Fu-PusH Dossier: Bibliotheken und Desiderata

In den Fu-PusH-Dossiers werden die im Projekt erhobenen Forschungsdaten ausgewertet und zusammengefasst. Für die Auswertung werden jeweils aus Sicht des Projektes relevante thematische Relationen, ermittelt anhand von Kookkurrenzen von Tags, betrachtet. Die Datengrundlage des vorliegenden Dossiers umfasst die 15 Statements, die sowohl mit Bibliotheken als auch mit Desiderata gefiltert wurden.

 

Auswertung

Die Interviewaussagen zu den Desiderata in Bezug auf die Arbeit der wissenschaftlichen Bibliotheken sind erwartungsgemäß eher allgemein gehalten. Es lässt sich feststellen, dass eine grundsätzliche Verschiebung des Aufgabenschwerpunktes von Bibliotheken gefordert wird. Diese bewegt sich von der Sammlung und Bestandspflege gedruckter Werke sowie Vor-Ort-Services hin zu Dienstleistungen und Infrastrukturen für elektronische Medien.

Zu den als zentral eingeschätzten Aufgaben der Bibliotheken zählen dabei die digitale Langzeitarchivierung, die Standardisierung von Austauschformaten, die Bereitstellung von Auszeichnungswerkzeugen sowie die Kompetenzvermittlung im Umgang mit digitalen Dokumenten und Umgebungen (3).

Dies führt unter anderem zu einer finanziellen Doppelbelastung der Bibliotheken. Auf der einen Seite muss nach wie vor ein Erwerbungsetat für traditionelle Medien aufgewandt werden. Auf der anderen Seite entstehen beispielsweise für die Open-Access-Verfügbarmachung für elektronische Medien neue Kosten (80). Auch andere Aufgaben, die für die digitale Wissenschaft unterstützende Bibliotheken relevant werden, sind hinsichtlich ihrer Kosten und Umsetzbarkeit zu berücksichtigen. Das Forschungsdatenmanagement durch Biblioptheken erfordert beispielsweise eine personelle Umstrukturierung und lässt sich nicht allein durch die Katalogisiererinnen und Katalogisierer leisten (2186). Ähnliches gilt für Dienstleistungen im Bereich der Forschungsevaluation, die auch als relevante Aufgabe für Bibliothek benannt wird. So wurde beispielhaft der Fall erwähnt, dass Autoren ihre Kennzahlen zur Forschungsevaluation bzw. Impact-Messung (z.B. Hirschfaktor, Altmetrics) von Bibliotheken auf Anfrage erhalten möchten, etwa für anstehende Bewerbungsverfahren (1321).

…weiterlesen »

Über (digitale) Hilfswissenschaften, Bibliothekswissenschaft und Digital Humanities.

Eine Notiz von Ben Kaden (@bkaden)

Die Frankfurter Allgemeine Zeitung veröffentlicht in ihrer heutigen Ausgabe auf der Seite zum Thema Forschung und Lehre ein Interview mit dem Archivwissenschaftler Eckhart Henning über die „prekäre Lage der historischen Archivwissenschaften“. Aus der Perspektive von Fu-PusH ist das Thema aus mehreren Gründen interessant. So gibt es durchaus die Position, dass sich das nach wie vor im Fokus aller Zukunftsdiskussionen zu den Geisteswissenschaften unweigerlich einfindende Feld der Digital Humanities zumindest in der Tradition der Hilfswissenschaften verortet. (vgl. Wettlaufer, 2014) Von den Auxilia Historica zu lernen, kann hier also durchaus sinnvoll sein. Weiterhin stellt sich die Frage der Auswahl, Erschließung und Vermittlung potentiell für die Geisteswissenschaften relevanter Objekte in den etablierten Kulturspeichern ganz generell. Hier könnte man neben der Archivwissenschaft durchaus auch die Bibliothekswissenschaft in der Rolle einer solchen Hilfsdisziplin sehen und diskutieren – nicht unbedingt zum Gewinn der Fächer. (vgl. u.a. Stäcker, 2005, S.36) Schließlich stellt sich damit verknüpft und immergrün die Frage, wie man mit digitalen Materialien hinsichtlich einer angestrebten Langzeitverfügbarkeit verfährt.

Zu allen drei Aspekten finden sich im Interview einige interessante Aussagen. So legt Eckart Henning dar, dass die historischen Hilfswissenschaften mit ihrem Analyseansatz „den Naturwissenschaften oft näher als den Geisteswissenschaften“ sind. Das ergibt sich vermutlich bereits deshalb, weil ihre Funktion einen bestimmten Analysebedarf adressiert, der offenbar nicht ohne weiteres direkt in geisteswissenschaftliche Forschungsprozesse integrierbar ist. Die Hilfswissenschaften komplementieren die dort eingesetzten Methodologien hinsichtlich eines bestimmten Bedarfs. Sie sind dadurch gekennzeichnet, dass …weiterlesen »

»Alles Relevante auf Papier, alles andere ins Netz«? Zur Doppelläufigkeit gegenwärtiger Medienkulturen.

Eine Notiz von Ben Kaden (@bkaden)

Betrachtet man die Trends im geisteswissenschaftlichen Publizieren, stellt man nach wie vor eine erhebliche Affinität zum Trägermedium Papier ergo zum gedruckten (vor allem) Buch fest. Woher diese Präferenz stammt, ist nicht immer leicht zu begründen. Häufig verweist man auf den Aspekt der Sozialisierung. Dass dem nicht unbedingt so sein muss, zeigt ein Blick auf die blühende Kultur der Magazine, die wenigstens im Independent-Bereich maßgeblich von Akteuren geprägt ist, die ganz unbefangen in digitalen bzw. postdigitalen Kultur- und Kommunikationsräumen leben. Im Tumblr-Blog des Magazins Das Buch als Magazin gibt es aktuell ein Interview mit dem Magazinherausgeber und -sammler Horst Moser, das einige interessante Aspekte zum Verständnis enthält. So stellt er fest:

„Es gibt eine starke Sehnsucht, sich auf Papier zu verewigen, als Reaktion auf die flüchtige digitale Welt. Und das neue daran ist, dass es nicht Nostalgiker sind, sondern die junge Avantgarde. Print hat seinen Minderwertigkeitskomplex gegenüber den digitalen Bewegtbildmedien abgelegt.“

Es scheint tatsächlich ein generationales Element zu sein, was die Menschen beim Druck hält. Aber nicht, wie oft vermutet, als rückständige Prägung, sondern bestimmt durch den Wunsch, dass auch zukünftige Generationen die eigenen Werke bzw., für die Wissenschaft, die eigenen Erkenntnisse, Aussagen und Argumente bei ihrer Kulturwahrnehmung berücksichtigen mögen. Oder kurz:

„Im Kern ist es die Sehnsucht, unsterblich zu werden. Sie verspüren einen Drang, etwas mitteilen zu wollen, und zwar auf einem Material von Dauer, auf Papier.“

Moser zitiert die Ansicht »Alles Relevante auf Papier, alles andere ins Netz«. Diese Differenzierung trifft man auch bei nicht wenigen Geisteswissenschaftlern an, wenn man sie nach den Potentialen des digitalen Publizierens und der Verwendung sozialer Medien als Publikationsplattformen befragt. Weblogs werden, wenn überhaupt, hauptsächlich als Prozessdokumentationen zur Forschungsarbeit akzeptiert. Auch der Blick in die Open-Access-Repositorien zeigt, dass dort eher Nebenpublikationen landen, die oft den Cut für eine ordentliche Verlagsveröffentlichung nicht schaffen und manchmal ein Einzelaufsatz aus einer lang vergriffenen Anthologie. Selbst von Verlagen publizierten E-Medien gelten gegenüber gedruckten Ausgaben häufig nur als zweite Wahl. Es ist, wenigstens heute im Jahr 2015, ausgerechnet die digitale Empirie, die diese Zurückhaltung im Publikationsverhalten stützt. Die Erfahrungen mit der Langzeitverfügbarkeit digitaler Dokumente sind naturgemäß noch sehr gering. Aber bereits die Kurzzeitverfügbarkeit über nur wenige Jahre ist oft nicht gewährleistet, wie Moser bestätigt:

„Viele unserer digitalen Archive sind nicht mehr aktivierbar. Alte Quarkdokumente kann ich nicht mehr öffnen. Die dazugehörigen Fonts sind auf Disketten. Kein Apple hat mehr ein Diskettenlaufwerk. Das gleiche bei ZIP-Speichern. Es fehlen die Lesegeräte. Dann gab’s diverse Plattencrashs. Wir haben zwar in der Regel eine doppelte Sicherung, auf Band und auf Raidsystemen. Aber auch hier gibt’s den Gau, dass also beide Systeme gleichzeitig versagen oder kaputt sind. Ich habe auch viele Fotoarchive meiner eigenen digitalen Bilder verloren. Wenn man sich vorstellt, wie das in hundert oder 500 Jahren aussieht, fürchte ich, dass dann 95 Prozent verloren sind. Das passiert ja selbst der NASA. Viele Daten von den Mondlandungen aus den Siebziger Jahren können nicht mehr gelesen werden. Wo finde ich in zwanzig Jahren digitale Magazine der 1990er Jahre?“

Was den Bogen zu meiner gestrigen Problematisierung der Frage einer Langzeitarchivierung nicht nur der Inhalte sondern auch der Systeme spannt. Es ist zu vermuten, dass sich die Idee hybrider (bzw. sich parallel entfaltender) Medienkulturen – also sowohl auf Trägermedien wie Papier materialisierte als auch digitale, dynamische –  umso stärker stabilisiert, je ausgeprägter und verbreiterter das Verständnis für diese Herausforderung der digitalen Langzeitbewahrung wird. Für digitale Inhalte und ihre Darstellung werden wir uns darüber hinaus, so wie es jetzt aussieht, an Haltbarkeits- und Verfallsdaten gewöhnen müssen. Dies im Bewusstsein könnte bzw. sollte das Forschungsfeld digitaler Lebenszyklen von Dokumenten durch die Bibliothekswissenschaft gleich neben dem Großthema der digitalen Langzeitarchivierung bearbeitet werden.

(Berlin, 11.11.2015)

Peter Wagner, Horst Moser: „Im Magazinmachen steckt die Sehnsucht, unsterblich zu werden“. Interview. In: Das Buch als Magazin als Blog. 10.11.2015

11. November 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Allgemein

Wie langzeitarchiviert man Enhanced Publications?

Eine Notiz von Ben Kaden (@bkaden)

1.

Das Thema Datenjournalismus bleibt, erwartungsgemäß, überall dort ein zentrales Diskursobjekt, wo es um digitalen Journalismus geht. Auf der Technologieseite von Vox Media arbeitet Simon Rogers entsprechende Chancen (Zugang) und Herausforderungen (Archivierung) auf und erneut zeigen sich Parallelen zu den Digital Humanities.

„[T]he web has revolutionized online journalism so that the way we consume the news changes daily; the basics of modern data journalism are grounded in that ability to visualize that data in more and more sophisticated ways.“

Ersetzen wir „online journalism“ durch „digital research“, „news“ durch „research publications“ sowie „modern data journalism“ durch „Digital Humanities“, lässt sich der Satz problemlos in jeden Sammelbandbeitrag für eine Tagung zum Thema Digitalisierung der Geisteswissenschaften einpassen.

Hervorzugeben ist ein Aspekt, der uns aus Sicht der Bibliothekswissenschaft abstrakt und bei Fu-PusH sehr konkret beschäftigt. Für die Datenvisualisierung, bekanntermaßen auch Kernelement erweiterter Forschungsdatenpublikationen, ist die Langzeitarchivierung ein ungelöstes Problem. Was man vom Forschungsoutput der Projektwissenschaft sehr gut kennt, steht auch hier im virtuellen Raum:

„Much of it has become a victim of code rot – allowed to collapse or degrade so much that as software libraries update or improve, it is left far behind. Now when you try to find examples of this work, as likely as not you will end up at a 404 page.“

…weiterlesen »