Ein Gastbeitrag von Anne Baillot
Nach der Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities 2003 schien sich bis zum 10jährigen Jubiläum derselben in der Hauptstadt in Sachen Open Access noch nicht sehr viel bewegt zu haben. Die Tatsache, dass die Implementierung der im Jahr 2003 unterzeichneten Ziele einige Institutionen nach wie vor vor große Herausforderungen stellte, regte den Einstein-Zirkel Digital Humanities 2015 dazu an, in Form von Interviews mit VertreterInnen einschlägiger Forschungseinrichtungen aus Berlin und Brandenburg den Status quo in der geisteswissenschaftlichen Forschung zu erheben, Best Practices zu erfassen und Zukunftsperspektiven darzustellen. Doch noch ehe die Interviewergebnisse ausgewertet und veröffentlicht werden konnten, hat die Thematik eine neue Dimension gewonnen. Open Access gehört inzwischen zur Digitalen Agenda der Hauptstadt; die Max-Planck-Gesellschaft hat eine Gold-OA-Offensive unter dem Banner „OA2020“ hervorgetrommelt und in einem offiziellen Amtsakt wird eine neue Bekräftigung der Berliner Erklärung von einigen Schlüsselakteuren veröffentlicht und beworben. Zentral scheint nicht nur die Frage zu sein, welche Formen von Wissenschaft Open Access ermöglichen, sondern auch, wenn nicht vorrangig, welche Art von Wissenschaftspolitik.
Das Open-Access-Kapitel des vom Einstein-Zirkel vorbereiteten Sammelbandes, der im Juni 2016 unter dem Titel Berliner Beiträge zu den Digital Humanities erscheinen wird, widmet sich dem Thema Open Access in den Geisteswissenschaften. Es enthält neben Aufsätzen (bereits als Preprint: „Open Humanities?“ von Michael Kleineberg) die Ergebnisse und das Wortlaut von 2015 an einschlägigen Einrichtungen durchgeführten Interviews zum Thema Open Access. Ausgangspunkt der Reflexion war die einmalige Situation der deutschen Hauptstadt, in der Open Access geisteswissenschaftlich Forschende an den Hochschulen und außeruniversitären Forschungseinrichtungen ebenso betrifft wie GLAM-Einrichtungen (Galerien, Bibliotheken, Archive, Museen). Es ist diese einmalige Berlin-Brandenburgische Landschaft, die in den Mittelpunkt der Open Access-Interviews gerückt wurde.
Die Interviews gehen auf die breit gefächerten, auf die Bedürfnisse der jeweiligen Einrichtung zugeschnittenen, in den Jahren seit der Berlin Declaration jeweils entwickelten Portfolios ein. Der pragmatische Teil der Auseinandersetzung mit dem Open-Access-Prinzip im Bereich der geisteswissenschaftlichen Forschung wird damit deutlich: Wer Lust hat, Open Access zu publizieren, findet in Berlin und Umgebung in seiner Einrichtung einen erprobten Weg, dies zu tun. Doch die Hauptfrage bleibt: Wer hat Lust, Open Access zu publizieren, und wer kann es sich leisten? An dieser Stelle gilt es zu unterstreichen, dass trotz der ebenfalls vielfältigen Beratungsangebote der jeweiligen Einrichtungen die Kluft zwischen Reputation und Leserschaft bei den WissenschaftlerInnen nach wie vor nicht überbrückt zu sein scheint: Papier ist für die Reputation, Open Access um gelesen zu werden, wobei Ersteres die akademischen Karrieren dominiert.
Aber es geht bei Weitem nicht nur um akademische Karrieren. Ein Blick nach Frankreich, wo die Verankerung von Text und Data Mining im neu entstehenden „Digitalen Gesetz“ von WissenschaftlerInnen und PolitikerInnen im Gespräch mit einander ausgearbeitet und debattiert wird (vgl. die Wiedergabe der Vorschläge und Gegenvorschläge zum neuen Gesetz unter dem Hashtag #PJLNumerique und auf der Webseite des Französischen Senats zu diesem Gesetz), zeigt, dass die politische, wirtschaftliche, aber auch beispielsweise gesundheitsökonomische Brisanz von Open Access, gekoppelt mit juristischen Fragen wie dem Schutz der Privatsphäre, unsere Zukunft entscheidend prägen wird. Und deswegen sollte es nicht nur darum gehen, sich zu fragen, ob NachwuchswissenschaftlerInnen ihre Preprints online stellen sollten (die Antwort darauf ist eindeutig: Ja!), und auch nicht darum, ob Bücher abgeschafft werden sollen (die Antwort darauf ist eindeutig: Nein!), sondern, welche Zivilgesellschaft dadurch entsteht, dass sie zu dieser Art von Wissen Zugang hat: Wie bringen wir unseren Kindern bei, das Internet sinnvoll zu nutzen? Welche juristischen Weichen können wir heute stellen? Wie können wir dafür sorgen, dass das, was wir heute Open Access veröffentlichen, morgen noch zugänglich sein wird? Diese Fragen sind die der Digital Humanities.
In den Fu-PusH-Dossiers werden die im Projekt erhobenen Forschungsdaten ausgewertet und zusammengefasst. Die Datengrundlage des vorliegenden Dossiers umfasst die 41 Statements, die mit sowohl mit Förderinstitutionen als auch mit Empfehlungen gefiltert wurden.
Auswertung
Prinzipiell wird anerkannt, dass den Förderinstitutionen im Bereich des geisteswissenschaftlichen Publizierens eine hohe wissenschaftspolitische Bedeutung zukommt (2594). Dies gilt insbesondere bei Standardisierungsprozessen (2734), bei der Etablierung bzw. Weiterentwicklung von projekt- bzw. institutionsübergreifenden Infrastrukturen (2799) sowie bei der Ausrichtung hin zu einer offenen Wissenschaft.
Die Förderung von Open Access wird sowohl im nationalen (z.B. DFG) als auch im europäischen Kontext (z.B. Horizon2020) als Leitlinie begrüßt (507, 558, 559, 911, 1581, 1984). Zum Teil wird sich auch dafür ausgesprochen, Open Access noch stärker und langfristiger zu fördern (2973, 2974, 3375) oder sogar als Bedingung vorzugeben (2972, 3064). Als wichtige förderpolitische Maßnahmen gelten vor allem die Etablierung von Publikationsfonds sowie die Deckelung von Publikationspauschalen im Zusammenhang mit Article Processing Charges (3255).
Vor allem die Deutsche Forschungsgemeinschaft (DFG) wird als eine Institution wahrgenommen, die sich aktiv um die Förderung einer offenen Wissenschaft bemüht und zugleich darauf bedacht ist, ihre Vorgaben nicht abgekoppelt von den Interessen der jeweiligen Fach-Communities zu treffen (309, 507, 1209). Der von der DFG besonders betonte Aspekt der Nachhaltigkeit beim wissenschaftlichen Publizieren, etwa bei der Langzeitarchivierung und -verfügbarkeit oder bei der Nachnutzung von Forschungsdaten und -infrastrukturen wird von den Befragten als wichtig und richtig angesehen (353, 2798). Auch die Vorgabe, dass es für jedes geförderte Projekt eine digitale Komponente geben muss, wird für sinnvoll erachtet (2324). Als Desiderat wird dagegen die Unterstützung der zentralen Diskussionen innerhalb einzelner Wissenschaftsbereiche formuliert (310, 311, 312, 2733).
Als eine Herausforderung wird die Zunahme des Publikationsaufkommens empfunden, die zum Teil auch durch bestehende Anreizsysteme mit verursacht wird, weshalb durchaus erwogen wird, diesem Phänomen förderpolitisch entgegen zu wirken (478).
Kritisch wird die Fokussierung der Forschungsevaluation auf quantitative Indikatoren eingeschätzt, da diese als ungeeignet gelten sowohl für die Grundlagenforschung als auch für viele genuin geisteswissenschaftliche Forschungsansätze (479, 2862).
Forschungs- und Infrastruktureinrichtungen spielen förderpolitisch eine große Rolle etwa bei der Etablierung offener Publikationsformen (3065) oder der Nutzung des Zweitveröffentlichungsrechtes (890). Allerdings sollte durch förderpolitische Maßnahmen weder die Verlagsvielfalt (511) noch die Publikationsfreiheit eingeschränkt werden (3211, 3282).
Bei der finanziellen Projektförderung wird die Möglichkeit einer flexibleren Umwidmung der Mittel als sinnvoll erachtet (509). Prinzipiell wird sich dafür ausgesprochen, dass die Publikationskosten als Teil der Programmpauschale aufgefasst werden sollten (566, 1576).
Beim wissenschaftlichen Publizieren wird auch die Förderung von innovativen und experimentellen Ansätzen wie beispielsweise im Bereich des Enhanced Publishing als wichtig angesehen (1464, 1465). In diesem Zusammenhang wird gefordert, dass alternative Kommunikations- und Publikationsformen (z.B. Blogs) sowohl bei der Kreditierung (2736) als auch bei den Publikationskosten stärker berücksichtigt werden (826).
Darüber hinaus sollten Förderinstitutionen auch Richtlinien vorgeben für den Umgang mit Forschungsdaten und entsprechende Ressourcen bei der Projektbewilligung bereitstellen (823). Im Hinblick auf die Langzeitarchivierung und -verfügbarkeit wird betont, dass auch die Dokumentation der Software bzw. digitalen Werkzeuge als Richtlinie verankert werden sollte. Zudem erscheint es gerade für die Geisteswissenschaften unerlässlich, über den üblichen Zeitraum von 10 Jahren für die Bewahrung digitaler Publikationen hinaus zu denken (2329).
(Berlin, 11.02.2016)
Eine Notiz von Ben Kaden (@bkaden)
1.
Das Thema Datenjournalismus bleibt, erwartungsgemäß, überall dort ein zentrales Diskursobjekt, wo es um digitalen Journalismus geht. Auf der Technologieseite von Vox Media arbeitet Simon Rogers entsprechende Chancen (Zugang) und Herausforderungen (Archivierung) auf und erneut zeigen sich Parallelen zu den Digital Humanities.
„[T]he web has revolutionized online journalism so that the way we consume the news changes daily; the basics of modern data journalism are grounded in that ability to visualize that data in more and more sophisticated ways.“
Ersetzen wir „online journalism“ durch „digital research“, „news“ durch „research publications“ sowie „modern data journalism“ durch „Digital Humanities“, lässt sich der Satz problemlos in jeden Sammelbandbeitrag für eine Tagung zum Thema Digitalisierung der Geisteswissenschaften einpassen.
Hervorzugeben ist ein Aspekt, der uns aus Sicht der Bibliothekswissenschaft abstrakt und bei Fu-PusH sehr konkret beschäftigt. Für die Datenvisualisierung, bekanntermaßen auch Kernelement erweiterter Forschungsdatenpublikationen, ist die Langzeitarchivierung ein ungelöstes Problem. Was man vom Forschungsoutput der Projektwissenschaft sehr gut kennt, steht auch hier im virtuellen Raum:
„Much of it has become a victim of code rot – allowed to collapse or degrade so much that as software libraries update or improve, it is left far behind. Now when you try to find examples of this work, as likely as not you will end up at a 404 page.“
Eine Notiz von Ben Kaden (@bkaden)
1.
Im Juli fragte ich in einem Blogposting Gibt es Schnittmengen zwischen digitalem Journalismus und digitaler Wissenschaftskommunikation? und bot als Antwort ein gewisses Ja an. Gerade in den Geistes- und Sozialwissenschaften, bei denen Analysen sehr narrativiert kommuniziert werden, liegt die Parallele nah. (Ein schönes Beispiel für narrative Grenzgänger bietet unter anderem die, nun ja, Reportage-Studie Floating City von Sudhar Venkatesh, vgl. ausführlicher und auch hier). Das Herz des Journalismus schlägt wenigstens mit einer Kammer genau an dieser Stelle, die man gemeinhin Storytelling nennt. Auch die andere Kammer, die so genannten Listicles und anderen Metakuratierungen bestehender Webinhalte, sind gleichfalls ein Ansatz, der sich im Kontext von Meta- und Overlay-Journals in den Kontext wissenschaftlicher Publikationskulturen einbringen lässt, wobei Buzzfeed natürlich nur sehr bedingt ein direktes Vorbild sein sollte.
Kurioserweise ist das Buzzfeed-Modell das aktuell erfolgreichste Orientierungsmuster für den digitalen Journalismus, wie die Fachexpertin Emily Bell in einem aktuellen Interview gleich mehrfach betont. Spannend ist hier der Aspekt der Arbeitsteilung bei der Aufbereitung von Inhalten: …weiterlesen »
Eine Notiz von Ben Kaden (@bkaden)
Die Beobachtung von Trends im Bereich der Enhanced Publikationen im Rahmen des Fu-PusH-Projektes zeigt, dass es für das erweiterte Publizieren im Web derzeit einen besonders heißlaufenden Innovationsinkubator gibt. Dieser befindet sich nicht im Feld der Wissenschaft sondern im Onlinejournalismus. Das NiemanLab, stabil zu empfehlender Anlaufpunkt zu Entwicklungen in diesem Bereich, veröffentlichte daher gestern einen Beitrag, in dem Ideen des Facebook-CEOs Mark Zuckerberg zur Zukunft einer Facebook-moderierten journalistischen Arbeit zusammengefasst werden.
Auffällig ist an dieser Entwicklung, dass die Einbindung und Dissemination von journalistischen Inhalten (man kann beim Digital Journalism wohl nicht mehr wirklich von Presse und vermutlich auch nicht mehr von Artikeln sprechen) in diesem Szenario nicht mehr als Erweiterung verstanden werden kann. Vielmehr wird das Soziale Netzwerk direkt zur Publikationsplattform. Inwieweit die Inhaltsobjekte unanabhängig genug sind, um auch außerhalb von Facebook vernetzt zu werden. Eindeutig lässt sich jedoch auch hier ein Anspruch an Granularisierung, also das Zergliedern von Inhaltselementen bzw. Teilen einer Story in separat publizier- und vielleicht kombinierbare Einheiten feststellen. Zuckerberg:
„There’s an important place for news organizations that can deliver smaller bits of news faster and more frequently in pieces.“
Die zweite aus Sicht der Publikationserweiterungen relevante Entwicklung zeichnet sich im Bereich multimedialer Inhalte bzw. „rich content“ ab:
„On richness, we’re seeing more and more rich content online. Instead of just text and photos, we’re now seeing more and more videos. This will continue into the future and we’ll see more immersive content like VR. For now though, making sure news organizations are delivering increasingly rich content is important and it’s what people want.“
Inwieweit sich gerade aus der Prognose einer zunehmenden Bedeutung von Prinzipien der virtuellen Realität – ein Ansatz an dem sich vor einigen Jahren aus einer anderen Warte der Hype um Second Life abarbeitete – auch in die Wissenschaft einbringen werden, muss man genauso abwarten, wie die Klärung, ob und wie weit man in solchen Zusammenhängen überhaupt noch von Publikationen sprechen kann. Die virtuellen Forschungsumgebungen wurden jedenfalls vorerst weitgehend als zu mächtig, teuer und unpraktisch für die alltägliche Forschungsarbeit zugunsten einzelner und weniger aufwendiger digitaler Werkzeuge als Entwicklungshorizont für die digitale Wissenschaft zurückgestellt.
Geht man jedoch zum Beispiel im Feld der Digital Humanities davon aus, dass sich einzelne Elemente (z.B. 3D-Simulationen) sinnvoll und leicht zugänglich so granularisieren lassen, dass sie entweder als Laborsimulationen oder als Forschungsdokument in den Prozess der wissenschaftlichen Kommunikation eingebunden werden können, ist es keinesfalls abwegig, auch derartige Elemente für zukünftige Publikationsszenarien in den Geisteswissenschaften in Betracht zu ziehen.
Was multimediale Inhalte betrifft, stellt das Urheberrecht bekanntlich nach wie vor eine ganz zentrale Hürde für eine stärkere Verbreitung dar. Im Idealfall produzieren die WissenschaftlerInnen derartige Inhalte natürlich selber, wie es beispielsweise bei der Visuellen Anthropologie ja schon lange geschieht. Erforderlich wäre hierfür jedoch eine einschlägige Medienkompetenz, die in den Methodenkanon der meisten Fächer erst noch integriert werden müsste. Darüber, ob visual storytelling überhaupt eine Option zur Kommunikation von Forschungsresultaten bzw. zur Gestaltung von Forschungsnarrativen sein kann oder sollte, müssen sich zudem die entsprechenden Fachgemeinschaften überhaupt erst einmal verständigen und dann passende Formate entwickeln.
Insofern bestehen durchaus deutliche Unterschiede zwischen dem webbasierten Publizieren im Journalismus und digital vermittelter wissenschaftlicher Kommunikation. Das sollte die am Thema wissenschaftlichen Publizieren Interessierten allerdings nicht davon abhalten, die Entwicklungen im digitalen Journalismus, die meist mit deutlich höheren Entwicklungs- und Experimentierbudgets ausgestattet sind, im Blick zu behalten. Die genannten Grundprinzipien – Granularisierung z.B. zu Nanopublikationen, multimediale Anreicherungen und partiell auch Simulationen – und auch der Wunsch nach Beschleunigung der Vermittlung weisen durchaus eine gewisse Deckung mit den Ansprüchen wissenschaftlichen Publizierens auf. Und nicht zuletzt vom Datenjournalismus kann die Wissenschaft hinsichtlich des Aspektes der Visualisierung und Forschungsdatenpublikation sehr viel lernen.
NiemanLab / Laura Hazard Owen: Mark Zuckerberg has thoughts on the future of news on Facebook. In: niemanlab.org, 30.06.2015
In ihrer letzten Ausgabe des Jahres 2014 berichtete die Frankfurter Allgemeine Zeitung in ihrem Wissenschaftsteil über das Frankfurter eHumanities-Zentrum und nicht nur weil es vermutlich der letzte Artikel zum Thema Digital Humanities des abgelaufenen Jahres war, lohnt sich noch einmal ein Blick auf den Text von Thomas Thiel.
Unter der etwas unklaren Überschrift „Das landschaftliche und das lokale Bild des Denkens“ und dem aufklärenden Untertitel „Das Frankfurter Zentrum für eHumanities zeigt die Fortschritte einer aufstrebenden Disziplin“ beschreibt der Autor ziemlich zutreffend, wo die Praxis der Digitalen Geisteswissenschaften derzeit zu verorten ist. (in: FAZ, 31.12.2014, Seite N4)
Trend 1: Digital-Humanities-Ideen und -Projekte werden gefördert (nicht nur in Frankfurt/Main) und in Zentren gebündelt. Dabei ist, Trend 2, zunächst der (transdisziplinäre) Infrastrukturaufbau die gegenwärtige Entwicklungsaufgabe. In diesen eingeschlossen ist die Entwicklung von (gut nutzbaren, Stichwort: Usability) Bearbeitungswerkzeugen:
„Ziel ist es nun, eine feste Infrastruktur zu schaffen, an die sich die verschiedenen Disziplinen anschließen können, und digitale Arbeitsflächen, vor denen auch der Laie nicht kapituliert.“
Eine Notiz von Ben Kaden (@bkaden)
I
Dank des Impact-Blogs der London School of Economics erscheint ein Text erneut auf der Bild(schirm)fläche, den Benedikt Fecher vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) im August im dortigen Institutsblog publizierte. In diesem erläutert er am Beispiel der Schreibmaschinentastatur, die bis heute auch in ihren Derivaten bis hin zu den Screen-Tastaturen der Smartphones scheinbar unverrückbar der QWERTY- bzw. QWERTZ-Anordnung treu bleibt, was Pfadabhängigkeit („path dependence“) nicht nur für die Technik selbst sondern auch für ihre Folgen bedeutet.
Eine solche Abhängigkeit ist, so Benedikt Fecher, immer dann gegeben, wenn eine in der Vergangenheit unter bestimmten Bedingungen (sich verhakende Typenhebel) getroffene Entscheidung auch dann noch maßgeblich wirkt, wenn diese Bedingungen gar nicht mehr vorliegen und entsprechend zu weniger optimalen Verfahren führt, die dennoch dominieren. Die Fachbezeichnung dafür lautet Lock-in phase.
von Ben Kaden (@bkaden)
I
Ist der wissenschaftliche Aufsatz noch das passende Format für Daten getriebene Forschung, für die neue, oftmals interdisziplinäre Methodologien (man denke an Digital Humanities) und zunehmende Automatisierung prägend sind? Das fragt sich David De Roure, Professor für e-Science in Oxford, und steuert zur breiten Diskussion über die Zukunft des wissenschaftlichen Kommunizierens einen weiteren Beitrag bei. (De Roure, 2014a) Bemerkenswert und relevant für die Perspektive von Fu-PusH ist er, da in ihm einige Aspekte der denkbaren Erweiterung wissenschaftlicher Publikationsformen Erläuterung finden. Allgemein bemerkenswert ist der Artikel, weil er exemplarisch den Stand der Diskussion um die Zukunft der wissenschaftlichen Kommunikation auch mit ihren Schwächen abbildet.
In seiner Auseinandersetzung mit der Frage nach der Wissenschaftskommunikation in der Zukunft geht De Roure sogar über die Idee des Enhancement hinaus und prognostiziert generell das Ende des wissenschaftlichen Artikels. Der Grund dafür liegt, mittlerweile kaum mehr überraschend, in der ubiquitären Digitalität, die massiv auch in die Wissenschaft hineinwirkt. De Roure spricht von einem „hybrid physical-digital sociotechnical system of enormous and growing scale”, also einem Beziehungsrahmen von Mensch und Maschine, in dem soziale Netzwerke in einer Form und unter dem Einfluss von Big Data repräsentiert werden, so dass man auch von „Sozialen Maschinen“ (social machines) sprechen kann.
Es gibt demnach einen allgemeinen Trend in der Wissenschaft zur datengetriebenen und datenintensiven Forschung, wobei De Roure als Referenz ausgerechnet ein Sammelband der Microsoft Research dient, der kontextgemäß einen, zurückhaltend formuliert, sehr spezifischen Blick auf die Entwicklung spiegelt.
Inwieweit das dort abgebildete Szenario eines vierten Paradigma (die Zahl vier spiegelt sich ja auch in der vierten Revolution, die Luciano Floridi der ubiquitären Rolle von Information zuschreibt, vgl. Floridi, 2014) repräsentativ und die Entwicklung derart geradlinig und zielstrebig ist, wie auch das Schaubild (De Roure, 2014b) suggeriert, muss an anderer Stelle reflektiert werden.
Hier kann immerhin vermerkt werden: Die Tendenzen zu einer sehr intensiv von Rechentechnologien und entsprechenden Datenverarbeitungswerzeugen geprägten Wissenschaft sind an sich gegeben und unstrittig. Offen bleiben die Intensität und Qualität. Spekulativ bleibt, was in zehn Jahren sein wird. Es dürfte allerdings ebenfalls unstrittig sein, dass die Ausweitung des Digitalen in der Wissenschaft zwangsläufig methodologische Folgen hat, wie De Roure betont. Und epistemologische, wie De Roure leider nicht erwähnt, dürften damit auch anstehen.