Future Publications in den Humanities

Wissenschaftsblog zum DFG-Projekt Fu-PusH

Big Data und die Geisteswissenschaften. Eine Anmerkung einem Tagungsbericht in der NZZ.

In den Fu-PusH-Interviews fiel das Stichwort „Big Data“ vergleichsweise selten. Das bedeutet jedoch keinesfalls, dass es im Umfeld der Geisteswissenschaften keine Rolle spielt, denn unser Erkenntnisinteresse war doch eher auf das Publizieren und nicht so sehr auf die Forschungspraxis gerichtet. Entsprechend finden sich Überlegungen zur Transformation geisteswissenschaftlicher Forschung durch datenzentrierte Verfahren eher an anderer Stelle. Heute beispielsweise im Feuilleton der Neuen Zürcher Zeitung für das Urs Hafner von der infoclio.ch-Tagung 2015 mit dem Motto Daten und Geschichtswissenschaften berichtet. Eine wichtige und sehr grundsätzliche Einsicht wollen wir aus diesem Bericht gern festhalten, da sie wiederum drei für das Publizieren sehr zentralen Aspekt berührt:

„Für den Wissenschaftshistoriker Bruno Strasser von der Universität Genf sind grosse Datenmengen an sich nichts Neues. In der «data-driven science» jedoch, welche die Wissenschaftswelt erobere – die Geisteswissenschaften bilden ein Residuum –, kämen nun zwei Traditionen der Naturwissenschaften zusammen, die in der Mitte des 19. Jahrhunderts entstanden seien: die sammelnde und vergleichende Naturgeschichte sowie die experimentelle Naturforschung. «Big Data» werfe neue Fragen auf: nach der Autorschaft, die nun zugleich individuell und kollektiv sei, nach dem Eigentum an Daten, nach deren Gebrauch, nach deren «epistemischem Status». – Solche Fragen sollten in einem einschlägigen nationalen Forschungsprogramm auf keinen Fall fehlen.“

Prinzipiell zeigt sich eine gewisse Übereinstimmung des die zweite Hälfte des 20. Jahrhunderts prägenden Wandels zur Big Science und dem Aufblühen der Empirie als immer mehr eingefordertes und daher elaboriertes Verifikationsinstrument für die Theoriebildung (oft: Little Science). Insofern ist Big Data in der Wissenschaft selbst ein eher älteres Thema, eng verbunden mit der Gerätewissenschaft (bzw. auch Großforschung) und den dort notwendigen Spezialisierungen. Wer welchen Teil der Autorschaft bei dieser gruppenbasierten Erkenntnisfindung übernimmt, ist freilich auch dort oft umstritten. Für die Geisteswissenschaftler, die sich vergleichsweise deutlich stärker als Werkschöpfer sehen, wo Naturwissenschaftler mit dem gelungenen Nachweis glücklich sind, sind diese Phänomene weitgehend neu. Es sind möglicherweise die Digital Humanities, die nun das Kollektivelement und die Arbeitsteilung zwischen Datenerhebern, den Entwicklern von Algorithmen und den Wissenschaftlern, die Fragestellungen formulieren bzw. Schlüsse ziehen und vielleicht noch einigen anderen Akteuren in die Wissenschaftspraxis hineinbringen. Selbstverständlich verändert sich eine Wissenschaft, die sich viel stärker auf die Empirie von Daten und den Erkenntniszugang per Algorithmus stützt, in ihren epistemischen Fundamenten. Oder – was nach wie vor bei den Digital Humanities offen ist – fungiert losgelöst von den klassischen Wissenschaften als eigenes Forschungsfeld. In jedem Fall muss sie spezifisch fragen, nach welchen Bedingungen die Forschungsgrundlage (Daten) und die Erhebungs- und Präsentationswerkzeuge (Algorithmen, Visualisierungen, etc.) entstehen und wie sie als Dispositive für die Erkenntnisfindung wirken. Dies gilt insbesondere auch für die Metaebene der Forschungsförderung, die mit ihrer Agenda selbst ein Dispositiv setzt, das bestimmte Forschungsformen begünstigt und andere ausschließt.

(bk / 20.10.2015)

Urs Hafner: Gemachte Tatsachen. «Big Data» und die Geschichtswissenschaft. In: Neue Zürcher Zeitung / nzz.ch. 20.10.2015

Die Zukunft der E-Books liegt in den Wurzeln des Digitalen.

Eine Notiz von Ben Kaden (@bkaden)

In der Sendung Kultur heute des Deutschlandfunks wurde gestern ein Interview mit Elke Heinemann zum Thema E-Books ausgestrahlt, die unlängst ein „Kriminalrondo“ als, wenn man so will, Hybrid-Enhanced-E-Book herausgebracht hat. Das weckt natürlich unser Interesse, wenn auch eher aus medientheoretischer Sicht. Im Interview nennt sie einige der Funktionalitäten:

„Man nennt es auch ein „Hands E-Book“ […]. Es gibt es auch gedruckt als Künstlerbuch, weil es unter anderem Fotogramme der Berliner Fotografin Manuela Höfer enthält. Aber als Künstlerbuch ist es deshalb interessant, weil der Leser beispielsweise die Möglichkeit hat, selber die Reihenfolge zu bestimmen, dort einzusteigen, wo er selber lesen möchte oder auch hören möchte. Es hat auch eine Audioschiene. Das gab es, als die Texte entstanden sind, alles noch nicht. Man hätte damals nur eine Art Objekt bauen können, in einem Kunstbuchverlag vielleicht, aber da sind natürlich auch die Absatzmöglichkeiten sehr schlecht.“

In der Titelbeschreibung auf der Seite des Verlags wird das Format genauer beschrieben:

„Das enhanced e|Book präsentiert ein Gesamtkunstwerk aus Prosa, Lyrik und Fotografie; es enthält Audioaufnahmen der Texte, 13 Fotogramme der Künstlerin Manuela Höfer und ein interaktives Inhaltsverzeichnis.“

https://youtu.be/JrzjAx01eWk

Im Interview betont die Autorin zudem, dass die E-Book-Formen, die man aktuell gemeinhin darunter versteht, früher oder später von Online-Texten abgelöst werden:

„Es ist sowieso so, dass die Experten der Szene glauben, die E-Books sind ein temporäres Phänomen. Irgendwann lesen wir alle digital, beziehungsweise wir lesen digitale Texte direkt im Internet. Das ist ja die Entwicklung, die beispielsweise auch durch Sascha Lobos „Sobooks“ vorgegeben wird.“

Der Trend zeigt aber eigentlich, wie wundersam die mediale Schleife ist, die sich hier zieht: Elemente, die im WWW schon längst etabliert sind (Hypertextualität, Multimedialität) und die sich noch viel länger in den Narrativstrukturen von Computerspielen, vor allem so genannten Adventures und RPGs, finden (selbst wählbare Pfade durch die Narration, umfassende Interaktivität) werden auf literarische Textformen angewendet und dies in einer Form, die sie idealerweise – analog zum Buch – in geschlossenen und daher als Einzelobjekte verkaufbaren Einheiten fasst. Das E-Book ist seit je mehr oder weniger ein unzureichender Versuch, die medienkulturelle Praxis des gedruckten Buches in die mit hohen Zukunftserwartungen ausgerüsteten digitalen Geschäftsfelder zu bringen. Das gelingt bislang bestenfalls teilweise. Die Vorteile der klassischen E-Book-Formate gegenüber den gedruckten Formaten bleiben in der Regel auf das entfallende Gewicht und eine einfache Adaptivität begrenzt (vgl. dazu auch Kaden, 2008). Dazu kommen künstliche Hürden vor allem in Form von Kopierschutzmaßnahmen.

Der Schritt, diese Formate mit Erweiterungen zu versehen ist angesichts der Möglichkeiten des Digitalen naheliegend, aber keineswegs ein Zeichen von Modernität. Dass wir digitale Texte im Internet lesen ist nämlich eine Grundidee des WWW selbst. Es entspräche also einer Rückkehr zu den Wurzeln Anfang der 1990er Jahre. Redet man dagegen über die Möglichkeiten von sinnvollen Enhancements und neuen Formen der Narrativität, dann empfiehlt es sich vermutlich, die Idee des linear erzählendes Buches gänzlich zu verwerfen und von webnativen Erzählformen und -möglichkeiten auszugehen. Der Vergleich, den Elke Heinmann betont, liefe dabei ins Lehre.

„E-Books und haptische Bücher sollte man wie Kinofilme und Fernsehfilme betrachen: Beide Medien haben eine gemeinsame Wurzel und durch die technischen Möglichkeiten haben sich dazu Parallelwelten entwickelt.“

Zutreffender wäre vielleicht zu sagen, dass sich digitale Narrationen von Narrationen, die der Darstellungslogik des Buchformats folgen, so unterscheiden, wie Computerspiele von Filmen. Der Schlüssel tatsächlich digitalgemäßer und entsprechend erweiterter Erzählungen läge in der interaktiven Teilhabe- und Gestaltungsmöglichkeit des Handlungsverlaufs, was zwangsläufig die Frage nach der Abgrenzung des Formats – vermutlich nach dem Grad der Interaktivität und Steuerungsmöglichkeit zu differenzieren – sowie auch der Autorschaft aufwirft. Ab welchem Komplexitätsgrad der Erweiterung sind die Entwickler und Mediengestalter narrationsprägend?

Und selbst für einfache digitale Fließtexte – also nicht-enhanced-E-Books – die direkt online gelesen werden, ist die Bezeichung „Book“ eine etwas unglücklich gewählte Metapher. Spätestens wenn sie born digital sind, sie also nicht auf einer Buchvorlage beruhen, wäre es weitaus stimmiger einfach von digitalen Texten zu sprechen.

 

Weiterführend:

Ben Kaden (2008) Das ewig alte Medium. In: BUB 60 (2008) 7-8, S. 562-563.

Elke Heinemann, Maja Ellmenreich (2015) „E-Books sind literarische Parallelwelt“. In: Deutschlandfunk, 14.10.2015.

15. Oktober 2015 | Veröffentlicht von Ben Kaden | 1 Kommentar »
Veröffentlicht unter Enhanced Publications

Eine Notiz zum Start des geisteswissenschaftlichen Megajournals Open Library of Humanities.

von Ben Kaden (@bkaden)

Ende September gab es ein Ereignis, auf das wir aus der Fu-PusH-Perspektive unbedingt noch hinweisen müssen. Mit der Open Library of Humanities ging ein geisteswissenschaftliches Metajournal online, das versucht, den digitalen Möglichkeiten und den Ansprüchen der Zielgruppen gleichermaßen gerecht zu werden. Der Wille, etwas Neues zu schaffen, zeigt sich bereits im Veröffentlichungszyklus. Der Wille, ganz oben auf der Reputationsskala nicht etwa zu landen sondern gleich zu starten zeigt sich in der sehr selbstbewussten Selbstbeschreibung:

„The Open Library of Humanities journal publishes internationally-leading, rigorous and peer-reviewed scholarship across the humanities disciplines: from classics, theology and philosophy, to modern languages and literatures, film and media studies, anthropology, political theory and sociology.“

Die geplante wöchentliche Erscheinungsweise folgt dem Modell der großen naturwissenschaftlichen Titel und strukturell wie namenstechnisch sicher nicht zufällig der Public Library of Science (PLOS).

Das Modell des Meta- bzw. Megajournals impliziert, dass es sich nicht um eine einzelne Zeitschrift sondern um eine Plattform handelt, auf der unterschiedliche Zeitschriften (oder thematische Kollektionen) erscheinen können. Das alles geschieht Open Access und ohne Article Processing Charges, die für viele GeisteswissenschaftlerInnen ohnehin eine kaum zu nehmende Hürde darstellen. Die Ursache liegt besonders in Großbritannien und den USA auch darin, dass den Geisteswissenschaften große Teile der Förderung weggestrichen werden (in Japan versucht man offenbar, sie völlig aufzulösen). Die Kosten bei der OLH werden stattdessen von einem Bibliothekskonsortium getragen, dass um den Wert dieser Fächer genauso weiß, wie darum, dass die geisteswissenschaftliche Wissenschaftskommunikation dringend eine neue und gegenwartstaugliche Fassung benötigt. Damit erhält übrigens en passant die in den Fu-PusH-Interviews oft und intensiv diskutierte Frage, inwieweit Bibliotheken selbst als publizierende Akteure aktiv werden sollten, eine Antwort: Sie finanzieren kollaborativ eine übergeordnete Plattform, die außerhalb des kommerziellen Verlagswesens stehend Open Access als Non-Profit-Variante ermöglicht:

„Indeed, the model that underpins the platform is novel for humanities journals: many libraries all paying relatively small sums into a central fund that we then use, across our journal base, to cover the labour costs of publication once material has passed peer review. Libraries that participate are given a governance stake in the admission of new journals. While this model is strange in many ways (as libraries are not really buying a subscription since the material is open access), it works out to be extremely cost effective for participants. In our first year, across the platform, we look set to publish around 150 articles. For our bigger supporting institutions, this is a cost of merely $6.50 per article. For our smallest partners, it comes to $3.33. This economy of charitable, not-for-profit publishing works well at 100 institutions. It should work even better with the 350 libraries that we are aiming to recruit to our subsidy scheme in the first 3 years after launch.“

Hier besteht also auch für das deutsche Bibliothekswesen noch genügend Spielraum, sich zu positionieren.

Mit der Finanzierung wirkt offensichtlich auch eine bibliothekarische Kompetenz in das Projekt hinein. Die OLH übernimmt nicht nur vorgegebene Lösungen, sondern möchte selbst als Pilot neue Publikationsvarianten sowohl technisch wie auch organisatorisch anregen, was uns aus Sicht eines zugegeben sehr viel winzigeren Forschungsprojektes mit nicht ganz unähnlicher Ausrichtung selbstverständlich hochsympathisch ist. Die Bandbreite der Aufzählung mit den Entwicklungsfeldern deckt die Bedarfe, die uns die befragten GeisteswissenschaftlerInnen sowie VertreterInnen aus dem Bereich der Wissenschaftsinfrastruktur nannten, mehr als ab:

„including multi-lingual publishing, inter-lingual translation facilities, annotation and pedagogical integration, and post-publication peer review/discussion.“

Mehrsprachiges Publizieren ist in den deutschen Geisteswissenschaften nämlich eher ein Nebenthema und auch die pädagogische Komponente (= Lehre) ist nicht übermäßig präsent. Aus bibliothekswissenschaftlicher Sicht ist zudem ein weiterer Anspruch des Angebots hochinteressant:

„[t]o improve further the indexing and discoverability of our platform through cross-site search and integration with a range of aggregation services that feed into library platforms“

Aus der Berliner Sicht wünschten wir uns natürlich, dass lieber früher als später auch die deutsche Bibliothekswissenschaft den Anschluss an solche Projekte findet.

Dass das Unterfangen ein Wagnis ist, wissen auch Martin Eve und Caroline Edwards, die Direktoren der OLH. In ihrem Einstiegseditorial betonen sie, dass, obschon es eigentlich kaum einen guten Zeitpunkt zur Gründung eines Journals gibt, das Jahr 2015 ein besonders wenig günstiger Moment ist. Man könnte da sicher auch Gegenargumente finden, aber an sich stimmt die Zeitdiagnose, aus der diese Einsicht entspringt: das Digitale bietet unvergleichliche technische Möglichkeiten und führt zu schwer absehbaren sozialen Erwartungen. Parallel verlieren geisteswissenschaftliche Zeitschriften massiv an Bedeutung, was unter anderem daran liegt, dass die Bibliotheken aufgrund steigender Subskriptionskosten (in der Regel für nicht-geisteswissenschaftliche Materialien) gezwungen sind, Titel abzustellen. Andererseits, so die Autoren, ist Open Access eine riesige Chance und zwar dahingehend, dass die Geisteswissenschaften durch die neuen Disseminationsmöglichkeiten befähigt werden, die Grenzen ihrer Fachcommunities zu überschreiten und eine deutlich größere Öffentlichkeit zu erreichen.

Dafür, dass das gelingt, nahm man sich Zeit und entwickelte in zweieinhalb Jahren, also mit bibliothekarischer Gründlichkeit, ein Konzept, dessen Umsetzung auch zuversichtlich den Aspekt des Wachstums („scalability“) enthält. Ob diese Planung aufgeht, ist freilich noch nicht abzusehen und hängt maßgeblich von der Akzeptanz in den jeweiligen Fachgemeinschaften ab. Als Versuch wirkt die OLH aber außerordentlich vielversprechend und ist ein schönes zweites Modelle neben der bisher in der Anmutung doch noch deutlich eleganteren Blog-Plattform Hypotheses um geisteswissenschaftliche Fachkommunikation mit den Bedingungen und Möglichkeiten des Digitalen angemessen und vielleicht auch ein wenig mutig zu interpretieren. Ob das perspektivisch eher mit WordPress oder Open Journal Systems oder beidem oder einer neuen technischen Grundlage geschieht, wird sich dann auch noch zeigen.

Martin Eve, Caroline Edwards: Opening the Open Library of Humanities. Editorial. In: Open Library of Humanities, Vol.1, Iss. 1. DOI: 10.16995/olh.46

 

 

Als Nachlese zu den Open-Access-Tagen 2015: Die Top40 des #oat15-Twitteraufkommens.

Ausgerechnet heute also kürt der Neologismen-Sammeldienst Wordspy den Ausdruck „vanity metric“ zum Wort des Tages. Darunter versteht man:

„A measurement or score that is used to impress other people, but is not a true indicator of quality or success.“

Wer sich ein wenig mit der metrischen Dimension von Wissenschafts- und Social-Impact-Evaluationen befasst, sieht vermutlich sofort die Relevanz eines solchen Konzeptes für unser digital-statistisches Zeitalter. Inwieweit die unten stehende Grafik in diese Kategorie fällt, lassen wir jetzt mal offen. Wir haben jedenfalls die diesjährigen Open-Access-Tage 2015 in Zürich am Montag und Dienstag dieser Woche (07. und 08. 09.2015) intensiv bei Twitter über das Hashtag #oat15 hier in unserem Berliner Bibliotheksbüro mitverfolgt, was zwar nicht so gut ist, wie selbst dabeizusein, was aber immerhin ermöglicht, den thematischen Schwerpunkten der Diskussionen sowie der Grundstimmung der Tagung nachzuspüren. Auch das ist ein Vorteil digitaler Wissenschaftskommunikation: Kennt man das Hashtag einer Veranstaltung, kann man sich nebenbei an jede Konferenz ein wenig andocken, nebenbei der eigentlichen Arbeit nachgehen und dennoch im Diskursraum der jeweiligen Keynotes, Sessions und Workshops ein wenig echoloten.

Damit unsere Twitter-Verfolgung nicht ganz folgenlos bleibt, haben wir eine Grafik mit den Top-40-Accounts, die wir aus dem Tweetaufkommen herausmessen konnten, erstellt. Als besondere Aktivposten stellen sich danach der ScienceOpen-Mitbegründer Alexander Grossmann (@SciPubLab), der Biologe Donat Agosti (@myrmoteras) und der Bertelsmann-Medienexperte Joachim Höper (@Joachim_Hoeper) heraus. Insgesamt lässt sich festhalten, dass bei den Twitterern Personen mit einem Hintergrund im Infrastruktur- und Bibliotheks- oder Publikationsbereich überwiegen. Wir haben nicht alle Accounts verifiziert, können aber doch vermutlich auch so behaupten, dass der Anteil der Fachwissenschaftler und insbesondere von Wissenschaftlern mit einem geisteswissenschaftlichen Hintergrund eher überschaubar ist, was freilich auch mit der TeilnehmerInnen-Liste korreliert. Die Open-Access-Tage waren und sind eine Veranstaltung vor allem für Experten aus dem dezidierten Open-Access- und Infrastruktur(entwicklungs)feld und aus der Distanz ist auch gar nicht ersichtlich, inwieweit ein Schritt weiter in die Fachwissenschaften hier möglich oder angestrebt ist. Dass unser eigener Twitter-Strom (@fupush) ganz gut platziert ist, war dagegen nicht beabsichtigt (Stichwort vanity metric), sondern ergab sich ganz natürlich bei diesem Themenfeld. Denn natürlich ist ein Projekt, das sich mit der Zukunft des Publizierens in den Geisteswissenschaften befasst, eindeutig die richtige Zielgruppe für die gegenwärtigen Debatten um Open Access.

Verteilung der Top-40-Twitter-Accounts zum Hashtag #oat15

Grafik: Martin Walk, Fu-PusH, 11.09.2015, Nachnutzung sehr gern unter den Bedingungen der CC BY 4.0-Lizenz

11. September 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Veranstaltungen
Verschlagwortet mit , , ,

Als Gruß nach Zürich (#oat15): Ein Blick in die FAZ-Berichterstattung zum Thema Open Access im Jahr 2003.

von Ben Kaden (@bkaden)

Nachdem Hubertus Kohle heute bei seiner Keynote zur Eröffnung der Open-Access-Tage 2015 in Zürich offenbar erneut auf die Bemühungen der Frankfurter Allgemeinen Zeitung hinwies, den öffentlichen Diskurs zu Open Access mit, nun ja, kritischen Noten zu versehen


haben wir fast ein wenig aus Nostalgie noch einmal im Archiv nachgesehen, was da unter stimmungsprägenden Überschriften wie „Billiger lesen“ (Ausgabe vom 29.04.2015, Nr. 99, S. 13) und „Schmerzen der Wende“ (Frankfurter Allgemeine Zeitung, 06.05.2015, Nr. 104, S. N4) in der jüngeren und älteren Vergangenheit tatsächlich zu Open Access kommuniziert wurde.

Den Rückblick auf die rhetorischen und konzeptionellen Besonderheiten des Heidelberger Appells sparen wir uns und lesen lieber im ersten Beitrag, den wir im FAZ/FAS-Archiv zum Thema ermitteln konnten. In diesem langen Bericht im Wissenschaftsteil der Sonntagszeitung setzte sich Ulf von Rauchhaupt im Oktober 2003 und damit Nachgang mit der Berliner Erklärung solide und differenziert zunächst mit den Gründen selbst für den Trend Richtung OA und dann auch mit den Folgen auseinander.

Zu den Auslösern der Bewegung heißt es: …weiterlesen »

7. September 2015 | Veröffentlicht von Ben Kaden | 1 Kommentar »
Veröffentlicht unter Allgemein

Die FAZ über Universitätsverlage und die Rolle der Bibliothek für die Wissenschaft.

Die Frankfurter Allgemeine Zeitung veröffentlicht heute (Mittwoch, 02.09.2015) auf ihrer Seite Forschung und Lehre (N4) gleich zwei Beiträge, die unmittelbar für die Domäne, in welcher Fu-PusH forscht, relevant sind. Einerseits befasst sich Magnus Klaue mit dem Phänomen der Universitätsverlage und den Unterschieden zwischen den deutschen und den angloamerikanischen Modellen. Den Ausgangspunkt des Artikels bietet die Bedeutung solcher Verlage vor allem für die Publikation von Qualifikationsarbeiten, die es in den Geisteswissenschaften zeitnah und möglichst einschlägig mit Renommé umzusetzen gilt:

„Erscheint eine Dissertation später als drei Jahre nach Abschluss des Promotionsverfahrens, kann es Probleme mit dem Erhalt des akademischen Titels geben. Erscheint die Arbeit in einer wenig renommierten Reihe, mindert das die Chance von Rezensionen. Die meisten geisteswissenschaftlichen Dissertationen werden, obwohl digitale Publikationsmöglichkeiten bestehen, noch immer in traditionellen Wissenschaftsverlagen herausgebracht.“

In Deutschland ist das vergleichsweise teuer und mühsam. Die Hausverlage von Universitäten in den USA oder Großbritannien haben neben den offenbar einfacheren Publikationsmöglichkeiten gegenüber ihren deutschen Gegenstücken oft auch den Vorteil, dass sie als Verlag eine Reputation besitzen, die den deutschen Universitätsverlagen in der Regel fehlt. Zudem schlagen sie die Brücke zwischen der wissenschaftlichen und der außerakademischen Öffentlichkeit. Ein Fachbuch gelangt so auch auf den Sachbuchmarkt und ist, sofern das Lektorat gute Arbeit leistet, auch für ein allgemeines Publikum interessant.

In Deutschland, so merkt Magnus Klaue an, werden die beiden Öffentlichkeiten häufig streng getrennt gesehen. Tatsächlich bestätigen auch die Fu-PusH-Interviews, dass hierzulande wissenschaftliche Publikationen für den allgemeinen Publikumsmarkt eine große Ausnahme darstellen.

Zusammenfassend stellt der Autor fest: …weiterlesen »

2. September 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Allgemein, Literaturbericht

Open Access, Wissenschaftskultur und Forschungsdaten. Zu einem Beitrag bei derStandard.at.

In der Tageszeitung Der Standard erschien unlängst ein weiterer Beitrag über Open Access, diesmal aus österreichischer Sicht und erwartungsgemäß eher allgemein gehalten. Wer sich mit der Debatte etwas auskennt, findet daher sicher wenige neue Einsichten und stattdessen mehr Erinnerungen an heißere Phasen der Debatte, denn sogar sowohl Roland Reuß mit seiner Warnung vor dem Zwang zu Open Access wie auch Uwe Jochum mit seiner These, dass digitale Daten nur mit unkalkulierbaren, in jedem Fall äußerst hohen Kosten langzeiterhalten werden können, finden sich in dem Artikel wieder.

Aus Sicht von Fu-PusH sind zwei andere Aspekte notierenswert. So bestätigt Bernhard Haslhofer unsere Erfahrung, dass es beim Open Access keine alle Fachkulturen integrierende Generallösung geben kann und auch überhaupt Formen digital vermittelteter Wissenschaftskommunikation in der einen Disziplin der Normal- und in einer anderen ein Sonderfall sind:

…weiterlesen »

Wie digital archivieren? Wolfgang Ernst befasst sich in der ZfBB mit der Memorisierung des Web.

Eine Notiz von Ben Kaden (@bkaden).

Eine zentrale Frage für alle, die sich mit konkreten Lösungen für kulturelle Überlieferungen befassen und damit insbesondere „Gedächtnisinstitutionen wie Archiv und Bibliothek“ (Wolfgang Ernst), lautet: Wie sammeln und archivieren wir digitale Inhalte möglichst lange und möglichst verfügbar? Die aktuelle Ausgabe der Zeitschrift für Bibliothekswesen und Bibliografie (ZfBB) widmet sich nun dieser Herausforderung unter der Überschrift „Webarchivierung in Bibliotheken“.

In seinem Beitrag Memorisierung des »Web« – Von der emphatischen Archivierung zur Zwischenarchivierung der Gegenwart analysiert der Medientheoretiker Wolfgang Ernst vor allem aus der Perspektive von Zeitlichkeit und Flüchtigkeit:

„Das Vertrauen auf die Strahlkraft des Wissens in Archiven und Bibliotheken, das seit Zeiten der Schriftträger und des Buchdrucks das abendländische Bewusstsein prägt, unterliegt einer doppelten Transformation, die radikaler nicht sein kann. Einmal wandeln sich litterae in binär kodierte Datenworte (Bits); zudem transformiert ihre Substanz von dauerhafter Fixierung (Tinte und Druckschwärze) in flüchtige Ladungen und Impulse – von der der Inschrift zum Datenstrom.“

Und eigentlich geht es auch um das Konzept von Geschichtlichkeit, das für unsere Kultur und vor allem auch die Geisteswissenschaften prägend war und ist und das nun vielleicht gefährdet ist. Denn:

„Das vertraute Konzept von historischer Zeit bedeutet Computern nichts.“

Was freilich implizierte, dass Computer so etwas wie Bedeutung kennen könnten. Solange sie allerdings im Erbe der Kommunikationstheorie nach Claude Shannon operieren, ist das nicht zu erwarten. Sinnvoller wäre folglich, zu fragen, ob wir das Konzept der historischen Zeit im Digitalen verankern wollen? Bejahen wir das, muss man entsprechende informatische Strategien angehen. Das ist selbstredend eine Kulturaufgabe ersten Ranges. Gedächtnisinstitutionen allein sind, wie aus dem Text Ernsts immer wieder hervorgeht, bereits damit vollausgelastet, die Ansprüche der digitalen Gegenwart anzunehmen, die ihrer Tradition doch erheblich entgegenstrebt. …weiterlesen »

Eine Zwischenstandsmeldung im August

Es gibt zwei kleine Zwischenmeldungen in die allgemeine Sommerfrische hinein. Einerseits haben wir für Fu-PusH mittlerweile eine Begleitwebseite angelegt, die uns unter anderem als Testfall für Beispielumsetzungen von Enhancements für digitale Publikationen dient. Man erreicht sie über den Klick auf den Screenshot oder diesen Link.

Screenshot Fu-PusH-Materialsammlung
Fu-PusH-Materialsammlung unter www2.hu-berlin.de/fupush

Weiterhin entdeckten wir mit großer Freude, dass das Projekt in einem Aufsatz von Johannes Fournier für die Open-Access-Zeitschrift Ärchäologische Informationen erwähnt wurde. In dem bereits vor knapp einem halben Jahr als Early-View-Fassung publizierten Text zu den Perspektiven und Positionen der Deutschen Forschungsgemeinschaft (DFG) in den Bereichen Open Access und Open Data liest man:

„In DFG-geförderten Projekten kann schließlich auch erprobt und ausgelotet werden, wie die wissenschaftliche Praxis auf Veränderungen bezüglich der Darstellung von Forschungsergebnissen reagiert und welche Potenziale neue Formen der Wissenschaftskommunikation öffnen. In diesem Sinne untersucht das ebenfalls im Programm „Elektronische Publikationen“ geförderte Vorhaben „Future Publications in the Humanities“ an der UB der Humboldt-Universität mit speziellem Fokus auf die Bedürfnisse geisteswissenschaftlicher Forschung und in enger Rückkopplung an die Fachwissenschaften, welche Mehrwerte eine Veröffentlichung in Form einer sog. „enhanced publication“ generiert […]. Dazu gehört auch die Frage, welche infrastrukturellen Voraussetzungen zu schaffen oder auszugestalten sind, um das volle Potenzial solcher Mehrwerte überhaupt ausschöpfen zu können.“ (S. 5)
Es wird noch ein wenig dauern, bis wir eine fixe Antwort auf diese Frage kommunizieren können. Bisher jedoch zeigt sich in den Erhebungen, dass es große theoretische bis utopische Vorstellungen für digitale Publikationsstrukturen gibt, denen auf der praktischen Seite eher niedrigschwellige, manchmal auch nur mäßig spektakuläre Alltagslösungen gegenüber stehen. Die Zukunft des wissenschaftlichen Publizierens auch in den Geisteswissenschaften wird fraglos digital geprägt sein und bestimmte Mehrwerte umfassen. Das Hauptanliegen der WissenschaftlerInnen ist allerdings zugleich, dass dieses Publizieren verlässlich, kreditierbar und zeitstabil nachvollziehbar erfolgt. Spätestens wenn es um die Steuerung und Verwaltung der Reputation mittels Publikation geht, sind allzu komplexe Experimente nicht mehr das, was man sich wünscht. Weitere und detailliertere Ausführungen dazu folgen in den kommenden Monaten und unter der oben angegebenen Seite wird sich sicher sukzessive ein wachsender Bestand an Beispielen und Materialien finden.

Quelle
Johannes Fournier (2015): Open Access und Open Data. Positionen und Perspektiven der Deutschen Forschungsgemeinschaft (DFG). In: Archäologische Informationen, Early View. Online publiziert 20. Febr. 2015. (PDF-Download)
5. August 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Allgemein
Verschlagwortet mit

Social Annotation und Genius.com

In der Frankfurter Allgemeinen Zeitung (bzw. online) erschien unlängst ein Interview mit dem Hildesheimer Literaturwissenschaftler Guido Graf. Während der Anlass – die Vergütung von Autoren nach Zahl der gelesenen Seiten, wie sie Amazon gerade forciert – ist aus Fu-PusH-Sicht nicht ganz zwingend relevant. Anders verhält es sich mit bestimmten Schlussfolgerungen. So wird das Konzept des offenen Dokuments offenbar auch für die Literatur interessanter:

„Das sind Texte, die nicht unbedingt abgeschlossen sein müssen, die nicht die Form eines klassischen Romans oder einer Novelle haben müssen, sondern sich wie bei der Fernsehserie eher wuchernd entwickeln können, ohne dass man am Anfang weiß, wie es irgendwann weitergeht.“

Noch interessanter und zwar eventuell auch vor dem Hintergrund einer Art „Citizen Scholarship“ ist die Erwähnung der Plattform genius.com:

„Ich finde das großartig. Dieses Angebot setzt nur konsequent fort, was Genius.com vorgemacht hat. Diese Seite begann einst als Rap.genius und bietet mittlerweile zahlreiche Sparten, unter anderen auch Lit.genius, wo Leser sich gegenseitig Texte erklären. Hier versammelt sich ein eher jüngeres Publikum aus Pop-affinen Kontexten, um neben Kendrick Lamar oder J Dilla gemeinsam auch Shakespeare, Dante oder Jonathan Franzen zu lesen und zu diskutieren. Das ist zukunftszugewandtes Social Reading!“

Dabei muss es gar nicht auf ein jüngeres Publikum und den außerakademischen Bereich beschränkt bleiben. Ausgehend vom Bedürfnis, sich die Anspielungen in Rap-Texten zu erläutern, liegt hier nämlich sehr praktikables Verfahren zur Social Annotation weit entwickelt und elaboriert vor, das man sich ohne Probleme als Grundlage für Lektüreseminare und andere Wissenschaftskontexte vorstellen, in denen mehrere Personen gleichzeitig und in der Zeit Texte lesen, interpretieren und annotieren. (Hier als Beispiel die Seite zum Text Structure, Sign, and Play in the Discourse of the Human Sciences von Jacques Derrida.) Insofern ist Genius.com derzeit möglicherweise das alltagstauglichste und meist genutzte Digital-Humanities-Tool im Web. Und für die Narrativ- und Intertextualitätsanalysen der Gegenwart steht als Dreingabe gleich ein ganzer großer Bestand von Forschungsdaten bereits zur Verfügung (so zum Beispiel dieser exzellente Aufsatz von David Foster Wallace.)

10. Juli 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Allgemein, Werkzeuge