Archiv für Schlagwort Datenjournalismus

Wie langzeitarchiviert man Enhanced Publications?

Eine Notiz von Ben Kaden (@bkaden)

1.

Das Thema Datenjournalismus bleibt, erwartungsgemäß, überall dort ein zentrales Diskursobjekt, wo es um digitalen Journalismus geht. Auf der Technologieseite von Vox Media arbeitet Simon Rogers entsprechende Chancen (Zugang) und Herausforderungen (Archivierung) auf und erneut zeigen sich Parallelen zu den Digital Humanities.

„[T]he web has revolutionized online journalism so that the way we consume the news changes daily; the basics of modern data journalism are grounded in that ability to visualize that data in more and more sophisticated ways.“

Ersetzen wir „online journalism“ durch „digital research“, „news“ durch „research publications“ sowie „modern data journalism“ durch „Digital Humanities“, lässt sich der Satz problemlos in jeden Sammelbandbeitrag für eine Tagung zum Thema Digitalisierung der Geisteswissenschaften einpassen.

Hervorzugeben ist ein Aspekt, der uns aus Sicht der Bibliothekswissenschaft abstrakt und bei Fu-PusH sehr konkret beschäftigt. Für die Datenvisualisierung, bekanntermaßen auch Kernelement erweiterter Forschungsdatenpublikationen, ist die Langzeitarchivierung ein ungelöstes Problem. Was man vom Forschungsoutput der Projektwissenschaft sehr gut kennt, steht auch hier im virtuellen Raum:

„Much of it has become a victim of code rot – allowed to collapse or degrade so much that as software libraries update or improve, it is left far behind. Now when you try to find examples of this work, as likely as not you will end up at a 404 page.“

…weiterlesen »

Was das NYTimes-Chronicle-Tool über „Digital Humanities“ in der New York Times verrät

Das Jahr 2014 wird man vielleicht als das Jahr notieren, in dem in der öffentlichen Berichterstattung das Thema „Big Data“ fast mit den „Humanities“ gleichzog. Jedenfalls im Artikelaufkommen der New York Times.

Sichtbar wird das mit NYT Chronicle-Tool der nytlabs, das sich ganz gut zum Nachzeichnen von Themenkarrieren im Artikelaufkommen der Zeitung eignet. Ausgezählt lag „Big Data“ 2014 bei 226 Artikeln, die Humanities kamen auf 241 Artikel. Für die „Digital Humanities“ kommt man nur auf äußerst kleine Zahl (n=7). Die Ergebnisaussage zeigt dann auch gleich die derzeitigen Grenzen des Werkzeugs auf: Während die graphische Darstellung sieben Artikel vermerkt, werden die „Digital Humanities“ in der Ergebnisanzeige offenbar mit den Humanities zusammengewürfelt und stehen bei ebenfalls 241.

Schaut man sich die verlinkten Beiträge an, sieht man, dass die tatsächlichen Ergebnisse nicht gerade präzise und nach Relevanz aufgeschlüsselt vorliegen. Man muss den Umweg über die Standardsuche gehen, um auf die sieben Artikel im Publikationszeitraum 2014 bei der New York Times zu stoßen. Das ist ein bisschen schade, wäre doch die Möglichkeit, die Visualisierung als die Volltextsuche ergänzendes Navigationswerkzeug nutzen zu können, sehr nahliegend. Der Labs-Ansatz mit Werkzeugen zur Visualisierung, Kontextualisierung und Kuratierung (zum Beispiel mit dem Compendium-Tool) von Pressedaten veranschaulicht ja gerade, wie Datenjournalismus auch auf eine (Inter)Aktivierung der Leser hinführt, die perspektivisch mehr als mit der begrenzten Funktionalität der Leserkommentare auf die diskursive, also über Journalismus vermittelte bzw. durch diesen koordinierte wirklich öffentliche Auseinandersetzung mit Themen setzen könnte.

…weiterlesen »