Archiv für Schlagwort Big Science

Big Data und die Geisteswissenschaften. Eine Anmerkung einem Tagungsbericht in der NZZ.

In den Fu-PusH-Interviews fiel das Stichwort „Big Data“ vergleichsweise selten. Das bedeutet jedoch keinesfalls, dass es im Umfeld der Geisteswissenschaften keine Rolle spielt, denn unser Erkenntnisinteresse war doch eher auf das Publizieren und nicht so sehr auf die Forschungspraxis gerichtet. Entsprechend finden sich Überlegungen zur Transformation geisteswissenschaftlicher Forschung durch datenzentrierte Verfahren eher an anderer Stelle. Heute beispielsweise im Feuilleton der Neuen Zürcher Zeitung für das Urs Hafner von der infoclio.ch-Tagung 2015 mit dem Motto Daten und Geschichtswissenschaften berichtet. Eine wichtige und sehr grundsätzliche Einsicht wollen wir aus diesem Bericht gern festhalten, da sie wiederum drei für das Publizieren sehr zentralen Aspekt berührt:

„Für den Wissenschaftshistoriker Bruno Strasser von der Universität Genf sind grosse Datenmengen an sich nichts Neues. In der «data-driven science» jedoch, welche die Wissenschaftswelt erobere – die Geisteswissenschaften bilden ein Residuum –, kämen nun zwei Traditionen der Naturwissenschaften zusammen, die in der Mitte des 19. Jahrhunderts entstanden seien: die sammelnde und vergleichende Naturgeschichte sowie die experimentelle Naturforschung. «Big Data» werfe neue Fragen auf: nach der Autorschaft, die nun zugleich individuell und kollektiv sei, nach dem Eigentum an Daten, nach deren Gebrauch, nach deren «epistemischem Status». – Solche Fragen sollten in einem einschlägigen nationalen Forschungsprogramm auf keinen Fall fehlen.“

Prinzipiell zeigt sich eine gewisse Übereinstimmung des die zweite Hälfte des 20. Jahrhunderts prägenden Wandels zur Big Science und dem Aufblühen der Empirie als immer mehr eingefordertes und daher elaboriertes Verifikationsinstrument für die Theoriebildung (oft: Little Science). Insofern ist Big Data in der Wissenschaft selbst ein eher älteres Thema, eng verbunden mit der Gerätewissenschaft (bzw. auch Großforschung) und den dort notwendigen Spezialisierungen. Wer welchen Teil der Autorschaft bei dieser gruppenbasierten Erkenntnisfindung übernimmt, ist freilich auch dort oft umstritten. Für die Geisteswissenschaftler, die sich vergleichsweise deutlich stärker als Werkschöpfer sehen, wo Naturwissenschaftler mit dem gelungenen Nachweis glücklich sind, sind diese Phänomene weitgehend neu. Es sind möglicherweise die Digital Humanities, die nun das Kollektivelement und die Arbeitsteilung zwischen Datenerhebern, den Entwicklern von Algorithmen und den Wissenschaftlern, die Fragestellungen formulieren bzw. Schlüsse ziehen und vielleicht noch einigen anderen Akteuren in die Wissenschaftspraxis hineinbringen. Selbstverständlich verändert sich eine Wissenschaft, die sich viel stärker auf die Empirie von Daten und den Erkenntniszugang per Algorithmus stützt, in ihren epistemischen Fundamenten. Oder – was nach wie vor bei den Digital Humanities offen ist – fungiert losgelöst von den klassischen Wissenschaften als eigenes Forschungsfeld. In jedem Fall muss sie spezifisch fragen, nach welchen Bedingungen die Forschungsgrundlage (Daten) und die Erhebungs- und Präsentationswerkzeuge (Algorithmen, Visualisierungen, etc.) entstehen und wie sie als Dispositive für die Erkenntnisfindung wirken. Dies gilt insbesondere auch für die Metaebene der Forschungsförderung, die mit ihrer Agenda selbst ein Dispositiv setzt, das bestimmte Forschungsformen begünstigt und andere ausschließt.

(bk / 20.10.2015)

Urs Hafner: Gemachte Tatsachen. «Big Data» und die Geschichtswissenschaft. In: Neue Zürcher Zeitung / nzz.ch. 20.10.2015