Archiv für Schlagwort Digital Humanities

Open Access in Berlin: Heiße Luft oder Hot Topic?

Ein Gastbeitrag von Anne Baillot

Nach der Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities 2003 schien sich bis zum 10jährigen Jubiläum derselben in der Hauptstadt in Sachen Open Access noch nicht sehr viel bewegt zu haben. Die Tatsache, dass die Implementierung der im Jahr 2003 unterzeichneten Ziele einige Institutionen nach wie vor vor große Herausforderungen stellte, regte den Einstein-Zirkel Digital Humanities 2015 dazu an, in Form von Interviews mit VertreterInnen einschlägiger Forschungseinrichtungen aus Berlin und Brandenburg den Status quo in der geisteswissenschaftlichen Forschung zu erheben, Best Practices zu erfassen und Zukunftsperspektiven darzustellen. Doch noch ehe die Interviewergebnisse ausgewertet und veröffentlicht werden konnten, hat die Thematik eine neue Dimension gewonnen. Open Access gehört inzwischen zur Digitalen Agenda der Hauptstadt; die Max-Planck-Gesellschaft hat eine Gold-OA-Offensive unter dem Banner „OA2020“ hervorgetrommelt und in einem offiziellen Amtsakt wird eine neue Bekräftigung der Berliner Erklärung von einigen Schlüsselakteuren veröffentlicht und beworben. Zentral scheint nicht nur die Frage zu sein, welche Formen von Wissenschaft Open Access ermöglichen, sondern auch, wenn nicht vorrangig, welche Art von Wissenschaftspolitik.

Das Open-Access-Kapitel des vom Einstein-Zirkel vorbereiteten Sammelbandes, der im Juni 2016 unter dem Titel Berliner Beiträge zu den Digital Humanities erscheinen wird, widmet sich dem Thema Open Access in den Geisteswissenschaften. Es enthält neben Aufsätzen (bereits als Preprint: „Open Humanities?“ von Michael Kleineberg) die Ergebnisse und das Wortlaut von 2015 an einschlägigen Einrichtungen durchgeführten Interviews zum Thema Open Access. Ausgangspunkt der Reflexion war die einmalige Situation der deutschen Hauptstadt, in der Open Access geisteswissenschaftlich Forschende an den Hochschulen und außeruniversitären Forschungseinrichtungen ebenso betrifft wie GLAM-Einrichtungen (Galerien, Bibliotheken, Archive, Museen). Es ist diese einmalige Berlin-Brandenburgische Landschaft, die in den Mittelpunkt der Open Access-Interviews gerückt wurde.

Die Interviews gehen auf die breit gefächerten, auf die Bedürfnisse der jeweiligen Einrichtung zugeschnittenen, in den Jahren seit der Berlin Declaration jeweils entwickelten Portfolios ein. Der pragmatische Teil der Auseinandersetzung mit dem Open-Access-Prinzip im Bereich der geisteswissenschaftlichen Forschung wird damit deutlich: Wer Lust hat, Open Access zu publizieren, findet in Berlin und Umgebung in seiner Einrichtung einen erprobten Weg, dies zu tun. Doch die Hauptfrage bleibt: Wer hat Lust, Open Access zu publizieren, und wer kann es sich leisten? An dieser Stelle gilt es zu unterstreichen, dass trotz der ebenfalls vielfältigen Beratungsangebote der jeweiligen Einrichtungen die Kluft zwischen Reputation und Leserschaft bei den WissenschaftlerInnen nach wie vor nicht überbrückt zu sein scheint: Papier ist für die Reputation, Open Access um gelesen zu werden, wobei Ersteres die akademischen Karrieren dominiert.

Aber es geht bei Weitem nicht nur um akademische Karrieren. Ein Blick nach Frankreich, wo die Verankerung von Text und Data Mining im neu entstehenden „Digitalen Gesetz“ von WissenschaftlerInnen und PolitikerInnen im Gespräch mit einander ausgearbeitet und debattiert wird (vgl. die Wiedergabe der Vorschläge und Gegenvorschläge zum neuen Gesetz unter dem Hashtag #PJLNumerique und auf der Webseite des Französischen Senats zu diesem Gesetz), zeigt, dass die politische, wirtschaftliche, aber auch beispielsweise gesundheitsökonomische Brisanz von Open Access, gekoppelt mit juristischen Fragen wie dem Schutz der Privatsphäre, unsere Zukunft entscheidend prägen wird. Und deswegen sollte es nicht nur darum gehen, sich zu fragen, ob NachwuchswissenschaftlerInnen ihre Preprints online stellen sollten (die Antwort darauf ist eindeutig: Ja!), und auch nicht darum, ob Bücher abgeschafft werden sollen (die Antwort darauf ist eindeutig: Nein!), sondern, welche Zivilgesellschaft dadurch entsteht, dass sie zu dieser Art von Wissen Zugang hat: Wie bringen wir unseren Kindern bei, das Internet sinnvoll zu nutzen? Welche juristischen Weichen können wir heute stellen? Wie können wir dafür sorgen, dass das, was wir heute Open Access veröffentlichen, morgen noch zugänglich sein wird? Diese Fragen sind die der Digital Humanities.

Was wir uns von der DHd 2016 merken: Das 21. Jahrhundert könnte eines der Geisteswissenschaften sein.

Vor etwa einem Jahr wies Kevin Boehnke in Science darauf hin, dass Naturwissenschaften durchaus etwas von den Geisteswissenschaften lernen könnten. In der Eröffnungskeynote der Tagung des Verbands Digital Humanities im deutschsprachigen Raum (DHd), die in der vergangenen Woche in Leipzig stattfand, folgte die Computerwissenschaftlerin Katharina Anna Zweig einem solchen Erweiterungsideal aus Sicht der Informatik und damit uns das nicht sofort wieder verlorengeht, möchten wir diese Aussage als Zitat aus dem Abstract zum Vortrag „Von den ‚digital humanities‘ zu einer humanen Digitalisierung“ an dieser Stelle noch einmal dokumentieren:

Zitat Katharina Anna Zweig zum Verhältnis von Informatik und Geisteswissenschaften
Zitat Katharina Anna Zweig zum Verhältnis von Informatik und Geisteswissenschaften

Die Lücke, die die Liste der Disziplinen im Abstract lässt, liegt freilich im Bereich der Philosophie. Die angesprochenen Fragestellungen

Wie können wir […] vermeiden, dass Algorithmen verzerren, diskriminieren oder gar manipulieren?

Wie können sensible Machtbalancen zwischen Privatheit und Sicherheit, ökonomischen Erfolg und Transparenz hergestellt werden?

haben eine unverkennbar ethische Komponente, die hoffentlich während des Vortrags, die wir leider aus der Termingründen nicht hören konnten, tiefer erörtert wurden, als es dieser Teaser andeutet. Sehr sympathisch ist es uns, deren Projekt im Kosmos der Geisteswissenschaften so langsam seinem Ende zuläuft, dagegen die anschließende Aussage, auch wenn solche Prognosen auch oder gerade in der schüchternen Konjunktivform aus der Erfahrung der retrospektiven Betrachtung mit Diskursen immer schön schallen und oft schnell verrauchen:

„Es könnte das Jahrhundert der Geisteswissenschaften werden.“

Ein Stück weit, so vielleicht bis zur Hälfte, wird uns vergönnt sein, das Jahrhundert und seinen Umgang mit den Geisteswissenschaften zu beobachten. Wir werden uns bei Bedarf, sicher in einem anderen Medium, an Katharina Anna Zweig erinnern und hoffentlich noch auf diese Notiz in einer digital langzeitverfügbaren Form verweisen können.

(Berlin, 14.03.2016, Crosspost mit dem LIBREAS-Tumblr)

Quelle: Zweig[,] Katharina Anna: Von den ‚digital humanities‘ zu einer humanen Digitalisierung. In: DHd 2016. Modellierung – Vernetzung – Visualisierung[.] Die Digital Humanities als fächerübergreifendes Forschungsparadigma. Konferenzabstracts. Universität Leipzig 7. bis 12. März 2016. Duisburg: nisaba Verlag, 2016. S. 13

Das Fu-PusH-Poster für die DHd 2016

Wie der Twitter-Strom unter #dhd2016 berichtet, ist die Jahreskonferenz des Digital Humanities im deutschsprachigen Raum (DHd) e. V. in Leipzig bereits in voller Entfaltung begriffen. Das Fu-PusH-Projektteam wird morgen dazu stoßen und unter anderem ein Poster aus- und beim Posterslam ab 16:00 im HS 09 vorstellen. Heute zeigen wir es gern schon hier.

 

Fu-PusH - Poster für die dhd2016 in Leipzig
Fu-PusH-Poster für die DHd 2016 in Leipzig

 

Weitere Informationen sowie eine Downloadmöglichkeit gibt es bei Zenodo: Digitales Publizieren in den Geisteswissenschaften. Abschlussbericht und Handlungsempfehlungen des DFG-Projektes Fu-PusH

10.5281/zenodo.47091

8. März 2016 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Veranstaltungen

Fu-PusH auf der Jahreskonferenz DHd 2016

Im kommenden März lädt der Digital Humanities im deutschsprachigen Raum (DHd) e. V. unter dem Motto „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“ zu seiner Jahrestagung nach Leipzig. Das Fu-PusH-Team möchte seine Erkenntnisse, die es als für die Digital-Humanities-Community in Deutschland als sehr einschlägig erachtet, selbstverständlich auch in diesem Rahmen präsentieren.

Wir sandten daher ein Abstract ein. Für einen Vortrag hat es laut Gutachten leider nicht gereicht. Das Programmkommitee teilte uns heute entsprechend mit:

„Auf Grund der hohen Anzahl an Einreichungen müssen wir Sie allerdings bitten, statt eines Vortrages ein Poster zu präsentieren.“

Das gibt uns Planungssicherheit, denn der Termin für Posterslam und -ausstellung steht bereits fest. Am 09.03.2015 werden wir also eine Minute slammen und danach für Gespräche zur Verfügung stehen. Wir laden bereits jetzt herzlich dazu ein!

Da wir uns dem Prinzip der Open Scholarship verpflichtet fühlen, nutzen wir gern die Gelegenheit, die Gutachten zum Abstract an dieser Stelle beizufügen. Sie stehen unter dem Abstract.

Eingereichtes Abstract:

DHd-Jahrestagung 2016 „Modellierung – Vernetzung – Visualisierung“ (Leipzig)

– Abstract für Vortrag –

Digitales Publizieren in den Geisteswissenschaften

Abschlussbericht und Handlungsempfehlungen des DFG-Projektes Fu-PusH

…weiterlesen »

21. Dezember 2015 | Veröffentlicht von Ben Kaden | Kein Kommentar »
Veröffentlicht unter Veranstaltungen

Analog Humanities als quellenkritische Hilfswissenschaft? Zu einem Text Gregory Cranes.

Eine Notiz von Ben Kaden @bkaden

Als wir gestern auf das sehr interessante H-Soz-Kult-Diskussionsforum Historische Grundwissenschaften und die digitale Herausforderung stießen, fiel uns nicht allein Torsten Hiltmanns Beitrag zur digitalen Aktualisierung historischer Hilfswissenschaften ins Auge (vgl. hier), sondern auch der noch frischere Text von Gregory Crane zur Quellenkritik im digitalen Zeitalter. Natürlich steckt in diesem Beitrag wie auch in der gesamten Diskussion mehr drin, als der eine Aspekt, auf den ich hier hinweisen möchte. Aber mehr denn je gilt, was im Fu-PusH Statement Finder an verschiedenen Stellen und unter anderem in der Aussage 1809 betont wird:

„Wird zu viel veröffentlicht, dann wird es schnell zu einem Problem nicht unbedingt der technischen Speicher, wohl aber der individuellen Verarbeitungskapazität.“

Das Aufkommen an potentiell relevanten Inhalten zu Themen des Fu-PusH-Interessenspektrums, die ihre Qualität erschwerenderweise oft mittels einer gründlichen argumentativ-interpretativen Analyse entfalten, ist leider enorm und der wissenschaftliche Anspruch an die vollständige Kenntnis der zu einem Thema erschienenen wissenschaftlichen Literatur selbst, von dem man in jeder Anleitung zum wissenschaftlichen Arbeiten liest, dann kaum einlösbar, wenn man den Betrachtungsrahmen äußerst eng fasst. Jedenfalls wenn das Thema die digitale Transformation der geisteswissenschaften Kommunikationspraxis ist.

Eine Strategie, damit umzugehen, ist die Entwicklung neuer Formen der Relevanzfilterung (Aussagen zum Thema im Statement Finder), die freilich erst noch (a) brauchbar automatisiert und (b) in Übereinstimmung mit den Erkenntnisbildungsverfahren der Geisteswissenschaften gebracht werden müssen. Was Discovery Systeme angeht haben wir zumindest nur noch selten ein quantitatives Problem. Bei der Relevanz (bzw. dem, was man im Information Retrieval auch Recall und Precision nennt) mag es anders aussehen.

Völlig hilflos scheint man aber, wenn es um Fragen des technologieunterstützten Schlussfolgerns und Verstehens geht. Verfahren des Distant Reading berühren bislang allenfalls die Dimension der Semantik. Die zum Verstehen einer Sprachhandlung und also eines Textes notwendige pragmatische Ebene bleibt nach wie vor weitestgehend wie auch das sinnvolle interpretative Schließen schädelgebundene Kognitionsarbeit. Für das analytische und argumentative Schreiben, also die Diskurs(aus)führung gilt das selbstverständlich gleichfalls. Und so bleibt offen, wie sehr die Entwicklungen, die man unter dem Label der Digital Humanities fasst, tatsächlich epistemologische Wirksamkeit in den Geisteswissenschaften entfalten können. Was zurück zur Debatte um den Stand der Quellenkritik im Digitalen führt.

…weiterlesen »

Über (digitale) Hilfswissenschaften, Bibliothekswissenschaft und Digital Humanities.

Eine Notiz von Ben Kaden (@bkaden)

Die Frankfurter Allgemeine Zeitung veröffentlicht in ihrer heutigen Ausgabe auf der Seite zum Thema Forschung und Lehre ein Interview mit dem Archivwissenschaftler Eckhart Henning über die „prekäre Lage der historischen Archivwissenschaften“. Aus der Perspektive von Fu-PusH ist das Thema aus mehreren Gründen interessant. So gibt es durchaus die Position, dass sich das nach wie vor im Fokus aller Zukunftsdiskussionen zu den Geisteswissenschaften unweigerlich einfindende Feld der Digital Humanities zumindest in der Tradition der Hilfswissenschaften verortet. (vgl. Wettlaufer, 2014) Von den Auxilia Historica zu lernen, kann hier also durchaus sinnvoll sein. Weiterhin stellt sich die Frage der Auswahl, Erschließung und Vermittlung potentiell für die Geisteswissenschaften relevanter Objekte in den etablierten Kulturspeichern ganz generell. Hier könnte man neben der Archivwissenschaft durchaus auch die Bibliothekswissenschaft in der Rolle einer solchen Hilfsdisziplin sehen und diskutieren – nicht unbedingt zum Gewinn der Fächer. (vgl. u.a. Stäcker, 2005, S.36) Schließlich stellt sich damit verknüpft und immergrün die Frage, wie man mit digitalen Materialien hinsichtlich einer angestrebten Langzeitverfügbarkeit verfährt.

Zu allen drei Aspekten finden sich im Interview einige interessante Aussagen. So legt Eckart Henning dar, dass die historischen Hilfswissenschaften mit ihrem Analyseansatz „den Naturwissenschaften oft näher als den Geisteswissenschaften“ sind. Das ergibt sich vermutlich bereits deshalb, weil ihre Funktion einen bestimmten Analysebedarf adressiert, der offenbar nicht ohne weiteres direkt in geisteswissenschaftliche Forschungsprozesse integrierbar ist. Die Hilfswissenschaften komplementieren die dort eingesetzten Methodologien hinsichtlich eines bestimmten Bedarfs. Sie sind dadurch gekennzeichnet, dass …weiterlesen »

Wie langzeitarchiviert man Enhanced Publications?

Eine Notiz von Ben Kaden (@bkaden)

1.

Das Thema Datenjournalismus bleibt, erwartungsgemäß, überall dort ein zentrales Diskursobjekt, wo es um digitalen Journalismus geht. Auf der Technologieseite von Vox Media arbeitet Simon Rogers entsprechende Chancen (Zugang) und Herausforderungen (Archivierung) auf und erneut zeigen sich Parallelen zu den Digital Humanities.

„[T]he web has revolutionized online journalism so that the way we consume the news changes daily; the basics of modern data journalism are grounded in that ability to visualize that data in more and more sophisticated ways.“

Ersetzen wir „online journalism“ durch „digital research“, „news“ durch „research publications“ sowie „modern data journalism“ durch „Digital Humanities“, lässt sich der Satz problemlos in jeden Sammelbandbeitrag für eine Tagung zum Thema Digitalisierung der Geisteswissenschaften einpassen.

Hervorzugeben ist ein Aspekt, der uns aus Sicht der Bibliothekswissenschaft abstrakt und bei Fu-PusH sehr konkret beschäftigt. Für die Datenvisualisierung, bekanntermaßen auch Kernelement erweiterter Forschungsdatenpublikationen, ist die Langzeitarchivierung ein ungelöstes Problem. Was man vom Forschungsoutput der Projektwissenschaft sehr gut kennt, steht auch hier im virtuellen Raum:

„Much of it has become a victim of code rot – allowed to collapse or degrade so much that as software libraries update or improve, it is left far behind. Now when you try to find examples of this work, as likely as not you will end up at a 404 page.“

…weiterlesen »

Was Digital Humanities und digitalen Journalismus verbindet.

Eine Notiz von Ben Kaden (@bkaden)

1.

Im Juli fragte ich in einem Blogposting Gibt es Schnittmengen zwischen digitalem Journalismus und digitaler Wissenschaftskommunikation? und bot als Antwort ein gewisses Ja an. Gerade in den Geistes- und Sozialwissenschaften, bei denen Analysen sehr narrativiert kommuniziert werden, liegt die Parallele nah. (Ein schönes Beispiel für narrative Grenzgänger bietet unter anderem die, nun ja, Reportage-Studie Floating City von Sudhar Venkatesh, vgl. ausführlicher und auch hier). Das Herz des Journalismus schlägt wenigstens mit einer Kammer genau an dieser Stelle, die man gemeinhin Storytelling nennt. Auch die andere Kammer, die so genannten Listicles und anderen Metakuratierungen bestehender Webinhalte, sind gleichfalls ein Ansatz, der sich im Kontext von Meta- und Overlay-Journals in den Kontext wissenschaftlicher Publikationskulturen einbringen lässt, wobei Buzzfeed natürlich nur sehr bedingt ein direktes Vorbild sein sollte.

Kurioserweise ist das Buzzfeed-Modell das aktuell erfolgreichste Orientierungsmuster für den digitalen Journalismus, wie die Fachexpertin Emily Bell in einem aktuellen Interview gleich mehrfach betont. Spannend ist hier der Aspekt der Arbeitsteilung bei der Aufbereitung von Inhalten: …weiterlesen »

Big Data und die Geisteswissenschaften. Eine Anmerkung einem Tagungsbericht in der NZZ.

In den Fu-PusH-Interviews fiel das Stichwort „Big Data“ vergleichsweise selten. Das bedeutet jedoch keinesfalls, dass es im Umfeld der Geisteswissenschaften keine Rolle spielt, denn unser Erkenntnisinteresse war doch eher auf das Publizieren und nicht so sehr auf die Forschungspraxis gerichtet. Entsprechend finden sich Überlegungen zur Transformation geisteswissenschaftlicher Forschung durch datenzentrierte Verfahren eher an anderer Stelle. Heute beispielsweise im Feuilleton der Neuen Zürcher Zeitung für das Urs Hafner von der infoclio.ch-Tagung 2015 mit dem Motto Daten und Geschichtswissenschaften berichtet. Eine wichtige und sehr grundsätzliche Einsicht wollen wir aus diesem Bericht gern festhalten, da sie wiederum drei für das Publizieren sehr zentralen Aspekt berührt:

„Für den Wissenschaftshistoriker Bruno Strasser von der Universität Genf sind grosse Datenmengen an sich nichts Neues. In der «data-driven science» jedoch, welche die Wissenschaftswelt erobere – die Geisteswissenschaften bilden ein Residuum –, kämen nun zwei Traditionen der Naturwissenschaften zusammen, die in der Mitte des 19. Jahrhunderts entstanden seien: die sammelnde und vergleichende Naturgeschichte sowie die experimentelle Naturforschung. «Big Data» werfe neue Fragen auf: nach der Autorschaft, die nun zugleich individuell und kollektiv sei, nach dem Eigentum an Daten, nach deren Gebrauch, nach deren «epistemischem Status». – Solche Fragen sollten in einem einschlägigen nationalen Forschungsprogramm auf keinen Fall fehlen.“

Prinzipiell zeigt sich eine gewisse Übereinstimmung des die zweite Hälfte des 20. Jahrhunderts prägenden Wandels zur Big Science und dem Aufblühen der Empirie als immer mehr eingefordertes und daher elaboriertes Verifikationsinstrument für die Theoriebildung (oft: Little Science). Insofern ist Big Data in der Wissenschaft selbst ein eher älteres Thema, eng verbunden mit der Gerätewissenschaft (bzw. auch Großforschung) und den dort notwendigen Spezialisierungen. Wer welchen Teil der Autorschaft bei dieser gruppenbasierten Erkenntnisfindung übernimmt, ist freilich auch dort oft umstritten. Für die Geisteswissenschaftler, die sich vergleichsweise deutlich stärker als Werkschöpfer sehen, wo Naturwissenschaftler mit dem gelungenen Nachweis glücklich sind, sind diese Phänomene weitgehend neu. Es sind möglicherweise die Digital Humanities, die nun das Kollektivelement und die Arbeitsteilung zwischen Datenerhebern, den Entwicklern von Algorithmen und den Wissenschaftlern, die Fragestellungen formulieren bzw. Schlüsse ziehen und vielleicht noch einigen anderen Akteuren in die Wissenschaftspraxis hineinbringen. Selbstverständlich verändert sich eine Wissenschaft, die sich viel stärker auf die Empirie von Daten und den Erkenntniszugang per Algorithmus stützt, in ihren epistemischen Fundamenten. Oder – was nach wie vor bei den Digital Humanities offen ist – fungiert losgelöst von den klassischen Wissenschaften als eigenes Forschungsfeld. In jedem Fall muss sie spezifisch fragen, nach welchen Bedingungen die Forschungsgrundlage (Daten) und die Erhebungs- und Präsentationswerkzeuge (Algorithmen, Visualisierungen, etc.) entstehen und wie sie als Dispositive für die Erkenntnisfindung wirken. Dies gilt insbesondere auch für die Metaebene der Forschungsförderung, die mit ihrer Agenda selbst ein Dispositiv setzt, das bestimmte Forschungsformen begünstigt und andere ausschließt.

(bk / 20.10.2015)

Urs Hafner: Gemachte Tatsachen. «Big Data» und die Geschichtswissenschaft. In: Neue Zürcher Zeitung / nzz.ch. 20.10.2015

Als Gruß nach Zürich (#oat15): Ein Blick in die FAZ-Berichterstattung zum Thema Open Access im Jahr 2003.

von Ben Kaden (@bkaden)

Nachdem Hubertus Kohle heute bei seiner Keynote zur Eröffnung der Open-Access-Tage 2015 in Zürich offenbar erneut auf die Bemühungen der Frankfurter Allgemeinen Zeitung hinwies, den öffentlichen Diskurs zu Open Access mit, nun ja, kritischen Noten zu versehen


haben wir fast ein wenig aus Nostalgie noch einmal im Archiv nachgesehen, was da unter stimmungsprägenden Überschriften wie „Billiger lesen“ (Ausgabe vom 29.04.2015, Nr. 99, S. 13) und „Schmerzen der Wende“ (Frankfurter Allgemeine Zeitung, 06.05.2015, Nr. 104, S. N4) in der jüngeren und älteren Vergangenheit tatsächlich zu Open Access kommuniziert wurde.

Den Rückblick auf die rhetorischen und konzeptionellen Besonderheiten des Heidelberger Appells sparen wir uns und lesen lieber im ersten Beitrag, den wir im FAZ/FAS-Archiv zum Thema ermitteln konnten. In diesem langen Bericht im Wissenschaftsteil der Sonntagszeitung setzte sich Ulf von Rauchhaupt im Oktober 2003 und damit Nachgang mit der Berliner Erklärung solide und differenziert zunächst mit den Gründen selbst für den Trend Richtung OA und dann auch mit den Folgen auseinander.

Zu den Auslösern der Bewegung heißt es: …weiterlesen »

7. September 2015 | Veröffentlicht von Ben Kaden | 1 Kommentar »
Veröffentlicht unter Allgemein