Digitale Werkzeuge spielen in den Geisteswissenschaften eine immer größere Rolle. Ob Netzwerkanalyse, Text Mining oder digitale Edition: ohne spezialisierte Software ist moderne Forschung in den Digital Humanities kaum mehr denkbar. Doch je größer die Auswahl an Tools wird, desto schwieriger wird es, den Überblick zu behalten. Forscher*innen, Bibliotheken und IT-Abteilungen sind daher auf Tool-Verzeichnisse angewiesen, die verfügbare Anwendungen sichtbar machen und nachnutzbar dokumentieren.
Bisherige Angebote wie TaPOR 3 oder der SSH Open Marketplace leisten hier wertvolle Dienste. Allerdings stehen sie auch vor typischen Herausforderungen: fehlende dauerhafte Finanzierung, Abhängigkeit von einzelnen Institutionen oder geschlossenen Infrastrukturen sowie ein hoher Pflegeaufwand. Genau an diesem Punkt setzt das neue Projekt DH Tool Registry an, das vom Team der Kompetenzwerkstatt Digital Humanities der Universitätsbibliothek der Humboldt-Universität zu Berlin gemeinsam mit dem NFDI4Memory Methods Innovation Lab entwickelt wurde.
Ein modularer Ansatz auf Basis von Wikidata
Das DH Tool Registry verfolgt einen Ansatz, der sich in drei Grundsätzen zusammenfassen lässt:
- Unabhängigkeit von einzelnen Plattformen
Die Daten werden in Wikidata, einer offenen, kollaborativen Wissensdatenbank, gespeichert. Damit sind sie nicht an eine spezifische Webanwendung oder Institution gebunden. - Ein modulares, minimales Datenmodell
Das zugrundeliegende Schema ist bewusst schlank gehalten, kann aber flexibel erweitert werden. So lassen sich Daten gleichzeitig für verschiedene, auch fachspezifische Zwecke kuratieren. - Wiederverwendbare Oberflächen
Das entwickelte Frontend kann nicht nur für das eigene Projekt, sondern auch für andere Datensätze genutzt werden, die auf Wikidata-Abfragen basieren.
Im aktuellen Proof-of-Concept greift die Anwendung auf alle Wikidata-Einträge zurück, die mit einer TaDiRAH-ID versehen sind. TaDiRAH (Taxonomy of Digital Research Activities in the Humanities) ist eine Taxonomie, die Forschungsaktivitäten in den Digital Humanities klassifiziert. Damit können Werkzeuge nach ihrem primären Anwendungsfeld systematisch eingeordnet werden.
So funktioniert das Tool Registry
Das DH Tool Registry ist über eine leicht zugängliche Weboberfläche nutzbar. Forschende können dort auf verschiedene Weise nach passenden Tools suchen: Suche nach Namen oder Labels, blättern in alphabetischen Listen oder filtern nach TaDiRAH-Kategorien.
Ein Klick auf einen Eintrag führt zu einer Detailansicht mit zusätzlichen Informationen. Wer noch mehr wissen möchte, kann direkt zur entsprechenden Wikidata-Seite wechseln und dort sogar selbst Änderungen vornehmen.
Mitmachen erwünscht
Das DH Tool Registry ist bewusst als Community-Projekt angelegt. Jede*r kann beitragen, indem Fehler in Wikidata korrigiert oder neue Tools eingetragen werden. Mit einer TaDiRAH-ID versehen, erscheinen diese automatisch im Registry. Damit wächst und verbessert sich die Datenbasis,getragen von der Community selbst, kontinuierlich.
Fazit
Das DH Tool Registry ist mehr als nur ein weiteres Verzeichnis: Es zeigt, wie Nachhaltigkeit und Offenheit in den Digital Humanities zusammengehen können. Durch die Nutzung von Wikidata wird Abhängigkeit reduziert, durch den modularen Aufbau entsteht Flexibilität, und die Community trägt aktiv zur Qualität bei.
Noch in der Proof-of-Concept-Phase, macht das Projekt schon jetzt deutlich, welches Potenzial es hat: als langfristige, offene Infrastruktur für die digitalen Werkzeuge der Geisteswissenschaften.
Weiterführende Links:
- Projektseite: DH Tool Registry
- WikiProject DH Tool Registry auf Wikidata
- TaDiRAH-Taxonomie
- Kompetenzwerkstatt Digital Humanities auf GitHub
Termin: 27.05.2024, 10-12 Uhr
Ort: virtuell
Anmeldung: bis 26.05.2025 per Email an ub.makerspace@hu-berlin.de
eScriptorium ist eine quelloffene Plattform zur automatisierten und manuellen Transkription von handschriftlichen und gedruckten Texten – eine leistungsstarke Alternative zu proprietärer Software. Im Online-Workshop erhalten Teilnehmende eine Einführung in die Anwendung und die zentralen Funktionen von eScriptorium. Anhand praxisnaher Beispiele wird der gesamte Workflow – von der Layoutanalyse über die Transkription bis hin zum Modelltraining – gemeinsam erprobt. Ziel ist es, Wissenschaftler*innen dazu zu befähigen, eigene Digitalisate effizient mit hochwertigen Volltexten anzureichern.
Der Workshop wird durchgeführt vom Kolleg*innen des Kompetenzzentrums OCR der UB Tübingen und der UB Mannheim in Zusammenarbeit mit der Kompetenzwerkstatt Digital Humanities.
Sie möchten Ihre Forschung, Ihr Projekt oder Ihre Arbeitsgruppe sichtbar machen – ganz ohne komplexe Technik oder Programmierkenntnisse? In diesem Workshop lernen Sie, wie Sie mit GitLab Pages und einem vorgefertigten Template Ihre eigene statische Website erstellen, gestalten und online veröffentlichen. Dabei nutzen Sie – ganz praxisnah und niedrigschwellig – erprobte Werkzeuge aus der Softwareentwicklung: die webbasierte Entwicklungsplattform GitLab, Website-Erstellung mit einem Static Site Generator wie Jekyll sowie automatisierte Veröffentlichungsprozesse (CI/CD), um Ihre Inhalte professionell online zu stellen.
Inhalt und Ziele:
Anhand eines leicht verständlichen Static Site Generators (z. B. Jekyll) und des GitLab-Systems der HU Berlin bauen Sie Schritt für Schritt Ihre persönliche Projektwebsite auf – von der ersten Markdown-Seite über die automatische Veröffentlichung mit Continuous Integration und Delivery (CI/CD) bis hin zur nutzerfreundlichen Kurz-URL mit dem HU-URL-Shortener.
Was Sie am Ende können:
- Eigene Inhalte mit Markdown schreiben und strukturieren.
- Mit GitLab und einem Website-Template arbeiten.
- Eine statische Website veröffentlichen – ganz ohne Server oder Code.
- Die fertige Website per Kurzlink zugänglich machen.
Zielgruppe:
Angehörige der HU Berlin (insb. Geisteswissenschaften), die ein Projekt, eine Personenseite oder Forschungsergebnisse online präsentieren möchten. Es sind keine Vorkenntnisse nötig – Git-Kenntnisse sind hilfreich, aber nicht erforderlich.
Wann:
10. Juni 2025, 10.00 Uhr bis 16:00 Uhr (Einführung + betreutes Arbeiten)
11. Juni 2025: 10:00 Uhr bis 13:00 Uhr (selbstständiges Arbeiten + individuelle Vertiefung)
Wo:
tba
Voraussetzung:
Gültiger HU-Account
Anmeldung erforderlich bis zum 5. Juni unter: ub.makerspace@hu-berlin.de
EIN WORKSHOP FÜR DIE KARTIERUNG DER DIGITALEN FORSCHUNGSLANDSCHAFT IN DEN GEISTES-, KULTUR- UND SOZIALWISSENSCHAFTEN
Das Interdiziplinäre Zentrum für Digitalität und digitale Methoden baut eine Website, in der die Forschungslandschaft in den digitalen Geistes-, Kultur- und Sozialwissenschaften kartiert und visualisiert wird. Um eine solche Anwendung zu bauen, benötigen wir Eure Ideen und Wünsche, die wir in Form von User Stories und User Story Mapping in diesem Workshop der Entwicklung der Webanwendung zugrunde legen.
AN WEN SICH DER WORKSHOP RICHTET
Bist Du Forscher:in der Geistes-, Kultur- und Sozialwissenschaften, der/die digital arbeitet? Stellst Du Dir Fragen wie:
- Wo finde ich Forscher:innen die bestimmte Expertisen haben (z.B. digitale Methoden, Ethik, Recht, etc.) für mein Projekt?
- Gibt es Kolleg:innen mit einem ähnlichen Skill-Profil zu mir (z.B. Topic Modeling, NLP, RSE Bildverarbeitung, Audiodaten), mit denen ich zusammenarbeiten und mich vernetzen kann?
- Wo finde ich spanndende Projekte (z.B. Digitale Editionen, Korpora, Statistische Analyse, Visual Modeling, etc.) an der HU, an denen ich mich beteiligen kann.
- Wie kann ich mit meinen digitalen Kompetenzen sichtbarer werden?
- Mit wem kann ich zusammen die kulturellen und philosophischen Konzepte von Digitalität oder die Anwendung von digitalen Methoden in meinem Fachbereich unterrichten?
ZIEL DES WORKSHOPS
Die Teilnehmenden erarbeiten, welche Features bei der künftigen Webanwendung zur Kartierung der digitalen Forschungslandschaft an der HU vorhanden sein sollen. (User Stories)
Registrierung: iz-d2mcm.contact@hu-berlin.de bis 28. Mai 2025
PROGRAMM
| 09:00-09:30 | Digitale Skills und wo sie zu finden sind! Ein Workshop zur Kartierung der digitalen Forschungslandschaft in den Geistes-, Kultur- und Sozialwissenschaften IZ für Digitalität und Digitale Methoden am Campus Mitte + Kompetenzwerkstatt Digital Humanities |
| 09:30-10:00 | User Stories and User Mapping |
| 10:00-11:00 | Hands On Creating User Stories for defining your own Research Profile |
| 11:00-11:30 | Break |
| 11:30-12:30 | User Story Mapping for Findability of your Research Profile |
| 12:30-13:00 | Wrap up and Next Steps |
In Zusammenarbeit mit

Nach nunmehr fast drei Jahren im Gruppenarbeitsraum 3.D zieht die Kompetenzwerkstatt Digital Humanities in den ehemaligen Kopierraum im Erdgeschoss des Grimm-Zentrums. Im neuen Raum stehen ein großer Arbeitstisch mit 12 Plätzen sowie mehrere Bildschirme, zwei Terminalrechner und ein großes Whiteboard zur Verfügung. Auch Sessel und Sofa stehen bereit.
Der Raum wird von der KDH genutzt werden, um Beratungsgespräche durchzuführen, aber auch, um Workshops und Vorträge anzubieten. Wenn der Raum gerade nicht von der KDH genutzt wird, steht er den Bibliotheksnutzenden nach vorheriger Anmeldung zur Verfügung.
Die feierliche Eröffnung findet am 2. April 2025 um 11 Uhr statt mit zeremoniellem Durchschneiden eines Bands und kleinem Sektempfang. Übrigens, auch der neue Entspannungsbereich im weiteren Teil des Raumes wird an dem Tag eröffnet. Wir laden herzlich ein!
Mehrere Vorträge aus unserer „Werkzeug“-Reihe sind inzwischen als thematisch zusammenhängende Serie im AV-Portal der TIB Hannover veröffentlich. Die Videos sind mit einer eigenen DOI zitierfähig, das Portal liefert ein automatisiert erstelltes Transkript mit guter Qualität für besser Zugänglichkeit. Die Reihe wird in loser Folge fortgesetzt.
Warum wir uns für das TIB-AV-Portal entschieden haben, was alles gemacht werden musste bis die Videos online und veröffentlicht waren und wie wir das konkret (und nachnutzbar) gelöst haben? Das dokumentieren wir in einem nächsten Posting.
Der Termin entfällt und wird voraussichtlich im Sommersemester 2024 nachgeholt.
Do 01.02., 14-16 Uhr, Grimm-Zentrum, Auditorium
Topic Modeling ist eine in den digitalen Geistes- und Geschichtswissenschaften etablierte Methode zur Exploration und quantitativen Analyse umfangreicher Textkorpora. Sie ermöglicht die automatisierte Identifikation gemeinsamer Sprachgebrauchsmuster, die wie Themen, Motive oder Diskurse interpretiert werden können. Allerdings gehen mit Topic Modeling auch einige methodologische und epistemologische Herausforderungen einher. Vor diesem Hintergrund wird der Vortrag aus geschichtswissenschaftlicher und methodenkritischer Perspektive die Potenziale und Grenzen von Topic Modeling diskutieren und einen Workflow vorschlagen. Dazu wird einerseits in die Grundprinzipien der Methode eingeführt und die Entwicklungsgeschichte skizziert sowie andererseits ein Überblick über den aktuellen Entwicklungsstand gegeben. Betont wird zudem die Relevanz des Preprocessings der Textdaten sowie die kritische Beurteilung der Modellierungsergebnisse.
Melanie Althage ist wissenschaftliche Mitarbeiterin an der Professur für Digital History (Institut für Geschichtswissenschaften, Humboldt-Universität zu Berlin). In ihrem Dissertationsprojekt widmet sie sich der methodenkritischen Untersuchung der Adaptierbarkeit etablierter Textanalysemethoden der Digital Humanities und Computerwissenschaften für historische Quellen und Forschungsfragen am Beispiel der digitalen historischen Fachkommunikation. Ziel ist dabei die Etablierung einer Methodenkritik als Erweiterung der historisch-kritischen Methode der Geschichtswissenschaften.
Der Vortrag ist Teil der Reihe „Werkzeug. Zur Praxis computergestützter Forschung in den Geistes- und Kulturwissenschaften“.
Do 18.01., 14-16 Uhr, Grimm-Zentrum, Auditorium
Zitate sind ein wichtiges Indiz für intertextuelle Verhältnisse. Insbesondere direkte, wörtliche Übernahmen weisen auf Stellen hin, die so bedeutend sind, dass sie nicht in ‘eigenen Worten’ wiedergegeben werden können oder durch eigene Worte ersetzt werden sollen. In unseren Projekten zur Identifikation von “Schlüsselstellen” sowie zur (Nach-)Nutzung vorhandenen Expert*innenwissens in den Computational Literary Studies haben wir Verfahren zur Text-Reuse-Detection entwickelt, die sich insbesondere auf die bislang systematisch ungeklärte Beziehung von Quellen und wissenschaftlichen Texten konzentrieren, aber auch andere Formen von Intertextualität erfassen.
Steffen Martus ist Professor für Neuere deutsche Literatur am Institut für deutsche Literatur der Humboldt–Universität zu Berlin. Seine Forschungsschwerpunkte liegen in der Literaturgeschichte vom 18. Jahrhundert bis zur Gegenwart, in der Literaturtheorie (insbesondere Theorien des literarischen Werks) sowie der Wissenschaftstheorie und -geschichte der Geisteswissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Rober Jäschke ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Gemeinsam mit Jörn Kreutel (Berliner Hochschule für Technik) leitet er das DFG-Projekt „Forschungsplattform Literarisches Feld DDR: Autor*innen, Werke, Netzwerke“.
Robert Jäschke ist Professor für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Sein Forschungsschwerpunkt sind Verfahren (vorrangig des maschinellen Lernens) zur Verarbeitung und Analyse großer Datenmengen. Beispielsweise erforscht er im DFG-Projekt Unknown Data (2022-2025) Verfahren zum Finden und Katalogisieren von Long-Tail-Forschungsdaten der Informatik und der Sozialwissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Steffen Martus ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Robert Jäschke ist Mitbegründer des Social-Bookmarking-Dienstes BibSonomy und Gründer und Mitherausgeber des Blogs weltliteratur.net, einem „Schwarzmarkt für die Digitalen Geisteswissenschaften“.
Frederik Arnold ist akademischer Mitarbeiter am Lehrstuhl für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft. Er forscht im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies zu Schlüsselstellen in der Literatur mit Fokus auf der automatisierten Entdeckung. Er hat seinen Master in Computerlinguistik an der Universität des Saarlandes erworben.
Der Vortrag ist Teil unserer „Werkzeug“-Reihe. Infos zur Reihe: https://hu.berlin/werkzeug.
Do 15.02., 14-16 Uhr, Grimm-Zentrum, Auditorium
Texterkennung (Optical Character Recognition, OCR) ist die Technologie um aus Scans (also Bildern) von Dokumenten digitale, editierbare und durchsuchbare Volltexte zu erzeugen. Sowohl durch Digital Humanities als auch Künstliche Intelligenz steigt der Bedarf von Wissenschaft und Forschung an digitalen Texten. Jedoch ist die Texterkennung, insbesondere für historische Dokumente, noch stets eine sowohl technisch als auch organisatorisch hoch komplexe Aufgabe. Der Vortrag hat daher zum Ziel die Grundlagen, technischen Verfahren und den aktuellen Stand der Entwicklungen im Bereich der OCR vorzustellen um so einen gründlichen Überblick über die Möglichkeiten und Herausforderungen zu geben. Dabei werden neben Ursprung und Geschichte der OCR insbesondere die vielfältigen Verarbeitungsschritte in einem typischen OCR-Workflow, die besonderen Anforderungen von historischem Material sowie aktuelle Forschungsprojekte und technologische Entwicklungen im Zentrum stehen.
Clemens Neudecker arbeitet als Forscher, Projektmanager und Library Hacker an der Staatsbibliothek zu Berlin. Er ist dort unter anderem eingebunden in das umfangreiche Verbundprojekt OCR-D. Seine Arbeitsschwerpunkte sind Computer Vision, Natural Language Processing, Machine Learning & Artificial Intelligence und ihr Einsatz in den Bereichen Digitale Bibliotheken und Digital Humanities.
Der Vortrag ist Teil unserer „Werkzeug“-Reihe. Infos zur Reihe: https://hu.berlin/werkzeug.
