Termin: 27.05.2024, 10-12 Uhr
Ort: virtuell
Anmeldung: bis 26.05.2025 per Email an ub.makerspace@hu-berlin.de
eScriptorium ist eine quelloffene Plattform zur automatisierten und manuellen Transkription von handschriftlichen und gedruckten Texten – eine leistungsstarke Alternative zu proprietärer Software. Im Online-Workshop erhalten Teilnehmende eine Einführung in die Anwendung und die zentralen Funktionen von eScriptorium. Anhand praxisnaher Beispiele wird der gesamte Workflow – von der Layoutanalyse über die Transkription bis hin zum Modelltraining – gemeinsam erprobt. Ziel ist es, Wissenschaftler*innen dazu zu befähigen, eigene Digitalisate effizient mit hochwertigen Volltexten anzureichern.
Der Workshop wird durchgeführt vom Kolleg*innen des Kompetenzzentrums OCR der UB Tübingen und der UB Mannheim in Zusammenarbeit mit der Kompetenzwerkstatt Digital Humanities.

Sie möchten Ihre Forschung, Ihr Projekt oder Ihre Arbeitsgruppe sichtbar machen – ganz ohne komplexe Technik oder Programmierkenntnisse? In diesem Workshop lernen Sie, wie Sie mit GitLab Pages und einem vorgefertigten Template Ihre eigene statische Website erstellen, gestalten und online veröffentlichen. Dabei nutzen Sie – ganz praxisnah und niedrigschwellig – erprobte Werkzeuge aus der Softwareentwicklung: die webbasierte Entwicklungsplattform GitLab, Website-Erstellung mit einem Static Site Generator wie Jekyll sowie automatisierte Veröffentlichungsprozesse (CI/CD), um Ihre Inhalte professionell online zu stellen.
Inhalt und Ziele:
Anhand eines leicht verständlichen Static Site Generators (z. B. Jekyll) und des GitLab-Systems der HU Berlin bauen Sie Schritt für Schritt Ihre persönliche Projektwebsite auf – von der ersten Markdown-Seite über die automatische Veröffentlichung mit Continuous Integration und Delivery (CI/CD) bis hin zur nutzerfreundlichen Kurz-URL mit dem HU-URL-Shortener.
Was Sie am Ende können:
- Eigene Inhalte mit Markdown schreiben und strukturieren.
- Mit GitLab und einem Website-Template arbeiten.
- Eine statische Website veröffentlichen – ganz ohne Server oder Code.
- Die fertige Website per Kurzlink zugänglich machen.
Zielgruppe:
Angehörige der HU Berlin (insb. Geisteswissenschaften), die ein Projekt, eine Personenseite oder Forschungsergebnisse online präsentieren möchten. Es sind keine Vorkenntnisse nötig – Git-Kenntnisse sind hilfreich, aber nicht erforderlich.
Wann:
10. Juni 2025, 10.00 Uhr bis 16:00 Uhr (Einführung + betreutes Arbeiten)
11. Juni 2025: 10:00 Uhr bis 13:00 Uhr (selbstständiges Arbeiten + individuelle Vertiefung)
Wo:
tba
Voraussetzung:
Gültiger HU-Account
Anmeldung erforderlich bis zum 5. Juni unter: ub.makerspace@hu-berlin.de
EIN WORKSHOP FÜR DIE KARTIERUNG DER DIGITALEN FORSCHUNGSLANDSCHAFT IN DEN GEISTES-, KULTUR- UND SOZIALWISSENSCHAFTEN
Das Interdiziplinäre Zentrum für Digitalität und digitale Methoden baut eine Website, in der die Forschungslandschaft in den digitalen Geistes-, Kultur- und Sozialwissenschaften kartiert und visualisiert wird. Um eine solche Anwendung zu bauen, benötigen wir Eure Ideen und Wünsche, die wir in Form von User Stories und User Story Mapping in diesem Workshop der Entwicklung der Webanwendung zugrunde legen.
AN WEN SICH DER WORKSHOP RICHTET
Bist Du Forscher:in der Geistes-, Kultur- und Sozialwissenschaften, der/die digital arbeitet? Stellst Du Dir Fragen wie:
- Wo finde ich Forscher:innen die bestimmte Expertisen haben (z.B. digitale Methoden, Ethik, Recht, etc.) für mein Projekt?
- Gibt es Kolleg:innen mit einem ähnlichen Skill-Profil zu mir (z.B. Topic Modeling, NLP, RSE Bildverarbeitung, Audiodaten), mit denen ich zusammenarbeiten und mich vernetzen kann?
- Wo finde ich spanndende Projekte (z.B. Digitale Editionen, Korpora, Statistische Analyse, Visual Modeling, etc.) an der HU, an denen ich mich beteiligen kann.
- Wie kann ich mit meinen digitalen Kompetenzen sichtbarer werden?
- Mit wem kann ich zusammen die kulturellen und philosophischen Konzepte von Digitalität oder die Anwendung von digitalen Methoden in meinem Fachbereich unterrichten?
ZIEL DES WORKSHOPS
Die Teilnehmenden erarbeiten, welche Features bei der künftigen Webanwendung zur Kartierung der digitalen Forschungslandschaft an der HU vorhanden sein sollen. (User Stories)
Registrierung: iz-d2mcm.contact@hu-berlin.de bis 28. Mai 2025
PROGRAMM
09:00-09:30 | Digitale Skills und wo sie zu finden sind! Ein Workshop zur Kartierung der digitalen Forschungslandschaft in den Geistes-, Kultur- und Sozialwissenschaften IZ für Digitalität und Digitale Methoden am Campus Mitte + Kompetenzwerkstatt Digital Humanities |
09:30-10:00 | User Stories and User Mapping |
10:00-11:00 | Hands On Creating User Stories for defining your own Research Profile |
11:00-11:30 | Break |
11:30-12:30 | User Story Mapping for Findability of your Research Profile |
12:30-13:00 | Wrap up and Next Steps |
In Zusammenarbeit mit

Nach nunmehr fast drei Jahren im Gruppenarbeitsraum 3.D zieht die Kompetenzwerkstatt Digital Humanities in den ehemaligen Kopierraum im Erdgeschoss des Grimm-Zentrums. Im neuen Raum stehen ein großer Arbeitstisch mit 12 Plätzen sowie mehrere Bildschirme, zwei Terminalrechner und ein großes Whiteboard zur Verfügung. Auch Sessel und Sofa stehen bereit.
Der Raum wird von der KDH genutzt werden, um Beratungsgespräche durchzuführen, aber auch, um Workshops und Vorträge anzubieten. Wenn der Raum gerade nicht von der KDH genutzt wird, steht er den Bibliotheksnutzenden nach vorheriger Anmeldung zur Verfügung.
Die feierliche Eröffnung findet am 2. April 2025 um 11 Uhr statt mit zeremoniellem Durchschneiden eines Bands und kleinem Sektempfang. Übrigens, auch der neue Entspannungsbereich im weiteren Teil des Raumes wird an dem Tag eröffnet. Wir laden herzlich ein!
Mehrere Vorträge aus unserer „Werkzeug“-Reihe sind inzwischen als thematisch zusammenhängende Serie im AV-Portal der TIB Hannover veröffentlich. Die Videos sind mit einer eigenen DOI zitierfähig, das Portal liefert ein automatisiert erstelltes Transkript mit guter Qualität für besser Zugänglichkeit. Die Reihe wird in loser Folge fortgesetzt.
Warum wir uns für das TIB-AV-Portal entschieden haben, was alles gemacht werden musste bis die Videos online und veröffentlicht waren und wie wir das konkret (und nachnutzbar) gelöst haben? Das dokumentieren wir in einem nächsten Posting.
Der Termin entfällt und wird voraussichtlich im Sommersemester 2024 nachgeholt.
Do 01.02., 14-16 Uhr, Grimm-Zentrum, Auditorium
Topic Modeling ist eine in den digitalen Geistes- und Geschichtswissenschaften etablierte Methode zur Exploration und quantitativen Analyse umfangreicher Textkorpora. Sie ermöglicht die automatisierte Identifikation gemeinsamer Sprachgebrauchsmuster, die wie Themen, Motive oder Diskurse interpretiert werden können. Allerdings gehen mit Topic Modeling auch einige methodologische und epistemologische Herausforderungen einher. Vor diesem Hintergrund wird der Vortrag aus geschichtswissenschaftlicher und methodenkritischer Perspektive die Potenziale und Grenzen von Topic Modeling diskutieren und einen Workflow vorschlagen. Dazu wird einerseits in die Grundprinzipien der Methode eingeführt und die Entwicklungsgeschichte skizziert sowie andererseits ein Überblick über den aktuellen Entwicklungsstand gegeben. Betont wird zudem die Relevanz des Preprocessings der Textdaten sowie die kritische Beurteilung der Modellierungsergebnisse.
Melanie Althage ist wissenschaftliche Mitarbeiterin an der Professur für Digital History (Institut für Geschichtswissenschaften, Humboldt-Universität zu Berlin). In ihrem Dissertationsprojekt widmet sie sich der methodenkritischen Untersuchung der Adaptierbarkeit etablierter Textanalysemethoden der Digital Humanities und Computerwissenschaften für historische Quellen und Forschungsfragen am Beispiel der digitalen historischen Fachkommunikation. Ziel ist dabei die Etablierung einer Methodenkritik als Erweiterung der historisch-kritischen Methode der Geschichtswissenschaften.
Der Vortrag ist Teil der Reihe „Werkzeug. Zur Praxis computergestützter Forschung in den Geistes- und Kulturwissenschaften“.
Do 18.01., 14-16 Uhr, Grimm-Zentrum, Auditorium
Zitate sind ein wichtiges Indiz für intertextuelle Verhältnisse. Insbesondere direkte, wörtliche Übernahmen weisen auf Stellen hin, die so bedeutend sind, dass sie nicht in ‘eigenen Worten’ wiedergegeben werden können oder durch eigene Worte ersetzt werden sollen. In unseren Projekten zur Identifikation von “Schlüsselstellen” sowie zur (Nach-)Nutzung vorhandenen Expert*innenwissens in den Computational Literary Studies haben wir Verfahren zur Text-Reuse-Detection entwickelt, die sich insbesondere auf die bislang systematisch ungeklärte Beziehung von Quellen und wissenschaftlichen Texten konzentrieren, aber auch andere Formen von Intertextualität erfassen.
Steffen Martus ist Professor für Neuere deutsche Literatur am Institut für deutsche Literatur der Humboldt–Universität zu Berlin. Seine Forschungsschwerpunkte liegen in der Literaturgeschichte vom 18. Jahrhundert bis zur Gegenwart, in der Literaturtheorie (insbesondere Theorien des literarischen Werks) sowie der Wissenschaftstheorie und -geschichte der Geisteswissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Rober Jäschke ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Gemeinsam mit Jörn Kreutel (Berliner Hochschule für Technik) leitet er das DFG-Projekt „Forschungsplattform Literarisches Feld DDR: Autor*innen, Werke, Netzwerke“.
Robert Jäschke ist Professor für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Sein Forschungsschwerpunkt sind Verfahren (vorrangig des maschinellen Lernens) zur Verarbeitung und Analyse großer Datenmengen. Beispielsweise erforscht er im DFG-Projekt Unknown Data (2022-2025) Verfahren zum Finden und Katalogisieren von Long-Tail-Forschungsdaten der Informatik und der Sozialwissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Steffen Martus ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Robert Jäschke ist Mitbegründer des Social-Bookmarking-Dienstes BibSonomy und Gründer und Mitherausgeber des Blogs weltliteratur.net, einem „Schwarzmarkt für die Digitalen Geisteswissenschaften“.
Frederik Arnold ist akademischer Mitarbeiter am Lehrstuhl für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft. Er forscht im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies zu Schlüsselstellen in der Literatur mit Fokus auf der automatisierten Entdeckung. Er hat seinen Master in Computerlinguistik an der Universität des Saarlandes erworben.
Der Vortrag ist Teil unserer „Werkzeug“-Reihe. Infos zur Reihe: https://hu.berlin/werkzeug.
Do 15.02., 14-16 Uhr, Grimm-Zentrum, Auditorium
Texterkennung (Optical Character Recognition, OCR) ist die Technologie um aus Scans (also Bildern) von Dokumenten digitale, editierbare und durchsuchbare Volltexte zu erzeugen. Sowohl durch Digital Humanities als auch Künstliche Intelligenz steigt der Bedarf von Wissenschaft und Forschung an digitalen Texten. Jedoch ist die Texterkennung, insbesondere für historische Dokumente, noch stets eine sowohl technisch als auch organisatorisch hoch komplexe Aufgabe. Der Vortrag hat daher zum Ziel die Grundlagen, technischen Verfahren und den aktuellen Stand der Entwicklungen im Bereich der OCR vorzustellen um so einen gründlichen Überblick über die Möglichkeiten und Herausforderungen zu geben. Dabei werden neben Ursprung und Geschichte der OCR insbesondere die vielfältigen Verarbeitungsschritte in einem typischen OCR-Workflow, die besonderen Anforderungen von historischem Material sowie aktuelle Forschungsprojekte und technologische Entwicklungen im Zentrum stehen.
Clemens Neudecker arbeitet als Forscher, Projektmanager und Library Hacker an der Staatsbibliothek zu Berlin. Er ist dort unter anderem eingebunden in das umfangreiche Verbundprojekt OCR-D. Seine Arbeitsschwerpunkte sind Computer Vision, Natural Language Processing, Machine Learning & Artificial Intelligence und ihr Einsatz in den Bereichen Digitale Bibliotheken und Digital Humanities.
Der Vortrag ist Teil unserer „Werkzeug“-Reihe. Infos zur Reihe: https://hu.berlin/werkzeug.

Mi 20.12., 14-16 Uhr, Grimm-Zentrum, Auditorium
Vortrag und Gespräch auf englisch.
This talk is about the science of visualizing networks. Although the field of graph drawing, as we call it, has no shortage of theoretical contributions, those have always followed practices; and with a sensible delay. Mathieu Jacomy, co-founder of the network visualization tool Gephi, will sketch the double story of the craftsmanship and the academic evaluation of representing networks as dots and lines, from Jacob Moreno’s sociograms, to Peter Eades‘ first force-driven layout algorithms, to Helen Purchase’s aesthetic criteria, and finally to the data deluge and the availability of large complex networks, paving the way to network science. This story will show how practices shape cultures in ways that escape the control of academics, at once bad and good, uninformed yet innovative, unjustified yet meaningful. Reading a large complex network is not the same as a small diagram, and the talk will provide illustrations of the ideas that had to be left behind to properly frame graph drawing as a mediation driven by technology. Which will also help you read large network maps properly.
Mathieu Jacomy is Doctor of Techno-Anthropology and assistant professor at the Aalborg University Tantlab, and MASSHINE center. He was a research engineer for 10 years at the Sciences Po médialab in Paris, and is a co-founder of Gephi, a popular network visualization tool. He develops digital instruments involving data visualization and network analysis for the social science and humanities. His current research focuses on visual network analysis, digital controversy mapping, and computational social science. He toots at @jacomyma@mas.to and blogs at reticular.hypotheses.org.
Der Vortrag ist Teil der Reihe „Werkzeug. Zur Praxis computergestützter Forschung in den Geistes- und Kulturwissenschaften“. Weitere Termine der Reihe: https://hu.berlin/werkzeug.
Bild oben: Netzwerk mit 1000 Knoten und sichtbaren Clustern, mit Gephi erstellt. Martin Grandjean, CC BY-SA 4.0 https://creativecommons.org/licenses/by-sa/4.0, via Wikimedia Commons, https://commons.wikimedia.org/wiki/File:Social_Network_Visualization.png.