}

9:15 – 10:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H3

V4_1: Digitale Filmwissenschaft

Chair: N. N.

Der Einsatz von Computer Vision-Methoden für Filme: Eine Fallanalyse für die Kriminalfilm-Reihe Tatort | Thomas Schmidt, Sarah Kurek*

Thomas Schmidt, Sarah Kurek

Wir präsentieren eine explorative Studie im Bereich Computer Vision (CV) und Filmanalyse. Als Fallbeispiel wird die berühmte Kriminalfilm-Reihe „Tatort“ gewählt. Im Fokus stehen dabei gruppenbasierte Vergleiche zwischen den Filmen von 4 ErmittlerInnen-Teams/Städten. Als CV-Methoden werden state-of-the-art-Modelle der Objekt-, Alters-, Geschlechts- Emotions- und Ortserkennung auf Frames eines Korpus bestehend aus 13 Filmen exploriert. Die Ergebnisse zeigen, dass die Serie in den Folgen des ausgewählten Korpus eher in Innenräumen spielt, Trauer und Neutralität die häufigsten Emotionsausdrücke sind und in der Mehrzahl männliche Figuren die Frames dominieren. Obschon signifikante Unterschiede zwischen den ErmittlerInnen-Teams/Städten bestehen, sind diese gemäß Post-Hoc-Tests eher gering. Wir berichten über unsere Erfahrungen mit den ausgewählten Methoden, die Probleme mit speziellen Charakteristiken von Filmen haben und schließen mit dem Ziel in größeren Annotationsstudien Trainingsmaterial zur Optimierung von CV-Methoden zu sammeln.

AdA Annotation Explorer: Ein Framework für zeitbasierte Linked Open Data-Annotationen zur Analyse audiovisueller Korpora | Henning Agt-Rickauer*, Thomas Scherer*, Jasper Stratil*

Henning Agt-Rickauer, Thomas Scherer, Jasper Stratil

Die Verbindung geisteswissenschaftlicher ästhetischer Theorien mit Techniken der Datengewinnung, -haltung, -verarbeitung und -aufbereitung ist eine genuine Herausforderung der Digital Humanities, die sich mit Blick auf Analyseframeworks für zeitbasierte performative Künste stellt. Anhand des AdA Annotation Explorers, einem webbasierten Explorationstool für zeitbasierte Linked Open Data-Annotationen zur Analyse audiovisueller Korpora wird ein Umgang mit dieser Herausforderung dargelegt und diskutiert. Entlang der Schlüsselaspekte Synchronizität, Prozessualität und Komparabilität werden im Zuge dessen drei grundlegende Anforderungen identifiziert und in ihrer technischen Umsetzung erläutert. Bei der Realisierung stand einerseits im Fokus, alle im Projekt entstandenen Daten (125.000 manuell und 440.000 automatisch generierte Annotationen) zur freien Nutzung und Weiterverwendung zu veröffentlichen und andererseits die Anforderungen aus der korpusübergreifenden Filmanalyse umzusetzen, um Annotationsdaten gezielt nach bestimmten Kriterien abzufragen, zu filtern und die Ergebnisse kontextabhängig zu visualisieren.

Empirische Aufmerksamkeitseffekte multimodaler Kohäsion im Film | Jochen Laubrock*, Chiao-I Tseng

Jochen Laubrock, Chiao-I Tseng

Wir kombinieren die Diskursmethode multimodaler Kohäsion mit empirischen Daten zu Aufmerksamkeit und narrativem Verstehens. Multimodale Kohäsion bezieht systematisch die in auditiver, visueller und verbaler Modalität auftretenden Ereignisse auf modalitätsübergreifende Diskursstrukturen. Wir nutzen diese Diskursstrukturen, um daraus theoriegeleitet empirisch prüfbare Vorhersagen abzuleiten. Wir überprüfen mit Blickbewegungsexperimenten und Fragebogenstudien, wie kohäsive Hinweise Aufmerksamkeit und das Verständnis des Narrativs beeinflussen. Konkret haben wir mit Videobearbeitungssoftware kritische kohäsive Hinweisreize z.B. aus der Eingangsszene von Hitchcock’s „The Birds“ entfernt und mittels Eyetracking die Aufmerksamkeitsverteilung von insgesamt 114 Betrachtern gemessen. Unterschiedliche Gruppen von Probanden sahen Originale und manipulierte Versionen. Die kritischen kohäsiven Hinweisreize wurden im Original deutlich häufiger betrachtet als äquivalente Orte in der manipulierten Version. Also werden kohäsive Hinweise im Normalfall tatsächlich beachtet. Die Effekte kohäsiver Hinweise wirken nach: In einer anschließenden, für beide Versionen identischen Szene zeigten Betrachter ohne narrative Hinweise ein deutlich diffuseres Orientierungsverhalten. Narrative Elemente im Film lenken die Aufmerksamkeit des Betrachters.

}

9:15 – 10:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H4

Panel 4: Digitale Archive für Literatur

Anna Busch, Bernhard Fetz, Marcel Lepper, Sandra Richter, Peer Trilcke, Irmgard Wirtz Eybl

Digitale Archive für Literatur

Anna Busch, Bernhard Fetz, Marcel Lepper, Sandra Richter, Peer Trilcke, Irmgard Wirtz Eybl

Literaturarchive stehen durch die Digitalisierung vor einer Vielzahl an Herausforderungen: Begriff, Praxis und Materialität des Literaturarchivs befinden sich in einem Transformationsprozess, der Thema dieses Panels unter dem Titel „Digitale Archive für Literatur“ ist. Die Reflexion dieses Prozesses muss dabei die Einzelinstitutionen notwendig überschreiten, gerade dort, wo es gemeinsame Praktiken, Routinen, Standards und Infrastrukturen zu entwickeln gilt. Das Panel greift diesen Bedarf durch seinen internationalen und interinstitutionellen Ansatz und die Besetzung mit  VertreterInnen aus den bedeutenden Literaturarchiv aus dem DACH-Raum auf: Bernhard Fetz (Literaturarchiv und Literaturmuseum der Österreichische Nationalbibliothek, Wien), Marcel Lepper (Goethe- und Schiller-Archiv Weimar), Sandra Richter (Deutsches Literaturarchiv Marbach) und Irmgard Wirtz Eybl (Schweizerisches Literaturarchiv, Bern). Organisiert und moderiert wird das Panel durch Anna Busch und Peer Trilcke (Theodor-Fontane-Archiv, Potsdam).

}

9:15 – 10:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H5

V4_2: Digitale Kunstgeschichte

Chair: N. N.

iART: Eine Suchmaschine zur Unterstützung von bildorientierten Forschungsprozessen | Stefanie Schneider*, Matthias Springstein, Javad Rahnama, Hubertus Kohle, Ralph Ewerth, Eyke Hüllermeier

Stefanie Schneider, Matthias Springstein, Javad Rahnama, Hubertus Kohle, Ralph Ewerth, Eyke Hüllermeier

Mit iART wird eine offene Web-Plattform zur Suche in kunst- und kulturwissenschaftlichen Bildinventaren präsentiert, die von in den Geistes­wissenschaften etablierten Methoden wie dem Vergleichenden Sehen inspiriert ist. Das System integriert verschiedene maschinelle Lerntechniken für das schlagwort- und inhaltsgesteuerte Retrieval sowie die Kategorienbildung über Clustering. Mithilfe eines multimodalen Deep-Learning-Ansatzes ist es zudem möglich, text- und bildbasiert nach Konzepten zu suchen, die von trainierten Klassifikationsmodellen zuvor nicht erkannt wurden. Unterstützt von einer intuitiven Benutzeroberfläche, die die Untersuchung der Ergebnisse durch modifizierbare Objektansichten erlaubt, können Nutzer:innen circa eine Millionen Objekte aus kunsthistorisch relevanten Bilddatenbanken, etwa des niederländischen Rijksmuseums, explorieren. Ebenso können eigene Bestände importiert werden.

„Wertlose“ Taggings und ihr Nutzen für die Kunstgeschichte | Panoria Poetis*, Emilia Radmacher*, Katharina Smiatek*, Stefanie Schneider

Panoria Poetis, Emilia Radmacher, Katharina Smiatek, Stefanie Schneider

Der Datensatz des Game with a Purpose ARTigo umfasst ein reiches Schlagwortrepertoire, das im Rahmen der Spielpraxis gesammelt wurde und Kunstobjekte inhaltlich, stilistisch und konnotativ beschreibt. Die Auswertung dieser Daten eröffnet die Möglichkeit einer kunsthistorischen Evaluation und Interpretation: Bei der Datenbereinigung werden in der Regel Informationen herausgefiltert, die als nutzlos oder inkorrekt kategorisiert werden. Doch tragen nicht auch diese „wertlosen“ Schlagwörter empirische Bedeutung in sich? Unsere Analyse belegt, dass Verwechslungen von Künstler:innennamen nicht willkürlich geschehen, sondern auf evidente Ähnlichkeiten in der Arbeitsweise und biografische Korrelationen der jeweiligen Künster:innen zurückzuführen sind. Für die Kunstgeschichte bedeutet dies, dass durch die „Weisheit der Vielen“ historisch bedeutsame Wechselbeziehungen offengelegt werden können, auch wenn die Spieler:innen keine Expert:innen des Faches sind.

Digitale Kontextualisierung und Visualisierung der Quellen-Trias Bild-Text-Realia zu historischer Kleidung, ihrer Ausformung, Zeichenhaftigkeit und Dreidimensionalität | Sabine de Günther*, Linda Freyberg*

Sabine de Günther, Linda Freyberg

Kleidung, Tracht und Mode kommunizieren die Vorstellung des Trägers von Schönheit, Status, Körper, Form, sozialer Hierarchie und religiöser Zugehörigkeit, kurz: die Identität des Trägers. Die Informationen in den historischen Quellen zur Kleidung, in bildlichen Darstellungen, beschreibenden Texten und textilen Artefakten, werden in dem interdisziplinären Forschungs- und Digitalisierungsprojekt „Restaging Fashion. Digitale Kontextualisierung vestimentärer Quellen“ (UCLAB, Fachhochschule Potsdam) interpretiert und kontextualisiert. Eine tiefe inhaltlche Erschließung, sowie im Projekt angefertigte Digitalisate bilden dafür die Datenbasis. Ein besonderer Schwerpunkt wird zum einen auf der prototypischen 3D-Digitalisierung historischer Kleidung liegen. Zum Anderen wird die Datenvisualisierung als epistemisches Werkzeug sowohl im Prozess der Erfassung genutzt als auch für die Sammlungspräsentation im Web eingesetzt.

}

9:15 – 10:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H2

V4_3: Forschungssoftware in den Humanities

Chair: N. N.

Softwarezitation als Technik der Wissenschaftskultur: vom Umgang mit Forschungssoftware in den Digital Humanities | Ulrike Henny-Krahmer*, Daniel Jettka*

Ulrike Henny-Krahmer, Daniel Jettka

Mit diesem Beitrag wird anhand einer Analyse der DHd-Konferenzabstracts der Jahrgänge 2016 bis 2020 untersucht, wie Forschungssoftware in den Digital Humanities zitiert wird. Zunächst wird erläutert, welche Relevanz Softwarezitation für die Anerkennung und Nachhaltigkeit von Forschungssoftware in den Digital Humanities hat. Im Anschluss werden bestehende Empfehlungen für Softwarezitation ausgewertet, um Bestandteile von Zitationen zu identifizieren, zu denen Informationen erhoben werden können. Ausgehend von den Abstractbänden der DHd-Konferenz wird eine Liste der in den Abstracts erwähnten Software generiert. Für eine Auswahl der so gefundenen Software wird geprüft, auf welche Weise sie zitiert wird und welche Informationen mit den Zitaten gegeben oder weggelassen werden.

Das Ziel der Analyse ist eine Bestandsaufnahme der Praxis der Softwarezitation in den Digital Humanities. Damit soll das Thema der Zitation von Forschungssoftware in den Digital Humanities in den Fokus gerückt werden, um eine Verbesserung der bestehenden Praxis zu fördern.

Executable Papers in den Computational Humanities | Niels-Oliver Walkowski*, Manuel Burghardt

Niels-Oliver Walkowski, Manuel Burghardt

Der Vortrag untersucht die Potenziale und Herausforderungen von Executable Papers als Publikationsformat für geisteswissenschaftliche Forschungsergebnisse. Er stellt das Konzept der Executable Papers als bisher weitgehendste Realisierung der Idee des Literate Programmings von Donald Knuth vor und diskutiert, warum die dieser Idee zu Grunde liegende Verschmelzung von Code und Narration gerade für die Wissenschaftskommunikation in den Geisteswissenschaften einen großen Mehrwert haben kann. Den Potenzialen entgegen stehen eine Reihe technischer und sozio-kultureller Problemstellungen wie z. B. eine unzureichende Infrastruktur, ungenügende Reviewkriterien, unklare Publikationsworkflows oder die Rechtfertigbarkeit des Nutzens vor dem Hintergrund eines erheblich größeren Publikationsaufwands und des ökologischen Fußabdrucks. Diese und andere Aspekte wird der Vortrag an Hand von konkreter Executable Papers diskutieren, die im Zuge des vDHd 2021 Bandes bei Melusina Press veröffentlicht wurden. Die Auswertung der gemachten Erfahrungen soll einen Beitrag für die Weiterentwicklung des Formats sowie für die Etablierung von Best-Practices für seine Realisierung liefern.

Nachhaltige Softwareentwicklung – von der Inhouse-Lösung zur Open Source-Community am Beispiel von MerMEId | Ulrike Henny-Krahmer, Peter Stadler*

Ulrike Henny-Krahmer, Peter Stadler

Die nachhaltige Entwicklung von Forschungssoftware ist eine der zentralen Herausforderungen in den Digital Humanities. Während Praktiken der Überlieferung und Sicherung von Forschungsdaten schon einen gewissen Reifegrad erreicht haben, steckt die Kultur der Entwicklung eines digitalen Gedächtnisses in Bezug auf Software noch in den Anfängen. In diesem Beitrag werden bestehende Vorschläge für Nachhaltigkeitskriterien am Beispiel der Software MerMEId, einem Editor für Metadaten musikwissenschaftlicher Editionen, diskutiert. Dabei wird insbesondere die Entwicklungsgeschichte von MerMEId von einer In-House-Lösung zu einem Open Source Community-Projekt in den Blick genommen. Es zeigt sich, dass die positiven Effekte des Übergangs zu einer Community-Entwicklung von bestehenden Kriterien nur begrenzt erfasst werden. Auch sind manche Kriterien nur bedingt für eine DH-Software mit einer eher kleinen Nutzer*innenbasis und Community geeignet. Eine weitere Reflexion über Kriterien für nachhaltige Softwareentwicklung in den DH sowie eine regelmäßige Beurteilung der Nachhaltigkeit einzelner Software-Projekte bleiben daher unerlässlich.

}

10:45 – 11:15

Universität Potsdam

Campus Griebnitzsee,
Foyer

Kaffeepause

}

11:15 – 12:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H3

V5_1: Dramenanalyse

Chair: N. N.

Dramatische Metadaten – Die Datenbank deutschsprachiger Einakter 1740–1850 | Dîlan Canan Çakir*, Frank Fischer

Dîlan Canan Çakir, Frank Fischer

Die Einakterdatenbank stellt Metadaten zu den zwischen 1740 und 1850 veröffentlichten deutschsprachigen Einakter zur Verfügung und bereitet sie für die literaturwissenschaftliche Forschung auf.

Nathan nicht ihr Vater? – Wissensvermittlungen im Drama annotieren | Melanie Andresen*, Benjamin Krautter, Janis Pagel, Nils Reiter

Melanie Andresen, Benjamin Krautter, Janis Pagel, Nils Reiter

Die quantitative Dramenanalyse hat sich lange Zeit auf formale Merkmale der Textoberfläche konzentriert. Das Projekt Q:TRACK widmet sich einer stärker inhaltlich fokussierten Erschließung von Dramen, genauer Prozessen der Vermittlung von Wissen über Familienrelationen der Figuren. Das (fehlende) Wissen über Verwandtschaftsverhältnisse ist für zahlreiche deutschsprachige Dramen des 18. und 19. Jahrhunderts entscheidendes Element der Handlung, sodass sich eine systematische Untersuchung aufdrängt.

In diesem Beitrag gehen wir zunächst auf die Bedeutung von Wissen und Wissensvermittlungen für die Handlung wie auch die Wirkung von Dramen ein. Anschließend beschreiben wir, wie solche Prozesse der Wissensvermittlung in Annotationen erfasst und modelliert werden können. Am Beispiel von Gotthold Ephraim Lessings hochkanonischem Drama Nathan der Weise (1779) zeigen wir, wie sich die Analyse eines Dramas auf diese Annotationen aufbauen lässt. Im Fazit blicken wir auf Perspektiven für die Automatisierung und die quantitative Analyse größerer Dramenbestände.

Evaluation computergestützter Verfahren der Emotionsklassifikation für deutschsprachige Dramen um 1800 | Thomas Schmidt*, Katrin Dennerlein, Christian Wolff

Thomas Schmidt, Katrin Dennerlein, Christian Wolff

Wir präsentieren die Ergebnisse einer Evaluationsstudie zum Einsatz unterschiedlicher Verfahren des maschinellen Lernens für die Emotionsklassifikation auf historischen deutschen Dramen um 1800. Der Fokus liegt dabei auf Transformer-basierten Sprachmodellen wie BERT und ELECTRA vortrainiert auf zeitgenössischer und historischer Sprache. Als Gold Standard werden 5 Dramen des genannten Zeitraums bezüglich mehrerer Emotionskategorien annotiert. Die Evaluationsergebnisse zeigen, dass Transformer-basierte Modelle bessere Erkennungsraten erreichen als Baseline-Methoden wie lexikonbasierte Verfahren, bag-of-words-Ansätze oder statische Sprachmodelle. Für die Klassifikation der Polarität (positiv/negativ) wird eine Erkennungsrate von 83% erreicht. Die Erkennungsrate wird jedoch mit zunehmender Emotionszahl geringer. Historische Domänenadaption führt selten zu geringfügigen Verbesserungen in unserem Setting. Die besten Modelle sind hingegen die größten Sprachmodelle trainiert auf zeitgenössischer Sprache. Wir diskutieren unsere Ergebnisse und Impulse für die weitere Verbesserung.

}

11:15 – 12:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H4

Panel 5: Daten im Raum – Visualisierungen und Physikalisierungen im Medium Ausstellung

Isabelle Bentz, Heike Gfrereis, Vera Hildenbrandt, Eva Mayr, Eva Offenberg, Eva Tropper, Florian Windhager

Daten im Raum - Visualisierungen und Physikalisierungen im Medium Ausstellung

Isabelle Bentz, Heike Gfrereis, Vera Hildenbrandt, Eva Mayr, Eva Offenberg, Eva Tropper, Florian Windhager

In einer Gesellschaft, die in allen Feldern immer größere Datenmengen produziert, gewinnen Visualisierungen an Bedeutung – auch in Ausstellungen und Museen. Bildstatistiken, Zeitstrahlen, Karten oder Graphen ermöglichen die Darstellung komplexer Sachverhalte, die über Objekte allein nicht erzählt werden können. Das Spektrum der Formate in Museen reicht dabei von Informationsgrafiken, über interaktive Visualisierungen auf mobilen oder lokalen Screens, bis hin zu den raumgreifenden Anordnungen der “Datenphysikalisierung”, die sich nicht selten in Ausstellungen wiederfinden welche sich vom Originalobjekt ganz verabschiedet haben und Inhalte nur mehr über Informationsdesign erzählen. Gemeinsam mit Kuratorinnen, Informationsdesignerinnen und Kognitionswissenschafterinnen sondiert das Panel den gegenwärtigen Einsatz von Datenphysikalisierungen in unterschiedlichen Museumssparten und fragt, welche Möglichkeiten Ausstellungen haben, mit „Daten im Raum“ zu arbeiten. Was sind aktuelle Trends im Feld der Ausstellungsszenographie? Wie ist das Verhältnis zwischen zwei- und dreidimensionalen Visualisierungen? Welche Repräsentationen eignen sich für welche Besucher*innen und wie konsolidieren wir den methodologischen und gestalterischen Diskurs?

}

11:15 – 12:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H5

V5_2: Zukünfte des digitalen Kulturerbes

Chair: N. N.

Die Aktualität des Unzeitgemäßen | Michael Krewet*, Felix Ernst, Germaine Götzelmann, Philipp Hegel, Torsten Schenk, Sibylle Söring, Danah Tonne

Michael Krewet, Felix Ernst, Germaine Götzelmann, Philipp Hegel, Torsten Schenk, Sibylle Söring, Danah Tonne

Der Vortrag rückt die neuen Forschungspraktiken und -möglichkeiten, die sich mit der Digitalisierung jenes Bereichs des kulturellen Gedächtnisses, den das Berliner Aristotelesarchiv bewahrt, in den Fokus. Dabei soll sich zeigen, dass auch ein Rückgriff auf ein nicht mehr zeitgemäß scheinendes Medium wie den Mikrofilm Optionen bereithält, digitale Verfahren anzuschließen. Als Grundlage und Umsetzung digitaler Forschung an Archivalien werden infrastrukturelle Komponenten, die Zugriff und Durchsuchbarkeit gewährleisten, mit forschungsnahen Werkzeugen verzahnt, die wissenschaftlichen und technischen Austausch sowie Nachnutzbarkeit der entstehenden FAIRen Forschungsdaten ermöglichen. Der Vortrag gibt Einblicke, wie man ein weltweit bedeutendes Archiv zukunftsgerichtet für digital gestützte Forschungen aufstellen und damit eine auch digital herausragende Forschungslandschaft konstituieren kann.

The Digital Archive and the Politics of Digitization | Gerben Zaagsma*

Gerben Zaagsma

In this paper I will discuss key parameters of the politics of digitisation within a broader historical and global context with the aim to encourage further debate on its implications for historical research. In the first part, I will outline the global dimensions of the politics of digital cultural heritage with a particular focus on developments within and between Europe and Africa, framed within the broader context of the politics of heritage and its preservation and recent debates about ‘postcolonial digital humanities’. In the second part, I will discuss the history and current state of digitisation in Europe and Africa. Here I will partly draw upon the web archive of the IFLA/Unesco Directory of Digitised Library Collections (2002-2006) and recent global and European digitisation surveys. The paper will conclude by highlighting the paradoxical situation we currently face with regard to digitisation and the state of ‘memory’ in both the global North and South.

What's in a name? Die Rolle der Sprache zur Kultivierung von inklusiven Zugängen zu Kulturerbe | Nicole High-Steskal*

Nicole High-Steskal

Die Diskussionen zum Umgang mit Kulturerbe und der Zugänglichkeit von Kulturdaten haben zuletzt durch postkoloniale Ansätze wieder an Bedeutung gewonnen. In der Literatur wurde bislang auf drei Faktoren hingewiesen, die Inklusion und Teilhabe an digitalen Projekten aus unterrepräsentierten Regionen beeinflussen können: 1. Sprache, 2. Netzwerke, 3. IT-Grundausstattung. Am Beispiel von Toponymen, die Monumente in der Kulturerbestätte Ephesos (Türkei) bezeichnen, wird gezeigt, dass die Aufarbeitung multilingualer Begriffe die Interoperabilität von Daten fördert und gleichzeitig inklusive Zugänge zu Kulturdaten schafft. Multilinguale (Norm-)Datensätze minimieren Sprachhürden und unterstützen die Netzwerkbildung und Auffindbarkeit von Daten über Sprachgrenzen hinweg. Um den technologischen Zugang zu erleichtern hat sich das Projekt für den Einsatz von Wikidata entschieden, wodurch gewährleistet wird, dass die multilingualen Daten leicht zu finden sind und auch problemlos ergänzt werden können. Es hat sich gezeigt, dass speziell die Dokumentation von Kulturerbe dadurch besser zugänglich gemacht und zur inklusiven und interkulturellen Zusammenarbeit eingesetzt werden kann.

}

11:15 – 12:45

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H2

V5_3: Digitales Edieren

Chair: N. N.

Best of Both Worlds: Zur Kombination algorithmischer und manueller Verfahren bei der Erschließung großer Handschriftenkorpora | Julia Nantke*, Sandra Bläß, Marie Flueh, David Maus*

Julia Nantke, Sandra Bläß, Marie Flueh, David Maus

In diesem Beitrag stellen wir den im Rahmen des Editions- und Forschungsprojekts Dehmel digital entwickelten Workflow zur computergestützten Erschließung großer Textkorpora vor. Es geht uns darum zu zeigen, wie algorithmische und manuelle Verfahren fruchtbar kombiniert werden können, um neue Wege der editorischen Präsentation zu ermöglichen. Digitale Verfahren der materiellen und inhaltlichen Erschließung sowie der Visualisierung und Vernetzung auf einem Webportal werden genutzt, um anstelle einzelner Autor:innen die in einem großen Briefkorpus materialisierten Netzwerke als Repräsentanten eines kollektiven Gedächtnisses in den Fokus zu rücken.

Handwritten Text Recognition und Word Mover’s Distance als Grundlagen der digitalen Edition “Die Kindheit Jesu Konrads von Fußesbrunnen” | Stefan Tomasek*, Christian Reul*, Maximilian Wehner*

Stefan TomasekChristian Reul, Maximilian Wehner

Zur Zeit entsteht an der JMU Würzburg in einem Kooperationsprojekt zwischen dem Lehrstuhl für ältere deutsche Philologie und dem Zentrum für Philologie und Digitalität ein HTR-Projekt (Handwritten Text Recognition) zur Erfassung mittelhochdeutscher (mhd.) und frühneuhochdeutscher (frnhd.) Handschriften (Hss.) des 11.-15. Jh.s. Das Würzburger HTR-Projekt ist verzahnt mit dem digitalen Editionsprojekt der „Kindheit Jesu Konrads von Fußesbrunnen“ (KJ). Im Editionsprojekt wird die vollständige Überlieferungssituation des Textes synoptisch abgebildet. Um diese Synopse lesbar zu halten, soll mit Hilfe von Levenshtein-Distanzen (LevD) und einem Word-Embedding-Verfahren ein Filtersystem ermöglicht werden, mit dem die Genauigkeit des Anzeigemodus’ von den BenutzerInnen der Edition selbst festgelegt werden kann.

Dokument, Transkription, Forschungsdatum: Technische und kulturelle Überlegungen für interdisziplinäre Transkriptionspraxis | Konstantin Baierer*, Matthias Boenig, Elisabeth Engl, Mareen Geestmann, Lena Hinrichsen*, Clemens Neudecker, Paul Pestov, Michelle Weidling

Konstantin Baierer, Matthias Boenig, Elisabeth Engl, Mareen Geestmann, Lena Hinrichsen, Clemens Neudecker, Paul Pestov, Michelle Weidling

Wir plädieren für einen interdisziplinären Austausch, um die Transkriptionspraxis weiterzuentwickeln, sodass sie den Anforderungen verschiedener Disziplinen gerecht wird. Dazu gehen wir auf die Geschichte der Transkription als Technik ein und übertragen kulturelle sowie technische Aspekte auf digitale Methoden. Ein besonderes Augenmerk liegt auf Standards, die bei der maschinellen Verarbeitung essenziell sind und die Konventionen der analogen Transkription weiterführen. Wie eine Transkription automatisiert werden kann und welche Herausforderungen dabei bestehen, wird umrissen und es werden konkrete Empfehlungen ausgesprochen, wie sowohl bei manueller als auch bei automatischer Transkription Nachnutzbarkeit, Genauigkeit und Konsistenz sichergestellt werden können. Dabei betonen wir die Wertschätzung der Transkriptionsarbeit und wollen eine interdisziplinäre Diskussion um Konventionen und Standards anstoßen.

}

12:45 – 13:15

Universität Potsdam

Campus Griebnitzsee,
Seminarraum

Chorprobe

Chorleiter: Torsten Roeder

Raum x

}

12:45 – 14:00

Universität Potsdam

Campus Griebnitzsee,
Mensa

Mittagessen

}

13:30 – 14:30

Universität Potsdam

Campus Griebnitzsee,
diverse, s. AG

AG-Treffen 1

AG Digital Humanities Theorie

Raum S17

AG Datenzentren

Raum S18

AG Multilingual DH

Raum S26

AG Film und Video

Raum S27

}

14:30 – 15:30

Universität Potsdam

Campus Griebnitzsee,
diverse, s. AG

AG-Treffen 2

AK Digitale Kunstgeschichte

Raum S17

AG Empowerment

Raum S18

AG Greening DH

Raum S19

AG Referenzcurriculum Digital Humanities

Raum S26

AG OCR

Raum S27

}

15:30 – 16:00

Universität Potsdam

Campus Griebnitzsee,
Foyer

Kaffeepause

}

16:00 – 17:00

Universität Potsdam

Campus Griebnitzsee,
Hörsaal H3

Poster Slam

Moderation: N. N.

Slam 1
}

17:00 – 19:00

Universität Potsdam

Campus Griebnitzsee,
Foyer

Postersession

Studying the ephemeral, cultures of digital oblivion | Michael Achmann*, Lisa Hampel, Ruslan Asabidi, Christian Wolff

Michael Achmann, Lisa Hampel, Ruslan Asabidi, Christian Wolff

In diesem Beitrag stellen wir unsere Work-In-Progress Social-Media-Studie zu Instagram-Stories während der Bundestagswahl 2021 vor. Da es wenig Daten zu den Inhalten und Elementen der Stories gibt haben wir ein Annotationstool entwickelt, mit dem durch Crowdsourcing Stories auf privaten Profilen und denen von Influencern annotiert und beschrieben werden können. Zusätzlich wurden die Stories politischer Parteien und derer Spitzenkandidat*innen automatisiert gesammelt und teilautomatisiert annotiert. Die beiden Korpora werden im weiteren Verlauf miteinander verglichen um zunächst auf einer Metaebene unterschiede und parallelen der Story-Nutzung zwischen Privatpersonen und politischer Akteure sowie Influencern zu erfassen. Als Nebeneffekt erhalten wir ein Korpus das es entgegen der vorhandenen Literatur zum ersten Mal erlaubt quantitative Aussagen zu Instagram-Stories machen kann: Welche Elemente und Medien werden genutzt, welche Inhalte geteilt.

Digitalisierte Ego-Dokumente als Quellen für die historische Forschung | Katarzyna Adamczak*, Arnošt Štanzel*

Katarzyna Adamczak, Arnošt Štanzel

Die Bayerische Staatsbibliothek ist im Besitz tausender gedruckter Tagebücher, Autobiographien und Memoiren, aber auch Fotografien und Filmen. Neuerdings publiziert sie im Rahmen eines Projektes des Fachinformationsdienstes Ost-, Ostmittel- und Südosteuropa bislang unveröffentlichte Selbstzeugnisse digital. Der Publikationsdienst steht wissenschaftlichen Institutionen und auch Privatpersonen offen und umfasst Materialien mit Bezug zum östlichen und südöstlichen Europa, die Quellencharakter haben und in Deutschland vorliegen, aber durch kommerzielle Verlage nicht veröffentlicht werden.

Das Poster fokussiert zwei Aspekte der digitalen Bereitstellung von Ego-Dokumenten: Erstens die digitale Transformation unveröffentlichter Selbstzeugnisse, beginnend mit deren Anwerbung und Auswahl über die Klärung von Rechtsfragen bis hin zu Digitalisierung, Katalogisierung, Langzeitarchivierung und Online-Bereitstellung; zweitens die Verwendung von digitalisierten Ego-Dokumenten in Forschung und Lehre und der daraus resultierenden Kooperationsmöglichkeiten zwischen Privatpersonen, Forschungsinstituten, Universitäten und Bibliotheken.

Linked Open Tafsir – Rekonstruktion der Entstehungsdynamik(en) des Korans mithilfe der Netzwerkmodellierung früher islamischer Überlieferungen | Sajawel Ahmed*, Misbahur Rehman, Joshua Tischlik, Carl-Sven Kruse, Edin Mahmutovic, Ömer Özsoy

Sajawel Ahmed, Misbahur Rehman, Joshua Tischlik, Carl-Sven Kruse, Edin Mahmutovic, Ömer Özsoy

Das Projekt „Linked Open Tafsir“ hat die Erstellung einer online abrufbaren Datenbank früher exegetischer Überlieferungsmaterialien auf Basis des Kommentarwerks von At-Tabari zum Ziel. Sein Werk „Tafsir At-Tabari“ kann nach heutigem Kenntnisstand als Sammlung des Großteils aller zu Anfang des 10. Jahrhunderts vorliegenden exegetisch relevanten Überlieferungen gelten. In der Datenbank werden die in diesen Überlieferungen enthaltenen Informationen zu historischen Begebenheiten zur Offenbarungszeit sowie den kulturellen, religiösen, sozialen und sprachlichen Rahmenbedingungen der Koranentstehung erfasst. Für die Erfassung der Informationen werden mit Hilfe von KI Daten und Programme insbesondere für das „Named-Entity-Recognition“ entwickelt, die den Erfassungsprozess signifikant beschleunigen. Die Datenbank wird insofern „offen“ sein, als dass zu einem späteren Zeitpunkt weitere exegetische Kompilationen sowie frühere Überlieferungswerke hinzugefügt werden können. Weiterhin werden die beteiligten WissenschaftlerInnen diese digitale Zugänge in ihren Forschungsprojekten im Hinblick auf das Islamische Recht, die Systematische Theologie, die Hadithwissenschaft, die Tafsirgeschichte, die Religionspädagogik und dem ML für klassische arabische Literatur reflektieren.

Referenzierung des digitalen kulturellen (Text-)Erbes. Digitale Quellenkritik und Modellierung von Metadaten | Melanie Althage, Malte Dreyer, Rolf Guescini, Torsten Hiltmann, Anke Lüdeling, Carolin Odebrecht*

Melanie Althage, Malte Dreyer, Rolf Guescini, Torsten Hiltmann, Anke Lüdeling, Carolin Odebrecht

Historische Textdaten wie etwa Urkunden, Briefe, Tagebücher aber auch literarische Texte sind integraler Bestandteil unseres kulturellen Erbes und insofern für viele geisteswissenschaftliche Fachbereiche wie die Sprach-, Literatur- und Geschichtswissenschaften die empirische Fxorschungsgrundlage. In unserem Beitrag zeigen wir anhand des Fachrepositoriums LAUDATIO, wie eine domänenspezifische Datendokumentation, -kritik und -referenzierung mit standardisierten Methoden (Unified Modeling Language, TEI framework, persistente ID) für die historisch arbeitenden Textwissenschaften umgesetzt werden kann. Die Dokumentation und Kritik nimmt sich dabei die historische Quellenkritik als Vorbild, die Informationen zu inneren und äußeren Merkmalen der Quellen aggregiert. Ein Schwerpunkt wird auf Personen- und Ortsbezüge gesetzt (Entity Management). Für die Weiterentwicklung von LAUDATIO wurden zur Identifikation der transdisziplinären Anforderungen an ein Forschungsdatenrepositorium mit den Fachbereichen User Stories entwickelt. Die so identifizierten Bedarfe und möglichen Workflows diskutieren wir im Rahmen der Posterpräsentation mit der Community.

NERDPool - Datenpool für Named Entity Recognition | Peter Andorfer*, Matthias Schlögl, Roman Bleier*

Peter Andorfer, Matthias Schlögl, Roman Bleier

In digitalen Editionen ist die automatische Erkennung und Annotation von Personen, Orten und Datumsangaben eine wichtige Aufgabe. Named Entity Recognition (NER) spielt dabei eine zentrale Rolle. Historische Texte bilden noch ein Problem, da oft zu wenig Trainingsmaterial zur Verfügung steht, um entsprechende ML-Modelle zu trainieren.Das Projekt NERDPool versucht einerseits existierende Editionsdaten zu nutzen und daraus einen Pool an Trainingsdaten zu generieren, sowie andererseits Workflows zu erproben und zu implementieren, die es erlauben, einfach und effizient bestehende Korpa manuell zu annotieren. Den Schwerpunkt setzt das Projekts auf frühneuzeitliche deutsche Texte. Die Datensätze werden über die Webapplikation https://nerdpool-api.acdh-dev.oeaw.ac.at/ respektive über eine impelementierte offene API veröffentlicht. Mit Stand mitte Juli umfasst NERDPool rund 23.500 annotierte Datensätze. Darunter sind etwa Akten vom Regensburger Reichstag von 1576, Ministerratsprotokolle Österreichs und der österreichisch-ungarischen Monarchie 1848–1918 oder die ersten Ausgaben des Wienerischen Diariums (um 1750).

Building and Improving an OCR Classifier for Republican Chinese Newspaper Text | Matthias Arnold*, Konstantin Henke*

 Matthias Arnold, Konstantin Henke

In our paper we present the first results from a systematic approach to full text extraction from a Republican China newspaper. Our basis is a small corpus for which also a ground truth exists. We present our character segmentation method which produces about 70.000 images of characters. Based on the hypothesis that pre-training on extensive amounts of suitably augmented character images will increase the OCR accuracy for evaluation on real-life character image data, we generated additional synthetic training data. We than compare the OCR recognition results and show that a combination of synthetic and real characters produces the best results. Finally, we propose a method that makes use of a masked language model to for OCR error correction.

Ontological modelling of the Greek Intangible Cultural Heritage for complex geo-semantic querying | Alkyoni Baglatzi*, Georgios Velissaropoulos

Alkyoni Baglatzi, Georgios Velissaropoulos

The current work proposes a new approach for formalizing and visualizing intangible cultural heritage assets. With the aid of semantic technologies (ontologies, linked open data, semantic reasoning etc), the domain knowledge is being formalized and provided in an interoperable form. Particular emphasis is given on the spatial and temporal dimension of the data. A web-based map platform is being developed as a central node for sharing all the data with the end users providing the opportunity to express complex spatiotemporal and thematic queries. The work focuses on traditional dances and songs from Greece.

Projektpräsentation: "Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede" (Gloss-ViBe) | Bernhard Bauer*

Bernhard Bauer

“Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede” (Gloss-ViBe) wird über ein H2020-MSCA Individual Fellowship finanziert. Das Projekt startet im September 2021 in Kollaboration mit dem Zentrum für Informationsmodellierung – Austrian Centre for Digital Humanities und dem Institut für Antike an der Universität Graz. Die zentrale Forschungsfrage bezieht sich auf die Genese der vernakulären frühmittelalterlichen keltischsprachigen Glossen: Sind die Glossen Originale oder Übersetzungen ursprünglich lateinischer Glossen? Um Antwort(en) auf diese Frage zu finden, wird eine Fallstudie an den keltischen und lateinischen Glossen der Handschrift Vienna, Österreichische Nationalbibliothek, Codex 15298 (olim Suppl. 2698) durchgeführt. Die beiden Hauptziele des Projekts sind:

1. eine umfassende digitale Edition des Wiener Beda mit allen Glossen und dem Hauptext und

2. ein interdisziplinäres theoretisches Framework um frühmittelalterliche (Parallel-)Glossen analysieren zu können, welches Methoden der digitalen Geisteswissenschaften, Philologie und Linguistik beinhalten wird.

Doing (Digital) History - Kollaborative Formen der Erforschung von Geschichte in sozialen Medien im Projekt #SocialMediaHistory | Mia Berg*, Andrea Lorenz*

Mia Berg, Andrea Lorenz

Medien speichern, vermitteln und strukturieren Gedächtnis und Geschichte. Mit der Medienevolution wandeln sich folglich auch Erinnerungspraktiken. Das zeigt sich insbesondere in den sozialen Medien, deren “networked memories“ sich durch eine Pluralisierung und Fragmentierung individueller und kollektiver Erinnerungen auszeichnen. In der Geschichtswissenschaft sind „Social Media Memories“ bisher nur vereinzelt untersucht worden. Im Projekt „SocialMediaHistory“ sollen deshalb Konstitution, Produktion und Analyse digitaler Geschichte auf Instagram und TikTok erforscht werden. Das Projekt verfolgt dabei eine kollaborative Doing (Digital) History im doppelten Sinne: Durch die Erstellung eigener geschichtskultureller Produkte und als methodischer Zugang zu und Reflexion über Beschaffenheit und (automatisierte) Auswertbarkeit geschichtsbezogener Social Media Inhalte. Dabei sollen technische Bedingtheiten und kommerzielle Rahmungen des digitalen Gedächtnisses reflektiert und Datenbankarbeit und Sammlungsaufbau geleistet werden. Ziel ist eine Verzahnung von Geschichtswissenschaft und Digital Humanities und die Erprobung und Auslotung von Möglichkeiten und Grenzen – auf technischer und rechtlicher Ebene und auf Ebene der historischen Erkenntnis.

Semi-automatische Erschließung von Rechnungsbüchern am Beispiel des Stadtarchivs Leuven | Jan Bigalke*, Sviatoslav Drach, Claes Neuefeind

Jan Bigalke, Sviatoslav Drach, Claes Neuefeind

In unserem Beitrag präsentieren wir einen Prototypen zur semi-automatischen Erschließung einer großen Sammlung von Rechnungsbüchern des Stadtarchivs Leuven, den wir derzeit im Kontext des Projekts “Itinera Nova” entwickeln. Im Rahmen des Projekts, das sich seit 2009 der Erschließung der im Stadtarchiv der belgischen Stadt Leuven gesammelten 1127 Schöffenregister aus den Jahren 1362-1795 mit einem Umfang von ca. 1.000.000 Seiten widmet, wurden seit 2019 auch die dort ebenfalls vorliegenden 457 Rechnungsbücher digitalisiert. Die Erschließung der Schöffenregister wird derzeit von einer Community mit rund 50 Freiwilligen betrieben und von Archiv-MitarbeiterInnen gemanagt. Das Cologne Center for eHumanities (CCeH) stellt dabei u.a. eine spezifisch für das Projekt entwickelte Web-Plattform für die kollaborative manuelle Erschließung der Schöffenregister bereit, die Rechnungsbücher hingegen sind bislang noch nicht erschlossen.

Berlin’s Australian Archive: Eine virtuelle Forschungsumgebung für naturkundliche Sammlungen aus den australischen Kolonien | Eva Bischoff*, Anja Schwarz*

Eva Bischoff, Anja Schwarz

Das Poster thematisiert sowohl die Potentiale als auch mögliche Schwierigkeiten digitaler Zugänge zum kulturellen Erbe am Beispiel der Entwicklung einer FUD-basierten virtuellen Forschungsumgebung im Rahmen eines Forschungsprojekts zu naturkundlichen Sammlungen aus Australien am Berliner Museum für Naturkunde (MfN). Da naturkundliche Sammlungen oftmals in kolonialen Kontexten erworben wurden und kulturell sensible Sammlungsgegenstände umfassen, müssen Auf- und Ausbau, sowie die Nutzung digitaler Archive eine Reihe von Problemstellungen adressieren. Diese beinhalten u.a. epistemische Konflikte um Metadatenstandards, Aushandlungen über Möglichkeiten des Zugangs aber auch der Restriktion des Zugriffs für unterschiedlich verfasste Öffentlichkeiten, sowie die Interpretation und kulturell autarke Ergänzung von Forschungsdaten durch Mitglieder der Herkunftsgesellschaften bis hin zur Begleitung von Prozessen der virtuellen Repatriierung.

„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Bereitstellung, Zugang und Analyse literarischer Blogs am Beispiel des Techniktagebuchs | André Blessing, Jan Hess*, Kerstin Jung

André Blessing, Jan Hess, Kerstin Jung

„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Wie der Untertitel des Techniktagebuchs bereits suggeriert, versteht sich das 2014 von der Schriftstellerin Kathrin Passig ins Leben gerufene literarische Blog als Teil des kulturellen Gedächtnisses. Am Beispiel des Techniktagebuchs soll dieser Beitrag einerseits die Herausforderungen bei der wissenschaftlichen Arbeit mit diesen „born-digital“ Literaturformen aufzeigen sowie andererseits vor allem auch (explorative) Zugangs- und Analysemöglichkeiten literarischer Blogs präsentieren. Zum Beispiel können Netzwerkvisualisierungen zu den von den Autor:innen vergebenen Tags in Kombination mit dem Einsatz von Topic-Model-Analysen zeigen, dass diese manuell definierten Schlagwörter der Autor:innen nicht konsistent, mitunter eher humoristisch verwendet werden. Um das Techniktagebuch korpuslinguistisch und stilometrisch auszuwerten, kamen bislang CQPWeb sowie das R-Paket Stylo zum Einsatz, sodass auch hinsichtlich des Vokabulars und des individuellen Blog-Schreibstils Unterschiede aufgezeigt werden können.

What was Theoretical Biology? A Topic-Modelling Analysis of a Multilingual Corpus of Monographs and Journals, 1914-1945 | Alexander Böhm*, Stefan Reiners-Selbach*, Jan Baedke, Alejandro Fábregas Tejeda, Daniel J. Nicholson

Alexander Böhm, Stefan Reiners-Selbach, Jan Baedke, Alejandro Fábregas Tejeda, Daniel J. Nicholson

Over the course of the twentieth century, theoretical biology changed beyond all recognition. Although the field today is synonymous with mathematical biology, when it first emerged it had a far more philosophical agenda. Regrettably, this early period of theoretical biology has been almost completely forgotten and its existence is seldom acknowledged—let alone carefully examined. Our aim is to rescue this multilingual corpus of monographs, book series and journal articles from the dustbin of history. Our guiding question is: What did theoretical biology look like in the early 20th century? We utilize LDA topic modelling (after machine translating where necessary), top2vec and document embeddings to create an interactive tool for the exploration of this corpus, which allows analyzing the development of early theoretical biology. Moreover, we calculate mathematization scores for the documents in our corpus to map the field’s increasing emphasis on formal modeling.

Training the Archive – Von der maschinellen Exploration musealer Sammlungsdaten zur Curator’s Machine | Dominik Bönisch*

Dominik Bönisch

Das Forschungsprojekt „Training the Archive“ entwickelt am Ludwig Forum für Internationale Kunst Aachen im Verbund mit dem HMKV Hartware MedienKunstVerein, Dortmund und dem Visual Computing Institute der RWTH Aachen University ein kollaboratives Konzept zwischen Machine-Learning-Modellen und der kuratorischen Praxis, welches in die sogenannte Curator’s Machine mündet. Das Poster möchte das Forschungsprojekt, dessen Fragen und Prototypen sowie erste Lessons Learned vorstellen. Ziel des Projektes ist es, einen effektiven Prozess der Mensch-Maschine-Interaktion zu etablieren, um auch das historische, stilistische und objektbasierte Kontextwissen von Expert*innen über Kunstwerke in einer musealen Sammlung bzw. in einem digitalisierten Archiv einbeziehen zu können.

Der DHd Data Steward - Maßnahmen zur Entwicklung einer nachhaltigen Datenstrategie für die Digital Humanities im deutschsprachigen Raum | Rebekka Borges*, Anke Debbeler, Patrick Helling

Rebekka Borges, Anke Debbeler, Patrick Helling

Mit der Ernennung eines Data Stewards hat der Verband Digital Humanities im deutschsprachigen Raum e.V. (DHd) auf der Jahreskonferenz 2020 in Paderborn eine Funktion geschaffen, um eine umfassende Datenstrategie für alle Materialien, Publikationen und Ergebnisse, die im Kontext des DHd-Verbandes entstanden sind/entstehen werden, zu entwickeln. Sie sollen im Sinne der FAIR-Prinzipien (1) langfristig gesichert und archiviert als auch (2) nach Möglichkeit nachhaltig publiziert und verfügbar gemacht werden.

Mit diesem Posterbeitrag soll die bisherige Arbeit des DHd Data Stewards in Bezug auf die DHd-Jahreskonferenzen präsentiert sowie ein Blick in die Datenzukunft des Verbandes gegeben werden.

Computational Literary Studies Data Landscape Review | Ingo Börner, Vera Maria Charvat, Matej Ďurčo*, Michał Mrugalski, Carolin Odebrecht

Ingo Börner, Vera Maria Charvat, Matej Ďurčo, Michał Mrugalski, Carolin Odebrecht

Literarische Werke und deren digitale Repräsentationen stellen auch in den Fachbereichen der Computational Literary Studies (CLS) das Fundament für epistemische Auseinandersetzungen und Diskurse.

In unserem Teilprojekt Data Selection and Curation des europäischen „Computational Literary Studies Infrastructure“-Projekts möchten wir Brücken zu wissensbasierten Ressourcen für die CLS-Community aufbauen, um die Zugangsparadigmen für literarische Daten signifikant zu rekonfigurieren und erheblich zu verbessern.

Um die Auffindbarkeit und den forschungsorientierten Zugang zu literarischen Daten für die CLS-Community zu ermöglichen, ist eine Inventarisierung der CLS-Datenlandschaft erforderlich, die forschungsrelevante Kriterien für die Datenauswahl sowie deren Erfassung und Beschreibung anwendet. Mit dieser Inventarisierung, die wir in Form einer Data Landscape Review durchführen, kann die vorhandene Datenlandschaft als digitales Erbe für CLS-Kontexte erst umfassend sichtbar und als Vorlage für weitere Forschungsvorhaben zugänglich gemacht werden.

Unser Posterbeitrag präsentiert die Ergebnisse der Data Landscape Review, das Beschreibungsmodell, dessen Umsetzung in RDF und ein proof-of-concept des Online-Katalogs.

MUSE4Anything: Ontologiebasierte Generierung von Werkzeugen zur strukturierten Erfassung von Daten | Fabian Bühler*, Johanna Barzen, Frank Leymann, Bernhard Standl, Nadine Schlomske-Bodenstein

Fabian Bühler, Johanna Barzen, Frank Leymann, Bernhard Standl, Nadine Schlomske-Bodenstein

Zur Erforschung von Text und Sprache, einem Kernbereich der Digital Humanities, existieren bereits verschiedene erprobte Werkzeuge und Forschungsmethoden. MUSE4Anything ist ein domänenunabhängiges Forschungswerkzeug, das die detaillierte und strukturierte Erfassung von komplexen Eigenschaften verschiedener Artefakte als Untersuchungsgrundlage von Forschungsfragen unterstützt. Das Werkzeug wurde basierend auf Erfahrungen aus den Projekten MUSE und MUSE4Music entwickelt und soll das dort angewandte Vorgehen für andere Forschungsfragen zugänglich machen. MUSE4Anything lässt sich individuell an die jeweilige Domäne anpassen. Dazu kann ein Benutzer des Werkzeuges beliebige Eigenschaften in Form einer Ontologie definieren. Die Erfassung der Eigenschaften mit dem MUSE4Anything Datenrepositorium erfolgt mit einer automatisch aus der vom Benutzer erstellten Ontologie generierten Eingabemaske.

Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur” | Anna Busch*, Torsten Roeder*

Anna Busch, Torsten Roeder

Der erste Satz eines literarischen Werkes erfährt in literaturwissenschaftlichen Untersuchungen oft besondere Beachtung. Autorinnen und Autoren gestalten den Anfangssatz gattungsunabhängig mit großer Sorgfalt, um in die Thematik des Textes einzuleiten, eine bestimmte Atmosphäre zu erzeugen oder um später wiederkehrende Motive einzuführen. Quasi als Incipits sind erste Sätze strukturell mit Titeln verwandt, konkurrieren dabei gelegentlich auch mit vorangestellten Mottos oder Sinnsprüchen. In der Literaturwissenschaft ist der “erste Satz” vielfach analysiert, aber nie auf Grundlage eines größeren Textkorpus quantitativ kategorisiert und typologisiert worden. Das Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur” möchte dazu beitragen, diese bestehende Lücke zu schließen. Das Poster stellt sowohl das erarbeitete Datenkorpus vor als auch Ansätze einer quantitativen textanalytischen Auswertung.

Strukturen und Impulse zur Weiterentwicklung der DHd-Abstracts | Anna Busch, Fabian Cremer*, Harald Lordick*, Dennis Mischke, Timo Steyer

Anna Busch, Fabian Cremer, Harald Lordick, Dennis Mischke, Timo Steyer

Der Beitrag stellt die aktuellen technischen Entwicklungen, organisatorischen Strukturen und konzeptionellen Ideen rund um die DHd-Abstracts vor und setzt die seit 2018 community-getriebenen Aktivitäten zur Verbesserung der Abstracts als (Daten)publikation fort. Das Poster stellt die Organisation und die Arbeit der DHd-Abstracts-Task-Force vor, die die weitere Standardisierung, Anreicherung und Nachnutzung der DHd-Abstracts im Zusammenspiel mit dem durch den DHd-Verband eingesetzten Data Steward verfolgt. Neben konkreten technischen Aufgaben (Publikationsprozesse, Normdaten-Annotation, Indexierung) werden im Austausch mit der Community inhaltliche Aspekte diskutiert und neue Impulse entwickelt. Neben der Diskussion möchte der Beitrag auch zur Mitarbeit im Rahmen der Task-Force ermutigen.

‚Arbeitskulturen‘ im Wandel - Erfahrungen und Entwicklungen in 20 Jahren DH-Praxis | Alexander Czmiel*, Frederike Neuber*

 Alexander Czmiel, Frederike Neuber

In seiner zwanzigjährigen Geschichte hat TELOTA (kurz für „The Electronic Life Of The Academy“), die DH-Abteilung der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), mehrfach die eigenen Arbeitsstrukturen evaluiert und überarbeitet. Ausgehend von den Entwicklungen und den Herausforderungen der Projekt- und Personenkonstellationen wird der Vortrag eine seit etwa 2020 bei TELOTA etablierte Organisationsstruktur, die Team, Projekte und Forschungssoftwareentwicklung umfasst, vorstellen sowie Erfahrungen in der Umsetzung reflektieren.

Kontrastive Textanalyse mit pydistinto - Ein Python-Paket zur Nutzung unterschiedlicher Distinktivitätsmaße | Keli Du*, Julia Dudar*, Cora Rok, Christof Schöch

Keli Du, Julia Dudar, Cora Rok, Christof Schöch

In den Computational Literary Studies (CLS) werden statistische Distinktivitätsmaße eingesetzt, um Features zu bestimmen, die charakteristisch für eine Textgruppe im Vergleich mit einer anderen Textgruppe sind. Allerdings erweisen sich die meisten vorhandenen Tools als ungeeignet, wenn Nutzer:innen ihre Analysen anpassen und eigene Parametereinstellungen vornehmen oder bestimmte Datenformate nutzen wollen. Um den Einsatz relevanter Maße für die kontrastive Textanalyse zu erleichtern und das Bewusstsein für die Vielfalt der Maße zu schärfen, entwickeln wir ein Python-Paket mit dem Namen pydistinto. Mithilfe von pydistinto können Nutzer:innen auch mit geringen Programmier- und Statistikkenntnissen zwei Textkorpora mit unterschiedlichen Maßen miteinander vergleichen, und in einem fortgeschrittenen Modus auch die Eigenschaften und Leistungsfähigkeit der unterschiedlichen Maße empirisch ermitteln und gegenüberstellen. Durch Tabellen und Abbildungen werden in dem geplanten Poster vor allem die folgenden Aspekte unseres Pakets vorgestellt: die Möglichkeiten der Vorverarbeitung der Textdaten, die implementierten Distinktivitätsmaße und die Visualisierung der kontrastiven Analyseergebnisse.

Webservice correspSearch – Version 2 | Stefan Dumont*, Sascha Grabsch*, Jonas Müller-Laackman*

Stefan Dumont, Sascha Grabsch, Jonas Müller-Laackman

Der Webservice correspSearch (https://correspSearch.net) aggregiert Briefmetadaten aus gedruckten und digitalen Editionen und machte diese über eine Weboberfläche durchsuchbar. Die soeben veröffentlichte Version 2 des Webservices löst den bisherigen Prototypen ab und stellt zahlreiche neue Suchfunktionalitäten zur Verfügung.

Visualisierungen direkt im Suchinterface und eine umfangreiche Facettierung verbessern in der neuen Version sowohl den explorativen Zugang wie auch die gezielte Drill-Down Suche. Die neu entwickelte Anreicherung der normdatenbasierten Briefmetadaten aus Normdatenbanken erlauben (beispielsweise) die Suche anhand des Geschlechts der Korrespondent:innen. In Zukunft werden auch Suchen nach Briefen von bestimmten Berufsgruppen (Musiker:innen, Philolog:innen etc.) und die schlagwortbasierte Suche in Briefen ermöglicht.

Die Anreicherung der Briefmetadaten mit Geokoordinaten bildet die Grundlage für die neue Funktion der kartenbasierten Suche: hier kann auf einer Karte eine freie Region oder vordefinierte historische Staatsgebiete eingezeichnet werden, in der alle Orte als Schreib- oder Empfangsort enthalten sind. In Kombination mit Datumsangaben können damit ereignisbasierte Suchen realisiert werden.

Grenzüberschreitendes Textmining von Historischen Zeitungen: Das impresso-Projekt zwischen Text- und Bildverarbeitung, Design und Geschichtswissenschaft | Maud Ehrmann, Estelle Bunout*, Simon Clematide, Marten Düring*, Andreas Fickers, Daniele Guido, Roman Kalyakin, Frederic Kaplan, Matteo Romanello, Paul Schroeder, Philip Ströbel, Thijs van Beek, Martin Volk, Lars Wieneke*

Maud Ehrmann, Estelle Bunout, Simon Clematide, Marten Düring, Andreas Fickers, Daniele Guido, Roman Kalyakin, Frederic Kaplan, Matteo Romanello, Paul Schroeder, Philip Ströbel, Thijs van Beek, Martin Volk, Lars Wieneke

impresso. Media Monitoring of the Past ist ein interdisziplinäres Forschungsprojekt, in dem Wissenschaftler und Wissenschaftlerinnen aus der Computerlinguistik, Design und den Geschichtswissenschaften an der Anreicherung eines Korpus aus schweizerischen und luxemburgischen Zeitungen arbeiten. Ziel ist es, die Qualität von text mining Werkzeugen für historische Zeitungstexte zu verbessern, historische Zeitungen mit zusätzlichen Informationen anzureichern und diese mit Hilfe einer neu entwickelten Benutzeroberfläche in den historischen Forschungsprozess zu integrieren. In diesem Beitrag präsentieren wir unseren Ansatz, den damit verbundenen Herausforderungen mit Hilfe eines interdisziplinären Teams und eines Co-Design-Ansatzes gerecht zu werden. Wir geben dazu einen Überblick über die wesentlichen Schritte der Dokumenten- und Textverarbeitung und deren Repräsentation innerhalb der Benutzeroberfläche.

Brücken bauen für Buddha | Frederik Elwert*, Jessie Pons*

Frederik Elwert, Jessie Pons

Das BMBF-geförderte eHeritage-Projekt Digitalisierung Gandharischer Artefakte (DiGA) digitalisiert knapp 2.000 Objekte buddhistischer Kunst aus der historischen Region Gandhāra, die derzeit in zwei Sammlungen in der pakistanischen Provinz Khyber Pakhtunkhwa aufbewahrt werden. Das Projekt macht dabei nicht nur die physisch schwer erreichbaren Skulpturen der Forschung zugänglich, sondern hat sich zum Ziel gesetzt, Brücken auf mehreren Ebenen zu bauen: Zwischen der traditionellen Forschung und den Digital Humanities, indem bestehende Praktiken und Referenzwerke der südasiatischen Kunstgeschichte und der Buddhologie mit Best Practices der digitalen Kulturerbeforschung verbunden werden. Zwischen den digitalisierten Sammlungen und anderen, bestehenden und zukünftigen Projekten, indem im Rahmen einer Arbeitsgruppe des Pelagios-Netzwerks gemeinsam Standards für die Erschließung und Verlinkung etabliert werden. Und zwischen Ländern und Kontinenten, indem der Dialog zwischen der europäischen Forschungslandschaft und den Kulturerbeeinrichtungen in Khyber Pakhtunkhwa intensiviert wird. Das Poster präsentiert die Ergebnisse der ersten Digitalisierungsphase sowie die im Projekt erstellen Thesauri und Gazetteers.

The Digitized minutes of the Habsburg Governments, 1848-1918 | Wladimir Fischer-Nebmaier*, Stephan Kurz*, Richard Lein

Wladimir Fischer-Nebmaier, Stephan Kurz, Richard Lein

The minutes of the Austrian government have been published and scholarly edited since the late 1960s. Now they are being retrodigitized. The Austrian minutes of 1867 onwards are a born digital project.

The web-app presents all minutes in one spot, including the retrodigitized Austro-Hungarian and the facsimile Hungarian minutes of 1867 onwards.

The born digital edition boasts structured XML-text according to TEI standards, including named entities and references to repositories containing facsimile legal texts, parliamentary proceedings, institutional catalogs, a geographically referenced database, a prosopographical and institutional database and a Zotero bibliography.

Fidus Writer als Alternative zum DH ConValidator? Ein Prototyp | Henning Gebhard*

Henning Gebhard

XML-TEI hat sich als für die digitale Publikation und Langzeitarchivierung angemessenes Dateiformat etabliert und wird unter Anderem für den Einreichungsprozess der Abstracts für die Jahrestagungen des DHd-Verbands verwendet. Es ist jedoch für viele nicht das Format der Wahl beim Verfassen ihrer Texte. Die aktuelle Lösung – die Nutzung eines Online-Tools zur Umwandlung von Office-Dokumenten in XML-TEI – ist fehleranfällig und unbequem sowohl für die Einreichenden als auch für diejenigen, die das Book of Abtracts erstellen. Vor diesem Hintergrund wurde im Rahmen einer Masterarbeit der Prototyp einer möglichen Alternative entwickelt, aufbauend auf Fidus Writer, einem webbasierten WYSIWYG Editor mit starkem Fokus auf wissenschaftlichem Schreiben. Er erlaubt das kollaborative Verfassen von Texten, die Eingabe relevanter Metadaten und die Verwaltung der Literaturangaben. Für die Eignung für DH-Konferenzen wurde ein Exporter neu entwickelt, der FW Dokumente als TEI speichern kann. Für das Poster ist geplant, die Nutzung des Prototypen zu präsentieren.

DH2go - Lehr- und Lernumgebung für die Digital Humanities | Malte Heckelen*, Claus-Michael Schlesinger, Fabienne Burkhard*

Malte Heckelen, Claus-Michael Schlesinger, Fabienne Burkhard

Aus den Anforderungen unserer eigenen Lehre im Stuttgart Master Digital Humanities gewachsen, ist DH2go eine Lehr- und Lernumgebung für die praxisorientierte Lehre im Bereich DH.

DH2go bietet über die Remote-Desktop-Software X2Go einen GUI-basierten Zugriff auf einen Lehr- und Lernserver, der bereits alle der üblicherweise in der Lehre eingesetzten Tools, Sprachen und Daten beinhaltet. Neben diesen bieten wir nützliche Funktionen wie etwa Tauschordner für unsere Teilnehmer*innen. Da nur noch eine Software, X2Go, installiert werden muss, kann die Lehre gleich zu den Inhalten schreiten.

In unserer eigenen Lehre sowie Erfahrungen aus Workshops konnten wir feststellen, dass dieser Ansatz nicht nur Installationsprobleme behebt, sondern auch die technische Kommunikation von Teilnehmer*innen untereinander und mit Kursleiter*innen fördert.

Über mehrere Jahre der Nutzung und Weiterentwicklung haben wir DH2go auf bewährte Anwendungsfälle fokussiert und uns im Wintersemester 2021/2021 für eine Konsolidierung als selbst-implementierbares Konzept (dank Dokumentation) und als Service (auf Anfrage) entschieden.

Informationstechnologische Gedächtnisarbeit in der Rezensionszeitschrift RIDE | Ulrike Henny-Krahmer, Frederike Neuber, Martina Scholger*

Ulrike Henny-Krahmer, Frederike Neuber, Martina Scholger

Seit 2014 gibt das Institut für Dokumentologie und Editorik (IDE) die digitale Rezensionszeitschrift RIDE (A Review Journal for Digital Editions and Resources) heraus. Mit derzeit (Stand Juli 2021) 70 Rezensionsartikeln zu digitalen wissenschaftlichen Editionen, Textsammlungen sowie Tools und Forschungsumgebungen ist es RIDE in den letzten sieben Jahren gelungen, Rezensionen verstärkt in den Digital Humanities zu verankern. Das Poster wird die technischen Grundlagen RIDEs illustrieren und damit einen Blick “hinter die Kulissen” gewähren. Neben einer Beschreibung des derzeitigen Workflows soll der Beitrag demonstrieren, dass die strukturelle und semantische Codierung der Inhalte sowie die Begleitung der Rezensionen durch Kriterien und Fragebögen dazu führen, dass RIDE neben dem Angebot von Texten auch vermehrt datengestützte Zugänge bietet. Die Arbeit an einem digitalen Rezensionsjournal wird so vermehrt zu informationstechnologischer Gedächtnisarbeit.

Linked Open Data für die Literaturgeschichtsschreibung: das Projekt "Mining and Modeling Text" | Maria Hinzmann*, Christof Schöch, Katharina Dietz, Anne Klee, Katharina Erler-Fridgen, Julia Röttgermann, Moritz Steffes

Maria Hinzmann, Christof Schöch, Katharina Dietz, Anne Klee, Katharina Erler-Fridgen, Julia Röttgermann, Moritz Steffes

Im Umgang mit dem stetig wachsenden ‚digitalen Kulturerbe‘ bietet die Weiterentwicklung der systematischen Datenerschließung und Wissensrepräsentation bisher nicht ausgeschöpfte Potentiale für die Literaturgeschichtsschreibung. Vor diesem Hintergrund werden im Projekt „Mining and Modeling Text“ (MiMoText) quantitative Methoden der Informationsextraktion (‚Mining‘) und Datenmodellierung (‚Modeling‘) ineinander verschränkt, um ein literaturgeschichtliches Informationssystem aufzubauen. Die Transferierbarkeit in andere Domänen wird berücksichtigt. Zentrales Anliegen ist es, den Bereich der quantitativen Methoden zur Extraktion, Modellierung und Analyse geisteswissenschaftlich relevanter Informationen aus umfangreichen Textsammlungen weiterzuentwickeln und aus interdisziplinärer (geistes-, informatik- und rechtswissenschaftlicher) Perspektive zu erforschen.

Mediatheken der Darstellenden Kunst digital vernetzen | Klaus Illmayer*, Sara Tiefenbacher, Franziska Voß, Julia Beck, Christine Henninger, Maxim Wittenbecher

Klaus Illmayer, Sara Tiefenbacher, Franziska Voß, Julia Beck, Christine Henninger, Maxim Wittenbecher

Im Poster wird das laufende Projekt „Mediatheken der Darstellenden Kunst digital vernetzen“ vorgestellt, welches Metadaten zu audiovisuellen Aufzeichnungen von Tanz- und Theateraufführungen aus verschiedenen Institutionen zusammenführen und für Forscher*innen und Künstler*innen zur Verfügung stellen wird. Der Hintergrund und die Ziele des Projekts werden erklärt, sowie die technische Infrastruktur und die digitalen Verfahren, die angewandt werden.

Digitale Texte vom Religionsfrieden bis hin zum Liebesbrief - Das Zentrum für digitale Editionen in Darmstadt stellt sich vor | Silke Kalmer*, Dario Kampkaspar*, Sophie Müller*, Melanie E.-H. Seltmann, Jörn Stegmeier*, Kevin Wunsch*

Silke Kalmer, Dario Kampkaspar, Sophie Müller, Melanie E.-H. Seltmann, Jörn Stegmeier, Kevin Wunsch

Das Zentrum für digitale Editionen in Darmstadt (ZEiD) deckt alle Aspekte der Aufbereitung von Texten für wissenschaftliche Editionen und alle Bereiche digitaler Editionen von der Planung bis zur Veröffentlichung ab. Dabei bearbeitet es nicht nur bibliothekseigene Bestände, sondern fungiert auch als Partner für externe Projekte, etwa das Akademienprojekt „Europäische Religionsfrieden Digital“ oder auch das durch das BMBF-geförderte Projekt „Gruß & Kuss“.

In einem Workflow von der Texterfassung (OCR) der Digitalisate über das Erstellen und Bearbeiten der XML-Grundlage bis hin zur Realisierung der digitalen Edition als Online-Präsentation wird die wissenschaftliche Erfassung der Texte garantiert und Einheitlichkeit der Texte aus verschiedenen Projekten in der Infrastruktur des Zentrums gegeben. Das Poster geht auf diesen Workflow, das verwendete Framework sowie verschiedene vom ZEiD realisierte Projekte ein.

Beyond Budweiser: Creating a Digital Archive of Popular German-American Newspaper Literature | Jana Keck*, Andre Blessing*

Jana Keck, Andre Blessing

Who gets to be historicized by ways of (digital) record creation? Digitized C19 German-American newspapers in Chronicling America provide a fruitful platform both to (re-)evaluate stories about migrants that differ in gender, class, age, or (national) identities and to (re-)search how information spread across time and space. However, they offer no innovative methods to analyze the sheer bulk of heterogenous material. To foster further research in the field, we are creating an expanded version of Chronicling America’s German-American newspaper repository. In this digital archive, users will have the opportunity to access a novel dataset to study popular newspaper literature that will expand and diversify the canon and history of German-American culture. The dataset will consist of approximately 500,000 viral texts ranging from “factual texts” about tips on how to nurse children, “short stories” by unknown female writers, to nationalistic “poems” about Germania that were previously computationally classified into genres.

Ein Thesaurus für die digitale Edition der Ästhetikvorlesungen von Friedrich Schleiermacher | Holden Kelm*, Lou Klappenbach*

Holden Kelm, Lou Klappenbach

Die Ästhetikvorlesungen von Friedrich Schleiermacher (1768-1834) sind Bestandteil des ästhetischen Diskurses der klassischen deutschen Philosophie, sind aber als Bestandteil dieses Diskurses noch nicht hinreichend untersucht worden. Das sich diesem Desiderat widmende DFG-Projekt, das mit dem Akademienvorhaben „Schleiermacher in Berlin 1808-1834“ assoziiert ist, stellt die Frage, wie die Ästhetikvorlesungen aufgrund von digitalen Methoden erschlossen, wie sie in ihrem Verlauf untersucht und in ihrem philosophiehistorischen Kontext kritisch dargestellt werden können. Zur Bearbeitung dieser Forschungsfrage wurde beschlossen, die Annotation, Definition und Referenzierung von signifikanten Themen und Begriffen der Vorlesungen mit einem digitalen Thesaurus vorzunehmen. Die Vorlesungen werden für digitale und für Druck-Editionen mit ediarum, einem oXygen-Framework für den Author-Modus des oXygen XML-Editors erschlossen. Da semantische Modellierungsformen wie Thesauri bisher nicht in ediarum integriert sind, wird im Ästhetik-Projekt ein eigenes Framework entwickelt. Das geplante Poster illustriert diese für das Projekt zentrale digitale Methode: das von der Digital Humanities Arbeitsgruppe TELOTA entwickelte Tool ediarum.SKOS.

„Das Puzzle zusammensetzen“: Von analogen Dokumentensammlungen zu datenbankbasierten Biografien sowjetischer Kriegsgefangener des Zweiten Weltkriegs | Sebastian Kindler*, Katrin Wolf*

Sebastian Kindler, Katrin Wolf

Viele der Einzelschicksale der insgesamt mehr als fünf Millionen Personen, die im Zweiten Weltkriegs als Angehörige der Roten Armee in deutsche Kriegsgefangenschaft gerieten, sind bis heute unbekannt. Das DHI Moskau recherchiert innerhalb des deutsch-russischen Projekts „Sowjetische und deutsche Kriegsgefangene und Internierte“ Archivdokumente zu diesen Personen. Vorhandene Dokumente werden digitalisiert und die enthaltenen Angaben indexiert, um Digitalisate und Informationen gemeinsam als Gefangenenbiografien für Forschung und Schicksalsklärung verfügbar zu machen. Die Gefangenenbiografien bestehen aus allen kumulierten Informationen aus unterschiedlichen Dokumenten und Quellen, die zu einer bestimmten Person vorhanden sind und betreffen den gesamten Zeitraum von ihrer Gefangennahme, über Lageraufenthalte, Tod bzw. Befreiung sowie eine eventuell aufgrund der Gefangenschaft erlebte erneute staatliche Repression nach Rückkehr in die Sowjetunion. Ziel des Posters ist es, die unterschiedlichen Arbeitsabläufe und die häufig notwendigen Kompromisse im Sinne eines „best practise“-Modells bei der Gewinnung von großen Datenmengen und heterogenen Datentypen und deren abschließender Bearbeitung vorzustellen.

Volltexterkennung für historische Sammlungen mit OCR4all-libraries iterativ und partizipativ gestalten | Jan Sebastian Klaes*, Kristof Korwisi, Katharina Krüger*, Christian Reul, Nadine Towara*

Jan Sebastian Klaes, Kristof Korwisi, Katharina Krüger, Christian Reul, Nadine Towara

Mit der Initiierung und Durchführung von Massendigitalisierungsprojekten haben Bibliotheken eine wesentliche Grundlage für den Zugang und die Nutzung digitaler Quellen geschaffen. Vor dem Hintergrund der Weiterentwicklung digitaler Forschungsmethoden u.a. im Bereich der Digital Humanities stellt sich nun zunehmend die Frage nach der Qualität insbesondere der Volltexte. Die Zusammenarbeit zwischen dem Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung (GEI), dem Zentrum für Philologie und Digitalität “Kallimachos” (ZPD) und dem Lehrstuhl für Mensch-Computer-Interaktion (HCI) der Universität Würzburg zielt darauf ab, das GUIbasierte Open-Source-Werkzeug OCR4all so zu erweitern und anzupassen, dass Bibliotheken und Archive bei ihrer Massendigitalisierung die im Rahmen des von der DFG geförderten OCR-D-Verbundprojekts erarbeiteten Lösungen niederschwellig, flexibel und eigenständig einsetzen können.

Forscher*innen als wichtige Zielgruppe von Forschungs- und Spezialbibliotheken profitieren mit der Weiterentwicklung von OCR4all von der Möglichkeit OCR-Prozesse iterativ und partizipativ mitgestalten zu können.

Text-Bild-Gefüge. Digital Humanities und der Diskurs der Moderne | Franziska Klemstein*

Franziska Klemstein

Ziel des auf dem Poster vorgestellten Projektes ist die Entwicklung einer virtuellen Forschungsumgebung, die eine enge Verzahnung von text- und bildzentrierten Themen, Methoden und Techniken erlaubt. Diese Forschungsumgebung wird den Zugriff auf einen digitalen Korpus von historischen Print-Quellen ermöglichen, die sowohl Texte als auch Bilder enthalten. In Kollaboration und unter Einsatz flexibler (lernfähiger) Informationsextraktionsverfahren sowie Text- und Bildanalysetechnologien wird dieser Korpus systematisch erschlossen. Die Entwicklung der Forschungsumgebung wird dabei zum Gegenstand und Bezugspunkt von historisch informierten und theoretisch reflektierten Überlegungen zum Verhältnis von Text und Bild und den interdisziplinären Potentialen der heutigen Geisteswissenschaften werden. Darüber hinaus wird sie den Impuls und die Grundlage dafür bilden, weitere digitale Korpora mit Blick auf Text-Bild-Gefüge systematisch zu erschließen und auszuwerten.

Der Posterbeitrag soll Einblicke in den gegenwärtigen Stand des Projektes geben sowie erste Analysergebnisse aufzeigen.

Zeitgeschichte untersuchen: Topic Modeling von #blackouttuesday-Inhalten auf Instagram | Aenne Knierim*, Michael Achmann, Christian Wolff

Aenne Knierim, Michael Achmann, Christian Wolff

Das Forschungsprojekt dient der Untersuchung des New Social Movements Black Lives Matter und spezifisch den Solidaritätsbezeugungen am #blackouttuesday als Reaktion auf die Ermordung George Floyds. Um Sujets und Themen der Instagram-Nutzer*Innen rundum #blackouttuesday zu identifizieren und deren quantitative Analyse zu ermöglichen, wird ein Korpus aus den Bildunterschriften von Posts mit dem #blackouttuesday vom 02.06.2020 erstellt. Unter Anwendung des Latent Dirichlet Allocation Algorithmus sollen Topics gefunden werden. So kann der Diskurs über racial justice mit der quantitativen Methode des Topic Modeling untersucht werden. Das Forschungsprojekt kann in den Bereich der digitalen Kulturwissenschaft eingeordnet werden.

Corpus Nummorum - eine digitale Forschungsinfrastruktur für antike Münzen | Jan Köster*, Claus Franke, Ulrike Peter

Jan Köster, Claus Franke, Ulrike Peter

Das an der BBAW beheimatete Drittmittelprojekt Corpus Nummorum hat die Erschließung, Typologisierung und Webpublikation antiker griechischer Münzen unter Verwendung numismatischer Normdaten sowie Verfahren wie Natural Language Processing und Bilderkennung zum Ziel. Im Rahmen des Projekts entstand zudem das Open-Source-Tool CN Editor, eine Web-App, die den Dateneingabe-Workflow des Projekts vollständig händeln kann und umfangreiche Funktionen zur Suche und Optimierung bereitstellt. Das Corpus Nummorum pflegt eine enge Zusammenarbeit mit diversen internationalen Partnern sowie der numismatischen Community. Es bildet einen wichtigen Teil der digitalen Forschungsinfrastruktur zur Erforschung und Kuratierung des kulturellen Erbes der Menschheit.

Who CAREs, really? | Felix Lange*, Heinz-Günter Kuper*, Anja Müller, Kilian Amrhein, Marco Klindt, Anna-Lena Nowicki

Felix Lange, Heinz-Günter Kuper, Anja Müller, Kilian Amrhein, Marco Klindt, Anna-Lena Nowicki

Spätestens seit dem „Rapport sur la restitution du patrimoine culturel africain. Vers une nouvelle éthique relationnelle“ von Sarr und Savoy (2018) ist die Diskussion über den Umgang europäischer Gedächtnisinstitutionen mit ihren Sammlungen aus kolonialen Kontexten neu entbrannt. Welche Bedeutung hat in diesem Zusammenhang die Digitalisierung von Objekten des kulturellen Erbes? Das Poster veranschaulicht diese Frage am Beispiel der „Ethnografica“-Sammlung im Nachlass von Karl Schmidt-Rottluff aus dem Bestand des Brücke-Museums Berlin. Diese Sammlung wird im Rahmen eines Digitalisierungs-Projekts durch das Forschungs- und Kompetenzzentrum Digitalisierung Berlin (digiS) begleitet. Um verschiedene Perspektiven auf digitale Objekte gleichberechtigt sichtbar zu machen und dabei die CARE-Regeln nicht zu missachten, untersucht digiS verschiedene technologische Ebenen.

Entdeckung der Korrespondenz Alexander von Humboldts durch Such- und Visualisierungsfunktionen | Axelle Lecroq*

Axelle Lecroq

Die Korrespondenz des Naturforschers und Reisenden Alexander von Humboldt umfasst schätzungsweise mehrere zehntausend Briefe und ist einer der profiliertesten Briefpartner seiner Zeit. In diesem Poster wird die erste Phase des experimentellen Projekts vorgestellt, die darin besteht, Jupyter Notebooks zu verwenden. DieSuchfunktionen und Visualisierungen ermöglichen dem Benutzer auf die Daten und das Archivdokument zuzugreifen und die Korrespondenz des Wissenschaftlers besser zu verstehen.

Leben, Werke und Datensilos. Zur Verknüpfung und Visualisierung von im/materiellen Komponenten des kulturellen Erbes | 334 Art des Beitrags / Konferenztrack: Vortrag Leben, Werke und Datensilos. Zur Verknüpfung und Visualisierung von im/materiellen Komponenten des kulturellen Erbes | Eva Mayr*, Johannes Liem, Nicole High-Steskal, Anja Grebe, Florian Windhager*

Eva Mayr, Johannes Liem, Nicole High-Steskal, Anja Grebe, Florian Windhager

Obwohl die Aggregation von Kulturdaten in Europa mit der Plattform Europeana bereits Tradition hat, wurden und werden viele Aspekte von immateriellen Kulturdaten bislang isoliert digitalisiert und akkumuliert. Um ein besseres Bild von der Reichhaltigkeit und den kontextuellen Einbettungen des kulturellen Erbes zu vermitteln, bedarf es der Verbindung von materiellen Objektsammlungen mit assoziierten immateriellen Narrativen und Geschichten. Das H2020-Projekt InTaVia führt mit dieser Zielsetzung materielles und immaterielles Kulturerbe digital zusammen und entwickelt visuelle Perspektiven für die synoptische Analyse und Kommunikation von Leben und Werken der europäischen Kulturgeschichte. Dazu wurden in zwei Wokshops Forscher*innen und Expert*innen aus Kulturerbeeinrichtungen nach ihren Praktiken, Bedürfnissen und Anforderungen befragt. Die Ergebnisse dokumentieren Anforderungen für DH-Anwendungen im Bereich des kulturellen Erbes, sowie für Projekte im expandierenden Feld von verlinkten und offenen Daten.

Projektvorstellung: Geschichtsvermittlung durch Unterhaltungsmedien in Lateinamerika. Labor für Erinnerungsforschung und digitale Methoden (GUMELAB, FU Berlin), Germany | Holle Ameriga Meding*, Mónika Contreras Saiz*, Hannah Muessemann*

Holle Ameriga Meding, Mónika Contreras Saiz, Hannah Muessemann

Das vom BMBF geförderte Forschungsprojekt GUMELAB – unter der Leitung von Prof. Dr. Stefan Rinke und Dr. Mónika Contreras Saiz – untersucht die Konstruktion, Vermittlung und trans-/nationale Rezeption lateinamerikanischer Geschichte und Erinnerung anhand von Telenovelas und Serien sowie deren Auswirkungen auf die politische Einstellung und das Geschichtsbewusstsein der Zuschauer:innen.

Die Anwendung digitaler Methoden zur Erfassung und Auswertung von Quellenmaterial und Daten aus sozialen Medien spielt dabei eine zentrale Rolle, allen voran die Entwicklung von Algorithmen zur Erfassung der vermittelten Erinnerungsbilder. Diese bilden später die methodische Grundlage für die Etablierung des Labors für Erinnerungsforschung und digitale Methoden an der Freien Universität Berlin, welches als Raum für interdisziplinäres Experimentieren bei der Entwicklung digitaler Methoden für die sozial- und geisteswissenschaftliche Forschung dienen wird.

Aktualität und Gedächtnis. Zur korpusanalytischen Untersuchung von Gegenwartsliteratur auf Twitter | Simon Meier-Vieracker*, Elias Kreuzmair

Simon Meier-Vieracker, Elias Kreuzmair

Twitter gilt als besonders präsentisches Medium, das in besonderer Weise zu gegenwartsbezogenem Schreiben einlädt. Zugleich machen die medialen Affordanzen der Persistenz und der Durchsuchbarkeit die Plattform zu einem umfassenden Archiv und Medium des digitalen Gedächtnisses. Dieses Spannungsverhältnis von gegenwartsbezogenem Schreiben und digitalem Archiv wird auch im gegenwartsliterarischen Diskurs auf Twitter immer wieder thematisch.

Zur korpuslinguistischen Analyse von Gegenwartsliteratur und ihrer Selbstreflexion auf Twitter wurde für das DFG-Projekt „Schreibweisen der Gegenwart“ ein gut 3,5 Mio. Wörter großes Twitterkorpus erstellt, das über die Tweettexte hinaus auch umfangreiche Metadaten einschießlich interaktiver Aspekte wie Reply-Strukturen umfasst. Damit ist das Korpus eine Fixierung eines eigentlich fluiden Diskurses. Auf dem Poster werden wir unsere Pipeline für die Korpuserstellung und unser Datenmodell vorstellen und anhand exemplarischer Analyseergebnisse zu Zeitreflexionen auf Twitter die methodologischen Schwierigkeiten diskutieren, die sich aus der Fixierung eines fluiden Medienformates ergeben.

GitMA-Poster: CATMA-Daten via Git abrufen und mittels Python-Bibliothek weiterverarbeiten | Malte Meister*, Michael Vauth, Dominik Gerstorfer

Malte Meister, Michael Vauth, Dominik Gerstorfer

Seit CATMA Version 6.0 kann auf Projektdaten in Form von Git Repositorien zugegriffen werden. Im Fachbereich für Digital Philology an der TU Darmstadt ist außerdem eine Python-Bibliothek entstanden, die einen einfachen Zugriff auf diese zulässt. Die Bilbiothek ermöglicht die Weiterverarbeitung der Annotationen mit gängigen Python Datascience-Tools. Das Poster wird eine Art Bedienungsanleitung für die Nutzung des CATMA Git Access und der Python-Bibliothek sein.

FDM-Awareness in Zeiten von Corona: Sammelkarten zum Forschungsdatenmanagement „Daten & Datteln digital“ | Elisabeth Mollenhauer*, Felix Rau

Elisabeth Mollenhauer, Felix Rau

Im Rahmen seiner Öffentlichkeitsarbeit hat das Data Center for the Humanities (DCH) an der Universität zu Köln den Auftrag, Wissenschaftler:innen über Aspekte des Umgangs mit Forschungsdaten und des Forschungsdatenmanagements (FDM) zu informieren. Mit Beginn der Corona-Pandemie 2020 mussten neben Sprechstunde und Lehre in Präsenz auch die als Awareness-Initiative geplanten Kurzvorträge zu einzelnen FDM-Aspekten „Daten & Datteln“ ausfallen. Stattdessen wurden die Inhalte in ein digitales Vermittlungsformat transferiert und als kompakte Sammelkarten an die Mitglieder der Philosophischen Fakultät und die interessierte Öffentlichkeit (via Twitter) kommuniziert. Das Poster dokumentiert und reflektiert, wie die Kommunikationsstrategie des DCH an die Pandemiebedingungen angepasst worden ist, um weiterhin sichtbar zu sein und FDM-Aspekte niederschwellig vermitteln zu können, und welche Mehrwerte und Möglichkeiten der Nachnutzung dabei entstanden sind.

Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses: Ein DFG-Projekt in der Rückschau. | Melissa Müller*

Melissa Müller

Das Poster zeigt anhand eines mit literaturwissenschaftlichen und linguistischen Annotationen versehenen Korpus, das alle Dramen von Andreas Gryphius (1616-1664) enthält, die Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses auf. Es wird auch dargestellt, wie diese Form der Datenaufbereitung Einfluss auf das kulturelle Gedächtnis bzw. dessen Beschaffenheit hat.

Das zoroastrische Mittelpersische - digitales Corpus und Wörterbuch (MPCD) | Claes Neuefeind*, Francisco Mondaca*, Øyvind Eide, Iris Colditz, Thomas Jügel, Kianoosh Rezania, Arash Zeini, Alberto Cantera, Chagai Emanuel, Shaul Shaked

Claes Neuefeind, Francisco Mondaca, Øyvind Eide, Iris Colditz, Thomas Jügel, Kianoosh Rezania, Arash Zeini, Alberto Cantera, Chagai Emanuel, Shaul Shaked

Mit diesem Beitrag möchten wir das Projekt “Das zoroastrische Mittelpersische – digitales Corpus und Wörterbuch (Middle Persian Corpus and Dictionary, MPCD)” vorstellen, das im April 2021 seine Arbeit aufgenommen hat. Das MPCD-Projekt wird von der DFG als Langfristvorhaben gefördert, mit einer geplanten Laufzeit von insgesamt neun Jahren. Das Vorhaben wird als Kooperationsprojekt der Universitäten Bochum, Berlin, Köln und Jerusalem durchgeführt. Während an den Standorten Bochum, Berlin und Jerusalem der Schwerpunkt auf der philologischen Erschließung des Korpus sowie des darauf aufbauenden Wörterbuchs liegt, ist auf Kölner Seite das Cologne Center for eHumanities (CCeH) für die technische Umsetzung einer kollaborativen Recherche- und Arbeitsumgebung zuständig, deren technischen Entwurf wir in diesem Beitrag thematisieren und zur Diskussion stellen wollen. Dies umfasst neben Aspekten der Datenmodellierung insbesondere die Systemarchitektur und die eingesetzten Technologien.

DiaCollo für GEI-Digital. Ein experimentelles Projekt zur weiteren Erschließung digitalisierter historischer Schulbuchbestände | Maret Nieländer*, Bryan Jurish, Christian Scheel

Maret Nieländer, Bryan Jurish, Christian Scheel

„DiaCollo für GEI-Digital“ ist ein experimentelles Projekt zur Erschließung digitalisierter und mit OCR behandelter historischer deutschsprachiger Schulbuchbestände für die Nutzung mit computerlinguistischen Werkzeugen und Methoden wie der diachronen Kollokationsanalyse mit „DiaCollo“. Das Poster beschreibt a) die Korpuserstellung mit mehr als 5000 Werken der digitalen Schulbuchbibliothek „GEI-Digital“ des Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung, b) die Zurverfügungstellung der aufbereiteten Daten mit der D* Korpusmanagement-Umgebung des Zentrums Sprache an der Berlin-Brandenburgischen Akademie der Wissenschaften, c) die Bemühungen um die Usability für Nutzer:innen aus anderen Fachdisziplinen mittels eines ausführlichen Tutorials sowie d) einige Befunde bezüglich der Passung der Werkzeuge und dieses Korpus‘, das sich von anderen an der BBAW verfügbaren diachronen Korpora in Bezug auf die OCR-Qualität und Charakteristika von Genre und Sammlungskonzept unterscheidet. Ein Ausblick schildert geplante weitere Arbeiten.

Das DFG Schwerpunktprogramm Computational Literary Studies | Steffen Pielström*, Kerstin Jung

Steffen Pielström, Kerstin Jung

In digitalen Editionen ist die automatische Erkennung und Annotation von Personen, Orten und Datumsangaben eine wichtige Aufgabe. Named Entity Recognition (NER) spielt dabei eine zentrale Rolle. Historische Texte bilden noch ein Problem, da oft zu wenig Trainingsmaterial zur Verfügung steht, um entsprechende ML-Modelle zu trainieren.Das Projekt NERDPool versucht einerseits existierende Editionsdaten zu nutzen und daraus einen Pool an Trainingsdaten zu generieren, sowie andererseits Workflows zu erproben und zu implementieren, die es erlauben, einfach und effizient bestehende Korpa manuell zu annotieren. Den Schwerpunkt setzt das Projekts auf frühneuzeitliche deutsche Texte. Die Datensätze werden über die Webapplikation https://nerdpool-api.acdh-dev.oeaw.ac.at/ respektive über eine impelementierte offene API veröffentlicht. Mit Stand mitte Juli umfasst NERDPool rund 23.500 annotierte Datensätze. Darunter sind etwa Akten vom Regensburger Reichstag von 1576, Ministerratsprotokolle Österreichs und der österreichisch-ungarischen Monarchie 1848–1918 oder die ersten Ausgaben des Wienerischen Diariums (um 1750).

Anpassungen von LERA zum Vergleich hebräischer Textzeugen des kabbalistischen Traktats Keter Shem Ṭov | Marcus Pöckelmann*, Bill Rebiger

Marcus Pöckelmann, Bill Rebiger

LERA ist ein an der Martin-Luther-Universität Halle-Wittenberg entwickeltes interaktives webbasiertes Kollationierungswerkzeug zum automatischen Vergleich von unterschiedlichen Versionen eines Textes, sei es schriftliche Überlieferungen eines (ggf. verloren gegangenen) Manuskripts oder Editionen eines Buches. Ursprünglich entwickelt wurde LERA in den Jahren 2012-2016 zum Vergleich von unterschiedlichen Druckauflagen eines Werkes der französischen Aufklärung (Bremer et al., 2015). Das Werkzeug wurde bzw. wird seitdem in mehreren, auch größeren englisch-, deutsch-, slowenisch- und arabisch-sprachigen Editionsprojekten eingesetzt. Im Rahmen der durch die DFG geförderten Erstellung einer Edition zum aus dem 13. Jahrhundert stammenden kabbalistischen Traktat Keter Shem Ṭov (Molitor et al. 2020) wurde LERA für den Vergleich hebräischer Texte erweitert. Der vorliegende Beitrag geht auf diese Erweiterungen ein und fasst die damit erzielten judaistischen Ergebnisse zusammen.

Mein liebster Schatz! Das Citizen Science-Projekt Gruß & Kuss stellt sich vor | Andrea Rapp, Stefan Büdenbender*, Nadine Dietz*, Lena Dunkelmann*, Birte Gnau-Franké*, Nina Liesenfeld, Stefan Schmunk, Melanie E.-H. Seltmann*, Thomas Stäcker, Stephanie Werner, Eva L. Wyss

Andrea Rapp, Stefan Büdenbender, Nadine Dietz, Lena Dunkelmann, Birte Gnau-Franké, Nina Liesenfeld, Stefan Schmunk, Melanie E.-H. Seltmann, Thomas Stäcker, Stephanie Werner, Eva L. Wyss

Gruß & Kuss – Briefe digital. Bürger*innen erhalten Liebesbriefe ist ein innovatives Verbund- sowie Citizen-Science-Projekt, das vom BMBF für den Zeitraum von drei Jahren gefördert wird. Es bindet aktiv Bürger*innen in die Digitalisierung und Erforschung von aktuell über 22.000 deutschsprachigen Liebesbriefen ein. Grundlage des Projekts sind die seit 1997 im Liebesbriefarchiv erst in Zürich, seit 2013 in Koblenz zusammengetragenen Spenden authentischer privater Liebesbriefe von Bürger*innen aus insgesamt drei Jahrhunderten, aus 52 Ländern und in sich wandelnden medialen Formaten.

Im Rahmen des Projekts werden Bürgerforscher*innen von Wissenschaftler*innen methodisch begleitet, unterschiedliche, auch digitale text- und sprachbasierte Untersuchungs- sowie Analysepraktiken durch verschiedene Partizipationsmöglichkeiten durchzuführen. Für die Nachhaltigkeit werden zum einen digitale Werkzeuge erarbeitet, die zur Nachnutzung auch für andere Projekte unterschiedlichster Disziplinen zur Verfügung stehen. Zum anderen wird die so entstehende Edition datenschutzkonform langzeitarchiviert und damit ein Kulturgut gesichert werden, für das bisher kein Sammlungsauftrag besteht.

Muster von “you” und “thou”: Modellierung der Anrede im englischen Sonett | Brigitte Rath*

Brigitte Rath

Ausgangspunkt dieses Projekts ist die bekannte Beobachtung, dass “thou”, eines der beiden Personalpronomen der 2. Person Singular im Englischen, im Lauf des 17. Jahrhunderts zugunsten von “you” aus der Alltags- und Prosasprache verschwindet. Dennoch wird “thou” in der Lyrik noch zwei Jahrhunderte lang prominent weiterverwendet. Dieses Projekt leistet einen ersten Schritt zur bisher noch nicht untersuchten Frage danach, mit welchen Konnotationen die beiden Pronomen nach dem Sprachwandel in der Lyrik verwendet werden. Mit Daten aus einem selbsterstellten Korpus von über 1300 englischsprachigen Sonetten werden Machine Learning Prediction Modelle trainiert und ihre Vorhersagegenauigkeit gemessen. Es zeigt sich, dass „you“ und „thou“ entgegen anderslautender Behauptungen in zahlreichen Gedichtkommentaren nicht synonym verwendet werden und die Kategorie der Angesprochenen wohl eine wichtige Rolle bei der Wahl des Pronomens spielt.

Der Dienstekatalog der AG Datenzentren – ein digitales Verzeichnis für Forschungsdatenmanagement-Services in den Geisteswissenschaften | Felix Rau*, Patrick Helling

Felix Rau, Patrick Helling

Die langfristige Sicherung, Verfügbarkeit und Nachnutzbarkeit von Forschungsdaten im Sinne der FAIR-Prinzipien ist ein wesentlicher Bestandteil guter wissenschaftlicher Praxis und nicht erst seit den Bestrebungen hin zu einer Nationalen Forschungsdateninfrastruktur (NFDI) ein wichtiger Motor wissenschaftlichen Fortschritts. Die Bedienung fachspezifischer Forschungsdatenmanagement-Bedarfe (FDM) in den Geisteswissenschaften übernehmen u.a. die Mitgliedsinstitutionen der DHd-AG Datenzentren. Die Arbeitsgruppe besteht aus insgesamt 28 Datenzentren und Interessensvertreter*innen, von denen 16 Einrichtungen über FDM-Servicestrukturen verfügen. Sie ergänzen das Forschungsdatenmanagement an ihren Standorten und darüber hinaus um ein geisteswissenschaftliches Profil und erarbeiten passgenaue Lösungsstrategien für die heterogene Forschungs- und Datenlandschaft der Geisteswissenschaften. Um die Sichtbarkeit und Erreichbarkeit einzelner AG-Datenzentren und ihrer FDM-Services zu verbessern, hat die Arbeitsgruppe einen gemeinsamen Dienstekatalog entwickelt, der als durchsuchbare Website verfügbar gemacht wurde und mit dieser Postereinreichung vorgestellt werden soll.

Towards a Computational Study of German Book Reviews. A Comparison between Emotion Dictionaries and Transfer Learning in Sentiment Analysis | Simone Rebora*, Thomas C. Messerli*, J. Berenike Herrmann

Simone Rebora, Thomas C. Messerli, J. Berenike Herrmann

This poster reports on the groundwork for the computational study of evaluative practices in German language book reviews. We trained classifiers for evaluation and sentiment at sentence level on the LOBO corpus, comprising ~1.3 million book reviews downloaded from the social reading platform LovelyBooks.

For the two classification tasks, we compared performance of dictionary-based and transfer-learning (TL) based sentiment analysis (SA). Our results highlight the higher efficiency of TL-methods and of dictionaries based on vector space models (like SentiArt and AffectiveNorms). They show that computational methods can reliably identify sentiment of book reviews in German.

Die Vermessung der (musikalischen) Welt | Klaus Rettinghaus*

Klaus Rettinghaus

Was zeichnet ein harmonisches Notenbild aus, wie sind die Größenverhältnisse einzelner Symbole im Druck? Wir haben tausende Seiten von Musikdrucken gescannt und sie mit unserer selbstentwickelten OMR-Software analysiert. So sind wir in der Lage sehr präzise Aussagen über Größen und Größenverhältnisse einzelner Symbole zu treffen. Ersten Ergebnisse sollen auf einem Poster präsentiert werden und uns bei der digitalen Transformation des klassischen Notensatzes helfen ein ansprechenderes Layout zu erzielen. 

Beyond the render silo: semantically annotating 3D data within an integrated knowledge graph and 3D-rendering toolchain | Lozana Rossenova*, Zoe Schubert, Richard Vock, Ina Blümel

Lozana Rossenova, Zoe Schubert, Richard Vock, Ina Blümel

As a result of mass-digitisation efforts, cultural heritage and research institutions have had to adapt their practices to account for shifts in what cultural stewardship and the study of cultural memory entails. Representations of cultural assets in the form of 3D models within disciplines such as architecture, art, archaeology, and 3D reconstruction are particularly heterogeneous in formats and structure, ergo standardized access and visualisation tools face new challenges. Furthermore, cultural memory preservation requires the active participation of diverse audiences who can easily access, search and enrich datasets through annotations and critical interpretations. This poster presents the development of a suite of tools as part of the NFDI4Culture project focusing on such enrichment. The toolchain facilitates the annotation of 3D data within a knowledge graph (Wikibase) and a sophisticated rendering environment (Kompakkt), so that 3D objects’ geometry, attendant metadata and annotations are accessible and searchable as part of the semantic web.

Das optimale Datenmodell: eine Spurensuche im Möglichkeitsfeld der Kodierung | Sanja Saric*, Elisabeth Steiner, Maximilian Vogeltanz*

Sanja Saric, Elisabeth Steiner, Maximilian Vogeltanz

Zu Beginn jedes neuen Projektes in den Digitalen Geisteswissenschaften steht die Frage nach der adäquaten Modellierung der Forschungsdaten. Während im Förderantrag häufig bereits die Nennung vom XML/TEI für Textquellen ausreichend ist, stellt sich das Unterfangen zu Beginn der praktischen Arbeit meist komplizierter dar: Schon die TEI (TEI Consortium 2021) alleine bietet zahlreiche Möglichkeiten ähnliche Sachverhalte zu modellieren und die gewählte Strategie muss dabei jeweils auf das Material, die Forschungsfrage und in weiterer Folge die Archivierung und Weiterverwendung der Daten Rücksicht nehmen. Der hier vorliegende Beitrag stellt die Herausforderungen und Lösungsansätze anhand der Briefkorrespondenz von Hugo Schuchardt vor.

Szenario-basierte Planung eines semantischen Digitalisierungsvorhabens in der digitalen Geschichtswissenschaft | Werner Scheltjens*, Christoph Schlieder

Werner Scheltjens, Christoph Schlieder

Die Retrodigitalisierung von nicht urheberrechtlich geschützten Bibliothekssammlungen hat der historischen Forschung eine Fülle gedruckter Texte als digitale Quellen zugänglich gemacht. Dabei stoßen HistorikerInnen relativ schnell an die Grenzen der Auswertungsmöglichkeiten vorliegender Digitalisate, die als Ergebnis der „ersten Digitalisierung“ typischerweise einen Scan, einen Volltext und Metadaten zusammenfassen. Anhand eines Nachschlagewerkes des 19. Jahrhunderts über Maß- und Gewichtssysteme führt dieser Beitrag vor, welchen Mehrwert eine zweite oder semantische Retrodigitalisierung für die historisch-metrologische Forschung bietet. Die „zweite Digitalisierung“ strebt die Extraktion und Modellierung der semantischen Struktur des enzyklopädischen Wissens an. Der Beitrag entwickelt ein szenario-basiertes Vorgehen für die Planung der semantischen Modellierung digitalisierter historischer Quellen, das einen von Lodi et al. (2017) vorgeschlagenen Planungsansatz erweitert und konkretisiert. Insbesondere wird gezeigt, wie anhand von Kompetenzfragen beurteilt werden kann, welche semantischen Beziehungen explizit zu repräsentieren sind und welche durch Anfragen abgeleitet werden sollen.

Datenschutz in der wissenschaftlichen Praxis: Der DARIAH-EU ELDAH Consent Form Wizard | Walter Scholger*, Vanessa Hannesschläger*, Pawel Kamocki*, Koraljka Kuzman-Šlogar*

Walter Scholger, Vanessa Hannesschläger, Pawel Kamocki, Koraljka Kuzman-Šlogar

Im Bereich der Digital Humanities (DH) gilt der offene Zugang zu Wissen und den Ergebnissen wissenschaftlicher Forschung als Selbstverständlichkeit und aufgrund der Vorgaben nationaler und europäischer Förderprogramme geradezu als Notwendigkeit. Andererseits sind Vertraulichkeit und Datenschutz ethische Grundanforderungen für die Verarbeitung personenbezogener (Forschungs-)Daten.

Der Consent Form Wizard wurde von der DARIAH-EU Arbeitsgruppe ELDAH in Kooperation von Jurist*innen, Entwickler*innen und Wissenschaftler*innen entwickelt.

Dieses frei online verfügbare Werkzeug generiert standardisierte und DS-GVO-konforme Einwilligungserklärungen für Studienteilnehmer*innen, Benutzer*innen, Veranstaltungs- oder Umfrageteilnehmer*innen etc. im Kontext wissenschaftlicher Datenerhebungen und -verarbeitungen.

Die zum gegenwärtigen Zeitpunkt umgesetzten Anwendungsszenarien des Consent Form Wizards reichen, basierend auf den Befragungen von TeilnehmerInnen mehrerer internationaler DH-Veranstaltungen und themenspezifischer Workshops, von Zustimmungserklärungen für die Datenverarbeitung bei der Veranstaltungsorganisation, über Ton- und Videoaufzeichnungen, Mailinglisten und Newsletter bis hin zur Verarbeitung personenbezogener Daten im Rahmen von Umfragen und Interviews in der Forschungspraxis.

Datenbiographik im Literaturarchiv. Konzept und Umsetzung digitaler Dienste am Theodor-Fontane-Archiv | Sabine Seifert*, Anna Busch, Peer Trilcke, Kristina Genzel, Juliane Heilmann, Klaus-Peter Möller

Sabine Seifert, Anna Busch, Peer Trilcke, Kristina Genzel, Juliane Heilmann, Klaus-Peter Möller

Das Theodor-Fontane-Archiv hat umfassende bio- und bibliographische Datenbestände zu Fontane in Form offener Kulturdaten webbasiert und kostenfrei verfügbar gemacht. Die “Fontane Bibliographie online” enthält bibliographische Metadatensätze zu Primär- und Sekundärliteratur und die “Fontane Briefdatenbank” verzeichnet brieftypische Metadaten zu sämtlichen bekannten Briefen von Fontane. Ergänzt um die Daten der Biographischen Datenbank und angereichert mit Norm- und Registerdaten fließen die Einzeldatenbestände, für die individuelle Dienste mit eigenen Interfaces entwickelt wurden, in den übergreifenden Dienst “Fontane Chronik digital” ein. Dieser datenbiographische Meta-Dienst weist jeden Datensatz einem übergeordneten Tages-, Monats- oder Jahresdatensatz zu. Das chronikale Prinzip in Form einer Datenbiographik wird im Frontend mittels eines Kalender-Interfaces ausgegeben, das unterschiedliche Zugangsszenarien und Darstellungsformen berücksichtigt. Während die Qualitätssteigerung der Daten (Normdaten, LOD, Zugriff via APIs) im Vordergrund zukünftiger Entwicklungsarbeiten steht, bilden diese ebenfalls einen Beitrag zur Neujustierung des Verhältnisses von Archiv und Biographik im Zeichen der digitalen Transformation.

Repositorien als digitale Gedächtnisträger zwischen Evolution und Langzeitplanung | Elisabeth Steiner*, Gunter Vasold*, Martina Scholger

Elisabeth Steiner, Gunter Vasold, Martina Scholger

Seit beinahe 20 Jahren verwaltet und publiziert das Repositorium GAMS Forschungsdaten aus den Geisteswissenschaften und dem Kulturerbebereich. Derzeit enthält das Langzeitarchiv etwa 115.000 annotierte digitale Objekte aus mehr als 60 Projekten. Dies reicht von digitalen Editionen oder Textsammlungen (z.B. Briefe, mittelalterliche Rechnungsbücher) über Bildsammlungen (z.B. historische Fotografien und Postkarten) bis hin zu digitalisierten musealen Sammlungen (z.B. archäologische Artefakte oder andere Museumsobjekte) (GAMS 2021). Dabei liegt das Augenmerk sowohl auf der langfristigen Sicherung und Zugänglichmachung von Ressourcen wie auch auf dem nachhaltigen Umgang mit den bearbeiteten Forschungsdaten.

Domänenspezifische Repositorien müssen dabei einen Ausgleich zwischen langzeittauglicher und somit eher konservativer Entwicklung und dem Einsatz aktueller Technologien finden. Das Poster wird den konzeptionellen Rahmen dieser Forschungsdateninfrastruktur vorstellen und Lösungsansätze aus diesem Widerspruch diskutieren, die besonders auf die Migration der Kernkomponenten fokussieren.

Semantische Suche mit Word Embeddings für ein mehrsprachiges Wörterbuchportal | Ngoc Duyen Tanja Tu*, Peter Meyer

Ngoc Duyen Tanja Tu, Peter Meyer

Das Poster präsentiert eine semantische Suchfunktion, basierend auf Word Embeddings, für das Lehnwortportal Deutsch (LWPD), ein Online-Informationssystem zu lexikalischen Entlehnungen aus dem Deutschen in andere Sprachen.

Der onomasiologische Zugriff auf die lexikalischen Einheiten des Portals ermöglicht es Forschungsfragen, wie z.B. zur Wahrscheinlichkeit der Entlehnung von lexikalischen Einheiten mit einer bestimmten Bedeutung (Haspelmath/Tadmor, 2009; Zeller, 2015) zu beantworten.

Die Suchtechnologie basiert auf multilingualen vortrainierten Word Embeddings: Bedeutungen von Wörtern aus dem Portal werden Vektoren zugeordnet. Die Benutzer:innen können ein oder mehrere Suchbegriff(e) aus einer großen Anzahl wählen, die Datenbank liefert dann lexikalische Einheiten aus dem LWPD, deren Vektor ähnlich zu dem des Suchbegriffs bzw. der Suchbegriffe ist.

Wir zeigen die Vorteile dieses Ansatzes im Vergleich zu Suchfunktionen auf, die auf semantischen Feldern basieren. Außerdem geben wir eine vorläufige Evaluation der Qualität der Suchergebnisse.

Reflexive Passagen und ihre Attribution | Hanna Varachkina*, Florian Barth, Luisa Gödeke, Anna Mareike Hofmann, Tillmann Dönicke

Hanna Varachkina, Florian Barth, Luisa Gödeke, Anna Mareike Hofmann, Tillmann Dönicke

Das Projekt MONA beschäftigt sich mit reflexiven Passagen und ihrer Attribution. Der Begriff reflexive Passagen ist ein Oberbegriff für drei Phänomene: Generalisierung, literarischer Kommentar und nicht-fiktionale Rede. Reflexive Passagen können dem/der AutorIn, einer Erzähinstanz und/oder einer Figur zugeschrieben werden. Wir annotieren die mit reflexiven Passagen assoziierten Phänomene in deutschsprachigen fiktionalen Erzähltexten von 1650–1950 und veröffentlichen sie im Korpus MONACO. Auf der Grundlage der entstehenden Daten werden regelbasierte, statistische und neuronale Modelle zur Erkennung und Klassifikation von Generalisierung, Kommentar, nicht-fiktionaler Rede und ihrer Attribution entwickelt. Sobald ausreichend annotierte Daten vorliegen, kann eine diachrone Analyse der reflexiven Passagen und ihrer Attribution über einen Zeitraum von 350 Jahren vorgenommen werden.

Prosopographische Interoperabilität (IPIF) - Stand der Entwicklungen | Georg Vogeler*, Richard Hadden, Matthias Schlögl, Gunter Vasold

Georg Vogeler, Richard Hadden, Matthias Schlögl, Gunter Vasold

Bericht über die Entwicklungen am International Prosopographical Interoperability Framework (IPIF)

Die Preußische Monarchie visualisieren - Ein Bericht aus dem Werkzeugkasten | Jan Wierzoch*, Lou Klappenbach

Jan Wierzoch, Lou Klappenbach

Visualisierungen in ihren unterschiedlichen Formen stellen nicht nur eine Ergänzung zur klassischen Edition dar, sondern eröffnen durch Verknüpfungsmöglichkeiten und interaktive Elemente neue Perspektiven auf Forschungsdaten. Die Aufbereitung von Kulturdaten zur Visualisierung und ihre Online-Publikation kann Forscher:innen anregen, mit ihnen zu experimentieren. Visualisierungen bieten als Teil digitaler Editionen neue und teilweise interaktive Möglichkeiten der Vermittlung historischer Informationen. Sie können einen neuen Blick auf die Daten einer Edition eröffnen, ob in Karten, Diagrammen oder anderen Visualisierungsmodi, weiter explorierbar durch beispielsweise Filter, Suche, Zoom und Verlinkungen. Wie Visualisierungen eine Edition bereichern können, wird im Projekt “Die Sprache der Monarchie” sichtbar und soll auf der DHd2022-Konferenz in einem Posterbeitrag präsentiert werden.

Spotlights: Wie das OpenMethods-Metablog Digital Humanities-Methoden, -Tools und -Toolmaker ins Scheinwerferlicht rückt | Ulrike Wuttke, Erzsébet Tóth-Czifra*, Marinella Testori, Aliz Horvath, Paul Spence, Helen Katsiadakis

Ulrike Wuttke, Erzsébet Tóth-Czifra, Marinella Testori, Aliz Horvath, Paul Spence, Helen Katsiadakis

Das OpenMethods-Metablog bringt Open-Access-Inhalte zu DH-Methoden und -Werkzeugen in verschiedenen Formaten und Sprachen zusammen. Ziel ist es, das Wissen um die selbigen zu verbreiten und ihre Anerkennung in der DH-Community und darüber hinaus zu erhöhen. Im Poster präsentieren wir mit dem Format ‘Spotlights’ die jüngste Weiterentwicklung der Plattform. Diese neue Serie von längeren Originalbeiträgen in Interviewform im Metablog zielt darauf ab, die Menschen hinter den DH-Werkzeugen und -Methoden besser sichtbar zu machen. In Zentrum unserer Posterpräsentation sollen neben der Vorstellung der neuen Spotlights-Serie (mittels einer interaktiven Demo) unter anderem die Diskussion der Herausforderungen des OpenMethods-Editorial Teams in Bezug auf die Nachhaltigkeit der Plattform stehen sowie gemeinsam mit der DHd-Community darüber nachgedacht werden, wie Beiträge, neueste Entwicklungen, Community-Praktiken etc. aus dem deutschsprachigen DH-Diskurs besser dargestellt werden können. 

}

19:00 – 22:00

Universität Potsdam

Campus Griebnitzsee,
Foyer

Get Together