}

9:15 – 10:45

Zoom

Vortragsslot 1

V6_1: Digitale Geschichtswissenschaft

Chair: Stefan Schmunk (Hochschule Darmstadt)

Vom gedruckten Gazetteer zum digitalen Ortsverzeichnis - Das Geschichtliche Ortsverzeichnis (GOV) | Anne Purschwitz*, Jesper Zedlitz*

Anne Purschwitz, Jesper Zedlitz

Ortsnamen und geographische Räume wie auch ihre Positionierung spielen in der Geschichtswissenschaft eine wichtige Rolle. Vor diesem Hintergrund ist es häufig erforderlich Ortsnamen zu recherchieren, eine Lokalisierung und eine Visualisierung auf unterschiedlichem Kartenmaterial vorzunehmen. Mittlerweile stehen dafür eine Vielzahl von Tools zur Verfügung. Gerade in dem breiten verfügbaren Spektrum liegen Möglichkeiten aber auch Schwierigkeiten für Forscher*innen und interessierte Laien.

Die Besonderheiten historischer Raumzuordnungen beinhalten spezifische Herausforderungen bei der Aufbereitung, Präsentation und Recherche. Die Mehrheit der aktuell als Open-Access verfügbaren Ortsverzeichnisse berücksichtigt dieses ‚historische Werden‘ nur unzureichend bis gar nicht.

Das Geschichtliche Ortsverzeichnis des ‘Vereins für Computergenealogie’ stellt sich den Herausforderungen in der Modellierung von Zeit und Raum. Im GOV wurden dafür topologische Beziehungen modelliert, die im Unterschied zu Time-slices belastbarer sind. Entstanden ist ein hierarchisches Modell, das zwischen Siedlung und Administration trennt, beide Ebenen aber vielfältig miteinander in Beziehung setzen kann. Das GOV geht damit deutlich über bisherige Standards hinaus.

 

Automatisierte Extraktion und Klassifikation von Variantenschreibungen historischer Berufsbezeichnungen in seriellen Quellen des 16. bis 20. Jahrhunderts | Katrin Moeller*, Jan Michael Goldberg*

Katrin Moeller, Jan Michael Goldberg

Berufsangaben kommen in sehr vielen historischen Quellen vor. Für eine Vielzahl von Forschungsgebieten bildet nicht nur die Standardisierung, sondern vor allem eine ordnende Klassifikation eine zentrale Voraussetzung zur tatsächlichen Analyse von Berufen nach verschiedenen möglichen Ordnungsprinzipien. Einen Ansatz bildet die „Ontologie der historischen Amts- und Berufsbezeichnungen (OhdAB)“. Der Vortag beschäftigt sich mit der automatisierten Zuordnung von Variantenschreibungen von Amts- und Berufsbezeichnungen zu den Berufsgattungsnamen dieses Klassifikationsansatzes. Im Mittelpunkt des Beitrags steht ein Algorithmus zur Identifizierung von Berufsbezeichnungen in strukturierten Quellen. Entwickelt wurde eine Vorgehensweise des Machine Learnings zur Erkennung von Variantenschreibungen. Diese besteht aus einem komplexen Workflow eines automatisierten Preprocessings zur Identifizierung bzw. Separierung der eigentlichen Berufsangaben und einer auf einem Algorithmus beruhenden Zuordnung unbekannter Varianten zur Klassifikation. Bei der Anwendung auf einen unbereinigten und stark heterogenen Datensatz des Vereins für Computergenealogie und eines korrigierten Trainingssets wurde eine Erkennungsrate von 75 Prozent der Berufsangaben mit 5 % fehlerhaften Zuordnungen ermittelt.

Anzeigen als Daten. Dynamisches Tagging und iterative Auswertung eines frühneuzeitlichen Intelligenzblattes | Ina Serif*, Anna Reimann*, Alexander Engel*

Ina Serif, Anna Reimann, Alexander Engel

Das SNF-Projekt „Märkte auf Papier – das Basler Avisblatt 1729–1844“ untersucht ein wöchentlich erschienenes vormodernes Anzeigenblatt, das einen erheblichen Teil des sozioökonomischen Austauschs in einer Schweizer Stadt über einen Zeitraum von 116 Jahren abdeckt. Es umfasst Angebote und Gesuche von Waren, Dienstleistungen, den Arbeits- und Immobilienmarkt, Geldverleih und andere Aspekte des sozialen und wirtschaftlichen Lebens. Die Quelle wurde digitalisiert und eine Datenbank mit hunderttausenden von Anzeigen aufgebaut. Um diese auswerten und analysieren zu können, wurden sie mit klassifizierenden Metadaten ergänzt. Anstatt zu versuchen, eine a priori, one-serves-all-Klassifizierung vorzunehmen, verwenden wir eine Strategie des algorithmischen Taggings mit dictionary-basierten R-Skripten. Diese können im Verlauf der Analyse dynamisch entwickelt werden, was zu einem iterativen Verfeinerungsprozess von Hypothesen und Heuristiken führt. Ein solcher Ansatz vermeidet die Erzeugung von Single-Use-Datensätzen oder Datenfriedhöfen und versteht damit sowohl Daten als auch deren Analyse als sich ständig weiterentwickelnd und voneinander abhängig.

}

9:15 – 10:45

Zoom

Panels

Panel 6: Kultur – Daten – Kuratierung: Was speichern wir und wozu?

Reinhard Altenhöner, Lisa Dieckmann, Andreas Münzmay, Kristina Richts-Matthaei, Margarete Pratschke, Patrick Primavesi, Daniel Röwenstrunk, Christoph Schulz, Martha Stellmacher  

Kultur – Daten – Kuratierung: Was speichern wir und wozu?

Reinhard Altenhöner, Lisa Dieckmann, Andreas Münzmay, Kristina Richts-Matthaei, Margarete Pratschke, Patrick Primavesi, Daniel Röwenstrunk, Christoph Schulz, Martha Stellmacher  

Das Panel zielt, ausgehend von Impulsbeiträgen aus den Feldern Bild- und Netzkultur, Tanz, Theater und Performance sowie Bewegungsbücher und gaming arts, auf eine offene Community-Diskussion über die Frage der Datenauswahl für langfristige Archivierungen. Ein zentraler Ausgangspunkt dafür ist zugleich der Auftrag des Konsortiums NFDI4Culture, wissenschaftsgeleitet Strategien für das nachhaltige Forschungsdatenmanagement im Bereich der materiellen und immateriellen Kultur mitzuentwickeln und vermittelnd dazu beizutragen, dass die richtigen Partner – Datenproduzierende, Datenkuratierende wie Datennutzende – zusammenfinden. Angesichts der oft stark technisch bestimmten Entwicklung entsprechender Standards und Anforderungen regt das Panel an, auch die grundlegendere Frage in den Blick zu rücken, was in die Bewahrung eingeht und welche Anforderungen zukünftiger Forschung an diese Objekte wahrscheinlich sind. Was speichern wir und wozu? Was macht es mit ‚Kultur‘, wenn wir sie digital speichern, oder nicht speichern, oder nur für eine gewisse Zeit speichern?

}

9:15 – 10:45

Zoom

Vortragsslot 2

V6_2: Computationelle Emotionsanalyse

Chair: Manfred Stede (Universität Potsdam)

Lieblingsgegenden, Fenster und Mauern. Zur emotionalen Enkodierung von Raum in Deutschschweizer Prosa zwischen 1850 und 1930 | J. Berenike Herrmann*, Giulia Grisot*

J. Berenike Herrmann, Giulia Grisot

Ausgehend vom übergreifenden Forschungsinteresse einer datenbasierten Komparatistik der deutschsprachigen Länder möchte unser Beitrag erste Ergebnisse berichten über die emotionale Enkodierung von fiktionalem Raum. Anhand des DCHLi (Deutschschweizer Literaturkorpus), zurzeit als Pilotkorpus (76 Texte, 1854-1930, ca. 2 Mio. Wörter), und ausgehend von einem semiotischen Zugang zu textuell enkodierten Emotionen und Raumanalyse legen wir den derzeit gängigen Diktionär-basierten Zugang zu dimensionalen (Valenz, Arousal) und diskreten Emotionen (“Angst”, “Freude”, “Wut”, “Trauer”, „Ekel“) an.

Welche unterschiedlichen Typen von Landschaft und Raum gibt es in der fiktionalen deutschschweizer Prosa zwischen 1854 und 1930, und wie sind diese jeweils emotional enkodiert?

Unsere quantitative Befunde stellen Bezüge her zu ikonischen Kultur/Natur-Dichotomien im Erbe der Romantik, zu historischen Stadt/Land-Konstellationen, aber auch zu einem nationalliterarischen Rahmen mit vielbeklagtem Schweizer “Mythos” einerseits und identifikatorischen (oftmals Alpen-orientierten) Angeboten für die “imagined community” (Anderson) der sogenannten Willensnation andererseits. Wir schließen mit einer methodologischen Reflexion der Sentimentanalyse innerhalb der DH.

Emotionen im kulturellen Gedächtnis bewahren | Katrin Dennerlein*, Thomas Schmidt, Christian Wolff

Katrin Dennerlein, Thomas Schmidt, Christian Wolff

Die in literarischen Texten enthalten Emotionsdarstellungen sind aus dem Abstand einiger Jahrhunderte aufgrund veränderter anthropologischer Vorstellungen und literarischer Darstellungskonventionen oftmals nicht mehr verständlich. Das ist auch der Fall bei deutschsprachigen Dramentexten aus dem 17. bis 19. Jahrhundert. Will man diese Dramen für die Gegenwart nicht nur speichern, sondern auch verständlich halten, muss man nicht nur die Texte selbst, sondern auch die Information, welche Emotion jeweils von einer Figur gemeint ist, im kulturellen Gedächtnis bewahren. Im Beitrag wird zunächst die Emotionstaxonomie mit vier Oberklassen und 13 Einzelemotionen begründet, die es ermöglichen soll, Kontinuität und Wandel in der Emotionsdarstellung im Untersuchungszeitraum zu erforschen. Anschließend wird die Prädominanz von ‚Leid‘ und die Verteilung der Emotionen ‚Leid‘ und ‚Freude‘ im Handlungsverlauf der 11 bisher annotierten Dramen diskutiert. Zum Schluss wird erläutert, inwiefern von Deep Learning-basierten Sprachmodellen auf derzeitigem Stand erstmals kontextsensitive Vorhersageergebnisse zu erwarten sind, die über bisherige Machine-Learning-Verfahren hinausgehen.

Jung, wild, emotional? Rollen und Emotionen Jugendlicher in zeitgenössischer Fantasy-Literatur | Marie Flüh*, Mareike Schumacher

Marie Flüh, Mareike Schumacher

In unserem Beitrag stellen wir eine Fallstudie zur computergestützten Analyse von Genderrollen und Emotionen in zeitgenössischen Fantasy-Romanen für Jugendliche vor. Unter methodischer Perspektive möchten wir einen Mixed-Methods-Ansatz zur Diskussion stellen, in dem Named Entity Recognition, manuelle digitale Annotation und Netzwerkanalyse ineinander übergreifen. Unter inhaltlicher Perspektive werden Figurenrollen und daran gebundenen Emotionen hinsichtlich einer stereotypen Darstellungsweise befragt.

}

9:15 – 10:45

Zoom

Doctoral Consortium / Vortragsslot 3

V6_3: Communities und Infrastrukturen

Chair: Heike Neuroth (Fachhochschule Potsdam)

Der SSH Open Marketplace – Kontextualisiertes Praxiswissen für die Digital Humanities | Alireza Zarei*, Yim Seung-Bin, Matej Ďurčo, Klaus Illmayer, Laure Barbot, Frank Fischer, Edward Gray

Alireza Zarei, Yim Seung-Bin, Matej Ďurčo, Klaus Illmayer, Laure Barbot, Frank Fischer, Edward Gray

Im Rahmen des Horizon-2020-geförderten Projekts „Social Sciences & Humanities Open Cloud“ (SSHOC), das eine Laufzeit von 2019–2022 hat, wird der SSH Open Marketplace entwickelt, der einen Überblick nicht nur über digitale Tools und Services bietet, sondern auch über Trainingsmaterialien, Publikationen, Datensets und Workflows. Dabei werden diese miteinander kontextualisiert: Der Eintrag zu einem Tool verlinkt etwa Forschungspaper, die mithilfe dieses Tools entstanden sind, desweiteren passende Trainingseinheiten, zum Beispiel aus dem „Programming Historian“, und, falls vorhanden, Forschungsdaten in einem für das Tool geeigneten Format. Das flexible Datenmodell und das Exponieren einer offenen API ermöglichen es, das gesammelte Praxiswissen für die Digital Humanities nutz- und erforschbar zu machen und eine neue, sich aktiv weiterentwickelnde Datenbasis dafür zu schaffen.

Der CLARIAH-DE Tutorial Finder | Antonina Werthmann, Tobias Gradl*

Antonina Werthmann, Tobias Gradl

Der Beitrag stellt einen im Rahmen des CLARIAH-DE Projekts entwickelten Dienst – den Tutorial Finder – vor. Dieser greift auf frei zugängliche und nachnutzbare Sammlungen von Lehr- und Schulungsmaterialien im Bereich der Digital Humanities (DH) zu und erlaubt es, sie in einem zentralen Verzeichnis zu durchsuchen. Die im Tutorial Finder erfassten Sammlungen stammen aus nationalen und internationalen Quellen und bieten vielfältige Materialien in unterschiedlichen Formaten an. Diese reichen dabei von einfachen Dokumentationen über aufgezeichnete Vorträge und Präsentationsfolien bis hin zu didaktisch-methodisch ausgearbeiteten Lerneinheiten und Modulen. Das offene Angebot des Tutorial Finders, das weiter verstetigt und erweitert wird, kann nicht nur von Lehrenden, Forschenden und Studierenden der DH zum Selbstlernen oder Einsetzen im Unterricht genutzt werden, sondern bietet allen Interessierten eine Möglichkeit, eigene Lehr- und Schulungsmaterialien einem möglichst breiten Nutzerkreis zugänglich zu machen und ihre langfristige Nachnutzbarkeit zu stärken.

Pragmatisches Forschungsdatenmanagement – qualitative und quantitative Analyse der Bedarfslandschaft in den Computational Literary Studies | Patrick Helling*, Kerstin Jung*, Steffen Pielström

Patrick Helling, Kerstin Jung, Steffen Pielström

Die Computational Literary Studies (CLS) sind ein interdisziplinäres Forschungsfeld im Schnittpunkt von Literaturwissenschaft, Computerlinguistik und Informatik, in dem digitale Forschungsdaten eine zentrale Rolle spielen. Elf Forschungsprojekte aus den CLS sind derzeit in einem DFG-Schwerpunktprogramm organisiert. Um die Forschungsdatenmanagement-Bedarfslandschaft in den Projekten zu erfassen und zu bedienen, wurde ein mehrstufiges Verfahren mit Interviewgesprächen, Analyseschritten und Reviewphasen implementiert. In Leitfaden-gestützten Interviews beantworteten die Teilnehmer*innen insgesamt 47 Fragen. Im Zuge der ersten Auswertung wurde ein Antworteninventar erstellt und den Projekten nochmals zur Überarbeitung zur Verfügung gestellt. Es zeigte sich u.a. ein breites Spektrum an Forschungsdaten und eine zentrale Rolle von kollaborativ genutzten Modellen und Programmcodes. Um die identifizierten Bedarfe zu bedienen, wurde zur Bündelung der Datenpublikationen eine Zenodo-Community eingerichtet. Ferner haben die Partnerinstitutionen nun die Möglichkeit, über eine gemeinsame Gitlab-Instanz kollaborativ an Datenbeständen zu arbeiten. Nach der Implementierung dieser pragmatischen Lösungen liegt der weitere Fokus nun auf der Entwicklung einer gemeinsamen Archivierungsstrategie.

}

10:45 – 11:15

Kaffeepause

}

11:15 – 12:45

Zoom

Vortragsslot 1

V7_1: Maschinelles Lernen in der Literaturwissenschaft

Chair: Christof Schöch (Universität Trier)

Evaluating Hyperparameter Alpha of LDA Topic Modeling | Keli Du*

Keli Du

As a quantitative text analytic method, Latent Dirichlet Allocation (LDA) topic modeling has been widely used in Digital Humanities in recent years to explore numerous unstructured text data. When topic modeling is used, one has to deal with many parameters that can influence the result of the modeling such as the hyperparameter Alpha and Beta, topic number, document length, number of iterations of model-updating. The present research has evaluated the influence of hyperparameter Alpha in topic modeling on a newspaper corpus and a literary text corpus from two perspectives, document classification and topic coherence. The results show that one should avoid training topic models with setting Alpha of each topic higher than 1 if one wants to ensure better topic modeling based document classification and more coherent topics.

Adapting Coreference Algorithms to German Fairy Tales | David Schmidt*, Markus Krug, Frank Puppe

David Schmidt, Markus Krug, Frank Puppe

Coreference Resolution is an important task in natural language processing that enables the combination of locally extracted information on a document level context or even across different documents, e.g. to display the relations between characters of a novel in a character network. In this work, we adapt a rule-based and an end-to-end deep learning algorithm which have previously been used on German novel fragments to the domain of German fairy tales and examine their performance. We find that the adaptation can improve their performance considerably, especially that of the deep learning algorithm.

Verwendung von Wissensgraphen zur inhaltlichen Ergänzung kleinerer Textkorpora | Thora Hagen*

Thora Hagen

Die Korpuserstellung ist einer der essenziellsten Schritte um ein Forschungsvorhaben im Bereich der Digital Humanities durchzuführen. Vor allem für speziellere Domänen (etwa bei der Analyse von Subgenres oder Dialekten) ist allerdings häufig nicht genügend Material verfügbar, um Methoden aus dem NLP Bereich nachnutzen zu können, da diese Gigabytes an Text verlangen. Dieser Aufsatz zeigt wie Wissensgraphen, welche zum Beispiel aus Wörterbüchern erstellt werden können, helfen, kleinere Textkorpora aufzuwerten. In dem hier durchgeführten Experiment wird ein auf 20 Megabytes trainiertes FastText Modell mit den Informationen aus GermaNet angereichert. Das resultierende Modell weist die selbe Performanz auf wie ein einfaches FastText Modell, welches auf etwa dreimal soviel Daten trainiert wurde.

}

11:15 – 12:45

Zoom

Panels

Panel 7: Protokolle: Modellierung einer administrativen Textsorte

 Nadine Arndt, Cornelia Baddack, Wladimir Fischer-Nebmaier, Sebastian Gleixner, Barbara von Hindenburg, Sven Jüngerkes, Stephan Kurz, Maximilian Schrott

Protokolle: Modellierung einer administrativen Textsorte

 Nadine Arndt, Cornelia Baddack, Wladimir Fischer-Nebmaier, Sebastian Gleixner, Barbara von Hindenburg, Sven Jüngerkes, Stephan Kurz, Maximilian Schrott

Administrative Textsorten, darunter prominent das Protokoll, stehen im Zentrum jeder Bürokratie, sie sorgen für das Funktionieren von Wissenstransfer innerhalb von Institutionen über Zeit und zwischen Akteuren. Was sie festhalten, ist relevant: Sie sind Quellen für die Forschung, sie sorgen in unterschiedlichen Verhältnissen aber auch für Organisationsgedächtnis, Verbindlichkeit und Transparenz innerhalb und zwischen Institutionen, Verwaltungseinheiten und der Gesellschaft. Das Panel nimmt die Verantwortung der Überlieferung von Protokollen ins Zentrum und fragt, wie Daten und Applikationen verfasst sein müssen, um der Gedächtnisfunktion von historischen “open governmental data” gerecht zu werden.

Primäres Ziel des Panels ist die Entwicklung gemeinsamer Best-practice-Mittel bei der Edition von protokollartigen Texten, insbesondere im Hinblick auf die Möglichkeiten von Mapping oder Harmonisierung der Datenmodelle der Projekte (etwa im Hinblick auf Metadatenerstellung oder APIs für Datenaustausch/Harvesting sowie Anbindung an Open Data-Portale). Daneben erwarten wir Hinweise zu wiederverwendbaren Werkzeugen, die sich in der Bearbeitung (nicht nur) dieser Textsorte bewährt haben.

}

11:15 – 12:45

Zoom

Vortragsslot 2

V7_2: Annotieren

Chair: Heike Zinsmeister (Universität Hamburg)

Auf den Spuren einer altnordischen Saga-Ästhetik: Poetologische Aussagen in den Erzählerbemerkungen der Isländersagas | Michael Göggelmann, Anna Katharina Heiniger, Nils Reiter*, Angelika Zirker*

Michael Göggelmann, Anna Katharina Heiniger, Nils Reiter, Angelika Zirker

Der Vortrag stellt die systematische Annotationen von Erzählerbemerkungen in den anonym überlieferten, mittelalterlichen Isländersagas (altnord. Íslendingasögur) vor und geht der Frage nach, ob und inwieweit diese als Teil einer Literarisierungsstrategie wirksam werden und damit Aussagen über ein den Isländersagas möglicherweise inhärentes Konzept der Autorschaft ermöglichen.

Die Untersuchung erfolgt anhand quantitativer Methoden auf Grundlage der systematischen Annotation der Texte. Er beruht auf der interdisziplinären Zusammenarbeit zwischen Computerlinguistik und Literaturwissenschaft: einer qualitativen Analyse der Texte folgten die systematische Annotation und quantitative Analyse.

Die Ergebnisse zeigen, dass sich die Erzählerbemerkungen nicht zufällig über die Sagas verteilen, sondern als Gestaltungsmittel die Höhe- und Wendepunkten der Sagas prägen. Die Untersuchungsmethode zeitigte somit mehr Ästhetik als erwartet und legte die intratextuellen Verweise innerhalb der Erzählerbemerkungen als Teil einer Literarisierungsstrategie und Mittel der poetologischen Verdichtung offen.

Inter Annotator Agreement und Intersubjektivität | Evelyn Gius*, Michael Vauth

Evelyn Gius, Michael Vauth

In diesem Beitrag wird die Rolle von Inter-Annotator-Agreement-Messungen für literaturwissenschaftliche Annotationen diskutiert. Am Beispiel des EvENT-Projektes zeigen wir, dass mit den üblichen IAA-Metriken die literaturwissenschaftlich untersuchten Phänomene nicht berücksichtigt werden. Aus diesem Grund machen wir einen alternativen Vorschlag zum Vergleich literaturwissenschaftlicher Annotationen, der im Einklang mit der Praxis des Erkenntnisgewinns in der Literaturwissenschaft genutzt und weiterentwickelt werden soll.

Mithilfe von Machine Reasoning alchemische Decknamen entschlüsseln | Sarah Lang*

Sarah Lang

Der Übergang von alchemischer Sprache zu chemischer Nomenklatur wird mitunter sogar erst als die Geburtsstunde der Chemie im Zuge einer ‘Chemical Revolution’ angesehen. Neuere Studien der Alchemiegeschichte zeigen jedoch, dass auch hinter der vormals häufig als obskur und sinnfrei bezeichneten Sprache der Alchemie valide chemische Erkenntnisse standen.

Doch könnte nicht eine computergestützte Analyse dem alchemistischen Stilmittel der sogenannten ‚Decknamen‘ beikommen?

Eine digitale Methode zur automatisierten semantischen Annotation und halbautomatisierten Disambiguierung macht im Kontext eines digitalen Korpus mithilfe von Machine Reasoning alchemische Sprache systematisch analysierbar. Dazu wird ein Semantic Web Wissensorganisationssystem unter der Verwendung von SKOS und RDFS sowie andererseits automatisierte Annotation semanitscher Ambiguität verwendet. Der vorliegende Beitrag stellt die Ergebnisse der Implementation eines solchen Algortihmus anhand des Korpus Michael Maiers (1568-1622) vor und diskutiert dessen Übertragbarkeit auf andere Quellen.

}

11:15 – 12:45

Zoom

Doctoral Consortium / Vortragsslot 3

V7_3: Digitale Sammlungsforschung

Chair: Thomas Stäcker (Technische Universität Darmstadt)

Hemisphären des digitalen Gedächtnisses. Analyse von TEI-kodierten Bibelreferenzen mit XQuery im Rahmen der »Bibliothek der Neologie« | Marco Stallmann*, Uwe Sikora*, Hannah Kreß, Bastian Lemitz, Andreas Pietsch, Lukas Wünsch

Marco Stallmann, Uwe Sikora, Hannah Kreß, Bastian Lemitz, Andreas Pietsch, Lukas Wünsch

Der Beitrag präsentiert die im Rahmen des DFG-Langfristvorhabens „Bibliothek der Neologie“ entwickelte XQuery-Analyse TEI-kodierter Bibelreferenzen in digitalen Editionen, die dadurch erstmals präzise auf Verweishäufigkeiten, Verwendungskontexte und Korrespondenzen mit textkritischen Phänomenen untersucht werden können. Der Ansatz verbindet quantitative und qualitative Analysemethoden, greift einschlägige Konzepte wie Distant Reading oder Cultural Analytics auf und zielt bewusst auf die Ermöglichung neuer Forschungsfragen, die durch veränderte Informationsbedingungen allererst aufgeworfen werden. Die für die Entwicklung der Bibelstellenanalyse notwendige Integration fachwissenschaftlicher und informationstechnologischer Perspektiven kommt in dem Bild von den „Hemisphären des digitalen Gedächtnisses“ zum Ausdruck und trägt jüngeren Bestandsaufnahmen Rechnung, die im Bereich der Digital Humanities eine noch immer unzureichende Kommunikations- und Kooperationsstruktur diagnostizieren.

Von der Wolke zum Pfad: Visuelle und assoziative Exploration zweier kultureller Sammlungen | Viktoria Brüggemann, Mark-Jan Bludau, Christopher Pietsch, Marian Dörk*

Viktoria Brüggemann, Mark-Jan Bludau, Christopher Pietsch, Marian Dörk

Die in den letzten Jahren entstandenen explorativen Visualisierungen musealer Sammlungen widmen sich zumeist einzelnen Sammlungen, welche oft einer spezifischen Systematik folgen und eine geringe Vielfalt an Objektgattungen und Attributen aufweisen. Das hier vorgestellte Forschungsprojekt stellte sich die Frage, wie verschiedene, in sich heterogene, Sammlungen miteinander verknüpft, visualisiert und exploriert werden können, ohne die Unterschiede zwischen ihnen zu nivellieren. Dazu wurden im Rahmen einer Forschungskooperation mit den Staatlichen Museen zu Berlin die Bestände aus dem 19. Jahrhundert der Alten Nationalgalerie sowie des Museums Europäischer Kulturen ausgewählt. Das Ziel war es, übergreifende Zusammenhänge und Resonanzen zwischen den Sammlungen aufzugreifen und dynamische, interaktive Arrangements zu entwickeln, welche die assoziative Exploration von Beständen anregen. Das Ergebnis ist ein interaktiver Prototyp, der eine globale Übersicht in Form einer annotierten Wolke mit der lokalen Perspektive eines auf Ähnlichkeiten basierten Pfads verknüpft.

Multimodale KI zur Unterstützung geschichtswissenschaftlicher Quellenkritik – ein Forschungsaufriss | Sander Muenster*, Jonas Bruschke, Cindy Kroeber, Stephan Hoppe, Ferdinand Maiwald, Florian Niebling, Aaron Pattee, Ronja Utescher, Sina Zarriess

Sander Muenster, Jonas Bruschke, Cindy Kroeber, Stephan Hoppe, Ferdinand Maiwald, Florian Niebling, Aaron Pattee, Ronja Utescher, Sina Zarriess

Fotografien und andere Abbilder von Architektur dienen in vielen historischen Wissenschaften als Quelle und Grundlage für fach- und theoriespezifische Untersuchungen. So werden zum Beispiel historische Fotoaufnahmen herangezogen, um den Zustand eines Gebäudes zu rekonstruieren oder die Formensprache einer Epoche zu identifizieren. Ausgangspunkt dieser Szenarien aus Architektur-, Kunstgeschichte und Kulturwissenschaften ist eine durch Hilfsmittel der jeweiligen Fächer unterstützte Quellenrecherche und -kritik, auf die weitere Auswertungen und Verwendungen im wissenschaftlichen Kontext aufbauen. Das BMBF-geförderte Projekt HistKI startete im Januar 2021 und will die Unterstützung und Modellierung von Bildquellenrecherche und -kritik als komplexe und grundlegende geschichtswissenschaftliche Arbeitstechnik durch multimodale KI-basierte Verfahren erforschen. Damit verbundene Teilfragen sind beispielsweise: Wie finden und beurteilen Historiker und andere Fachwissenschaftler Bildquellen? Welche generischen Vorgehensweisen und Teilproblemstellungen lassen sich hierfür identifizieren? Wie lässt sich dies mit KI-basierten Ansätzen befördern? Wie wirken sich KI-Techniken auf den geisteswissenschaftlichen Forschungsprozess aus? In diesem Beitrag werden ein Forschungsaufriss sowie erste Arbeitsschritte vorgestellt.

 

}

12:45 – 14:00

Mittagessen

}

14:00 – 15:30

Zoom

Keynotes

Abschlusskeynote

Kathrin Passig