Das TCDH bei der DHd2026 in Wien

„Nicht nur Text, nicht nur Daten”

DHd2026 Logo

Datum:

23.02.2026 bis 27.02.2026

Ort:

Universität Wien

Kategorie(n):

Tagung
Unter dem Leitthema „Nicht nur Text, nicht nur Daten“ findet vom 23. bis 27. Februar an der Universität Wien die 12. Konferenz des Verbands „Digital Humanities im deutschsprachigen Raum“ (DHd) statt. Auch einige Mitarbeitende des TCDH sind vor Ort und gestalten die Tagung durch eigene Beiträge aktiv mit.
  • Panel von Laura Untner, Bernhard Oberreither, Jan Horstmann, Julia Nantke, Christof Schöch, Paula Wojcik: „Not just Text, Intertext! Neue Wege der semantischen Modellierung und Annotation für intertextuelle Bezüge”
    Das Panel widmet sich der Frage, wie intertextuelle Beziehungen digital modelliert und annotiert werden können. Im Fokus stehen theoretische und technische Ansätze zur systematischen Erfassung, Strukturierung und maschinenlesbaren Bereitstellung intertextueller Bezüge. Die Beiträge beleuchten unterschiedliche Arten von Intertextualität, diskutieren epistemische Potenziale semantischer Technologien und thematisieren Grenzen der Übertragbarkeit geisteswissenschaftlicher Methodik in digitale Kontexte. Zugleich wird gefragt, welche Textbegriffe der Modellierung zugrunde liegen und wie sie das Verständnis von Textbeziehungen prägen. Die Spannweite reicht von der vergleichenden Annotation von Figureneigenschaften über die Entwicklung intuitiver Annotationstools und theorieoffener Ontologien bis hin zu quantitativen Verfahren und einer traditionell-literaturwissenschaftlichen Fallstudie. Das Panel versteht sich somit als exemplarischer Beitrag zur kritischen Reflexion und Bestandsaufnahme intertextueller Annotations- und Modellierungsverfahren in der digitalen Literaturwissenschaft – insbesondere zur Modellierung von Textbeziehungen als Linked Data.
  • Vortrag von Keli Du, Julia Röttgermann, Christof Schöch: „Keyness Measures und BERTopic kombiniert: Eine Distinktivitätsanalyse von Subgenres des französischen Romans”
    Der vorliegende Beitrag stellt einen hybriden Analyseansatz vor, der word-embedding-gestützte Topic-Modeling-Verfahren mit Distinktivitätsmaßen kombiniert, um Textgruppen zu vergleichen. Wir haben ein Topic-Modell für eine Sammlung von 600 französischen Romanen trainiert, distinktive Topics für jedes Subgenre ermittelt und diese Topics dann mit manuell erstellten Gattungsprofilen verglichen, um die Leistung verschiedener Distinktivitätsmaße bei der Identifizierung von distinktiven Topics zu evaluieren.
  • Vortrag von Salmoon Ilyas, Benjamin Gittel: „Detecting Literary Evaluations: Can Large Language Models Compete with Human Annotators?”
    One of the most complex and multi-layered phenomena when analyzing fictional narratives are literary evaluations, i.e. evaluations of fictional entities like characters, spaces or events that occur in such texts (Hunt and Vipond 1986, Prinz and Winko 2013, Winko 1991). Correctly identifying literary evaluations is crucial for an adequate interpretation of the corresponding texts. Such evaluations can be verbal ("the bad guy") or non- verbal (e.g. spitting at someone’s feet), they can be expressed through noun phrases, clauses or concatenation of clauses, and they can be explicit or highly implicit demanding complex inferences for their identification. Especially the last feature makes them a challenge for human, but also for automatic annotation. In this paper, we analyze how well current Large Language Models (henceforth LLMs) perform in the identification of literary evaluations.
  • Poster von Ingo Frank, Jan Horstmann, Christof Schöch, Diego Siqueira: „apping DH: Kollaborative Dokumentation von Digital Humanities-Initiativen im Semantic Web”
    Das Poster stellt das Projekt Mapping DH vor, in dem Daten über DH-Initiativen weltweit gesammelt, für das Semantic Web modelliert und als offenes Wissensnetz zur Verfügung gestellt werden. Es zeigt die grundsätzliche Datenstruktur, benennt Chancen und Herausforderungen und eröffnet die Möglichkeit, kollaborativ weiter ausgebaut zu werden und als Ergänzung und Verbindung bestehender Verzeichnungen von DH-Studiengängen, -Zentren, -Professuren etc. zu dienen. Schließlich umreißt es die Idee eines Maturity-Modells, anhand dessen der Reifegrad einer bestimmten DH-Initiative abgelesen werden kann.
  • Poster von Philippe Genêt, Dario Kampkaspar, Daniel Kurzawe, Peter Leinen, Christof Schöch, Thomas Stäcker: „Spaß mit Derivaten: Orientierung bei der Forschung mit abgeleiteten Textformaten”
    Derivate, auch abgeleitete Textformate (ATF) genannt, bieten die Möglichkeit, an urheberrechtlich geschütztem Material zu forschen, ohne die üblicherweise damit einhergehenden Einschränkungen in Kauf nehmen zu müssen. Durch die Anwendung von vier Operationen (Löschen, Ersetzen, Behalten und Vertauschen) auf verschiedenen Granularitäten und Bezugsgrößen kann der Informationsgehalt des Ausgangstextes so reduziert werden, dass das Ergebnis zwar nicht mehr urheberrechtlich relevant ist, aber noch zur Beantwortung mindestens einer Forschungsfrage dient. Das Projekt Forschen mit Derivaten will die Möglichkeiten textbasierter Forschung mit rechtebewehrten Daten verbessern und den Grundstein für weitere Aktivitäten legen. Dazu werden im Austausch mit der wissenschaftlichen Community Forschungsfragen ermittelt, die mit Hilfe von ATF beantwortet werden können. Außerdem werden verschiedene Derivate systematisch auf ihre Validität für die Forschung evaluiert und rechtlich eingeordnet. Ziel des Projekts ist es, Rahmenbedingungen zu schaffen, innerhalb derer Forschende mit Spaß – also rechtssicher und urheberrechtskonform – mit Derivaten arbeiten können.

Nicht nur Text, nicht nur Daten

Das vielleicht erste echte Digital-Humanities-Projekt war die Erstellung des Index Thomisticus durch Robert Busa, das in den 1940er Jahren begann. Mit dieser Konkordanz der Werke von Thomas von Aquin eröffnete Busa ein neues Forschungsgebiet und löste eine Welle der Entwicklung aus, als andere sich daran machten, Textkorpora und die dafür erforderlichen Tools, Algorithmen und Schnittstellen zu entwickeln, mit denen Wissenschafter*innen diese untersuchen können. Seitdem haben Fachleute aus praktisch allen Disziplinen in den letzten Jahren eine erhebliche Erweiterung des Spektrums ihrer Forschung erlebt, die von der digitalen Aufzeichnung kultureller Artefakte bis hin zur abstrakten Modellierung von Informationen reicht.

Im Laufe der Zeit hat sich dies so weit entwickelt, dass es heute die digitale Aufzeichnung praktisch aller „Objekte“ innerhalb der Geisteswissenschaften und ihrer damit verbundenen analytischen Zusammenhänge umfasst: Personen, Orte, materielle Kultur, Konzepte, Kunstwerke und vieles mehr. Doch das Vermächtnis von Busa bleibt bestehen: Trotz der Vielfalt der Ansätze, Ideen, Daten und Methoden in den heutigen Digital Humanities liegt der Schwerpunkt oft nach wie vor auf textzentrierten Projekten und das Vermächtnis dieser Projekte beschränkt sich meist fast ausschließlich auf die von ihnen produzierten Daten. Wir schlagen vor, die Herausforderungen dieser zweiten Expansionswelle als Motto der Konferenz anzugehen: nicht durch den Ausschluss textzentrierter Ansätze, sondern durch deren Einbettung in einen breiteren Kontext, und nicht durch die Missachtung der Bedeutung ihrer Daten, sondern durch die Sicherstellung, dass auch die Methoden, Algorithmen und Transformationen dieser Daten erhalten bleiben, die die neuen Erkenntnisse und das neue Wissen hervorbringen, das wir suchen.

Die Abschottung von Daten und Fachgebieten voneinander kann fruchtbare Forschung behindern. Disziplinen wie Kunstgeschichte und Archäologie produzieren und analysieren traditionell Datensätze zur materiellen Kultur, darunter Klimadaten, Landschaftsprofile und Bildmatrizen. Sie produzieren auch materielle analytische Daten, darunter menschliche biologische Daten wie Genetik und Wahrnehmungsdaten wie Eye-Tracking, EEG, fMRT und so weiter. Diese Daten sind jedoch am hilfreichsten, wenn sie durch die fundierte Integration weiterer Informationen kontextualisiert werden, die ein historisches und kontextuelles Bild vervollständigen, was vielfältige Daten erfordert, die durch die Analyse verschiedener Datensätze gewonnen werden. Die Konferenz zielt darauf ab, eine stärkere Berücksichtigung der Bedeutung vielfältiger Daten für Wissenschafter*innen zu fördern.

Die Datenerstellung ist nicht das Ende, sondern vielmehr der Anfang zeitgenössischer Projekte. Forscher*innen in den Digital Humanities sehen sich heute häufig nicht nur mit der Erstellung von Daten konfrontiert, sondern auch mit der Konzeption und Entwicklung algorithmischer Rahmenwerke für deren Analyse. Sowohl die Daten selbst als auch der gewählte Ansatz sind gleichermaßen wichtig: Daten verlieren oft einen Großteil ihres Wertes, wenn sie von den Methoden ihrer Erstellung und Analyse losgelöst werden. Dieser Aspekt der Wissensproduktion – die Entwicklung von Methoden und deren Ausdruck in Form von Funktionen und Algorithmen – hat hinsichtlich der Nachhaltigkeit und Reproduzierbarkeit in den Digital Humanities bislang noch nicht genügend Beachtung gefunden. Das Fehlen klarer Standards und Best Practices in diesem Bereich bleibt eine grundlegende Herausforderung für die Forschung in den Digital Humanities. Gleiches gilt für die Erhaltung von Schnittstellen und Skripten aller Art. Auch hier ist eine Intensivierung des interdisziplinären Dialogs unerlässlich.

Code und Algorithmen spielen eine ebenso wichtige Rolle für den interdisziplinären Dialog mit anderen Fachbereichen (von der Informatik bis zu den Sozialwissenschaften) wie die wissenschaftliche Prosa. Andere Disziplinen können geisteswissenschaftliche Daten nur verstehen, wenn sie Interpretationen nachvollziehen können, was wiederum davon abhängt, wie diese verarbeitet werden. Daher sind die Entwicklung, Erhaltung und fundierte Diskussion von Code zentrale Bestandteile – wenn nicht sogar Voraussetzungen – für interdisziplinäre, transdisziplinäre und fachübergreifende Zusammenarbeit.

Die Konferenz möchte einen produktiven Raum für Begegnungen und Diskussionen schaffen, um diese Fragen zu erörtern. Panels, Rundtischgespräche, Workshops und Postersessions bringen Expert*innen aus Bereichen der digitalen Kulturerbeforschung, digitalen Archivierung und Datenwissenschaft sowie Vertreter*innen traditioneller, text- und sprachorientierter Digital Humanities zusammen. Wir freuen uns darauf, einen Ort für Diskussionen und Überlegungen zu bieten, um die Forschung voranzutreiben und den Diskurs über Code und Algorithmen, Datenbanken und Archive sowie Text und Daten zu fördern.