The TCDH at DHd2026 in Vienna

"Not Only Text, Not Only Data"

DHd2026 Logo

Date:

23.02.2026 bis 27.02.2026

Place:

University of Vienna

Categories:

Conference
Under the theme ‘Not just text, not just data’, the 12th conference of the association ‘Digital Humanities in German-speaking Countries’ (DHd) will take place from 23 to 27 February at the University of Vienna. Several TCDH staff members will also be present and actively participating in the conference with their own contributions.
  • Panel by Laura Untner, Bernhard Oberreither, Jan Horstmann, Julia Nantke, Christof Schöch, Paula Wojcik: „Not just Text, Intertext! Neue Wege der semantischen Modellierung und Annotation für intertextuelle Bezüge”
    Das Panel widmet sich der Frage, wie intertextuelle Beziehungen digital modelliert und annotiert werden können. Im Fokus stehen theoretische und technische Ansätze zur systematischen Erfassung, Strukturierung und maschinenlesbaren Bereitstellung intertextueller Bezüge. Die Beiträge beleuchten unterschiedliche Arten von Intertextualität, diskutieren epistemische Potenziale semantischer Technologien und thematisieren Grenzen der Übertragbarkeit geisteswissenschaftlicher Methodik in digitale Kontexte. Zugleich wird gefragt, welche Textbegriffe der Modellierung zugrunde liegen und wie sie das Verständnis von Textbeziehungen prägen. Die Spannweite reicht von der vergleichenden Annotation von Figureneigenschaften über die Entwicklung intuitiver Annotationstools und theorieoffener Ontologien bis hin zu quantitativen Verfahren und einer traditionell-literaturwissenschaftlichen Fallstudie. Das Panel versteht sich somit als exemplarischer Beitrag zur kritischen Reflexion und Bestandsaufnahme intertextueller Annotations- und Modellierungsverfahren in der digitalen Literaturwissenschaft – insbesondere zur Modellierung von Textbeziehungen als Linked Data.
  • Vortrag by Keli Du, Julia Röttgermann, Christof Schöch: „Keyness Measures und BERTopic kombiniert: Eine Distinktivitätsanalyse von Subgenres des französischen Romans”
    Der vorliegende Beitrag stellt einen hybriden Analyseansatz vor, der word-embedding-gestützte Topic-Modeling-Verfahren mit Distinktivitätsmaßen kombiniert, um Textgruppen zu vergleichen. Wir haben ein Topic-Modell für eine Sammlung von 600 französischen Romanen trainiert, distinktive Topics für jedes Subgenre ermittelt und diese Topics dann mit manuell erstellten Gattungsprofilen verglichen, um die Leistung verschiedener Distinktivitätsmaße bei der Identifizierung von distinktiven Topics zu evaluieren.
  • Vortrag by Salmoon Ilyas, Benjamin Gittel: „Detecting Literary Evaluations: Can Large Language Models Compete with Human Annotators?”
    One of the most complex and multi-layered phenomena when analyzing fictional narratives are literary evaluations, i.e. evaluations of fictional entities like characters, spaces or events that occur in such texts (Hunt and Vipond 1986, Prinz and Winko 2013, Winko 1991). Correctly identifying literary evaluations is crucial for an adequate interpretation of the corresponding texts. Such evaluations can be verbal ("the bad guy") or non- verbal (e.g. spitting at someone’s feet), they can be expressed through noun phrases, clauses or concatenation of clauses, and they can be explicit or highly implicit demanding complex inferences for their identification. Especially the last feature makes them a challenge for human, but also for automatic annotation. In this paper, we analyze how well current Large Language Models (henceforth LLMs) perform in the identification of literary evaluations.
  • Poster by Ingo Frank, Jan Horstmann, Christof Schöch, Diego Siqueira: „apping DH: Kollaborative Dokumentation von Digital Humanities-Initiativen im Semantic Web”
    Das Poster stellt das Projekt Mapping DH vor, in dem Daten über DH-Initiativen weltweit gesammelt, für das Semantic Web modelliert und als offenes Wissensnetz zur Verfügung gestellt werden. Es zeigt die grundsätzliche Datenstruktur, benennt Chancen und Herausforderungen und eröffnet die Möglichkeit, kollaborativ weiter ausgebaut zu werden und als Ergänzung und Verbindung bestehender Verzeichnungen von DH-Studiengängen, -Zentren, -Professuren etc. zu dienen. Schließlich umreißt es die Idee eines Maturity-Modells, anhand dessen der Reifegrad einer bestimmten DH-Initiative abgelesen werden kann.
  • Poster by Philippe Genêt, Dario Kampkaspar, Daniel Kurzawe, Peter Leinen, Christof Schöch, Thomas Stäcker: „Spaß mit Derivaten: Orientierung bei der Forschung mit abgeleiteten Textformaten”
    Derivate, auch abgeleitete Textformate (ATF) genannt, bieten die Möglichkeit, an urheberrechtlich geschütztem Material zu forschen, ohne die üblicherweise damit einhergehenden Einschränkungen in Kauf nehmen zu müssen. Durch die Anwendung von vier Operationen (Löschen, Ersetzen, Behalten und Vertauschen) auf verschiedenen Granularitäten und Bezugsgrößen kann der Informationsgehalt des Ausgangstextes so reduziert werden, dass das Ergebnis zwar nicht mehr urheberrechtlich relevant ist, aber noch zur Beantwortung mindestens einer Forschungsfrage dient. Das Projekt Forschen mit Derivaten will die Möglichkeiten textbasierter Forschung mit rechtebewehrten Daten verbessern und den Grundstein für weitere Aktivitäten legen. Dazu werden im Austausch mit der wissenschaftlichen Community Forschungsfragen ermittelt, die mit Hilfe von ATF beantwortet werden können. Außerdem werden verschiedene Derivate systematisch auf ihre Validität für die Forschung evaluiert und rechtlich eingeordnet. Ziel des Projekts ist es, Rahmenbedingungen zu schaffen, innerhalb derer Forschende mit Spaß – also rechtssicher und urheberrechtskonform – mit Derivaten arbeiten können.

Not Only Text, Not Only Data

Arguably the first true digital humanities project was the creation of the Index Thomisticus by Robert Busa, starting in the 1940s. A concordance of the works of Thomas Acquinas, Busa sparked a new field of research and heralded a wave of development, as others scrambled to create textual corpora and the tools, algorithms, and interfaces that allow scholars to investigate them. From there, practitioners of effectively every discipline have witnessed significant expansion in the breadth of their research through everything from digital recording of cultural artifacts to abstract modeling of information in recent years.

Over time, this has evolved to the point where it now includes the digital recording of virtually all “objects” within the humanities, and their attendant analytical interconnections: individuals, places, material culture, concepts, artworks, and more. Yet Busa’s legacy remains: despite the diversity of approaches, ideas, data, and methods in today’s digital humanities, focus often remains on more text centered projects, and the legacy of these projects is often reduced almost entirely to the data they produce. We propose addressing the challenges posed by this second wave of expansion as the conference motto: not by excluding text-centered approaches but by placing them within a broader context, and not by disregarding the importance of their data but by making sure also to conserve the methods, algorithms and transformations of that data which spark the fresh insights and new knowledge we seek.

Cloistering of data and fields can hinder fruitful re- search. Disciplines such as art history and archaeology traditionally produce and analyze datasets related to material culture, including climate data, landscape profiles, and image matrices. They also produce material analytical data, including human biological data such as genetics, and perception data, like eye-tracking, EEG, fMRT, and so on. However, this data is most helpful when it is contextualized by informed integration with further information that completes a historical and contextual picture, necessitating varied data obtained through the analysis of diverse datasets. The conference aims to foster greater consideration of what diverse data means for scholars.

Data creation is not the end but rather the very beginning of contemporary projects. Researchers in the digital humanities now frequently find themselves not only producing data but also conceiving of and developing algorithmic frameworks for their analyses. Both the data itself and the approach taken are equally vital: data often lose much of their value when divorced from the methods used for both their creation and analysis. This aspect of knowledge production – the development of methods and their expression as functions and algorithms – has yet to receive sufficient attention in terms of sustainability and reproducibili- ty within the digital humanities. The lack of clear standards and best practices in this regard remain a fundamental challenge in digital humanities research. The same applies to preservation of interfaces and scripts of all kinds. Here too, it is essential to intensify cross-disciplinary dialogue.

Code and algorithms play a role that is as crucial for interdisciplinary dialogue with other fields of study (from computer science to social sciences) as academic prose. Other disciplines can only understand humanities data if they comprehend interpretations, which, in turn, depends on how they are processed. Hence, the development, preservation, and informed discussion of code are core components – if not prerequisites – for interdisciplinary, transdisciplinary, and cross-disciplinary engagement.

The conference aims to create a productive space for encounters and discussions to explore these issues. Panels, round tables, workshops, and poster sessions will bring together experts from fields related to digital cultural heritage research, digital archives, and data science disciplines, as well as representatives from traditional, text- and language-oriented digital humanities. We look forward to providing a venue for discussion and deliberation to push research ever forward, to foster discourse on code and algorithms, databases and archives, and text and data.