11.10.2023

Digitale Forschung in der Theologie. Erkenntnisweisen – Methoden – Gegenstände. Tagungsbericht

Im Zeitraum vom 29. bis zum 31.03.2023 fand in Aachen eine Tagung zum titelgebenden Thema statt. Diese wurde organisiert vom Institut für katholische Theologie der RWTH Aachen und von der Forschungsstelle der Evangelischen Studiengemeinschaft (FEST). Das Anliegen der Tagung war es dabei einerseits, die Chancen, Herausforderungen und wissenschaftstheoretischen Reflexionsräume zu erkunden, die sich aus einer methodischen und epistemologischen Verzahnung von Erkenntnisinteressen der Theologie und der Digital Humanities ergeben, und andererseits, zumindest im Kleinen zu kartieren, welche Forschungsvorhaben im Grenzgebiet von Digital Humanities und Theologie bereits jetzt geschieht. Die Tagung wurde im Vorfeld unter einige Leitlinien gestellt, die sich durch die einzelnen Beiträge gezogen haben: (1) die epistemologischen Verschiebungen, die sich beim Einbezug digitaler Herangehensweisen für theologische Forschung ergeben, (2) eine Veränderung von Forschungsgegenständen und -praktiken und (3) Überlegungen zur Zukunft der Theologie. Dabei wurde der Versuch unternommen, die einzelnen Schwerpunkte der Tagung immer aus beiden Perspektiven, sowohl den Digital Humanities, als auch der Theologie, zu beleuchten. Für den weiteren Bericht sollen diese Leitlinien auch als organisierendes Prinzip fungieren.

1. Epistemologien digitaler Forschung
Wie digitale Technologien Wissenschaften verändern, ist Gegenstand einer intensiven Debatte seit etwa zehn Jahren. Kaum eine Metapher scheint zu groß für diesen Wandel: Gesprochen wird von einer »Neuverhandlung geisteswissenschaftlicher Wissensproduktion« in einem »Grundkonflikt um die Prämissen der Geisteswissenschaft«.1 Die »Wende zur empirischen Forschung«2 wird als Anpassung an eine neue Wissensordnung3 beschrieben. Entworfen wird eine »propagandistische Erzählung« eines Paradigmenwechsels – so Krämer – von einem »›wissensgetriebenen‹ zu einem ›datengetriebenen‹ Wissenschaftsmodell«4, der in einem neuen Empirismus Korrelationen statt Kausalitäten zum Leitmotiv mache. Verbunden sei er mit dem Anspruch, »dass die bisher unsystematisch, ›rhapsodisch‹ verfahrenden Geisteswissenschaften nun erst den Status von objektivierbaren Wissenschaften erringen könnten«.5 Jenseits dieses – entweder gefeierten oder beklagten6 – Narrativs finden sich natürlich auch differenziertere Verhältnisbestimmungen digitaler und analoger Wissenschaftspraktiken und unaufgeregtere Beschreibungen der wissenschaftstheoretischen, hermeneutischen und epistemologischen Herausforderungen durch und in den Digital Humanities.

Damit ist die Tagung in einen doppelten Kontext gestellt worden:

Erstens in einer wachsenden Debatte um die Theorie der Digital Humanities; während sich die Digital Humanities lange den Vorwurf der »Theorielosigkeit« machen lassen mussten7, beobachtet Burghard 2020 auf der Grundlage lange bestehender Tendenzen8 ein wachsendes Interesse an der theoretischen Reflexion auf die DH, den er »vielleicht gar [als] ein[en] ›theoretical turn‹, wenigstens aber ein[en] Theorie-Frühling«9 beschreibt. Dies spiegelt auch die 2020 gegründete Arbeitsgruppe »Theorien der DH« im Verband der deutschsprachigen DH-Forschung (DHd), aus der einige Vertreter*innen auch bei dieser Tagung dabei sind.10

Zweitens stehen diese Debatten im Kontext einer oft implizit bleibenden Frage nach der Epistemologie und wissenschaftstheoretischen Selbstbeschreibung der Theologie. Warum Theolog*innen wie theologisch forschen, wird in den unterschiedlichen Disziplinen sehr divers diskutiert – oder eben auch nicht. Im Blick auf digitale Forschungsmethoden verbindet sich diese Diversität mit einem außerordentlich beharrungskräftigen Schweigen: Entsprechend schwer fällt es oft denjenigen, die methodisch kontrolliert digital arbeiten wollen, ihre Arbeit im Feld der theologischen Epistemologien, Gegenstände und Methoden zu verorten und einzubetten.

Was in den Digital Humanities und in der Theologie als Wissen und Erkenntnis gelten darf, wie beides jeweils produziert wird und worin überhaupt die Erkenntnisinteressen beider Zugänge liegen, war Gegenstand der ersten beiden Vorträge von Rabea Kleymann (Berlin, jetzt Chemnitz) und Bernd Harbeck-Pingel (Freiburg).

Kleymann bot mit ihrem Beitrag zunächst einen breiten Überblick über die verschiedenen Wissenskulturen in Geisteswissenschaften und Informatik und den sich daraus ableitenden Wissenschaftstheorien, ihren Gegenständen (mitsamt deren epistemischen und sonstigen Materialitäten) und daraus herrührenden infrastrukturellen Settings. Dabei hinterfragte sie die Vorstellung, dass sich hierbei jeweils zwei monolithische Theorieangebote gegenüberständen die durch die Digital Humanities miteinander vermittelt würden. Stattdessen verwies sie auf die Multimodalität all dieser Ebenen, die sowohl auf die Konstruktion methodisch-mehrdimensionaler Gegenstände hinausliefen (das epistemische Ding bspw. als Text, Code, Graph und Datenmatrix), als auch darauf, epistemologisches Handeln in den Digital Humanities als eigensinnigen Prozess mit offenem Ausgang zu begreifen, dessen Ergebnis nicht notwendigerweise schon aus den Startpunkten geisteswissenschaftlicher und informatischer Epistemologie erkennbar sei.

Ähnlich breit gestaltete sich auch der Vortrag von Harbeck-Pingel. Dieser bot einen Zugang zu theologischer Epistemologie an, der sich entlang des Bildes der Karte entfaltete. Ausgehend von dem in Karten angelegten Repräsentationsgedanken stellte Harbeck-Pingel verschiedene Formen von Wissen vor, die für die Theologie (als Geisteswissenschaft, aber auch mit den in ihren Gegenständen eingelegten Eigensinnigkeiten) typisch sind, sowie, wie diese durch die Theologiegeschichte hinweg als Wissensformation intelligibel geworden sind. Dabei arbeitete er heraus, wie die Theologie in ihrer geisteswissenschaftlichen Tradition Wissen und Erkenntnis einerseits immer rekursiv unter Zurückverweis auf das bereits Erkannte generiert, andererseits aber gerade durch kreative Variation neu produziert und damit zugleich der bestehenden Repräsentation enthebt.
Gerade durch die Zusammenschau dieser beiden Beiträge wurde schon zu Beginn der Tagung deutlich, wie groß die Umwälzungen in der Herangehensweise potentiell sein könnten, die sich für eine digital arbeitende Theologie ergeben.

2. Digital(isiert)e Gegenstände theologischer Forschung und computergestützte Methoden
Wirft man den Blick auf das Zwillingspaar von Gegenständen und Methoden, so wird sichtbar, dass die christliche Theologie qua ihrer multifacetten Binnenstruktur immer schon mit einer gewissen Diversität konfrontiert ist: Klassische Gegenstände umfassen Texte, die durch Kanonisierung und traditionelle Referenz an Bedeutung gewonnen haben.11 Sie umfassen Glaubensinhalte sowie deren Begründungszusammenhänge und Wechselwirkungen mit anderen Quellen für Weltanschauungen und Menschenbilder.12 Sie umfassen religiöse Praktiken und Praxis-/Diskursformationen, deren Möglichkeitsbedingungen, Subjektivierungspotentiale und sozialen Arrangements.13 Mit dieser Vielzahl an Gegenständen korrespondiert eine Pluralität an Methoden, wobei zu argumentieren wäre, dass es eigentlich keine genuin »theologischen« Methoden gibt. Stattdessen partizipiert die Theologie an einem größeren geistes- und zunehmend auch sozialwissenschaftlichen Methodenkanon, zu dem literatur- und geschichtswissenschaftliche Analyseansätze ebenso gehören wie Methoden der empirischen Sozialforschung. Es ist dabei bemerkenswert, dass die Theologie sich – vielleicht abseits der biblischen Exegese – relativ wenig über ihre Methodik definiert, was sich unter anderem darin niederzuschlagen scheint, dass die Vermittlung von Methodenkenntnis in der Ausbildung gegenüber der inhaltlichen Diskussion nach wie vor häufig zurücksteht.14

Der tagungsleitende Ausdruck »digitale Forschung« rückt also zunächst digitale Gegenstände in den Blick. Zu fragen wäre hierbei, was das genau bedeutet.

Eine Reihe von Beiträgen eröffneten Einblicke in sehr unterschiedliche theologische Forschungsprojekte, die sich auf die eine oder andere Weise mit digitalen Gegenständen beschäftigten. Einen Überblick über verschiedene, religiöse Vergemeinschaftungsformen und Inszenierungen von christlicher Religiosität bot der Beitrag von Viera Pirker (Frankfurt a.M.), die einen Bogen von religiösen Zeremonien in digitalen Räumen über die CONTOC-Studie bis hin zur Reichweitenanalyse christlicher Influencer*innen auf Instagram zog. Dabei wurde klar, dass die praktische Theologie bereits seit einiger Zeit auch mit digitalen und digitalisierten Gegenständen befasst ist, ohne, dass dieses Feld aber bereits hinreichend erkundet wäre oder dass sich für die Theologie bereits typische Strategien bei der Hebung dieser Gegenstände etabliert hätten.

Dem Überblick wurden eine Reihe von konkreteren Projektvorstellungen gegenübergestellt, die aus (fast) allen Teildisziplinen des theologischen Disziplinenspektrums genommen waren. Wiederum aus praktisch-theologischer Perspektive waren zwei Beiträge vertreten: Ilona Nord (Würzburg) stellte ein Projekt vor, bei dem die Theologie mit den Mensch-Maschine-Interaktionswissenschaften kooperiert. Bei dieser Kooperation wurden Möglichkeiten erarbeitet, das religiöse Phänomen des Segens durch digital gestützte Interaktionsmechanismen erfahrbar zu machen und an der Ausstellung die Aushandlungsprozesse für die Relevanz religiösen Wissens zu reflektieren. Katharina Yadav (Zürich) stellte Analysen zu Ergebnissen der CONTOC²-Studie vor, bei denen sie sich auf die Änderungen in der digitalen Mediennutzung kirchlicher Hauptamtlicher fokussierte, aber auch veränderte Erwartungshaltungen an diese Zielgruppe herausarbeitete. Einen Einblick in theologiegeschichtliche Vorgehensweisen brachte Marieluise Clotz (München) bei, die mit der Untersuchung des Krisenbegriffs in der Zeitschrift »Die Christliche Welt« einen klassischen Gegenstand digitaler, geisteswissenschaftlicher Forschung vorstellte: Das digitalisierte Textkorpus. Clotz stellte vor, wie sich Ergebnisse von Distant Reading-Verfahren in theoriegestützte Narrative, hier das der »Krise als Selbstdeutungsprozess«, einordnen lassen. Aus der Perspektive der systematischen Theologie beschrieb Lea Gröbel (Zürich) die Möglichkeit, sich digitalen Phänomenen zu nähern und diese mit den theoretischen Mitteln theologischer Lehrbildung zu beschreiben, ohne dabei das theologische Sprachspiel dem Vorfindlichen einfach überzustülpen oder jedoch dogmatisch unterkomplex zu werden. Dies führte sie am Beispiel digitaler Trauerpraktiken aus. Andreas Henn (Freiburg) schließlich beschäftigte sich mit den Möglichkeiten, computergestützte Methoden für bibelwissenschaftliche Fragen nutzbar zu machen. Dafür diskutierte er stilometrische Untersuchungen des lukanischen Doppelwerks, um dessen Autor*innenschaft erheben zu können und wies zugleich Chancen und Probleme dieses methodischen Ansatzes sowohl für den theologischen als auch für den informatischen Erkenntnisgewinn auf.

Zugleich ist mit diesen konkreten Projektvorstellungen neben den Gegenstandsfragen immer auch schon die Frage nach der angemessenen, digital gestützten Methodik angeklungen. Ein zentraler Aspekt ist hierbei, inwiefern computergestützte Methoden genutzt werden können um einerseits bekannte Gegenstände mit neuen Möglichkeiten, auf neuen Skalen oder unter neuen Blickwinkeln durchzuführen. Zugleich werden Theolog*innen aber auch mit neuen Materialien in Form von Daten konfrontiert, deren Interpretation ein eigenes Maß an Sachkenntnis bedarf. In die reflektierte Methodendiskussion führte aus Sicht der Digital Humanities Katrin Weller (Köln/Bochum) ein, welche die Komplexität von Methodenfragen für computerorientierte Forschung am Gegenstand digitaler Verhaltensdaten herausarbeitete. Damit trug sie Bewegungen Rechnung, die in Teilen der Theologie erkennbar werden, und die sich in aller Vorsicht als Partizipation an einem ›empirical turn‹ apostrophieren ließen.15 Weller fokussierte in ihren Ausführungen neben den Möglichkeiten, die solcherlei ›indirekt‹ erhobene Daten für Forschungsansätze erlauben, vor allem auch auf Schwierigkeiten in ihrer Interpretation, Fährnisse ihrer Erhebung sowie forschungsethische Fragestellungen. Demgegenüber in gleichsam vertraute Gefilde führte der Beitrag von Christopher Nunn (Heidelberg), der sich in seinen Überlegungen Text Mining-Ansätzen und deren Applikation auf kirchengeschichtliche Quellen widmete. Hierbei stellte er einerseits die Stärke computergestützter Methodik heraus, mittels großer Datensätze eher gefühlte Gewissheiten gegenüber bestimmten Quellenkorpora zu widerlegen oder durchaus auch zu bestätigen. Zugleich scheute er aber auch nicht, die disziplinlogischen Implikationen zu benennen, die sich ergeben, wenn Distant Reading-Methoden und andere Möglichkeiten quantitativer Analyse in eine Forschungslandschaft eingebracht werden, welche eine solche Art der validierenden Forschung nicht gewohnt ist und den Wert derartiger Ergebnisse deswegen häufig noch nicht adäquat einschätzen kann.

Die Frage nach computergestützten Methoden berührt, wie hier bereits deutlich wird, auch tieferliegende, wissenschaftspolitische Fragen, die sich während der Tagung und vor allem in der Abschlussdiskussion Bahn brachen: Vor allem wurde darüber diskutiert, ob und inwiefern die Ausbildung von Theolog*innen weiterhin alleine auf die Analyse analoger Gegenstände und Quellen setzen sollte, oder ob es wünschenswerter wäre, zumindest das Angebot für eine Ausbildung im Umgang auch mit digitalen Forschungsobjekten zu ermöglichen. Dies bedeutete jedoch andererseits zugleich ein Nachdenken darüber, auf welchen Teil des bisherigen Ausbildungskanons stattdessen verzichtet werden müsste.

3. Zur Zukunft der Theologie
Anhand dieser Diskussion wird zugleich die Zukunftsbedeutung sichtbar, die der Debatte um digitale Forschung in der Theologie innewohnt. Sie lässt sich an einer Reihe von Aspekten diskutieren, die während der Tagung angesprochen wurden. Der prominenteste Punkt ist dabei sicherlich die bereits angesprochene Kombination von (zumindest für die Theologie) neuen Methoden mit konventionellen Frageperspektiven in den Geisteswissenschaften. Dem beigesellt stehen allerdings die Ausbildung neuer Forschungspraktiken: Denn digital gestützte Forschung erfordert Wissenschaftspraktiken der Kollaboration, Methodentransparenz und prozessorientierten Wissenschaft.

Mit den Chancen und Herausforderungen von Interdisziplinarität und Kollaborativität beschäftigten sich während der Tagung zwei Vorträge explizit. Aus Sicht der Digital Humanities eröffnete Janina Jacke (Göttingen) die Diskussion. In ihrem Vortrag stellte sie heraus, dass es sich bei Interdisziplinarität zwar um ein allgegenwärtiges, aber gleichwohl gradierbares Merkmal wissenschaftlicher Prozesse handele. Interdisziplinarität ist Jacke zufolge zugleich auch eine Chance, um disziplinäre Truisms und Dogmen zu hinterfragen. Kollaboration als zweite Größe führte sie als nicht unbedingt notwendiges, aber gleichwohl typisches Merkmal der Digital Humanities ein. Beispiele für nicht-kollabortive Forschungsprojekte sind dabei etwa kleine Einzelprojekte, bei denen Geisteswissenschaftler*innen auf bestehende, z.T. durchaus einsteigerfreundliche Tools zurückgreifen, um Fragestellungen zu bearbeiten.16 Kollaborativität komme in den Digital Humanities (aber auch darüber hinaus) sowohl interdisziplinär als auch intradisziplinär vor. Zu intradisziplinärer Kollaborativität sprach auch Milan Kostrešević (Rostock) aus theologischer Sicht. Über einen ideengeschichtlichen Zugang ordnete er die besondere Struktur der wissenschaftlich arbeitenden Theologie in ihrer interdisziplinären Intradisziplinarität ein und machte dadurch sowohl die Ressourcen dieser Wissenschaft für Interdisziplinarität und Kollaborativität deutlich, als auch deren bisherige Zurückhaltung, diese über den Binnendiskurs hinaus zu nutzen.

Viele der eingangs benannten Wissenschaftspraktiken werden in den Digital Humanities aktuell unter dem Paradigma der »Open Science« diskutiert. Open Science bildet damit ein Rahmenparadigma der zu diskutierenden Gegenstände, Methoden und Forschungspraktiken. Für einen öffentlichen Abendvortrag machten sich Benedikt Friedrich (Heidelberg), Hanna Reichel (Princeton) und Thomas Renkert (Heidelberg) dazu Gedanken, wie Open Science in der Theologie aussehen könnte und wie die damit verbundenen Forschungspraktiken und Wissensvorstellungen durch künstliche Intelligenzen und Large Language Models wie das zum Zeitpunkt der Tagung noch frisch vor aller Augen liegende ChatGPT beeinflusst werden. Friedrich eröffnete den Vortrag mit grundsätzlichen Erwägungen zum Modellcharakter wissenschaftlicher und insbesondere theologischer Wissensbestände. Zugleich hob er darauf ab, dass in der Theologie zwar unterschiedliche Modelle existieren, diese aber nicht alleine aufgrund ihres Erklärwertes, sondern auch aufgrund ihrer Autorität propagiert werden. Demgegenüber müsse theologische Qualität aber auch Aspekte von Repräsentations- und Partizipationsgerechtigkeit berücksichtigen. Daran anschließend fokussierte der zweite Abschnitt des Vortrags von Renkert auf Large Language Models, und wie diese einerseits selbst kontinuierlich an Leistungsfähigkeit und Erschwinglichkeit zunehmen, andererseits dabei gewaltige Potentiale zur Modifizierung der Lebenswelt sowie von wissenschaftlichen Forschungsprozessen entfalten. Für Renkert ist deshalb Nachvollziehbarkeit von Wissensoperationen ein wichtiges Kriterium für Forschungsansätze, die im Sinne des Open Science-Paradigmas reflexiv transparent sein können. Im letzten, eher prospektiv ausgerichteten Abschnitt des Vortrags schlug Reichel eine Weiterentwicklung des Open Theology-Ansatzes als Citizen Theology vor. Dabei hob Reichel darauf ab, dass die epistemologische Mesoebene der Wissensstrukturierung (etwa durch theologische Modelle, aber auch durch Technologien) eben nicht neutral sei und dass deswegen eine Analyse des technologischen Unterbaus zu einem ›besseren‹ und zugleich gerechteren Wissen führe, da das generierte und modellierte Wissen Grundlage für lebensweltliche Entscheidungen sei. Sie schloss den Vortrag mit Überlegungen dazu, inwiefern es sinnvoll sein könnte, gerade auch angesichts des durch Technologieunternehmen vorangetriebenen Umbaus der epistemischen Strukturen, die grundlegende technologiepolitische Frage nicht hinsichtlich des Werkzeugcharakters von sog. Künstlichen Intelligenz zu stellen, sondern nach den Bedingungen für eine Epistemic Citizenship (aller beteiligter Agent*innen) zu fragen.

Den Abschlussvortrag der Tagung hielt Gabriele Gramelsberger (Aachen). Aus der Perspektive der (Technik-)Philosophie machte sie die Frage auf, welche Herausforderungen auf die Theologie als Wissenschaft zukommen, wenn sie sich in der Digitalisierung ihrer Forschungspraxen versuchte. Hierzu wies sie eine Reihe von Forschungstrends (u.a. in der Reflexion vollautomatisierter, quantitativer Wissensgenerierung im MINT-Bereich, in der graphischen Analyse von Begriffs- und Ideengeschichte sowie in der Nutzung von computergestützten Lösungs-Systemen in der Logik) aus, die sie in der Philosophie beobachtete und argumentierte, inwiefern diese auch für die Theologie von Belang seien. Daraus ableitend stellte sie heraus, dass in der Philosophie inzwischen dedizierte Felder erkennbar seien, die sich mit einer Philosophie des Digitalen beschäftigten.17

Nicht zuletzt deuten diese Entwicklungen auf strukturelle Trends hin, die von forschungspolitischer (zum Beispiel drittmittelorientierter) Relevanz sind. Die Theologie tut gut daran, hier den Blick aufmerksam auf die Nachbardisziplinen zu richten, um den Anschluss an die sich beständig fortentwickelnde Wissenschaftslandschaft nicht (wieder) zu verpassen.18


Frederike van Oorschot und Knut V.M. Wormstädt




1) Röhle 2014: 157.
2) Thiel 2012.
3) Thiel 2011.
4) Krämer/Huber 2018.
5) Krämer/Huber 2018. Vgl Ramsay 2011: ix.
6) Röhle 2014: 158.
7) Vgl. einführend Kleymann 2019. Nach Geiger/Pfeiffer fehlt »ein theoretisches Fundament[s], welches mit Hilfe einer flächendeckenden, systematischen Untersuchung die isolierten und verstreuten Ansätze sinnbringend und letztlich auch den einzelnen digitalen Geisteswissenschaftler:innen Souveränität stiftend miteinander verknüpfen könnte.« Geiger/Pfeiffer 2020.
8) Vgl. weiterführend Gold 2012; Gold/Klein 2016.
9) Burghard 2020. Burghard weist dabei auf ein weiteres Problem hin: »Um also strukturiert über Theorie(n) in den DH sprechen zu können, müssen zunächst auch konkurrierende Theoriebegriffe (Universal-Theorien, Meta-Theorien, fach-/domänenspezifische Theorien) diskutiert werden und darüber hinaus verwandte Konzepte und Termini wie etwa »Modell«, »Methoden«, »Tools«, »Paradigmen«, »Schulen«, etc. definiert und ggf. abgegrenzt werden.« Ebd. Vgl. ähnlich Jacke 2020. Vgl. Terras et al. 2013; Geiger 2020.
10) Vgl. einführend Geiger 2020. Zur AG »Theorien« vgl. https://dhtheorien.hypotheses.org/. Frederike van Oorschot ist Gründungsmitglied der Arbeitsgruppe.
11) Vgl. Aaron Schart (2012): Methoden in der evangelischen Theologie, in: Dirk Hartmann u.a. (Hg.): Methoden der Geisteswissenschaften. Eine Selbstverständigung, Weilerwist: Velbrück Wissenschaft, 197–224, 205–209.
12) Vgl. Wolfhart Pannenberg (1973): Wissenschaftstheorie und Theologie, Frankfurt a.M.: Suhrkamp, 423–425.
13) Vgl. zu dieser Herangehensweise einführend Ulrike Link-Wieczorek (2013): Lebensgestaltung im Netzwerk der Praktiken. Überlegungen zu einer praxeologischen Konzeption christlicher Subjektivierung, in: Thomas Alkemeyer, Gunilla Budde, Dagmar Freist (Hg.): Selbst-Bildungen. Soziale und kulturelle Praktiken der Subjektivierung, Bielefeld: Transcript, 291–309.
14) Vgl. Schart (2012).
15) Vgl. u.a. Cornelia Richter (2022): Sisters in Arms: an Introduction, in: International Journal of Philosophy and Theology 83 (5 2022), 315–317; Birgit Weyel/Wilhelm Gräb (Hg.) (2013): Praktische Theologie und empirische Religionsforschung, Leipzig: Evangelische Verlagsanstalt.
16) Solche Tools finden sich bspw. via fortext.net (abgerufen am 26.07.2023).
17) Vgl. https://digitale-philosophie.de/ (abgerufen am 26.07.2023).
18) Vgl. Manfred Thaller (2017): Geschichte der Digital Humanities, in: Fotis Jannidis/Hubertus Kohle/Malte Rehbein (Hg.): Digital Humanities. Eine Einführung, Stuttgart: J.B. Metzler, 3–12, 3.