Wir freuen uns sehr über die Förderentscheidung der Gemeinsamen Wissenschaftskonferenz (GWK) für das NFDI-Konsortium NFDI4Culture. NFDI4Culture wird als eines von neun Konsortien in der ersten Ausschreibungsrunde zur Nationalen Forschungsdateninfrastruktur (NFDI) ab Oktober 2020 für zunächst fünf Jahre durch Bund und Länder gefördert.
Ziel von NFDI4Culture ist der Aufbau einer bedarfsorientierten Infrastruktur für Forschungsdaten zu materiellen und immateriellen Kulturgütern in der NFDI. Ziel ist die Schaffung einer gemeinsamen Struktur auf nationaler Ebene, die sich um eine nachhaltige Sicherung, Standardisierung und Bereitstellung von Forschungsdaten des kulturellen Erbes bemüht. Das Konsortium adressiert die Bedarfe eines breiten Spektrums an Fachdisziplinen von der Architektur-, Kunst-, Musik- bis hin zur Theater-, Tanz-, Film- und Medienwissenschaft.
Als eine von neun Trägerinstitutionen ist die Universität zu Köln über unsere Kollegin Dr.’in Lisa Dieckmann vom prometheus-Bildarchiv (Kunsthistorisches Institut) vertreten; daneben sind das Cologne Center for eHumanities (CCeH) und das Data Center for the Humanities (DCH) sowie die Theaterwissenschaftliche Sammlung (TWS) als Participants am Konsortium beteiligt. Zu den Trägerinstitutionen zählen neben der Universität zu Köln drei weitere Universitäten (Heidelberg, Marburg, Paderborn), drei Infrastruktureinrichtungen (FIZ Karlsruhe, TIB Hannover, SLUB Dresden), die Stiftung Preußischer Kulturbesitz und die Akademie der Wissenschaften und der Literatur Mainz.
Das Konsortium sieht umfangreiche Beteiligungsmöglichkeiten für die Nutzenden der involvierten Fachdisziplinen, aber auch für Kunst- und Kulturschaffende unterschiedlichster Tätigkeitsbereiche und Vertreter*innen der Zivilgesellschaft vor. Die kontinuierliche Zusammenarbeit auf Augenhöhe, die bedarfsgerechte Ausrichtung aller Dienste und der regelmäßige Transfer innovativer Forschungsmethoden und -ergebnisse in die Fächer, die NFDI, die Kulturpolitik, die Kulturwirtschaft und die interessierte Zivilgesellschaft stellen zentrale Anliegen des Konsortiums dar.
We are glad to announce that the Cologne Center for eHumanities (CCeH) is an Observer institution in ELEXIS, the European Lexicographic Infrastructure, a Horizon 2020 project. ELEXIS is an ambitious project whose ultimate goal is to create a common working platform for lexicographers and publishers of lexical data. ELEXIS also aims at bridging the technical gap between the different communities involved in the project. The main beneficiaries will be dictionary users, both ‘normal’ users as well as researchers that will have access to an unparalleled amount of interconnected lexical data.
The project has different working packages, which range from creating a common data model, the ELEXIS data model; to extract lexical data from digitized printed dictionaries in PDF format; or to create digital dictionaries from scratch via Lexonomy, a cloud-based dictionary writing system. At the core of the technical infrastructure is the Dictionary Matrix, developed by John P. McCrae and his team from NUI Galway, that will link both monolingual and bilingual dictionaries at headword and sense level. All these resources will be accessible through a REST API. Therefore, they will be available for being employed by multiple applications, such as natural language processing (NLP) applications, desktop clients, mobile applications, etc.
What is the role of the CCeH in ELEXIS?
The University of Cologne has a rich tradition in digitizing and hosting South Asian language resources. The CCeH will provide its Sanskrit dictionaries to ELEXIS. The main platform for Sanskrit dictionaries worldwide is the Cologne Sanskrit Digital Dictionaries portal. This project was started in 1994 by Thomas Malten when Unicode and XML did not exist. In 2003 began conversion into XML format and in 2015 the Lazarus Project was initiated with the goal of converting the most complex dictionaries into TEI-P5 and also to create a common TEI schema for them. These dictionaries are available via the C-SALT APIs for Sanskrit Dictionaries and we offer for each dictionary a GraphQL and a REST API. These APIs have been created and maintained with Kosh, a framework developed by the CCeH and the Data Center for the Humanities. Kosh offers a state-of-the-art technology stack that can be employed to create and maintain APIs for any XML-encoded dictionary.
We are very happy to be part of the ELEXIS community and thus share resources and knowledge with the most important lexicographic project worldwide!
Wir freuen uns mitteilen zu können, dass die Kölner DH mit zahlreichen Beiträgen von Mitarbeiter*innen des CCeH, DCH und IDH auf der DHd2020 vertreten sein wird:
Poster
Sviatoslav Drach: StreamReaderSD 0.2 – Eine prototypische Webanwendung für das Lesen von Texten als Zeichenstrom
Nils Geißler: Der Haken von Frazier, der Ali 1971 zu Boden schickte, hat jetzt eine URI: Zur Modellierung, Transkription und Visualisierung performativer kultureller Objekte
Tessa Gengnagel, Hannah Busch, Daniela Schulz: Early Stage Digital Medievalist Subcommittee
Mark Eschweiler, Anna-Maria Evers, Dominik Kruhl, Elisabeth Reuhl, Enes Türkoğlu: Keine Panik! Manifest für Softwareentwicklung in Studierendenprojekten
Patrick Helling, Jonathan Blumtritt, Brigitte Mathiak, Claes Neuefeind, Felix Rau, Philip Schildkamp, Jan Wieners: Geisteswissenschaftliches Forschungsdatenmanagement in der Lehre – Konzepte, Methoden, Erfahrungen
Workshops
Zoe Schubert, Enes Türkoğlu, Kai Niebes, Øyvind Eide, Jan Wieners: Showtime – sehen und gesehen werden! Erzeugung semantischer (Spiel-)Räume für kollaboratives Arbeiten mit multimedialen Annotationen im Mehrdimensionalen
Ulrike Wuttke, Marina Lemaire, Schulte Stefan, Patrick Helling, Jonathan Blumtritt, Stefan Schmunk: Barcamp data literacy: Datenkompetenzen in den digitalen Geisteswissenschaften vermitteln
Philip Schildkamp, Claes Neuefeind, Brigitte Mathiak, Lukas Harzenetter, Uwe Breitenbücher, Frank Leymann: Modellierung und Verwaltung von DH-Anwendungen in TOSCA
Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter: Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH
Jürgen Hermes, Harald Klinke, Dennis Demmer: Public Humanities Tools: Der Bedarf an niederschwelligen Services
Nathalie Wiedmer, Janis Pagel, Nils Reiter: Romeo, Freund des Mercutio: Semi-Automatische Extraktion von Beziehungen zwischen dramatischen Figuren
Marcus Willand, Benjamin Krautter, Janis Pagel, Nils Reiter: Passive Präsenz tragischer Hauptfiguren im Drama
Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser: Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken
Panels
Julia Nantke, Manuel Burghardt, Nils Reiter, Regula Hohl Trillini, Ben Sulzbacher, Johannes Molz, Axel Pichler: Intertextualität in literarischen Texten und darüber hinaus
The TEI Conference is where every year hundreds of scholars, practitioners and enthusiasts gather together to talk about the Text Encoding Initiative and discuss all sorts of of ideas related to encoding text and human knowledge.
The Cologne Center for eHumanities is a huge fan of the TEI and has used it in countless projects. At this year’s TEI-C, we will be giving talks on a variety of subjects, ranging from reports of our practical experiences in applying the TEI to highly theoretical discussions.
Here is the list of our presentations at the TEI Conference 2019. Are you around? Let’s meet!
See you all in Graz. Seg mer ins in Graz!
Day 1: Wednesday, 18th September 2019
P. Dängeli [1,2], C. Forney [2]. Referencing annotations as a core concept of the hallerNet edition and research platform. This talk reports on the (re-)edition in digital form of existing editions of Haller’s correspondence and their integration in the hallerNet platform. The main point of the presentation is showing how annotations went from footnotes attached to a specific position on a printed page to annotated references targeting first-class digital objects in a database, paving the way for many different kinds of computer-assisted analysis. [Abstract]
A. Rojas Castro [1,12]. Modeling FRBR Entities and their Relationships with TEI: A Look at HallerNet Bibliographic Descriptions. An in-depth discussion of how the FRBR data model has been implemented in TEI markup and then adopted in hallerNet to represent a complex set of bibliographic records, as well as their relationships. [Abstract]
M. Gimena [4], R. Simon [5], E. Barker [6], L. Isaksen [7], R. Kahn [8], V. Vitale [9], A. Rojas Castro [1,12], H. Cayless [10]. Recogito: from Semantic Annotation to Digital Scholarly Edition. A report on how the TEI model has been integrated in the annotation tool Recogito, partner of the Pelagios network and best digital humanities tool of 2018. Now TEI documents can be imported and exported as part of a general workflow conceived to create “minimal” digital editions. [Abstract]
R. Bleier [11], F. Fischer [1], T. Gengnagel [1], H. W. Klug [11], P. Sahle [1], C. Steiner [11], S. M. Winslow [11], A. Worm [11]. Graphs – charters – recipes: challenges of modelling medieval genres with the TEI. An open panel where the speakers will discuss with the public the pros and cons of different approaches to modelling medieval texts and images. [Abstract]
Cologne Center for eHumanities, University of Cologne, Germany
Institute of History, University of Bern, Switzerland
Università Ca’ Foscari Venezia, Italy
Consejo Nacional de Investigaciones Científicas y Técnicas, Argentina
AIT Austrian Institute of Technology, Austria
The Open University, UK
University of Exeter, UK
Alexander von Humboldt Institut für Internet und Gesellschaft HIIG, Germany
University of London, UK
Duke University, USA
University of Graz, Austria
Berlin-Brandenburg Academy of Sciences and Humanities, Germany
Data Center for the Humanities, University of Cologne, Germany
Department of Linguistics, University of Cologne, Germany
Jubiläumsfeier Donnerstag, 4. Juli 2019 um 17:45 – 19:15 Uhr Hörsaal XVIII (Hauptgebäude)
Gastvortrag: Prof. Dr. Elena Pierazzo (Université Grenoble Alpes) “Models of Digital Humanities ecosystems: Lone Wolves, Packs and Networks.”
In diesem Sommersemester besteht das Cologne Center for eHumanities (CCeH) 10 Jahre. Aus diesem Grund laden wir ganz herzlich zum 10-jährigen Jubiläum des CCeH ein.
Wir freuen uns auf den Festvortrag von Prof. Dr. Elena Pierazzo und möchten mit allen Mitgliedern und Freunden des CCeH ein frohes Fest feiern und auf zehn überaus erfolgreiche Pionierjahre zurückblicken, aber auch vorausschauen auf die bevorstehenden Herausforderungen und gemeinsamen Projekte.
Anschließend wird herzlich zu einem Empfang eingeladen.
Das CCeH wird am 21. Mai 2019 einen Experten-Workshop zum Thema “Visualisierung in (digitalen) Editionen” an der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf ausrichten.
Die Teilnahme ist kostenfrei. Die Teilnehmerzahl ist allerdings begrenzt. Interessenten werden um schriftliche Anfrage an Herrn Nils Geißler gebeten: nils.geissler@uni-koeln.de
Programmübersicht
(Abstracts s.u.)
Einführung (9:30-10:00)
Patrick Sahle / Franz Fischer / Nils Geißler (Köln)
Literatur (10:00-11:00)
Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft
Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes
Kaffeepause
Varianz & Genese (11:30-13:00)
Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“
Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen
Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition
Mittagspause (13:00-14:00)
Briefe (14:00-15:30)
Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition
Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels
Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten
Kaffeepause
Geschichte & Philosophie (16:00-17:00)
Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte
Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte
Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin): Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt
Allgemeine Diskussion (17:00-17:30)
Praktische Infos
Veranstalter: Koordinierungsstelle Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften am Cologne Center for eHumanities (CCeH) der Universität zu Köln
Organisation: Prof. Dr. Patrick Sahle (Bergische Universität Wuppertal) Prof. Dr. Franz Fischer (Università Ca‘ Foscari Venezia) Nils Geißler (Universität zu Köln)
Digitale Editionen beruhen auf großen und komplexen Datenbeständen. Bei ihren digitalen Publikationsformen handelt es sich um visuelle Darstellungen, die sich unter verschiedenen Aspekten betrachten lassen: (1.) als Internet-Gesamtauftritt einschließlich der Inhaltsorganisation und Benutzerführung, (2.) als Präsentation von “Inhalten”, von Texten, Faksimiles oder Registern und (3.) als ergänzende Visualisierungen, die die inhaltlichen Komponenten und Strukturen sichtbar und damit verständlicher und besser nutzbar machen. In diesen dritten Bereich fallen Strukturvisualisierungen von Texten und Corpora, von Varianz und Genese sowie von Annotationen und Bezügen, graphische Darstellungen wie Timelines oder Karten und klassische Formen der Informationsvisualisierung wie statistische Diagramme und Netzwerke oder allgemeine schematische Übersichten für Phänomene und Strukturen in den Datenbeständen. Diese Visualisierungen können zugleich wieder filternde, explorative, interaktive oder weiterleitende (browsing-unterstützende) Funktionen haben und damit wieder den Bereich Inhaltsorganisation und Nutzerführung betreffen. Im Rahmen des Workshops „Visualisierung in (digitalen) Editionen“ sollen die bestehenden Ansätze vor allem im dritten Bereich, also der Informationsvisualisierung im engeren Sinne, gesichtet und diskutiert werden.
Abstracts
Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft
Die Methoden der digitalen Literaturwissenschaft befassen sich mit sehr unterschiedlich großen Datengrundlagen. Im Bereich des distant reading werden Textdaten vor allem in ihrer Quantität visualisiert, auch wenn Verfahren wie Topic Modeling oder word2vec versuchen, auch automatisiert an die semantischen Tiefendimensionen von Texten heranzukommen. Die schiere Menge der Daten macht Visualisierungen jedoch unumgänglich, um einen Überblick und darauf aufbauend auch einen Einblick zu gewähren. Im Bereich des close reading können qualitative Daten (erstellt durch manuelle Annotation) visualisiert werden. Der systematische Einsatz von Visualisierungen in der literaturwissenschaftlichen Argumentation ist ein noch weitgehend unerschlossenes Feld, ein Gemeinplatz ist jedoch, dass hermeneutische Daten andere Visualisierungsformen erfordern als (vermeintlich) interpretationsfreie Daten (Drucker unterscheidet in diesem Sinne „data“ (die gegeben sind) von „capta“ (die genommen werden müssen)). Ich werde nach einem kurzen Überblick über das Methodenrepertoire der digitalen Literaturwissenschaft beispielhaft die Netzwerkanalyse (mit semantischen, gerichteten Netzwerken, die für die Visualisierung von Luhmanns Zettelkasten interessant sein könnten) sowie die Visualisierung von manuell erzeugten hermeneutischen Annotationen am Beispiel des Tools Stereoscope, das im Projekt 3DH für die visuelle Arbeit mit CATMA-Annotationen entwickelt wurde, besprechen.
Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes
In einem ersten Teil soll das Kooperationsprojekt zwischen dem Theodor-Fontane-Archiv Potsdam und dem UCLAB der Fachhochschule Potsdam zur Entwicklung eines Prototyps zur Visualisierung der Handbibliothek Theodor Fontanes vorgestellt werden (https://uclab.fh-potsdam.de/ff/). Daran schließen sich in einem zweiten Teil generellere Fragen an, die im Projektverlauf aufgetreten sind: Welche Arbeitsformen zwischen Archiv/Fachwissenschaft und Informatik/Digitaler Forschung sind für philologische Visualisierungsprojekte zielführend? Kann die einer Visualisierung zugrundeliegende Datenerfassung losgelöst von philologischer Deutung erfolgen? Welche Formen kann und muss eine Visualisierung annehmen, damit sie für Philologen „lesbar“ ist? Können digitale Interfaces eigene Erkenntnisinstrumente sein? Oder gibt es etwas, was durch die Visualisierung verloren geht – sind sie also in gewisser Hinsicht auch Erkenntnisverlustinstrumente?
Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“
„Der Heiligen Leben, Redaktion“ lautet der etwas sperrige Titel eines spätmittelalterlichen deutschen Legendars, also einer Sammlung von Lebensbeschreibungen christlicher Heiliger, die in den ersten Jahrzehnten des 15. Jahrhunderts im Nürnberger Raum entstanden ist. Die Sammlung stellt eine umfangreiche Bearbeitung und Erweiterung des weiter verbreiteten „Heiligen Leben“ dar, die in zwei Stufen erfolgt ist. An der Universität Stuttgart wird zurzeit die erste Edition dieser umfangreichen Textsammlung vorbereitet, bei der insbesondere der Erforschung der unterschiedlichen Bearbeitungstendenzen, die zwischen den einzelnen Stufen sichtbar werden, eine große Bedeutung zukommt. Um diese Bearbeitungstendenzen und die Varianz, die zwischen den Texten besteht, besser überblicken zu können, werden zurzeit in interdisziplinärer Zusammenarbeit zwischen dem Institut für Literaturwissenschaft und dem Institut für Visualisierung und interaktive Systeme neue Möglichkeiten der Visualisierung von Textunterschieden erprobt. Im Vortrag möchten wir einen Ansatz vorstellen, der es erlaubt, für eine Auswahl von manuell und gemäß einer Reihe von Variantenkategorien annotierten Texten deren Varianzen makroperspektivisch darzustellen und miteinander zu vergleichen.
Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen
In der Editorik bestehen verschiedene Ansätze mit Variation rational umzugehen. Einer der bekanntesten ist dabei wohl die kritische Edition, welche meist einen Urtext (oder kritischen Text) durch vorherige Rekonstruktion der Kopiergeschichte der Textzeugen anhand von textuellen und metatextuellen Eigenschaften, wie z.B. gemeinsamer fehlender Zeilen, rekonstruiert. Das verbreiteteste Verfahren hierzu ist das sog. Lachmann’sche. Bei diesem Verfahren wird neben der Rekonstruktion verlorener anzestraler Textzeugen die Kopiergeschichte visualisiert undzwar als Graph, wobei Textzeugen Knoten und Kopierprozesse (oder -ketten) Kanten sind. Dieser Graph ist i.d.R. gerichtet und erlaubt so einen chronologischen Überblick über die Kopiergeschichte aller bekannten Textzeugen. In Printeditionen steht ein solches Stemma normalerweise am Ende der Einleitung. Mit Beginn des digitalen Zeitalters hat die Stemmatologie durch Adaptation von bio-informatischen und informatischen Ansätzen einen enormen Methodenzuwachs erlebt. Der Vortrag versucht daher, einen Überblick über sinnvolle Möglichkeiten, Stemmata für digitale Editionen zu produzieren und sie in ihnen zu platzieren zu geben.
Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition
Die Faustedition (faustedition.net) erschließt alle Handschriften und die zu Goethes Lebzeiten erschienenen relevanten Drucke des Faust. Der Beitrag stellt Visualisierungen aus dem Bereich der Textgenese vor sowie als experimentellsten Teil das Makrogenese-Lab, das Forschung zur Entstehungsgeschichte modelliert und visualisiert.
Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition
Digitale wissenschaftliche Editionen zielen traditionell auf eine qualitative Tiefenerschließung sowie auf eine Visualisierung der Quellen bzw. Daten, die das einzelne Dokument fokussiert. Die Tiefenerschließung (z. B. Entitäten, Normdaten) kann man aber auch für quantitative Analysen fruchtbar machen. Eine adäquate bzw. den Benutzern zugängliche ‚Lesart‘ solcher Analysen ist die (Informations-)Visualisierung. Anhand eines Korpus von rund 5000 Briefen des Schriftstellers Jean Paul wird der Vortrag experimentelle Visualisierungen vorstellen, die neue Forschungsimpulse anregen. Ebenfalls thematisiert werden die dabei entstehenden konzeptionellen und technischen Herausforderungen, darunter ‚Fluch und Segen‘ großer Datensätze und die ‚Subjektivität‘ der Auswertung. Abschließend denkt der Vortrag an, wie Visualisierungen als quantitative ‚Lesarten‘ der Quellen digitale Editionen bereichern könnten.
Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels
Vorgestellt wird die interaktive Korrespondenzvisualisierung aus der Wanderausstellung ‚Aufbruch ins romantische Universum: August Wilhelm Schlegel‘ (Frankfurt, Bonn, Marburg, Jena), die auf zwei Touchscreens am Beginn der Schau zu sehen war. Sie veranschaulichte Schlegels weitgespanntes Briefnetzwerk: Die Besucher*innen konnten sich von der Briefnetzwerkansicht auf einer Europakarte bis hin zum einzelnen Brieffaksimile und dessen Transkription bewegen. Dafür sind Forschungsdaten aus der Digitalen Edition der Korrespondenz August Wilhelm Schlegels (www.august-wilhelm-schlegel.de) nachgenutzt und in FuD spezifisch modelliert worden. Der Visualisierung lag ein mit dem Trier Center for Digital Humanities entwickeltes, topographisches Design-Konzept zugrunde, das sich an den farblich markierten Ausstellungsstationen orientierte. Sie wurde zudem einer Testphase unter realen Nutzungsbedingungen unterzogen. Die Verwendung der Medienstation wurde während der Ausstellungsdauer auf beiden Rechnern zeitexakt protokolliert.
Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten
Der Webservice correspSearch aggregiert Korrespondenzmetadaten und stellt sie zur Recherche und Abfrage via API zur Verfügung. In Zukunft sollen die Recherchezugänge um Visualisierungen ergänzt werden, die eine leichte Exploration des großen Datenbestandes (derzeit über 50.000 Briefe) möglich machen. Der Beitrag stellt erste Überlegungen und Tests hierzu vor.
Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte
Das Capitularia-Projekt erarbeitet eine Hybridedition der fränkischen Herrschererlasse (‚Kapitularien‘), die eine kritische Printedition mit der Erschließung aller handschriftlichen Textzeugen in Form einer digitalen Edition verbindet. Die auf der Projekthomepage gesammelten Informationen zu den ca. 300 Überlieferungsträgern mit Kapitulariensammlungen sollen zukünftig durch Visualisierungen anschaulich präsentiert werden. Im Workshop stellen wir einen ersten Entwurf für eine interaktive Karte mit den Entstehungsorten der Handschriften vor. Über verschiedene Filteroptionen können Abfragen zu Entstehungsorten, –daten und Inhalten der jeweiligen Handschriften miteinander kombiniert und auf der Karte dargestellt werden. Neben einer übersichtlichen Präsentation der reichen Überlieferung soll damit auch die Nutzung der Daten für Forschungsfragen angeregt werden.
Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte
Das Center for the History of Women Philosophers and Scientists als digitales Archiv zu Schriften von Philosophinnen hat es sich zum Ziel gemacht, Texte von Philosophinnen, die zur Verfügung stehen, zu digitalisieren, zu sammeln und zu katalogisieren. Zu diesem Zweck wurde im Rahmen des Projekts ein Directory, eine Timeline und eine Enzyklopädie (ECC- Encyclopedia of Concise Concepts by Women Philosophers) entwickelt. In unserem Vortrag werden wir die verschiedenen Projekte und Darstellungsweisen der Daten präsentieren und auf die Möglichkeiten und Schwierigkeiten der Verknüpfung von vorhandenem Datenmaterial und der Visualisierung hinweisen.
Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin) Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt
Hannah Arendt gilt als eine der bedeutendsten politischen Denkerinnen des 20. Jahrhunderts, die nicht zuletzt aufgrund ihres in zwei Sprachen (Englisch, Deutsch) verfassten Werkes eine große internationale Reichweite erlangt hat. Diese Zweisprachigkeit ihrer Texte und die damit eröffneten unterschiedlichen Denk-Welten ein und derselben Autorin stellen eine Besonderheit dieses Textkorpus‘ dar: Während bereits die zahlreichen Varianten und Fassungen einzelner Texte Ausdruck eines intensiven Überarbeitungsprozesses sind, verfasste Arendt ihre Ideen („Denk-Gebäude“) im jeweiligen Sprachraum zudem genuin neu, oft auch ganz anders entwickelt.
Die „klassische“ Präsentation des Textkorpus‘ des Editionsvorhabens „Hannah Arendt. Kritische Gesamtausgabe und Hybridedition“ (Projektwebseite: http://www.arendteditionprojekt.de/ ), realisiert durch synoptische Ansichten der editorischen Umschriften (diplomatische und Lesefassung, daneben Faksimile und TEI/XML des Dokuments), die auf einzelne Texte ausgerichtet ist, kann dieser sprachlich begründeten Verschiedenheit nicht gerecht, Arendts Denkprozess so nur bedingt herausgearbeitet werden. Vielmehr sind Visualisierungen der Gemeinsamkeiten und Unterschiede zwischen ein- und mehrsprachigen Textvarianten und Textfassungen sowohl auf Ebene der Textstruktur als auch der Syntax und Lexik usw. erforderlich. Im Vortrag wird die Problematik anhand des Arendt-Korpus illustriert, Bedarfe an die Visualisierung formuliert und erste Lösungsideen (für monolinguale Texte) unter Verwendung von Verfahren des Text Alignments (z.B. LERA (Locate, Explore, Retrace and Apprehend complex text variants, lera.uzi.uni-halle.de) aufgezeigt.
Der Dombauverein am CCeH meldet die Fertigstellung seines ersten funktionalen RTI-Dome-Prototypen. Die Ergebnisse eines Testlaufs mit stark verwitterten Siegeln aus der Sammlung Robert Feind sind vielversprechend: Zuvor unleserliche Siegel konnten erfolgreich entziffert werden.
Reflective Transformation Imaging (RTI) ist ein Bildgebungsverfahren, bei dem ein Objekt unter verschiedenen Lichtverhältnissen fotografiert wird. Die entstandenen Fotos werden zusammengerechnet und können dann mit stufenlos verschiebbarer virtueller Lichtquelle betrachtet werden. Dabei können feinste Oberflächenstrukturen von Gegenständen wie Münzen, Siegeln, Steintafeln oder Papyri sichtbar gemacht werden. RTI ist somit eine günstige und praktische Alternative zur teuren und aufwändigen 3D-Digitalisierung.
RTI wurde 2002 bei Hewlett Packard entwickelt und wird schon seit längerem bei der Digitalisierung im Bereich Cultural Heritage angewandt – so z. B. im Projekt Magica Levantina an der Universität zu Köln. Klassischerweise wird dabei eine Kamera an einem Stativ fixiert. Die Fotografin bewegt sich mit einem mobilen Blitzgerät um das Objekt, misst den jeweiligen Beleuchtungswinkel und löst die Aufnahme aus.
Da von jedem Objekt zwischen 20 und 60 Aufnahmen gemacht werden müssen, ist die Arbeit recht mühselig und zeitaufwändig. Sophie Breternitz, Restauratorin und RTI-Expertin der Kölner Papyrussammlung, rechnet inklusive Aufbau, Testlauf und Positionierung mit 30 bis 60 Minuten je Objekt.
Durch eine Dome-Konstruktion lässt sich dieser Aufwand deutlich reduzieren. Dabei handelt es sich im Grunde um eine lichtdichte Halbkugel (oder Salatschüssel), in deren Wand die Lichtquellen in Form spezieller LEDs fest angebracht sind. Die Halbkugel wird über ein Objekt gestülpt und die Kamera mit der Linse nach unten in das integrierte Gewinde an einem Loch in der Kugeloberseite eingeschraubt. Per Knopfdruck leuchten die LEDs der Reihe nacheinander auf – synchron dazu wird je eine Fotoaufnahme ausgelöst. In wenigen Minuten entsteht so vollautomatisch eine qualitativ hochwertige RTI-Aufnahme.
Das Dombau-Team um die CCeH-Kollegen Gioele Barabucci, Marcello Perathoner und Marcel Schaeben hat nun einen funktionalen Prototypen eines solchen Domes fertig gestellt, der im Creative Space des CCeH zur Nutzung bereit steht. Besonders hervorzuheben ist die Leistung unseres Elektronik-Experten Marcello Perathoner, der vom Löten und Anbringen der LEDs, über den Bau und der Programmierung des Controllers, bis hin zur Entwicklung der Auswertungssoftware in C und Python den Großteil der Konstruktionsarbeit geleistet hat.
Der Kölner Dome hat einen Durchmesser von 50 cm und eignet sich zur Erfassung von Objekten mit bis zu 10 cm Durchmesser. Einen ersten erfolgreichen Einsatz hat er bereits hinter sich: Dazu wurden seitens der von Prof. Dr. Claudia Sode geleiteten Forschungsgruppe in byzantinischer Siegelkunde (Maria Teresa Catalano,Martina Filosa, Robert Feind) von der Abteilung Byzantinistik und Neugriechische Philologie des Instituts für Altertumskunde einige byzantinische Bleisiegel aus dem 11. Jh. aus der Sammlung Robert Feind zur Verfügung gestellt, die im Rahmen eines Testlaufs mithilfe des Domes digitalisiert wurden. Dabei wurden speziell sehr schlecht erhaltene, stark korrodierte und teilweise plattgedrückte Siegel ausgewählt, die sowohl mit bloßem Auge unter künstlicher Beleuchtung als auch mithilfe analoger und digitaler Vergrößerungsmethoden völlig unleserlich waren. Die Aufnahmen inklusive Vorbereitungen und Positionierung der Siegel dauerten ca. drei bis fünf Minuten pro Objekt.
RTI-Ansicht des Siegel des Alexios, Mönch, Erzbischof von Zypern und synkellos (S-118 Avers, Sammlung Robert Feind, Köln). Mit gedrückter Maustaste über das Bild fahren, um den Belichtungswinkel zu verändern.
Die Tranksription lautet:
+κεr.
ηθειΑ̣..
ξ̣IMο̣..
x.
Κύριε βοήθει ᾿Α[λεξί(ῳ)] μο[να]χ[ῷ] Gott, hilf Alexios, Mönch, Erzbischof von Zypern und synkellos.
Die Ergebnisse sind nicht nur optisch beeindruckend – sie sind auch weit über Köln hinaus wissenschaftlich interessant:
Die RTI-Aufnahmen mit dem Dome waren entscheidend für die Entzifferung eines der Siegel. Unser Team konnte vereinzelte, für die Lesung relevante Buchstaben sicher erkennen und anhand dieser den Inhalt der Legende fast vollständig rekonstruieren. Infolgedessen konnten zwei Parallelstücke aufgespürt werden – das erste in der Sammlung byzantinischer Bleisiegel der Eremitage in Sankt Petersburg, und das zweite in der Sammlung von Dumbarton Oaks in Washington, DC. Zum einen wurde die Lesung unseres Siegels durch die Parallelstücke ergänzt; zum anderen konnte die Lesung des Siegels von Dumbarton Oaks durch die unseres Siegels verbessert werden. Vorher waren beide Siegel nicht als Parallelstücke erkannt worden.
Martina Filosa und Maria Teresa Catalano, Abteilung Byzantinistik und Neugriechische Philologie, Institut für Altertumswissenschaften
An diesem Beispiel zeigt sich, dass RTI einen wichtigen Beitrag zur Grundlagenforschung nicht nur in der Siegelkunde leisten kann, sondern in vielen Bereichen, in denen die Untersuchung der Oberfläche kultureller Artefakte eine Rolle spielt. Das Dome-System macht die RTI-Methode durch deutlich verringerten Zeit- und Trainingsaufwand auch auf größere Sammlungen skalierbar.
Ein besonderer Dank geht an die DingFabrik in Köln-Ehrenfeld. In der offenen Werkstatt des DingFabrik Köln e.V. konnten wir durch unentgeltliche Nutzung von Bohrmaschine und Lochsäge sowie kompetenter Beratung der anwesenden Mitglieder mit der Frage, wie man ein exakt rundes Loch genau in die Mitte einer Salatschüssel bekommt, eine der größten ingenieurstechnsichen Herausforderungen beim Dombau überwinden.
Literatur und Weiterführende Links
Für eine genauere Beschreibung des RTI-Verfahrens und seine Anwendung im Projekt Magica Levantina siehe
Alice Guszalewicz als Brünhilde in Wagners Walküre, Köln 1911 (Theaterwissenschaftliche Sammlung; Foto: Blum&Höffert, Köln)
Das Digital Humanities Kolloquium hält auch im Sommersemester 2019 ein attraktives Vortragsprogramm für Studierende, Forschende und Dozierende bereit. Es umfasst Themen wie Kommunikation, Theater, Archivwesen, Prototyping, Computer Vision und Fußball!
Den Einstieg wird einmal mehr Patrick Sahle am 4. April 2019 unter dem legendären Titel “Digital Humanities – wer wie was, wieso weshalb warum?” geben. Sein Vortrag wird zugleich seinen Abschied von der Universität zu Köln markieren, die er als ordentlicher Professor für Digital Humanities im Mai in Richtung Wuppertal leider verlassen wird.
Glanzvollen Abschluss des Kolloquiums im Rahmen der 10-jährigen Jubiläumsfeier des CCeH am 4. Juli 2019 wird Elena Pierazzo mit einem Festvortrag setzen unter dem Titlel “Models of Digital Humanities ecosystems: Lone Wolves, Packs and Networks”.
Die Veranstaltung findet jeweils donnerstags von 17:45 – 19:15 im Hörsaal XVIII (Hauptgebäude) statt. Das vollständige und aktuelle Programm findet sich auf dem eigenen Veranstaltungsblog Digital Humanities Cologne.
Weitere Hinweise für Studierende finden sich auf der Webseite des IDH.
Das Cologne Center for eHumanities, das Institut für Digital Humanities, und das Data Center for the Humanities der Universität zu Köln sind auch räumlich enger zusammengewachsen. Um diese erfreuliche Dynamik gebührend zu zelebrieren, möchten wir alle Kolleginnen und Kollegen im Namen der institutionellen DH-Dreifaltigkeit herzlich zur Einweihungsparty der neuen Büros einladen.
Die Party findet am Freitag, dem 1. Februar 2019, im ersten Stockwerk der Universitätsstr. 22, ab 19:00 Uhr statt.
Jonathan Blumtritt und Felix Rau: “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” (Di., 27.01., 09:00-10:30).
Patrick Sahle trägt bei zum Workshop „Zur Zukunft der Digitalen Briefedition – kooperative Lösungen im kulturwissenschaftlichen Forschungsdatenmanagement“ (Di., 27.01., 14:00-15:30)
Panels:
Frederike Neuber, Ulrike Henny-Krahmer, Patrick Sahle und Franz Fischer organisieren das Panel “Alles ist im Fluss” und diskutieren mit Rüdiger Hohls, Anne Baillot, Christof Schöch und Jürgen Hermes über Ressourcen und Rezensionen in den Digital Humanities. Die Idee zur Einreichung geht auf die herausgeberische Arbeit an der Online-Rezensionszeitschrift RIDE zurück. (Mi., 28.02., 14:00-15:30).
Patrick Sahle diskutiert mit Katrin Moeller, Matej Ďurčo, Marina Lemaire, Lukas Rosenthaler, Ulrike Wuttke und Jörg Wettlaufer: “Die Summe geisteswissenschaftlicher Methoden? Fachspezifisches Datenmanagement als Voraussetzung zukunftsorientierten Forschens” (Do., 01.03., 16:00-17:30).
Vorträge:
Gioele Barabucci: “Funktionale und deklarative Programmierung-basierte Methode für nachhaltige, reproduzierbare und verifizierbare Datenkuration” (Fr., 02.03., 09:00-10:30).
Ulrike Henny-Krahmer, Katrin Betz, Daniel Schlör und Andreas Hotho: “Alternative Gattungstheorien: Das Prototypenmodell am Beispiel hispanoamerikanischer Romane” (Do., 01.03., 9:00-10:30).
Martina Bürgermeister, Gerlinde Schneider, Stephan Makowski, Daniel Jeller, Jan Bigalke, Christian Theisen und Georg Vogeler: “Software Aging in den DH: Kritik des reinen Forschungswillen” (Fr., 02.03., 9:00-10:30).
Poster (Do., 01.02., 17:45-19:15):
Ben Bigalke, Ulrike Henny-Krahmer, Sviatoslav Drach, Pedro Sepúlveda, Christian Theisen: “Personen- und Figurennetzwerke in Fernando Pessoas Publikationsplänen”.
Jonathan Blumtritt, Uwe Breitenbücher, Simone Kronenwett, Frank Leymann und Brigitte Mathiak: “SustainLife – Erhalt lebender, digitaler Systeme für die Geisteswissenschaften”.
Franz Fischer, Greta Franzini und Mike Kestemont: “Digital Medievalist: A Web Community for Medievalists working with Digital Media”.
Christian Forney, Antonio Rojas Castro, Peter Dängeli: “Von der geschlossenen Forschungsdatenbank zur offenen Editions- und Forschungsplattform”.
Francisco Mondaca, Jürgen Rolshoven, Philip Schildkamp und Andreas Vogt: “Syndred – A Syntax-Driven Editor for Lexical Resources”.
Uta Reinöhl, Daniel Kölligan, Börge Kiss, Claes Neuefeind, Francisco Mondaca und Patrick Sahle: “VedaWeb – eine webbasierte Plattform für die Erforschung altindischer Texte”.