News

NFDI4Culture im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) gefördert

Wir freuen uns sehr über die Förderentscheidung der Gemeinsamen Wissenschaftskonferenz (GWK) für das NFDI-Konsortium NFDI4Culture. NFDI4Culture wird als eines von neun Konsortien in der ersten Ausschreibungsrunde zur Nationalen Forschungsdateninfrastruktur (NFDI) ab Oktober 2020 für zunächst fünf Jahre durch Bund und Länder gefördert.

Ziel von NFDI4Culture ist der Aufbau einer bedarfsorientierten Infrastruktur für Forschungsdaten zu materiellen und immateriellen Kulturgütern in der NFDI. Ziel ist die Schaffung einer gemeinsamen Struktur auf nationaler Ebene, die sich um eine nachhaltige Sicherung, Standardisierung und Bereitstellung von Forschungsdaten des kulturellen Erbes bemüht. Das Konsortium adressiert die Bedarfe eines breiten Spektrums an Fachdisziplinen von der Architektur-, Kunst-, Musik- bis hin zur Theater-, Tanz-, Film- und Medienwissenschaft.

Als eine von neun Trägerinstitutionen ist die Universität zu Köln über unsere Kollegin Dr.’in Lisa Dieckmann vom prometheus-Bildarchiv (Kunsthistorisches Institut) vertreten; daneben sind das Cologne Center for eHumanities (CCeH) und das Data Center for the Humanities (DCH) sowie die Theaterwissenschaftliche Sammlung (TWS) als Participants am Konsortium beteiligt. Zu den Trägerinstitutionen zählen neben der Universität zu Köln drei weitere Universitäten (Heidelberg, Marburg, Paderborn), drei Infrastruktureinrichtungen (FIZ Karlsruhe, TIB Hannover, SLUB Dresden), die Stiftung Preußischer Kulturbesitz und die Akademie der Wissenschaften und der Literatur Mainz.

Das Konsortium sieht umfangreiche Beteiligungsmöglichkeiten für die Nutzenden der involvierten Fachdisziplinen, aber auch für Kunst- und Kulturschaffende unterschiedlichster Tätigkeitsbereiche und Vertreter*innen der Zivilgesellschaft vor. Die kontinuierliche Zusammenarbeit auf Augenhöhe, die bedarfsgerechte Ausrichtung aller Dienste und der regelmäßige Transfer innovativer Forschungsmethoden und -ergebnisse in die Fächer, die NFDI, die Kulturpolitik, die Kulturwirtschaft und die interessierte Zivilgesellschaft stellen zentrale Anliegen des Konsortiums dar.

Weitere Infos: https://nfdi4culture.de/
Pressemitteilung der GWK
Pressemitteilung der Universität zu Köln

Oral Tales of Mongolian Bards erschienen

Das Cologne Center for eHumanities hat gemeinsam mit der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste eine von den Mongolistin und Sinologin Dr. Elisabetta Chiodo bearbeitete Edition der Oral Tales of Mongolian Bards als digitales Angebot bereitgestellt: https://mongoltales.awk.nrw.de/.

Die Oral Tales of Mongolian Bards umfassen achtzehn Erzählungen, die von Barden aus dem Osten der zu China gehörenden Inneren Mongolei mündlich vorgetragen wurden: vier Epenerzählungen und vierzehn Geschichten, die auf chinesischen Abenteuerromanen basieren und „Geigengeschichten“ (mongolisch quγur-un üliger) genannt werden, da ihr Vortrag mit der viersaitigen mongolischen Geige (quγur) begleitet wird. Die Texte sind Teil einer großen Sammlung mongolischer Volksliteratur, die zwischen 1980 und 1995 von dem Bonner Mongolisten Walther Heissig und mongolischen Wissenschaftlern auf Tonband aufgezeichnet wurde. Die Sammlung ist Teil des Tonarchivs der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf.

Die Online-Veröffentlichung umfasst die digitalisierten Tonbandaufnahmen der achtzehn Erzählungen und ihre Transkriptionen in mongolischer Schrift. Elf der Texte werden von ausführlichen englischen Inhaltsangaben und teilweise von Kommentaren begleitet. Sieben Texte sind mit kurzen Inhaltsangaben versehen.

Die wissenschaftliche Bearbeitung der Materialien erfolgte durch Dr. Elisabetta Chiodo. Die Projektleitung hatte Professor Klaus Sagaster, Universität Bonn. Die Digitalisierung, digitale Publikation und Archivierung war Aufgabe des Cologne Center for eHumanities der Universität zu Köln.

Das Projekt wurde mit der Unterstützung der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste und der Stiftung der Freunde und Förderer der Akademie durchgeführt. Mehr Informationen über das Projekt finden sich auf folgender Webseite: https://mongoltales.awk.nrw.de/about.html.

“Einführung in Quantencomputing” – Gastvortrag Prof. Dr. Dr. h. c. Frank Leymann & Dr. Johanna Barzen, 6. Februar 2020

Vortragstitel

Einführung in Quantencomputing: Grundlagen und Anwendungen

English: Introducing Quantum Computing: Fundamentals and Applications

Zeit und Ort

6. Februar 2020, 16:00 Uhr, Raum S12 (Neues Seminargebäude), Universität zu Köln

Abstract

Quantencomputer werden Realität. Was aber verbirgt sich hinter dieser neuen Technologie und wo stehen wir aktuell? Wir beginnen mit einer kurzen Einführung der wichtigen Konzepte wie Unschärfe und Superposition aus der Quantenphysik, um dann Quantenbits, die Rolle von Messungen sowie die Grundstruktur eines Quantenalgorithmus vorzustellen. Wie sieht ein Quantenregister aus und welche Rolle spielt Verschränkung? Welche Operatoren zur Manipulation von Quantenregistern gibt es und was ist die Dekohärenz von Qubits? Wie kann eine mögliche Quantenkryptographie aussehen und wie ist der Informationsgehalt von Quantenbits einzuschätzen? Antworten auf solche grundlegenden Fragen sollen in dem Vortrag behandelt und diskutiert werden. Abschließend wird die mögliche mittelfristige Nutzung von Quantencomputern vorgestellt und ein Ausblick auf einen Anwendungsfall aus den Digital Humanities aufgezeigt.

English: Quantum computers are becoming reality. But which potential is hidden in this new technology and where do we stand today? We start with a short introduction to the underlying concepts of quantum physics, such as uncertainty and superposition, and then introduce qubits, the role of measurements, and the basic structure of a quantum algorithm. How does a quantum register look like and which role does entanglement play? What are the operators for manipulating quantum registers and what is decoherence of qubits? Answers to such basic questions will be presented and discussed in the talk. Finally, the possible medium-term use of quantum computers will be presented and an outlook on a use case from the digital humanities will be given.

Kurzviten

Frank Leymann ist Professor für Informatik und Direktor des Instituts für Architektur von Anwendungssystemen der Universität Stuttgart. Seine Forschungsinteressen liegen auf den Gebieten Dienstorientierte Architekturen und Middleware, Workflow Management und Geschäftsprozesse, Mustersprachen, Cloud Computing, Integrationstechnologien, und Transaktionsverarbeitung, sowie Quantum Computing. Frank Leymann ist Koautor von mehr als 400 Publikationen, von mehr als 40 Patenten und verschiedenen Industriestandards.

Johanna Barzen studierte Theater-, Film- und Fernsehwissenschaft, Musikwissenschaft und Phonetik an der Universität zu Köln. Parallel studierte sie Kostümbild an der ifs (Internationale Filmschule Köln) und arbeitete in verschiedenen Filmproduktionen im Kostümdepartment. Derzeit ist sie Postdoc und wissenschaftliche Mitarbeiterin am Institut für Architektur von Anwendungssystemen (IAAS) der Universität Stuttgart, wo sie an digitalen Geisteswissenschaften, Mustersprachen und Quantum Computing forscht.

CCeH: an ELEXIS Observer

We are glad to announce that the Cologne Center for eHumanities (CCeH) is an Observer institution in ELEXIS, the European Lexicographic Infrastructure, a Horizon 2020 project. ELEXIS is an ambitious project whose ultimate goal is to create a common working platform for lexicographers and publishers of lexical data. ELEXIS also aims at bridging the technical gap between the different communities involved in the project. The main beneficiaries will be dictionary users, both ‘normal’ users as well as researchers that will have access to an unparalleled amount of interconnected lexical data.

The project has different working packages, which range from creating a common data model, the ELEXIS data model; to extract lexical data from digitized printed dictionaries in PDF format; or to create digital dictionaries from scratch via Lexonomy, a cloud-based dictionary writing system. At the core of the technical infrastructure is the Dictionary Matrix, developed by John P. McCrae and his team from NUI Galway, that will link both monolingual and bilingual dictionaries at headword and sense level. All these resources will be accessible through a REST API. Therefore, they will be available for being employed by multiple applications, such as natural language processing (NLP) applications, desktop clients, mobile applications, etc. 

What is the role of the CCeH in ELEXIS?

The University of Cologne has a rich tradition in digitizing and hosting South Asian language resources. The CCeH will provide its Sanskrit dictionaries to ELEXIS. The main platform for Sanskrit dictionaries worldwide is the Cologne Sanskrit Digital Dictionaries portal. This project was started in 1994 by Thomas Malten when Unicode and XML did not exist. In 2003 began conversion into XML format and in 2015 the Lazarus Project was initiated with the goal of converting the most complex dictionaries into TEI-P5 and also to create a common TEI schema for them. These dictionaries are available via the C-SALT APIs for Sanskrit Dictionaries and we offer for each dictionary a GraphQL and a REST API. These APIs have been created and maintained with Kosh, a framework developed by the CCeH and the Data Center for the Humanities. Kosh offers a state-of-the-art technology stack that can be employed to create and maintain APIs for any XML-encoded dictionary.

We are very happy to be part of the ELEXIS community and thus share resources and knowledge with the most important lexicographic project worldwide!

Contact:

Francisco Mondaca (f.mondaca@uni-koeln.de)

Felix Rau (f.rau@uni-koeln.de)


DHd 2020

Wir freuen uns mitteilen zu können, dass die Kölner DH mit zahlreichen Beiträgen von Mitarbeiter*innen des CCeH, DCH und IDH auf der DHd2020 vertreten sein wird:

Poster

  • Sviatoslav Drach: StreamReaderSD 0.2 – Eine prototypische Webanwendung für das Lesen von Texten als Zeichenstrom
  • Nils Geißler: Der Haken von Frazier, der Ali 1971 zu Boden schickte, hat jetzt eine URI: Zur Modellierung, Transkription und Visualisierung performativer kultureller Objekte
  • Tessa Gengnagel, Hannah Busch, Daniela Schulz: Early Stage Digital Medievalist Subcommittee
  • Mark Eschweiler, Anna-Maria Evers, Dominik Kruhl, Elisabeth Reuhl, Enes Türkoğlu: Keine Panik! Manifest für Softwareentwicklung in Studierendenprojekten
  • Patrick Helling, Jonathan Blumtritt, Brigitte Mathiak, Claes Neuefeind, Felix Rau, Philip Schildkamp, Jan Wieners: Geisteswissenschaftliches Forschungsdatenmanagement in der Lehre – Konzepte, Methoden, Erfahrungen

Workshops

  • Zoe Schubert, Enes Türkoğlu, Kai Niebes, Øyvind Eide, Jan Wieners: Showtime – sehen und gesehen werden! Erzeugung semantischer (Spiel-)Räume für kollaboratives Arbeiten mit multimedialen Annotationen im Mehrdimensionalen
  • Ulrike Wuttke, Marina Lemaire, Schulte Stefan, Patrick Helling, Jonathan Blumtritt, Stefan Schmunk: Barcamp data literacy: Datenkompetenzen in den digitalen Geisteswissenschaften vermitteln
  • Philip Schildkamp, Claes Neuefeind, Brigitte Mathiak, Lukas Harzenetter, Uwe Breitenbücher, Frank Leymann: Modellierung und Verwaltung von DH-Anwendungen in TOSCA
  • Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter: Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH

Vorträge

  • Andreas Mertgens, Enes Türkoğlu, Nora Probst: (Re-)Collecting Theatre History: Wissensdinge, Biographien, Wirkungsräume
  • Jürgen Hermes, Harald Klinke, Dennis Demmer: Public Humanities Tools: Der Bedarf an niederschwelligen Services
  • Nathalie Wiedmer, Janis Pagel, Nils Reiter: Romeo, Freund des Mercutio: Semi-Automatische Extraktion von Beziehungen zwischen dramatischen Figuren
  • Marcus Willand, Benjamin Krautter, Janis Pagel, Nils Reiter: Passive Präsenz tragischer Hauptfiguren im Drama
  • Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser: Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken

Panels

  • Julia Nantke, Manuel Burghardt, Nils Reiter, Regula Hohl Trillini, Ben Sulzbacher, Johannes Molz, Axel Pichler: Intertextualität in literarischen Texten und darüber hinaus

CCeH @ TEI-C 2019, Graz

Servus! Greetings from the 2019 edition of the annual TEI international conference, hosted this year by the University of Graz, Austria.

The TEI Conference is where every year hundreds of scholars, practitioners and enthusiasts gather together to talk about the Text Encoding Initiative and discuss all sorts of of ideas related to encoding text and human knowledge.

The Cologne Center for eHumanities is a huge fan of the TEI and has used it in countless projects. At this year’s TEI-C, we will be giving talks on a variety of subjects, ranging from reports of our practical experiences in applying the TEI to highly theoretical discussions.

Here is the list of our presentations at the TEI Conference 2019. Are you around? Let’s meet!

See you all in Graz. Seg mer ins in Graz!

Day 1: Wednesday, 18th September 2019

P. Dängeli [1,2], C. Forney [2]. Referencing annotations as a core concept of the hallerNet edition and research platform. This talk reports on the (re-)edition in digital form of existing editions of Haller’s correspondence and their integration in the hallerNet platform. The main point of the presentation is showing how annotations went from footnotes attached to a specific position on a printed page to annotated references targeting first-class digital objects in a database, paving the way for many different kinds of computer-assisted analysis. [Abstract]

A. Rojas Castro [1,12]. Modeling FRBR Entities and their Relationships with TEI: A Look at HallerNet Bibliographic Descriptions. An in-depth discussion of how the FRBR data model has been implemented in TEI markup and then adopted in hallerNet to represent a complex set of bibliographic records, as well as their relationships. [Abstract]

E. Cugliana [1,3], G. Barabucci [1]. A sign of the times: medieval punctuation, its encoding and its rendition in modern times. A successful experiment in applying the principles of reproducible XML data curation with functional XProc pipelines to Elisa Cugliana’s digital scholarly edition of a previously unedited medieval German translation of Marco Polo’s Devisement dou Monde, part of her PhD on the digital representation of the analogic continuum spanning between facsimile and interpretative transcription. [Abstract]

Day 2: Thursday, 19th September 2019

M. Gimena [4], R. Simon [5], E. Barker [6], L. Isaksen [7], R. Kahn [8], V. Vitale [9], A. Rojas Castro [1,12], H. Cayless [10]. Recogito: from Semantic Annotation to Digital Scholarly Edition. A report on how the TEI model has been integrated in the annotation tool Recogito, partner of the Pelagios network and best digital humanities tool of 2018. Now TEI documents can be imported and exported as part of a general workflow conceived to create “minimal” digital editions. [Abstract]

Day 3: Friday, 20th September 2019

F. Mondaca [1], P. Schildkamp [13], F. Rau [14], J. Bigalke [1]. Introducing an Open, Dynamic and Efficient Lexical Data Access for TEI-encoded Dictionaries on the Internet. The first public appearance of Kosh, a framework for creating and maintaining APIs for XML-encoded dictionaries, part of the Cologne South Asian Languages and Texts (C-SALT). [Abstract]

R. Bleier [11], F. Fischer [1], T. Gengnagel [1], H. W. Klug [11], P. Sahle [1], C. Steiner [11], S. M. Winslow [11], A. Worm [11]. Graphs – charters – recipes: challenges of modelling medieval genres with the TEI. An open panel where the speakers will discuss with the public the pros and cons of different approaches to modelling medieval texts and images. [Abstract]

  1. Cologne Center for eHumanities, University of Cologne, Germany
  2. Institute of History, University of Bern, Switzerland
  3. Università Ca’ Foscari Venezia, Italy
  4. Consejo Nacional de Investigaciones Científicas y Técnicas, Argentina
  5. AIT Austrian Institute of Technology, Austria
  6. The Open University, UK
  7. University of Exeter, UK
  8. Alexander von Humboldt Institut für Internet und Gesellschaft HIIG, Germany
  9. University of London, UK
  10. Duke University, USA
  11. University of Graz, Austria
  12. Berlin-Brandenburg Academy of Sciences and Humanities, Germany
  13. Data Center for the Humanities, University of Cologne, Germany
  14. Department of Linguistics, University of Cologne, Germany

10 Jahre CCeH – Jubiläumsfeier

Jubiläumsfeier Donnerstag, 4. Juli 2019 um 17:45 – 19:15 Uhr Hörsaal XVIII (Hauptgebäude)

Gastvortrag: Prof. Dr. Elena Pierazzo (Université Grenoble Alpes) “Models of Digital Humanities ecosystems: Lone Wolves, Packs and Networks.”

In diesem Sommersemester besteht das Cologne Center for eHumanities (CCeH) 10 Jahre. Aus diesem Grund laden wir ganz herzlich zum 10-jährigen Jubiläum des CCeH ein.

Wir freuen uns auf den Festvortrag von Prof. Dr. Elena Pierazzo und möchten mit allen Mitgliedern und Freunden des CCeH ein frohes Fest feiern und auf zehn überaus erfolgreiche Pionierjahre zurückblicken, aber auch vorausschauen auf die bevorstehenden Herausforderungen und gemeinsamen Projekte.

Anschließend wird herzlich zu einem Empfang eingeladen.

“Picturing Aesop: Images of the Fabulist” – Montalk by Kelsi Ray, 20 May 2019

On Monday, 20 May 2019, guest scholar Kelsi Ray from University of Notre Dame (Indiana) will give a Montalk under the title: “Picturing Aesop: Images of the Fabulist”.

Here’s the abstract:
In the Life of Aesop, a popular Greek text from the second century, the deformed body of Aesop the slave is juxtaposed with his philosophical wisdom. Depictions of Aesop vary depending on the culture that is imagining him. Thus, tracking descriptions of Aesop in text and images may be fruitful for understanding how different cultures imagined the slave-fabulist. On Monday, I will present various representations of Aesop in text and image and seek ideas for organizing the data (especially the images) digitally in order to gain understanding of ideas about Aesop’s body, and the slave or disabled body more generally, over space and time.

Time: 13:45 to 14:30

Place: Meeting room , Universitätstr. 22, top floor

Meet you all there!

“Visualisierung in (digitalen) Editionen” – Workshop am 21. Mai 2019

Das CCeH wird am 21. Mai 2019 einen Experten-Workshop zum Thema “Visualisierung in (digitalen) Editionen” an der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf ausrichten.

Programm-Flyer

Die Teilnahme ist kostenfrei. Die Teilnehmerzahl ist allerdings begrenzt. Interessenten werden um schriftliche Anfrage an Herrn Nils Geißler gebeten: nils.geissler@uni-koeln.de

Programmübersicht

(Abstracts s.u.)

Einführung (9:30-10:00)

Patrick Sahle / Franz Fischer / Nils Geißler (Köln)

Literatur (10:00-11:00)

Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft

Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes

Kaffeepause

Varianz & Genese (11:30-13:00)

Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“

Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen

Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition

Mittagspause (13:00-14:00)

Briefe (14:00-15:30)

Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition

Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels

Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten

Kaffeepause

Geschichte & Philosophie (16:00-17:00)

Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte

Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte

Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin): Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt

Allgemeine Diskussion (17:00-17:30)

Praktische Infos

Veranstalter:
Koordinierungsstelle Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften am Cologne Center for eHumanities (CCeH) der Universität zu Köln

Organisation:
Prof. Dr. Patrick Sahle (Bergische Universität Wuppertal)
Prof. Dr. Franz Fischer (Università Ca‘ Foscari Venezia)
Nils Geißler (Universität zu Köln)

Kontakt:
nils.geissler@uni-koeln.de

Anfahrt:
http://www.awk.nrw.de/kontakt.html

Beschreibung

Digitale Editionen beruhen auf großen und komplexen Datenbeständen. Bei ihren digitalen Publikationsformen handelt es sich um visuelle Darstellungen, die sich unter verschiedenen Aspekten betrachten lassen: (1.) als Internet-Gesamtauftritt einschließlich der Inhaltsorganisation und Benutzerführung, (2.) als Präsentation von “Inhalten”, von Texten, Faksimiles oder Registern und (3.) als ergänzende Visualisierungen, die die inhaltlichen Komponenten und Strukturen sichtbar und damit verständlicher und besser nutzbar machen. In diesen dritten Bereich fallen Strukturvisualisierungen von Texten und Corpora, von Varianz und Genese sowie von Annotationen und Bezügen, graphische Darstellungen wie Timelines oder Karten und klassische Formen der Informationsvisualisierung wie statistische Diagramme und Netzwerke oder allgemeine schematische Übersichten für Phänomene und Strukturen in den Datenbeständen. Diese Visualisierungen können zugleich wieder filternde, explorative, interaktive oder weiterleitende (browsing-unterstützende) Funktionen haben und damit wieder den Bereich Inhaltsorganisation und Nutzerführung betreffen. Im Rahmen des Workshops „Visualisierung in (digitalen) Editionen“ sollen die bestehenden Ansätze vor allem im dritten Bereich, also der Informationsvisualisierung im engeren Sinne, gesichtet und diskutiert werden.

Abstracts

Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft

Die Methoden der digitalen Literaturwissenschaft befassen sich mit sehr unterschiedlich großen Datengrundlagen. Im Bereich des distant reading werden Textdaten vor allem in ihrer Quantität visualisiert, auch wenn Verfahren wie Topic Modeling oder word2vec versuchen, auch automatisiert an die semantischen Tiefendimensionen von Texten heranzukommen. Die schiere Menge der Daten macht Visualisierungen jedoch unumgänglich, um einen Überblick und darauf aufbauend auch einen Einblick zu gewähren. Im Bereich des close reading können qualitative Daten (erstellt durch manuelle Annotation) visualisiert werden. Der systematische Einsatz von Visualisierungen in der literaturwissenschaftlichen Argumentation ist ein noch weitgehend unerschlossenes Feld, ein Gemeinplatz ist jedoch, dass hermeneutische Daten andere Visualisierungsformen erfordern als (vermeintlich) interpretationsfreie Daten (Drucker unterscheidet in diesem Sinne „data“ (die gegeben sind) von „capta“ (die genommen werden müssen)). Ich werde nach einem kurzen Überblick über das Methodenrepertoire der digitalen Literaturwissenschaft beispielhaft die Netzwerkanalyse (mit semantischen, gerichteten Netzwerken, die für die Visualisierung von Luhmanns Zettelkasten interessant sein könnten) sowie die Visualisierung von manuell erzeugten hermeneutischen Annotationen am Beispiel des Tools Stereoscope, das im Projekt 3DH für die visuelle Arbeit mit CATMA-Annotationen entwickelt wurde, besprechen.

Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes

In einem ersten Teil soll das Kooperationsprojekt zwischen dem Theodor-Fontane-Archiv Potsdam und dem UCLAB der Fachhochschule Potsdam zur Entwicklung eines Prototyps zur Visualisierung der Handbibliothek Theodor Fontanes vorgestellt werden (https://uclab.fh-potsdam.de/ff/). Daran schließen sich in einem zweiten Teil generellere Fragen an, die im Projektverlauf aufgetreten sind: Welche Arbeitsformen zwischen Archiv/Fachwissenschaft und Informatik/Digitaler Forschung sind für philologische Visualisierungsprojekte zielführend? Kann die einer Visualisierung zugrundeliegende Datenerfassung losgelöst von philologischer Deutung erfolgen? Welche Formen kann und muss eine Visualisierung annehmen, damit sie für Philologen „lesbar“ ist? Können digitale Interfaces eigene Erkenntnisinstrumente sein? Oder gibt es etwas, was durch die Visualisierung verloren geht – sind sie also in gewisser Hinsicht auch Erkenntnisverlustinstrumente?

Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“

„Der Heiligen Leben, Redaktion“ lautet der etwas sperrige Titel eines spätmittelalterlichen deutschen Legendars, also einer Sammlung von Lebensbeschreibungen christlicher Heiliger, die in den ersten Jahrzehnten des 15. Jahrhunderts im Nürnberger Raum entstanden ist. Die Sammlung stellt eine umfangreiche Bearbeitung und Erweiterung des weiter verbreiteten „Heiligen Leben“ dar, die in zwei Stufen erfolgt ist. An der Universität Stuttgart wird zurzeit die erste Edition dieser umfangreichen Textsammlung vorbereitet, bei der insbesondere der Erforschung der unterschiedlichen Bearbeitungstendenzen, die zwischen den einzelnen Stufen sichtbar werden, eine große Bedeutung zukommt.
Um diese Bearbeitungstendenzen und die Varianz, die zwischen den Texten besteht, besser überblicken zu können, werden zurzeit in interdisziplinärer Zusammenarbeit zwischen dem Institut für Literaturwissenschaft und dem Institut für Visualisierung und interaktive Systeme neue Möglichkeiten der Visualisierung von Textunterschieden erprobt. Im Vortrag möchten wir einen Ansatz vorstellen, der es erlaubt, für eine Auswahl von manuell und gemäß einer Reihe von Variantenkategorien annotierten Texten deren Varianzen makroperspektivisch darzustellen und miteinander zu vergleichen.

Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen

In der Editorik bestehen verschiedene Ansätze mit Variation rational umzugehen. Einer der bekanntesten ist dabei wohl die kritische Edition, welche meist einen Urtext (oder kritischen Text) durch vorherige Rekonstruktion der Kopiergeschichte der Textzeugen anhand von textuellen und metatextuellen Eigenschaften, wie z.B. gemeinsamer fehlender Zeilen, rekonstruiert. Das verbreiteteste Verfahren hierzu ist das sog. Lachmann’sche. Bei diesem Verfahren wird neben der Rekonstruktion verlorener anzestraler Textzeugen die Kopiergeschichte visualisiert undzwar als Graph, wobei Textzeugen Knoten und Kopierprozesse (oder -ketten) Kanten sind. Dieser Graph ist i.d.R. gerichtet und erlaubt so einen chronologischen Überblick über die Kopiergeschichte aller bekannten Textzeugen. In Printeditionen steht ein solches Stemma normalerweise am Ende der Einleitung. Mit Beginn des digitalen Zeitalters hat die Stemmatologie durch Adaptation von bio-informatischen und informatischen Ansätzen einen enormen Methodenzuwachs erlebt. Der Vortrag versucht daher, einen Überblick über sinnvolle Möglichkeiten, Stemmata für digitale Editionen zu produzieren und sie in ihnen zu platzieren zu geben.

Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition

Die Faustedition (faustedition.net) erschließt alle Handschriften und die zu Goethes Lebzeiten erschienenen relevanten Drucke des Faust. Der Beitrag stellt Visualisierungen aus dem Bereich der Textgenese vor sowie als experimentellsten Teil das Makrogenese-Lab, das Forschung zur Entstehungsgeschichte modelliert und visualisiert.

Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition

Digitale wissenschaftliche Editionen zielen traditionell auf eine qualitative Tiefenerschließung sowie auf eine Visualisierung der Quellen bzw. Daten, die das einzelne Dokument fokussiert. Die Tiefenerschließung (z. B. Entitäten, Normdaten) kann man aber auch für quantitative Analysen fruchtbar machen. Eine adäquate bzw. den Benutzern zugängliche ‚Lesart‘ solcher Analysen ist die (Informations-)Visualisierung. Anhand eines Korpus von rund 5000 Briefen des Schriftstellers Jean Paul wird der Vortrag experimentelle Visualisierungen vorstellen, die neue Forschungsimpulse anregen. Ebenfalls thematisiert werden die dabei entstehenden konzeptionellen und technischen Herausforderungen, darunter ‚Fluch und Segen‘ großer Datensätze und die ‚Subjektivität‘ der Auswertung. Abschließend denkt der Vortrag an, wie Visualisierungen als quantitative ‚Lesarten‘ der Quellen digitale Editionen bereichern könnten.

Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels

Vorgestellt wird die interaktive Korrespondenzvisualisierung aus der Wanderausstellung ‚Aufbruch ins romantische Universum: August Wilhelm Schlegel‘ (Frankfurt, Bonn, Marburg, Jena), die auf zwei Touchscreens am Beginn der Schau zu sehen war. Sie veranschaulichte Schlegels weitgespanntes Briefnetzwerk: Die Besucher*innen konnten sich von der Briefnetzwerkansicht auf einer Europakarte bis hin zum einzelnen Brieffaksimile und dessen Transkription bewegen. Dafür sind Forschungsdaten aus der Digitalen Edition der Korrespondenz August Wilhelm Schlegels (www.august-wilhelm-schlegel.de) nachgenutzt und in FuD spezifisch modelliert worden. Der Visualisierung lag ein mit dem Trier Center for Digital Humanities entwickeltes, topographisches Design-Konzept zugrunde, das sich an den farblich markierten Ausstellungsstationen orientierte. Sie wurde zudem einer Testphase unter realen Nutzungsbedingungen unterzogen. Die Verwendung der Medienstation wurde während der Ausstellungsdauer auf beiden Rechnern zeitexakt protokolliert.

Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten

Der Webservice correspSearch aggregiert Korrespondenzmetadaten und stellt sie zur Recherche und Abfrage via API zur Verfügung. In Zukunft sollen die Recherchezugänge um Visualisierungen ergänzt werden, die eine leichte Exploration des großen Datenbestandes (derzeit über 50.000 Briefe) möglich machen. Der Beitrag stellt erste Überlegungen und Tests hierzu vor.

Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte

Das Capitularia-Projekt erarbeitet eine Hybridedition der fränkischen Herrschererlasse (‚Kapitularien‘), die eine kritische Printedition mit der Erschließung aller handschriftlichen Textzeugen in Form einer digitalen Edition verbindet. Die auf der Projekthomepage gesammelten Informationen zu den ca. 300 Überlieferungsträgern mit Kapitulariensammlungen sollen zukünftig durch Visualisierungen anschaulich präsentiert werden. Im Workshop stellen wir einen ersten Entwurf für eine interaktive Karte mit den Entstehungsorten der Handschriften vor. Über verschiedene Filteroptionen können Abfragen zu Entstehungsorten, –daten und Inhalten der jeweiligen Handschriften miteinander kombiniert und auf der Karte dargestellt werden. Neben einer übersichtlichen Präsentation der reichen Überlieferung soll damit auch die Nutzung der Daten für Forschungsfragen angeregt werden.

Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte

Das Center for the History of Women Philosophers and Scientists als digitales Archiv zu Schriften von Philosophinnen hat es sich zum Ziel gemacht, Texte von Philosophinnen, die zur Verfügung stehen, zu digitalisieren, zu sammeln und zu katalogisieren. Zu diesem Zweck wurde im Rahmen des Projekts ein Directory, eine Timeline und eine Enzyklopädie (ECC- Encyclopedia of Concise Concepts by Women Philosophers) entwickelt. In unserem Vortrag werden wir die verschiedenen Projekte und Darstellungsweisen der Daten präsentieren und auf die Möglichkeiten und Schwierigkeiten der Verknüpfung von vorhandenem Datenmaterial und der Visualisierung hinweisen.

Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin) Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt

Hannah Arendt gilt als eine der bedeutendsten politischen Denkerinnen des 20. Jahrhunderts, die nicht zuletzt aufgrund ihres in zwei Sprachen (Englisch, Deutsch) verfassten Werkes eine große internationale Reichweite erlangt hat. Diese Zweisprachigkeit ihrer Texte und die damit eröffneten unterschiedlichen Denk-Welten ein und derselben Autorin stellen eine Besonderheit dieses Textkorpus‘ dar: Während bereits die zahlreichen Varianten und Fassungen einzelner Texte Ausdruck eines intensiven Überarbeitungsprozesses sind, verfasste Arendt ihre Ideen („Denk-Gebäude“) im jeweiligen Sprachraum zudem genuin neu, oft auch ganz anders entwickelt.  

Die „klassische“ Präsentation des Textkorpus‘ des Editionsvorhabens „Hannah Arendt. Kritische Gesamtausgabe und Hybridedition“ (Projektwebseite: http://www.arendteditionprojekt.de/ ), realisiert durch synoptische Ansichten der editorischen Umschriften (diplomatische und Lesefassung, daneben Faksimile und TEI/XML des Dokuments), die auf einzelne Texte ausgerichtet ist, kann dieser sprachlich begründeten Verschiedenheit nicht gerecht, Arendts Denkprozess so nur bedingt herausgearbeitet werden. Vielmehr sind Visualisierungen der Gemeinsamkeiten und Unterschiede zwischen ein- und mehrsprachigen Textvarianten und Textfassungen sowohl auf Ebene der Textstruktur als auch der Syntax und Lexik usw. erforderlich. Im Vortrag wird die Problematik anhand des Arendt-Korpus illustriert, Bedarfe an die Visualisierung formuliert und erste Lösungsideen (für monolinguale Texte) unter Verwendung von Verfahren des Text Alignments (z.B. LERA (Locate, Explore, Retrace and Apprehend complex text variants, lera.uzi.uni-halle.de) aufgezeigt.

Launch der Editions- und Forschungs­platt­form hallerNet

2019 kommt es Schlag auf Schlag. Nur einen Monat nach dem erfolgreichen Launch des Niklas-Luhmann-Archivs folgt schon der nächste Grund zu feiern.

Im Rahmen des Workshops “Editions- und Forschungsplattformen zum 18. Jahrhundert” wurde am 8. Mai 2019  in Bern feierlich die neue Plattform hallerNet vorgestellt und eröffnet.

Im Auftrag der Albrecht von Haller-Stiftung wurde das Projekt von 2016 bis 2019 in enger Zusammenarbeit des CCeH mit der Universität Bern realisiert. Die schon seit den 90er Jahren aufgebauten umfangreichen und komplexen Datenbanken zum Leben und Werk, vor allem aber auch zum Korrespondenznetzwerk des Schweizer Universalgelehrten Albrecht von Haller (1708-1777) wurden zunächst in ein TEI-XML-Format transformiert. Darauf aufbauend entstand eine Plattform, die aktuell insgesamt Metadaten zu rund 48’000 Publikationen, 25’000 Personen, 17’000 Briefen, 3’000 Orten, 850 Institutionen und demnächst  2’900 Pflanzenarten und 1’000 Versammlungen sowohl im Kontext personen- und institutionszentrierter Sammlungen präsentiert und systematisch mit digitalen Editionen verknüpft. Darüber hinaus wird die Plattform auch als Grundlage für weitere Editions- und Forschungsprojekte zum Werk Hallers dienen, zunächst im SNF-Projekt Online-Edition der Rezensionen und Briefe Albrecht von Hallers Expertise und Kommunikation in der entstehenden Scientific community (2018-2023).

Das Haller-Team am CCeH

Projektleitung

  • Patrick Sahle
  • Peter Dängeli

Datenmodellierung und -transformation

  • Antonio Rojas Castro
  • Peter Dängeli 
  • Nils Geißler (Bildmetadaten)

Arbeitsumgebung (oXygen Author mode)

  • Andreas Mertgens

Entwicklung Backend

  • Peter Dängeli

Entwicklung Frontend

  • Arjan Dhupia (Leitung)
  • Jan Bigalke
  • Sebastian Zimmer

Beratung

  • Franz Fischer (Konzept und Datenmodell)
  • Bernhard Strecker (Anwendungsarchitektur)