News

“Einführung in Quantencomputing” – Gastvortrag Prof. Dr. Dr. h. c. Frank Leymann & Dr. Johanna Barzen, 6. Februar 2020

Vortragstitel

Einführung in Quantencomputing: Grundlagen und Anwendungen

English: Introducing Quantum Computing: Fundamentals and Applications

Zeit und Ort

6. Februar 2020, 16:00 Uhr, Raum S12 (Neues Seminargebäude), Universität zu Köln

Abstract

Quantencomputer werden Realität. Was aber verbirgt sich hinter dieser neuen Technologie und wo stehen wir aktuell? Wir beginnen mit einer kurzen Einführung der wichtigen Konzepte wie Unschärfe und Superposition aus der Quantenphysik, um dann Quantenbits, die Rolle von Messungen sowie die Grundstruktur eines Quantenalgorithmus vorzustellen. Wie sieht ein Quantenregister aus und welche Rolle spielt Verschränkung? Welche Operatoren zur Manipulation von Quantenregistern gibt es und was ist die Dekohärenz von Qubits? Wie kann eine mögliche Quantenkryptographie aussehen und wie ist der Informationsgehalt von Quantenbits einzuschätzen? Antworten auf solche grundlegenden Fragen sollen in dem Vortrag behandelt und diskutiert werden. Abschließend wird die mögliche mittelfristige Nutzung von Quantencomputern vorgestellt und ein Ausblick auf einen Anwendungsfall aus den Digital Humanities aufgezeigt.

English: Quantum computers are becoming reality. But which potential is hidden in this new technology and where do we stand today? We start with a short introduction to the underlying concepts of quantum physics, such as uncertainty and superposition, and then introduce qubits, the role of measurements, and the basic structure of a quantum algorithm. How does a quantum register look like and which role does entanglement play? What are the operators for manipulating quantum registers and what is decoherence of qubits? Answers to such basic questions will be presented and discussed in the talk. Finally, the possible medium-term use of quantum computers will be presented and an outlook on a use case from the digital humanities will be given.

Kurzviten

Frank Leymann ist Professor für Informatik und Direktor des Instituts für Architektur von Anwendungssystemen der Universität Stuttgart. Seine Forschungsinteressen liegen auf den Gebieten Dienstorientierte Architekturen und Middleware, Workflow Management und Geschäftsprozesse, Mustersprachen, Cloud Computing, Integrationstechnologien, und Transaktionsverarbeitung, sowie Quantum Computing. Frank Leymann ist Koautor von mehr als 400 Publikationen, von mehr als 40 Patenten und verschiedenen Industriestandards.

Johanna Barzen studierte Theater-, Film- und Fernsehwissenschaft, Musikwissenschaft und Phonetik an der Universität zu Köln. Parallel studierte sie Kostümbild an der ifs (Internationale Filmschule Köln) und arbeitete in verschiedenen Filmproduktionen im Kostümdepartment. Derzeit ist sie Postdoc und wissenschaftliche Mitarbeiterin am Institut für Architektur von Anwendungssystemen (IAAS) der Universität Stuttgart, wo sie an digitalen Geisteswissenschaften, Mustersprachen und Quantum Computing forscht.

CCeH: an ELEXIS Observer

We are glad to announce that the Cologne Center for eHumanities (CCeH) is an Observer institution in ELEXIS, the European Lexicographic Infrastructure, a Horizon 2020 project. ELEXIS is an ambitious project whose ultimate goal is to create a common working platform for lexicographers and publishers of lexical data. ELEXIS also aims at bridging the technical gap between the different communities involved in the project. The main beneficiaries will be dictionary users, both ‘normal’ users as well as researchers that will have access to an unparalleled amount of interconnected lexical data.

The project has different working packages, which range from creating a common data model, the ELEXIS data model; to extract lexical data from digitized printed dictionaries in PDF format; or to create digital dictionaries from scratch via Lexonomy, a cloud-based dictionary writing system. At the core of the technical infrastructure is the Dictionary Matrix, developed by John P. McCrae and his team from NUI Galway, that will link both monolingual and bilingual dictionaries at headword and sense level. All these resources will be accessible through a REST API. Therefore, they will be available for being employed by multiple applications, such as natural language processing (NLP) applications, desktop clients, mobile applications, etc. 

What is the role of the CCeH in ELEXIS?

The University of Cologne has a rich tradition in digitizing and hosting South Asian language resources. The CCeH will provide its Sanskrit dictionaries to ELEXIS. The main platform for Sanskrit dictionaries worldwide is the Cologne Sanskrit Digital Dictionaries portal. This project was started in 1994 by Thomas Malten when Unicode and XML did not exist. In 2003 began conversion into XML format and in 2015 the Lazarus Project was initiated with the goal of converting the most complex dictionaries into TEI-P5 and also to create a common TEI schema for them. These dictionaries are available via the C-SALT APIs for Sanskrit Dictionaries and we offer for each dictionary a GraphQL and a REST API. These APIs have been created and maintained with Kosh, a framework developed by the CCeH and the Data Center for the Humanities. Kosh offers a state-of-the-art technology stack that can be employed to create and maintain APIs for any XML-encoded dictionary.

We are very happy to be part of the ELEXIS community and thus share resources and knowledge with the most important lexicographic project worldwide!

Contact:

Francisco Mondaca (f.mondaca@uni-koeln.de)

Felix Rau (f.rau@uni-koeln.de)


DHd 2020

Wir freuen uns mitteilen zu können, dass die Kölner DH mit zahlreichen Beiträgen von Mitarbeiter*innen des CCeH, DCH und IDH auf der DHd2020 vertreten sein wird:

Poster

  • Sviatoslav Drach: StreamReaderSD 0.2 – Eine prototypische Webanwendung für das Lesen von Texten als Zeichenstrom
  • Nils Geißler: Der Haken von Frazier, der Ali 1971 zu Boden schickte, hat jetzt eine URI: Zur Modellierung, Transkription und Visualisierung performativer kultureller Objekte
  • Tessa Gengnagel, Hannah Busch, Daniela Schulz: Early Stage Digital Medievalist Subcommittee
  • Mark Eschweiler, Anna-Maria Evers, Dominik Kruhl, Elisabeth Reuhl, Enes Türkoğlu: Keine Panik! Manifest für Softwareentwicklung in Studierendenprojekten
  • Patrick Helling, Jonathan Blumtritt, Brigitte Mathiak, Claes Neuefeind, Felix Rau, Philip Schildkamp, Jan Wieners: Geisteswissenschaftliches Forschungsdatenmanagement in der Lehre – Konzepte, Methoden, Erfahrungen

Workshops

  • Zoe Schubert, Enes Türkoğlu, Kai Niebes, Øyvind Eide, Jan Wieners: Showtime – sehen und gesehen werden! Erzeugung semantischer (Spiel-)Räume für kollaboratives Arbeiten mit multimedialen Annotationen im Mehrdimensionalen
  • Ulrike Wuttke, Marina Lemaire, Schulte Stefan, Patrick Helling, Jonathan Blumtritt, Stefan Schmunk: Barcamp data literacy: Datenkompetenzen in den digitalen Geisteswissenschaften vermitteln
  • Philip Schildkamp, Claes Neuefeind, Brigitte Mathiak, Lukas Harzenetter, Uwe Breitenbücher, Frank Leymann: Modellierung und Verwaltung von DH-Anwendungen in TOSCA
  • Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter: Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH

Vorträge

  • Andreas Mertgens, Enes Türkoğlu, Nora Probst: (Re-)Collecting Theatre History: Wissensdinge, Biographien, Wirkungsräume
  • Jürgen Hermes, Harald Klinke, Dennis Demmer: Public Humanities Tools: Der Bedarf an niederschwelligen Services
  • Nathalie Wiedmer, Janis Pagel, Nils Reiter: Romeo, Freund des Mercutio: Semi-Automatische Extraktion von Beziehungen zwischen dramatischen Figuren
  • Marcus Willand, Benjamin Krautter, Janis Pagel, Nils Reiter: Passive Präsenz tragischer Hauptfiguren im Drama
  • Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser: Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken

Panels

  • Julia Nantke, Manuel Burghardt, Nils Reiter, Regula Hohl Trillini, Ben Sulzbacher, Johannes Molz, Axel Pichler: Intertextualität in literarischen Texten und darüber hinaus

CCeH @ TEI-C 2019, Graz

Servus! Greetings from the 2019 edition of the annual TEI international conference, hosted this year by the University of Graz, Austria.

The TEI Conference is where every year hundreds of scholars, practitioners and enthusiasts gather together to talk about the Text Encoding Initiative and discuss all sorts of of ideas related to encoding text and human knowledge.

The Cologne Center for eHumanities is a huge fan of the TEI and has used it in countless projects. At this year’s TEI-C, we will be giving talks on a variety of subjects, ranging from reports of our practical experiences in applying the TEI to highly theoretical discussions.

Here is the list of our presentations at the TEI Conference 2019. Are you around? Let’s meet!

See you all in Graz. Seg mer ins in Graz!

Day 1: Wednesday, 18th September 2019

P. Dängeli [1,2], C. Forney [2]. Referencing annotations as a core concept of the hallerNet edition and research platform. This talk reports on the (re-)edition in digital form of existing editions of Haller’s correspondence and their integration in the hallerNet platform. The main point of the presentation is showing how annotations went from footnotes attached to a specific position on a printed page to annotated references targeting first-class digital objects in a database, paving the way for many different kinds of computer-assisted analysis. [Abstract]

A. Rojas Castro [1,12]. Modeling FRBR Entities and their Relationships with TEI: A Look at HallerNet Bibliographic Descriptions. An in-depth discussion of how the FRBR data model has been implemented in TEI markup and then adopted in hallerNet to represent a complex set of bibliographic records, as well as their relationships. [Abstract]

E. Cugliana [1,3], G. Barabucci [1]. A sign of the times: medieval punctuation, its encoding and its rendition in modern times. A successful experiment in applying the principles of reproducible XML data curation with functional XProc pipelines to Elisa Cugliana’s digital scholarly edition of a previously unedited medieval German translation of Marco Polo’s Devisement dou Monde, part of her PhD on the digital representation of the analogic continuum spanning between facsimile and interpretative transcription. [Abstract]

Day 2: Thursday, 19th September 2019

M. Gimena [4], R. Simon [5], E. Barker [6], L. Isaksen [7], R. Kahn [8], V. Vitale [9], A. Rojas Castro [1,12], H. Cayless [10]. Recogito: from Semantic Annotation to Digital Scholarly Edition. A report on how the TEI model has been integrated in the annotation tool Recogito, partner of the Pelagios network and best digital humanities tool of 2018. Now TEI documents can be imported and exported as part of a general workflow conceived to create “minimal” digital editions. [Abstract]

Day 3: Friday, 20th September 2019

F. Mondaca [1], P. Schildkamp [13], F. Rau [14], J. Bigalke [1]. Introducing an Open, Dynamic and Efficient Lexical Data Access for TEI-encoded Dictionaries on the Internet. The first public appearance of Kosh, a framework for creating and maintaining APIs for XML-encoded dictionaries, part of the Cologne South Asian Languages and Texts (C-SALT). [Abstract]

R. Bleier [11], F. Fischer [1], T. Gengnagel [1], H. W. Klug [11], P. Sahle [1], C. Steiner [11], S. M. Winslow [11], A. Worm [11]. Graphs – charters – recipes: challenges of modelling medieval genres with the TEI. An open panel where the speakers will discuss with the public the pros and cons of different approaches to modelling medieval texts and images. [Abstract]

  1. Cologne Center for eHumanities, University of Cologne, Germany
  2. Institute of History, University of Bern, Switzerland
  3. Università Ca’ Foscari Venezia, Italy
  4. Consejo Nacional de Investigaciones Científicas y Técnicas, Argentina
  5. AIT Austrian Institute of Technology, Austria
  6. The Open University, UK
  7. University of Exeter, UK
  8. Alexander von Humboldt Institut für Internet und Gesellschaft HIIG, Germany
  9. University of London, UK
  10. Duke University, USA
  11. University of Graz, Austria
  12. Berlin-Brandenburg Academy of Sciences and Humanities, Germany
  13. Data Center for the Humanities, University of Cologne, Germany
  14. Department of Linguistics, University of Cologne, Germany

10 Jahre CCeH – Jubiläumsfeier

Jubiläumsfeier Donnerstag, 4. Juli 2019 um 17:45 – 19:15 Uhr Hörsaal XVIII (Hauptgebäude)

Gastvortrag: Prof. Dr. Elena Pierazzo (Université Grenoble Alpes) “Models of Digital Humanities ecosystems: Lone Wolves, Packs and Networks.”

In diesem Sommersemester besteht das Cologne Center for eHumanities (CCeH) 10 Jahre. Aus diesem Grund laden wir ganz herzlich zum 10-jährigen Jubiläum des CCeH ein.

Wir freuen uns auf den Festvortrag von Prof. Dr. Elena Pierazzo und möchten mit allen Mitgliedern und Freunden des CCeH ein frohes Fest feiern und auf zehn überaus erfolgreiche Pionierjahre zurückblicken, aber auch vorausschauen auf die bevorstehenden Herausforderungen und gemeinsamen Projekte.

Anschließend wird herzlich zu einem Empfang eingeladen.

“Picturing Aesop: Images of the Fabulist” – Montalk by Kelsi Ray, 20 May 2019

On Monday, 20 May 2019, guest scholar Kelsi Ray from University of Notre Dame (Indiana) will give a Montalk under the title: “Picturing Aesop: Images of the Fabulist”.

Here’s the abstract:
In the Life of Aesop, a popular Greek text from the second century, the deformed body of Aesop the slave is juxtaposed with his philosophical wisdom. Depictions of Aesop vary depending on the culture that is imagining him. Thus, tracking descriptions of Aesop in text and images may be fruitful for understanding how different cultures imagined the slave-fabulist. On Monday, I will present various representations of Aesop in text and image and seek ideas for organizing the data (especially the images) digitally in order to gain understanding of ideas about Aesop’s body, and the slave or disabled body more generally, over space and time.

Time: 13:45 to 14:30

Place: Meeting room , Universitätstr. 22, top floor

Meet you all there!

“Visualisierung in (digitalen) Editionen” – Workshop am 21. Mai 2019

Das CCeH wird am 21. Mai 2019 einen Experten-Workshop zum Thema “Visualisierung in (digitalen) Editionen” an der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste in Düsseldorf ausrichten.

Programm-Flyer

Die Teilnahme ist kostenfrei. Die Teilnehmerzahl ist allerdings begrenzt. Interessenten werden um schriftliche Anfrage an Herrn Nils Geißler gebeten: nils.geissler@uni-koeln.de

Programmübersicht

(Abstracts s.u.)

Einführung (9:30-10:00)

Patrick Sahle / Franz Fischer / Nils Geißler (Köln)

Literatur (10:00-11:00)

Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft

Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes

Kaffeepause

Varianz & Genese (11:30-13:00)

Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“

Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen

Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition

Mittagspause (13:00-14:00)

Briefe (14:00-15:30)

Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition

Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels

Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten

Kaffeepause

Geschichte & Philosophie (16:00-17:00)

Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte

Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte

Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin): Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt

Allgemeine Diskussion (17:00-17:30)

Praktische Infos

Veranstalter:
Koordinierungsstelle Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften am Cologne Center for eHumanities (CCeH) der Universität zu Köln

Organisation:
Prof. Dr. Patrick Sahle (Bergische Universität Wuppertal)
Prof. Dr. Franz Fischer (Università Ca‘ Foscari Venezia)
Nils Geißler (Universität zu Köln)

Kontakt:
nils.geissler@uni-koeln.de

Anfahrt:
http://www.awk.nrw.de/kontakt.html

Beschreibung

Digitale Editionen beruhen auf großen und komplexen Datenbeständen. Bei ihren digitalen Publikationsformen handelt es sich um visuelle Darstellungen, die sich unter verschiedenen Aspekten betrachten lassen: (1.) als Internet-Gesamtauftritt einschließlich der Inhaltsorganisation und Benutzerführung, (2.) als Präsentation von “Inhalten”, von Texten, Faksimiles oder Registern und (3.) als ergänzende Visualisierungen, die die inhaltlichen Komponenten und Strukturen sichtbar und damit verständlicher und besser nutzbar machen. In diesen dritten Bereich fallen Strukturvisualisierungen von Texten und Corpora, von Varianz und Genese sowie von Annotationen und Bezügen, graphische Darstellungen wie Timelines oder Karten und klassische Formen der Informationsvisualisierung wie statistische Diagramme und Netzwerke oder allgemeine schematische Übersichten für Phänomene und Strukturen in den Datenbeständen. Diese Visualisierungen können zugleich wieder filternde, explorative, interaktive oder weiterleitende (browsing-unterstützende) Funktionen haben und damit wieder den Bereich Inhaltsorganisation und Nutzerführung betreffen. Im Rahmen des Workshops „Visualisierung in (digitalen) Editionen“ sollen die bestehenden Ansätze vor allem im dritten Bereich, also der Informationsvisualisierung im engeren Sinne, gesichtet und diskutiert werden.

Abstracts

Jan Horstmann (Hamburg): Visualisierungsformen für quantitative und qualitative Methoden in der digitalen Literaturwissenschaft

Die Methoden der digitalen Literaturwissenschaft befassen sich mit sehr unterschiedlich großen Datengrundlagen. Im Bereich des distant reading werden Textdaten vor allem in ihrer Quantität visualisiert, auch wenn Verfahren wie Topic Modeling oder word2vec versuchen, auch automatisiert an die semantischen Tiefendimensionen von Texten heranzukommen. Die schiere Menge der Daten macht Visualisierungen jedoch unumgänglich, um einen Überblick und darauf aufbauend auch einen Einblick zu gewähren. Im Bereich des close reading können qualitative Daten (erstellt durch manuelle Annotation) visualisiert werden. Der systematische Einsatz von Visualisierungen in der literaturwissenschaftlichen Argumentation ist ein noch weitgehend unerschlossenes Feld, ein Gemeinplatz ist jedoch, dass hermeneutische Daten andere Visualisierungsformen erfordern als (vermeintlich) interpretationsfreie Daten (Drucker unterscheidet in diesem Sinne „data“ (die gegeben sind) von „capta“ (die genommen werden müssen)). Ich werde nach einem kurzen Überblick über das Methodenrepertoire der digitalen Literaturwissenschaft beispielhaft die Netzwerkanalyse (mit semantischen, gerichteten Netzwerken, die für die Visualisierung von Luhmanns Zettelkasten interessant sein könnten) sowie die Visualisierung von manuell erzeugten hermeneutischen Annotationen am Beispiel des Tools Stereoscope, das im Projekt 3DH für die visuelle Arbeit mit CATMA-Annotationen entwickelt wurde, besprechen.

Anna Busch (Potsdam): Eine digitale Autorenbibliothek und ihre Visualisierung als Erkenntnisinstrument. Am Beispiel Theodor Fontanes

In einem ersten Teil soll das Kooperationsprojekt zwischen dem Theodor-Fontane-Archiv Potsdam und dem UCLAB der Fachhochschule Potsdam zur Entwicklung eines Prototyps zur Visualisierung der Handbibliothek Theodor Fontanes vorgestellt werden (https://uclab.fh-potsdam.de/ff/). Daran schließen sich in einem zweiten Teil generellere Fragen an, die im Projektverlauf aufgetreten sind: Welche Arbeitsformen zwischen Archiv/Fachwissenschaft und Informatik/Digitaler Forschung sind für philologische Visualisierungsprojekte zielführend? Kann die einer Visualisierung zugrundeliegende Datenerfassung losgelöst von philologischer Deutung erfolgen? Welche Formen kann und muss eine Visualisierung annehmen, damit sie für Philologen „lesbar“ ist? Können digitale Interfaces eigene Erkenntnisinstrumente sein? Oder gibt es etwas, was durch die Visualisierung verloren geht – sind sie also in gewisser Hinsicht auch Erkenntnisverlustinstrumente?

Gabriel Viehhauser-Mery / Martin Baumann (Stuttgart): Visuelle, interaktive Analyse von Textvarianz am Beispiel der geplanten digitalen Edition von „Der Heiligen Leben, Redaktion“

„Der Heiligen Leben, Redaktion“ lautet der etwas sperrige Titel eines spätmittelalterlichen deutschen Legendars, also einer Sammlung von Lebensbeschreibungen christlicher Heiliger, die in den ersten Jahrzehnten des 15. Jahrhunderts im Nürnberger Raum entstanden ist. Die Sammlung stellt eine umfangreiche Bearbeitung und Erweiterung des weiter verbreiteten „Heiligen Leben“ dar, die in zwei Stufen erfolgt ist. An der Universität Stuttgart wird zurzeit die erste Edition dieser umfangreichen Textsammlung vorbereitet, bei der insbesondere der Erforschung der unterschiedlichen Bearbeitungstendenzen, die zwischen den einzelnen Stufen sichtbar werden, eine große Bedeutung zukommt.
Um diese Bearbeitungstendenzen und die Varianz, die zwischen den Texten besteht, besser überblicken zu können, werden zurzeit in interdisziplinärer Zusammenarbeit zwischen dem Institut für Literaturwissenschaft und dem Institut für Visualisierung und interaktive Systeme neue Möglichkeiten der Visualisierung von Textunterschieden erprobt. Im Vortrag möchten wir einen Ansatz vorstellen, der es erlaubt, für eine Auswahl von manuell und gemäß einer Reihe von Variantenkategorien annotierten Texten deren Varianzen makroperspektivisch darzustellen und miteinander zu vergleichen.

Armin Hoenen (Frankfurt am Main): Das Stemma – eine printzeitalterliche Visualisierung in digitalen Editionen

In der Editorik bestehen verschiedene Ansätze mit Variation rational umzugehen. Einer der bekanntesten ist dabei wohl die kritische Edition, welche meist einen Urtext (oder kritischen Text) durch vorherige Rekonstruktion der Kopiergeschichte der Textzeugen anhand von textuellen und metatextuellen Eigenschaften, wie z.B. gemeinsamer fehlender Zeilen, rekonstruiert. Das verbreiteteste Verfahren hierzu ist das sog. Lachmann’sche. Bei diesem Verfahren wird neben der Rekonstruktion verlorener anzestraler Textzeugen die Kopiergeschichte visualisiert undzwar als Graph, wobei Textzeugen Knoten und Kopierprozesse (oder -ketten) Kanten sind. Dieser Graph ist i.d.R. gerichtet und erlaubt so einen chronologischen Überblick über die Kopiergeschichte aller bekannten Textzeugen. In Printeditionen steht ein solches Stemma normalerweise am Ende der Einleitung. Mit Beginn des digitalen Zeitalters hat die Stemmatologie durch Adaptation von bio-informatischen und informatischen Ansätzen einen enormen Methodenzuwachs erlebt. Der Vortrag versucht daher, einen Überblick über sinnvolle Möglichkeiten, Stemmata für digitale Editionen zu produzieren und sie in ihnen zu platzieren zu geben.

Thorsten Vitt (Würzburg): Genesevisualisierungen in der Faustedition

Die Faustedition (faustedition.net) erschließt alle Handschriften und die zu Goethes Lebzeiten erschienenen relevanten Drucke des Faust. Der Beitrag stellt Visualisierungen aus dem Bereich der Textgenese vor sowie als experimentellsten Teil das Makrogenese-Lab, das Forschung zur Entstehungsgeschichte modelliert und visualisiert.

Frederike Neuber (Berlin): Visualisierung als quantitative ‚Lesart‘ – Einige Experimente aus der Jean Paul-Briefedition

Digitale wissenschaftliche Editionen zielen traditionell auf eine qualitative Tiefenerschließung sowie auf eine Visualisierung der Quellen bzw. Daten, die das einzelne Dokument fokussiert. Die Tiefenerschließung (z. B. Entitäten, Normdaten) kann man aber auch für quantitative Analysen fruchtbar machen. Eine adäquate bzw. den Benutzern zugängliche ‚Lesart‘ solcher Analysen ist die (Informations-)Visualisierung. Anhand eines Korpus von rund 5000 Briefen des Schriftstellers Jean Paul wird der Vortrag experimentelle Visualisierungen vorstellen, die neue Forschungsimpulse anregen. Ebenfalls thematisiert werden die dabei entstehenden konzeptionellen und technischen Herausforderungen, darunter ‚Fluch und Segen‘ großer Datensätze und die ‚Subjektivität‘ der Auswertung. Abschließend denkt der Vortrag an, wie Visualisierungen als quantitative ‚Lesarten‘ der Quellen digitale Editionen bereichern könnten.

Claudia Bamberg / Bianca Müller (Marburg): Korrespondenzvisualisierung in der Literaturausstellung – am Beispiel der digitalen Edition August Wilhelm Schlegels

Vorgestellt wird die interaktive Korrespondenzvisualisierung aus der Wanderausstellung ‚Aufbruch ins romantische Universum: August Wilhelm Schlegel‘ (Frankfurt, Bonn, Marburg, Jena), die auf zwei Touchscreens am Beginn der Schau zu sehen war. Sie veranschaulichte Schlegels weitgespanntes Briefnetzwerk: Die Besucher*innen konnten sich von der Briefnetzwerkansicht auf einer Europakarte bis hin zum einzelnen Brieffaksimile und dessen Transkription bewegen. Dafür sind Forschungsdaten aus der Digitalen Edition der Korrespondenz August Wilhelm Schlegels (www.august-wilhelm-schlegel.de) nachgenutzt und in FuD spezifisch modelliert worden. Der Visualisierung lag ein mit dem Trier Center for Digital Humanities entwickeltes, topographisches Design-Konzept zugrunde, das sich an den farblich markierten Ausstellungsstationen orientierte. Sie wurde zudem einer Testphase unter realen Nutzungsbedingungen unterzogen. Die Verwendung der Medienstation wurde während der Ausstellungsdauer auf beiden Rechnern zeitexakt protokolliert.

Jonas Müller-Laackman (Berlin): Explorative Visualisierungen für Korrespondenzmetadaten

Der Webservice correspSearch aggregiert Korrespondenzmetadaten und stellt sie zur Recherche und Abfrage via API zur Verfügung. In Zukunft sollen die Recherchezugänge um Visualisierungen ergänzt werden, die eine leichte Exploration des großen Datenbestandes (derzeit über 50.000 Briefe) möglich machen. Der Beitrag stellt erste Überlegungen und Tests hierzu vor.

Britta Mischke / Marcello Perathoner (Köln): Mittelalterliche Handschriften in Raum und Zeit – eine interaktive Karte

Das Capitularia-Projekt erarbeitet eine Hybridedition der fränkischen Herrschererlasse (‚Kapitularien‘), die eine kritische Printedition mit der Erschließung aller handschriftlichen Textzeugen in Form einer digitalen Edition verbindet. Die auf der Projekthomepage gesammelten Informationen zu den ca. 300 Überlieferungsträgern mit Kapitulariensammlungen sollen zukünftig durch Visualisierungen anschaulich präsentiert werden. Im Workshop stellen wir einen ersten Entwurf für eine interaktive Karte mit den Entstehungsorten der Handschriften vor. Über verschiedene Filteroptionen können Abfragen zu Entstehungsorten, –daten und Inhalten der jeweiligen Handschriften miteinander kombiniert und auf der Karte dargestellt werden. Neben einer übersichtlichen Präsentation der reichen Überlieferung soll damit auch die Nutzung der Daten für Forschungsfragen angeregt werden.

Ruth Hagengruber / Julia Mühl / Stefanie Ertz / Niklas Olmes (Paderborn): Das Projekt Center for the History of Women Philosophers and Scientists als digitales Archiv: Datenpräsentation in Timeline, ECC und Manuskripte

Das Center for the History of Women Philosophers and Scientists als digitales Archiv zu Schriften von Philosophinnen hat es sich zum Ziel gemacht, Texte von Philosophinnen, die zur Verfügung stehen, zu digitalisieren, zu sammeln und zu katalogisieren. Zu diesem Zweck wurde im Rahmen des Projekts ein Directory, eine Timeline und eine Enzyklopädie (ECC- Encyclopedia of Concise Concepts by Women Philosophers) entwickelt. In unserem Vortrag werden wir die verschiedenen Projekte und Darstellungsweisen der Daten präsentieren und auf die Möglichkeiten und Schwierigkeiten der Verknüpfung von vorhandenem Datenmaterial und der Visualisierung hinweisen.

Brigitte Grote / Lena-Luise Stahn / Sibylle Söring (Berlin) Visualisierungen mehrsprachiger Korpora am Beispiel von Hannah Arendt

Hannah Arendt gilt als eine der bedeutendsten politischen Denkerinnen des 20. Jahrhunderts, die nicht zuletzt aufgrund ihres in zwei Sprachen (Englisch, Deutsch) verfassten Werkes eine große internationale Reichweite erlangt hat. Diese Zweisprachigkeit ihrer Texte und die damit eröffneten unterschiedlichen Denk-Welten ein und derselben Autorin stellen eine Besonderheit dieses Textkorpus‘ dar: Während bereits die zahlreichen Varianten und Fassungen einzelner Texte Ausdruck eines intensiven Überarbeitungsprozesses sind, verfasste Arendt ihre Ideen („Denk-Gebäude“) im jeweiligen Sprachraum zudem genuin neu, oft auch ganz anders entwickelt.  

Die „klassische“ Präsentation des Textkorpus‘ des Editionsvorhabens „Hannah Arendt. Kritische Gesamtausgabe und Hybridedition“ (Projektwebseite: http://www.arendteditionprojekt.de/ ), realisiert durch synoptische Ansichten der editorischen Umschriften (diplomatische und Lesefassung, daneben Faksimile und TEI/XML des Dokuments), die auf einzelne Texte ausgerichtet ist, kann dieser sprachlich begründeten Verschiedenheit nicht gerecht, Arendts Denkprozess so nur bedingt herausgearbeitet werden. Vielmehr sind Visualisierungen der Gemeinsamkeiten und Unterschiede zwischen ein- und mehrsprachigen Textvarianten und Textfassungen sowohl auf Ebene der Textstruktur als auch der Syntax und Lexik usw. erforderlich. Im Vortrag wird die Problematik anhand des Arendt-Korpus illustriert, Bedarfe an die Visualisierung formuliert und erste Lösungsideen (für monolinguale Texte) unter Verwendung von Verfahren des Text Alignments (z.B. LERA (Locate, Explore, Retrace and Apprehend complex text variants, lera.uzi.uni-halle.de) aufgezeigt.

Stellenausschrei­bung: zwei Wis­sen­schaft­li­che Mit­ar­beiter­stellen am Cologne Center for eHumanities

Am Cologne Center for eHumanities (CCeH) sind ab sofort zwei Wissenschaftliche Mitarbeiterstellen zu besetzen.

Das CCeH ist ein Lehr- und Forschungszentrum der Philosophischen Fakultät der Universität zu Köln. Es ist zunächst ein Zusammenschluss von ForscherInnen, die sich für den Einsatz von digitalen Methoden und Technologien in der Forschung und der Lehre in den Geisteswissenschaften interessieren. Als international anerkanntes Digital Humanities-Kompetenzzentrum ist es an einer Vielzahl von interdisziplinären Forschungskooperationen und -projekten beteiligt und nimmt die Aufgabe einer „Koordinierungsstelle DH“ für die Nordrhein-Westfälische Akademie der Wissenschaften und der Künste wahr.

Die Stellen umfassen zwei Schwerpunkte:

  • Schwerpunkt CCeH
  • Schwerpunkt „Koordinierungsstelle DH“

Die Stellen sind ab sofort in Vollzeit zu besetzen. Sie sind zunächst auf zwei Jahre befristet. Eine Entfristung ist möglich. Sofern die entsprechenden tariflichen und persönlichen Voraussetzungen vorliegen, richtet sich die Vergütung nach der Entgeltgruppe 13/14 TV-L. Die Universität zu Köln fördert auch in ihren Beschäftigungsverhältnissen Chancengerechtigkeit und Vielfalt. Frauen werden ausdrücklich zur Bewerbung eingeladen und nach Maßgabe des LGG NRW bevorzugt berücksichtigt. Bewerbungen von Menschen mit Schwerbehinderung und ihnen Gleichgestellte sind herzlich willkommen. Sie werden bei entsprechender Eignung bevorzugt berücksichtigt.

Den vollständigen Ausschreibungstext finden Sie unter: http://cceh.uni-koeln.de/wp-content/uploads/2019/05/CCeH-Ausschreibung_2019-05-05.pdf

Die Bewerbungsfirst endet am 31. 05. 2019.

Launch der Editions- und Forschungs­platt­form hallerNet

2019 kommt es Schlag auf Schlag. Nur einen Monat nach dem erfolgreichen Launch des Niklas-Luhmann-Archivs folgt schon der nächste Grund zu feiern.

Im Rahmen des Workshops “Editions- und Forschungsplattformen zum 18. Jahrhundert” wurde am 8. Mai 2019  in Bern feierlich die neue Plattform hallerNet vorgestellt und eröffnet.

Im Auftrag der Albrecht von Haller-Stiftung wurde das Projekt von 2016 bis 2019 in enger Zusammenarbeit des CCeH mit der Universität Bern realisiert. Die schon seit den 90er Jahren aufgebauten umfangreichen und komplexen Datenbanken zum Leben und Werk, vor allem aber auch zum Korrespondenznetzwerk des Schweizer Universalgelehrten Albrecht von Haller (1708-1777) wurden zunächst in ein TEI-XML-Format transformiert. Darauf aufbauend entstand eine Plattform, die aktuell insgesamt Metadaten zu rund 48’000 Publikationen, 25’000 Personen, 17’000 Briefen, 3’000 Orten, 850 Institutionen und demnächst  2’900 Pflanzenarten und 1’000 Versammlungen sowohl im Kontext personen- und institutionszentrierter Sammlungen präsentiert und systematisch mit digitalen Editionen verknüpft. Darüber hinaus wird die Plattform auch als Grundlage für weitere Editions- und Forschungsprojekte zum Werk Hallers dienen, zunächst im SNF-Projekt Online-Edition der Rezensionen und Briefe Albrecht von Hallers Expertise und Kommunikation in der entstehenden Scientific community (2018-2023).

Das Haller-Team am CCeH

Projektleitung

  • Patrick Sahle
  • Peter Dängeli

Datenmodellierung und -transformation

  • Antonio Rojas Castro
  • Peter Dängeli 
  • Nils Geißler (Bildmetadaten)

Arbeitsumgebung (oXygen Author mode)

  • Andreas Mertgens

Entwicklung Backend

  • Peter Dängeli

Entwicklung Frontend

  • Arjan Dhupia (Leitung)
  • Jan Bigalke
  • Sebastian Zimmer

Beratung

  • Franz Fischer (Konzept und Datenmodell)
  • Bernhard Strecker (Anwendungsarchitektur)

RTI-Dome am CCeH: Erster Testlauf erfolgreich absolviert

Der Dombauverein am CCeH meldet die Fertigstellung seines ersten funktionalen RTI-Dome-Prototypen. Die Ergebnisse eines Testlaufs mit stark verwitterten Siegeln aus der Sammlung Robert Feind sind vielversprechend: Zuvor unleserliche Siegel konnten erfolgreich entziffert werden.

RTI-Ansicht eines Siegels aus der Sammlung Robert Feind

Reflective Transformation Imaging (RTI) ist ein Bildgebungsverfahren, bei dem ein Objekt unter verschiedenen Lichtverhältnissen fotografiert wird. Die entstandenen Fotos werden zusammengerechnet und können dann mit stufenlos verschiebbarer virtueller Lichtquelle betrachtet werden. Dabei können feinste Oberflächenstrukturen von Gegenständen wie Münzen, Siegeln, Steintafeln oder Papyri sichtbar gemacht werden. RTI ist somit eine günstige und praktische Alternative zur teuren und aufwändigen 3D-Digitalisierung.

RTI wurde 2002 bei Hewlett Packard entwickelt und wird schon seit längerem bei der Digitalisierung im Bereich Cultural Heritage angewandt – so z. B. im Projekt Magica Levantina an der Universität zu Köln. Klassischerweise wird dabei eine Kamera an einem Stativ fixiert. Die Fotografin bewegt sich mit einem mobilen Blitzgerät um das Objekt, misst den jeweiligen Beleuchtungswinkel und löst die Aufnahme aus.

Da von jedem Objekt zwischen 20 und 60 Aufnahmen gemacht werden müssen, ist die Arbeit recht mühselig und zeitaufwändig. Sophie Breternitz, Restauratorin und RTI-Expertin der Kölner Papyrussammlung, rechnet inklusive Aufbau, Testlauf und Positionierung mit 30 bis 60 Minuten je Objekt.

Durch eine Dome-Konstruktion lässt sich dieser Aufwand deutlich reduzieren. Dabei handelt es sich im Grunde um eine lichtdichte Halbkugel (oder Salatschüssel), in deren Wand die Lichtquellen in Form spezieller LEDs fest angebracht sind. Die Halbkugel wird über ein Objekt gestülpt und die Kamera mit der Linse nach unten in das integrierte Gewinde an einem Loch in der Kugeloberseite eingeschraubt. Per Knopfdruck leuchten die LEDs der Reihe nacheinander auf – synchron dazu wird je eine Fotoaufnahme ausgelöst. In wenigen Minuten entsteht so vollautomatisch eine qualitativ hochwertige RTI-Aufnahme.

Das Dombau-Team um die CCeH-Kollegen Gioele Barabucci, Marcello Perathoner und Marcel Schaeben hat nun einen funktionalen Prototypen eines solchen Domes fertig gestellt, der im Creative Space des CCeH zur Nutzung bereit steht. Besonders hervorzuheben ist die Leistung unseres Elektronik-Experten Marcello Perathoner, der vom Löten und Anbringen der LEDs, über den Bau und der Programmierung des Controllers, bis hin zur Entwicklung der Auswertungssoftware in C und Python den Großteil der Konstruktionsarbeit geleistet hat.

Der Kölner Dome hat einen Durchmesser von 50 cm und eignet sich zur Erfassung von Objekten mit bis zu 10 cm Durchmesser. Einen ersten erfolgreichen Einsatz hat er bereits hinter sich: Dazu wurden seitens der von Prof. Dr. Claudia Sode geleiteten Forschungsgruppe in byzantinischer Siegelkunde (Maria Teresa Catalano, Martina Filosa, Robert Feind) von der Abteilung Byzantinistik und Neugriechische Philologie des Instituts für Altertumskunde einige byzantinische Bleisiegel aus dem 11. Jh. aus der Sammlung Robert Feind zur Verfügung gestellt, die im Rahmen eines Testlaufs mithilfe des Domes digitalisiert wurden. Dabei wurden speziell sehr schlecht erhaltene, stark korrodierte und teilweise plattgedrückte Siegel ausgewählt, die sowohl mit bloßem Auge unter künstlicher Beleuchtung als auch mithilfe analoger und digitaler Vergrößerungsmethoden völlig unleserlich waren. Die Aufnahmen inklusive Vorbereitungen und Positionierung der Siegel dauerten ca. drei bis fünf Minuten pro Objekt.

RTI-Ansicht des Siegel des Alexios, Mönch, Erzbischof von Zypern und synkellos (S-118 Avers, Sammlung Robert Feind, Köln). Mit gedrückter Maustaste über das Bild fahren, um den Belichtungswinkel zu verändern.
Die Tranksription lautet:
+κεr.
ηθειΑ̣..
ξ̣IMο̣..
x.
Κύριε βοήθει ᾿Α[λεξί(ῳ)] μο[να]χ[ῷ]
Gott, hilf Alexios, Mönch, Erzbischof von Zypern und synkellos.

Die Ergebnisse sind nicht nur optisch beeindruckend – sie sind auch weit über Köln hinaus wissenschaftlich interessant:

Die RTI-Aufnahmen mit dem Dome waren entscheidend für die Entzifferung eines der Siegel. Unser Team konnte vereinzelte, für die Lesung relevante Buchstaben sicher erkennen und anhand dieser den Inhalt der Legende fast vollständig rekonstruieren. Infolgedessen konnten zwei Parallelstücke aufgespürt werden – das erste in der Sammlung byzantinischer Bleisiegel der Eremitage in Sankt Petersburg, und das zweite in der Sammlung von Dumbarton Oaks in Washington, DC. Zum einen wurde die Lesung unseres Siegels durch die Parallelstücke ergänzt; zum anderen konnte die Lesung des Siegels von Dumbarton Oaks durch die unseres Siegels verbessert werden. Vorher waren beide Siegel nicht als Parallelstücke erkannt worden.

Martina Filosa und Maria Teresa Catalano, Abteilung Byzantinistik und Neugriechische Philologie, Institut für Altertumswissenschaften

An diesem Beispiel zeigt sich, dass RTI einen wichtigen Beitrag zur Grundlagenforschung nicht nur in der Siegelkunde leisten kann, sondern in vielen Bereichen, in denen die Untersuchung der Oberfläche kultureller Artefakte eine Rolle spielt. Das Dome-System macht die RTI-Methode durch deutlich verringerten Zeit- und Trainingsaufwand auch auf größere Sammlungen skalierbar.

Ein besonderer Dank geht an die DingFabrik in Köln-Ehrenfeld. In der offenen Werkstatt des DingFabrik Köln e.V. konnten wir durch unentgeltliche Nutzung von Bohrmaschine und Lochsäge sowie kompetenter Beratung der anwesenden Mitglieder mit der Frage, wie man ein exakt rundes Loch genau in die Mitte einer Salatschüssel bekommt, eine der größten ingenieurstechnsichen Herausforderungen beim Dombau überwinden.

Literatur und Weiterführende Links

Für eine genauere Beschreibung des RTI-Verfahrens und seine Anwendung im Projekt Magica Levantina siehe

Fischer, Franz and Makowski, Stephan (2017). Digitalisierung von Siegeln mittels Reflectance Transformation Imaging (RTI). Paginae historiae – Sborník Národního archivu, 25/1. S. 137-141. ISSN 1211‑9768 (https://kups.ub.uni-koeln.de/7882/1/PH25-1-2017-Fischer-Makowski-Siegel-RTI.pdf)

Ausführliche, öffentliche Projektdokumentation von Marcello Perathoner
https://cceh.github.io/rti/index.html

GitHub-Repository der Steuerungs- und Auswertungssoftware
https://github.com/cceh/rti

Inspiration für das CCeH-Modell des Domes
https://hackaday.io/project/11951-affordable-reflectance-transformation-imaging-dome

Der Dome des Instituts für Archäologie an der Universität zu Köln, Abteilung Archäoinformatik
http://archaeoinformatics.net/the-kolner-dome-project/

Weiterführende Literatur

Duffy, Sarah M (2013). Multi-light Imaging for Heritage Applications, English Heritage, https://content.historicengland.org.uk/images-books/publications/multi-light-imaging-heritage-applications/Multi-light_Imaging_FINAL_low-res.pdf/

Empfehlungen über den Nachhaltigen Umgang mit RTI-Daten bei IANUS
https://www.ianus-fdz.de/it-empfehlungen/rti