Laia Pujol: “Being there and then making sense together. Introducing Cultural Presence in Virtual Archaeology”, DH Colloquium, 26 April 2018

On Thursday, April 26, guest speaker Dr. Laia Pujol will be giving a lecture at the Digital Humanities Colloquium:

“Being there and then making sense together. Introducing Cultural Presence in Virtual Archaeology”

Thursday, 26.04.2018
Room S11, Neues Seminargebäude

Abstract: Virtual Archaeology is nowadays a well-established area at the intersection of Cultural Heritage and Virtual Reality. Yet, in spite of the capacities of the latter, it mostly generates empty, hyper-realistic images of monuments and sites. In this seminar we will discuss the possibility to unlock the real potential of Virtual Archaeology through the concept of Cultural Presence. Its implications will take us on a journey to our very notion of reality and perception. Hence, this will be a talk about past and present, simulation and truth, reality and virtuality… All based on the results of the ongoing EU-funded project LEAP (LEarning of Archaeology through Presence).

Laia Pujol is a leading expert in the design and evaluation of Virtual Reality applications for Cultural Heritage. More info about her can be found here:

This lecture is co-organised by the CCeH and CoDArchLab.

The complete program for the Digital Humanities Colloquium of 2018 is available here:

Douglas Hofstadter – Albertus Magnus Professur 2018

Douglas R. Hofstadter, College of Arts and Sciences Distinguished Professor of Cognitive Science and Computer Science, Adjunct Professor in Comparative Literature und Direktor des Center for Research on Concepts and Cognition an der Indiana University Bloomington versteht sich selbst als einen Grenzgänger zwischen Natur- und Geisteswissenschaften, zwischen Physik, Mathematik und Computer Science auf der einen und Musik-, Sprach- und Literaturwissenschaft auf der anderen Seite. Im Mittelpunkt seines Interesses als Physiker und Kognitionswissenschaftler steht «the human mind» in all ihren Facetten.

18 Juni
Albertus-Magnus-Professur | 19.30 Uhr | Aula der Universität (Hauptgebäude)
«Reflections on Machine Translation»

19 Juni
Albertus-Magnus-Professur | 19.30 Uhr | Aula der Universität (Hauptgebäude)
«Reflections on Human Translation»

20 Juni
Albertus-Magnus-Professur | 12.00 Uhr | Tagungsraum im Seminargebäude
Öffentliches Seminar (Teilnahme nur nach vorheriger Anmeldung)

Alle Informationen

Wübbena/Cremer: “DH in der Max Weber Stiftung und am Deutschen Forum für Kunstgeschichte”, DH-Kolloquium am 2. April 2018

Am 12. April 2018 geben Thorsten Wübbena (Deutsches Forum für Kunstgeschichte, Paris) und Fabian Cremer (Max Weber Stiftung, Bonn) den Auftakt zum DH-Kolloquium im Sommersemester 2018:

“Bericht aus Bonn & Live aus Paris. Digital Humanities in der Max Weber Stiftung und am Deutschen Forum für Kunstgeschichte”

Do, 12. April 2018
16-17:30 Uhr
S11 (Neues Seminargebäude)

Die Veranstaltungen sind wie immer offen für alle Interessierten. Das gesamte Programm finden Sie hier:

Abstract: Digital Humanities sind ein fester Bestandteil der wissenschaftlichen Aktivitäten der Max Weber Stiftung (MWS). Die DH berühren alle Bereiche, für die die MWS als Träger geisteswissenschaftlicher Forschung steht. Sie verändern die Konzeption, Organisation und Präsentation von Forschungsprojekten, die Arbeit der Bibliotheken und die Sichtbarkeit der Instituts- und Stiftungsarbeit generell.

In dem Beitrag soll nun vor dem oben genannten Hintergrund aus Sicht der Geschäftsstelle (Bonn) und einem der zehn Forschungsinstitute (DFK Paris) ein Einblick in die Prozesse der jüngeren Zeit und konkrete Projekte gegeben werden.

Fabian Cremer studierte Kunstgeschichte und Kunstpädagogik in Frankfurt und Wien. Seit 2011 unterstützt und berät er Forschende im Bereich der digital gestützten Forschung – beim Kunstgeschichtlichen Institut der Goethe-Universität Frankfurt, in der Abteilung Forschung und Entwicklung an der SUB Göttingen sowie am Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Seit 2015 koordiniert er die digitalen Quellen- und Datenbankprojekte der Max Weber Stiftung. Fabian Cremer arbeitet an Arbeitsabläufen und Konzepten zu Forschungsdatenmanagement und digitalen Forschungsinfrastrukturen sowie an Transformationsprozessen des digitalen Wandels in Wissenschaft und Forschungsorganisationen.

Thorsten Wübbena hat Kunstgeschichte, Kulturwissenschaften und Geschichte studiert. Seit 2000 als wiss. Mitarbeiter im Kunstgeschichtlichen Institut der Goethe-Universität Frankfurt am Main tätig und von 2007 bis 2012 war er in leitender Funktion im DFG-Projekt „ Eine netzbasierte Forschungsplattform zur Kunst- und Kulturgeschichte des 17. Jahrhunderts“ beschäftigt. Zwischen 2011 und 2014 arbeitete er im DFG-Projekt „Zur ästhetischen Umsetzung von Musikvideos im Kontext von Handhelds“. Seit September 2014 ist Thorsten Wübbena Directeur de recherche (Digital Humanities) am Deutschen Forum für Kunstgeschichte Paris.

Seine Arbeitsschwerpunkte liegen im Bereich der Informationstechnologie in der kunstgeschichtlichen Forschung, hier insbesondere kulturhistorische Bild- und Forschungsdatenbanken (Datenmodelle, Wissensrepräsentation) sowie der Musikvideos.

Open source at CCeH in 2017

Welcome to the 2017 report on CCeH’s contributions to the open source world!

At the Cologne Center for eHumanities, we love to use, improve and publish open source software. It is only thanks to free and libre software that we can develop and support so many DH projects. Since 2014 we tried our best to be good open source citizens by participating and contributing in various communities, as we recounted in our 2015 and 2016 open source reports. Let’s have a look at what the CCeH has done in 2017.

Our own DH and technical projects

The open source highlight of 2017 is the publication of the source code and XML files of the Papyri Wörterlisten, released under the CC-BY license and available in multiple formats. The Papyri Wörterlisten contain more than 33.000 Greek and Latin lemmas transcribed from papyri, with each lemma linked to all the relevant publications where it has been discovered or discussed.

CCeH’s open source projects in 2017: Papyri Wörterlisten, Shadow Thing, Soledades

Two collaborators of the CCeH have also published the source code that is behind their academic works. Enes Türkoglu has published his master’s thesis: a interactive Shadow Theater, where the beautiful but fragile cut-out figures of the Theaterwissenschaftliche Sammlung Köln can come alive again. Antonio Rojas Castro has published a thoroughly curated digital scholary edition in TEI of Soledades by the Spanish poet Luis de Góngora, part of his PhD dissertation.

In addition, the CCeH published some new more technically-oriented projects, for example WordPress monitoring plugins for Icinga[1] and a work-in-progress RTI controller[2].

Obviously, we also kept updating our existing DH projects on GitHub at Software needs perennial maintenance, let’s not forget it.

But something is missing here. Where is the usual bunch of new DH projects? The CCeH has worked on many new DH projects in 2017, where is their code? The answer is: the new DH projects are hosted and developed in our own GitLab installation. We are ironing out the last kinks before making our GitLab publicly accessible. The report for 2018 will be quite long. 😉

Improvements to other projects: patches and bug reports

No program is perfect. Every software has a bug or lacks a feature. The great thing of open source is that you can go and fix that bug that nags you, or add that feature that your project needs. And once that work is done, you can share it with the community, making that software better for everybody else.

In 2017 we fixed bugs and contributed quite a bit of features to the XML database eXist-DB: New query and indexing functions [3,4,5,6] and speed improvements to the full-text search[7], as well as tests and documentation[8,9,10].

We also contributed to various XML-based publishing tools like XProc-Z[11] and KCL’s DDH Kiln[12].

For the cases where we could not fix the problems ourselves, we went to great lengths to document the bugs we have found and how to reproduce them.

For example, we all know that in TEI there is always a missing attribute somewhere. 😉 Fortunately the wonderful TEI community is always open to fixes and suggestions[13,14].

Reporting bugs is often not as easy as making a well reasoned request. In many cases, finding and understanding bugs requires quite a bit of analysis, like when eXist returned wrong results[15,16,] or BaseX stopped playing nicely with websites spread across multiple domains [17].

There are even cases where one has to go though the whole history of the project to pinpoint the exact moment when a bug has been introduced, like it happened while debugging the eXide XML online editor[18].

But our efforts are not limited to the XML world. All the open source programs that we use for our internal infrastructure are also important to us. And this reflects in our bug reports to GitHub Desktop[19], GitLab[20, 21] and NextCloud[22].

Bye 2017, welcome 2018!

It is a lot of work to produce proper open source software and participate meaningfully in so many communities. But it is work that we at the CCeH are happy and proud to have done and we promise we will continue doing for the years to come.

I hope you enjoyed this small overview of CCeH’s big and small contributions to the open source world in 2017. See you in 2018!

CCeH @dhd2018

Dieses Jahr findet die DHd-Konferenz “Kritik der digitalen Vernünft” vom 26. Februar bis zum 2. März 2018 an der Universität zu Köln statt.

Die Mitarbeiterinnen und Mitarbeiter des CCeH, des frisch gegründeten Instituts für Digital Humanities, des Data Center for the Humanities, prometheus und anderer Einrichtungen der Universität zu Köln geben ihr Bestes, um diese Konferenz zu einer erinnernswerten Veranstaltung zu machen. Einige aktuelle und ehemalige Mitarbeiter und Mitarbeiterinnen sind mit eigenen Beiträgen vertreten.


Jonathan Blumtritt und Felix Rau: “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” (Di., 27.01., 09:00-10:30).

Patrick Sahle trägt bei zum Workshop „Zur Zukunft der Digitalen Briefedition – kooperative Lösungen im kulturwissenschaftlichen Forschungsdatenmanagement“ (Di., 27.01., 14:00-15:30)


Frederike Neuber, Ulrike Henny-KrahmerPatrick Sahle und Franz Fischer organisieren das Panel “Alles ist im Fluss” und diskutieren mit Rüdiger Hohls, Anne Baillot, Christof Schöch und Jürgen Hermes über Ressourcen und Rezensionen in den Digital Humanities. Die Idee zur Einreichung geht auf die herausgeberische Arbeit an der Online-Rezensionszeitschrift RIDE zurück. (Mi., 28.02., 14:00-15:30).

Patrick Sahle diskutiert mit Katrin Moeller, Matej Ďurčo, Marina Lemaire, Lukas Rosenthaler, Ulrike Wuttke und Jörg Wettlaufer: “Die Summe geisteswissenschaftlicher Methoden? Fachspezifisches Datenmanagement als Voraussetzung zukunftsorientierten Forschens” (Do., 01.03., 16:00-17:30).


Gioele Barabucci: “Funktionale und deklarative Programmierung-basierte Methode für nachhaltige, reproduzierbare und verifizierbare Datenkuration” (Fr., 02.03., 09:00-10:30).

Ulrike Henny-Krahmer, Katrin Betz, Daniel Schlör und Andreas Hotho: “Alternative Gattungstheorien: Das Prototypenmodell am Beispiel hispanoamerikanischer Romane” (Do., 01.03., 9:00-10:30).

Martina Bürgermeister, Gerlinde Schneider, Stephan Makowski, Daniel Jeller, Jan Bigalke, Christian Theisen und Georg Vogeler: “Software Aging in den DH: Kritik des reinen Forschungswillen” (Fr., 02.03.,  9:00-10:30).

Poster (Do., 01.02., 17:45-19:15):

Ben Bigalke, Ulrike Henny-Krahmer, Sviatoslav Drach, Pedro Sepúlveda, Christian Theisen: “Personen- und Figurennetzwerke in Fernando Pessoas Publikationsplänen”.

Jonathan Blumtritt, Uwe Breitenbücher, Simone Kronenwett, Frank Leymann und Brigitte Mathiak: “SustainLife – Erhalt lebender, digitaler Systeme für die Geisteswissenschaften”.

Franz Fischer, Greta Franzini und Mike Kestemont: “Digital Medievalist: A Web Community for Medievalists working with Digital Media”.

Christian Forney, Antonio Rojas Castro, Peter Dängeli: “Von der geschlossenen Forschungsdatenbank zur offenen Editions- und Forschungsplattform”.

Francisco Mondaca, Jürgen Rolshoven, Philip Schildkamp und Andreas Vogt: “Syndred – A Syntax-Driven Editor for Lexical Resources”.

Uta Reinöhl, Daniel Kölligan, Börge Kiss, Claes Neuefeind, Francisco Mondaca und Patrick Sahle: “VedaWeb – eine webbasierte Plattform für die Erforschung altindischer Texte”.


Workshop on critical apparatus, 11-12 January 2018

We are pleased to invite you to a two-day workshop that aims at exploring the theories, methodologies, and tools of the critical apparatus. This seminar is organised by Ca’ Foscari University of Venice together with University of Cologne – CCeH (Cologne Centre for eHumanities) and Dipartimento di Studi Linguistici e Culturali Comparati, within the ERC StG Project BIFLOW seminar programme “Lingue, saperi e conflitti nell’Italia medievale 3 (2018)”. The first day will give an introduction to the encoding of a critical apparatus through TEI (Text Encoding Initiative), whereas the second day will discuss in depth the theoretical framework surrounding the methods and methodologies, as well as the advantages and disadvantages of the new technologies on this topic.

Dipartimento di Studi Umanistici, Ca’ Foscari – Aula Milone

More information on the BIFLOW website.

Anmeldung zur DHd-Konferenz 2018 in Köln

Die Anmeldung für die Teilnahme an der DHd-Konferenz 2018 (26. Februar 2018 – 01. März 2018) in Köln ist ab sofort im ConfTool unter möglich.

Bis zum 31. Januar 2018 ist ein Frühbucherrabatt verfügbar. Zu den Standardkonditionen können Sie sich bis einschließlich 19. Februar 2018 registrieren.

Das vorläufige Tagungsprogramm finden Sie sowohl im ConfTool als auch auf der Konferenz-Homepage.

Im Rahmen der DHd-Konferenz werden insgesamt 20 DFG-Reisestipendien für Promovierte, 25 Gerda Henkel-Reisestipendien für Promovierende und 9 DHd-/CLARIN-/DARIAH-Reisestipendien für Studierende vergeben.

Vortragende und Beteiligte, denen nur geringe oder keine finanzielle Mittel im Rahmen eigener Stellen und Projekte zur Verfügung stehen, werden ermuntert, ihr Interesse an einem Stipendium bei der Registrierung im ConfTool zu bekunden. Eine formlose Bewerbung mit aktuellem Lebenslauf ist bis zum 15. Januar 2018 an die folgende Adresse zu senden:

Weitere Informationen zum Bewerbungs- und Vergabeverfahren finden sich ebenfalls auf der Konferenz-Webseite.

Falls Sie noch weitere Fragen haben sollten, stehen wir Ihnen gerne unter zur Verfügung.

Wir freuen uns auf Ihren Besuch in Köln!

Im Namen aller VeranstalterInnen und OrganisatorInnen

CCeChristmas is coming… 15 December 2017

This year’s most faboulous CCeChristmas party will take place on Friday, 15 December, from 6 pm.

Delicious food and drinks will be provided, Christmas kitties will be projected. Und wie jedes Jahr, so auch dieses wird die House-Formation CCeCatch ihr stimmungsvolles Jahresendzeitprogramm The Sound of Besinnlichkeit herunterleiern.

Das CCeH möchte sich bei allen MitarbeiterInnen, KollegInnen, PartnerInnen und FreundInnen für die erfolgreiche Zusammenarbeit in einem ertragreichen Jahr 2017 bedanken (siehe z.B. CCeHarvest) und blickt voll der Freude und Zuversicht ins nächste (insb. natürlich auf die  DHd2018).

Everyone most warmly invited!

Merry Christmas,
Santa CCeClaus

Sviatoslav Drach erhält Fakultätspreis der philosophischen Fakultät

Am 28.07.2017 wurde der CCeH-Mitarbeiter und Master-Student der Informationsverarbeitung Sviatoslav Drach für seine Bachelorarbeit unter der Betreuung von Prof. Dr. Patrick Sahle mit dem Fakultätspreis ausgezeichnet.

Im Rahmen der Bachelorarbeit „WP CatVis – Eine Webanwendung für Harvesting und Visualisierung des Kategoriensystems der Wikipedia als Wissensordnung“ hat Sviatoslav Drach die Kategoriensysteme der Wikipedia untersucht und dazu eine Webanwendung zur Analyse und Visualisierung dieser hierarchischen Wissensordnungen entwickelt.

Im theoretischen Teil der Arbeit wurden verschiedene Visualisierungstypen, die in der Anwendung eingesetzt werden, evaluiert. Das Vorgehen bei der Erstellung der Anwendung wurde dokumentiert und die Anwendung sowie die erzeugten Visualisierungen diskutiert.

Die Anwendung selbst nimmt eine Startkategorie entgegen (Abb. 1) und „harvested“ (sammelt) dann alle Unterkategorien.

Abbildung 1: Benutzeroberfläche von WP CatVis (Ausschnitt aus der Startseite)

Die gesammelten Daten werden aufbereitet und schließlich unter Verwendung von Bausteinen aus der Javascript-Programmbibliothek D3 in vier unterschiedliche Diagrammtypen umgerechnet.

Das Layout “Simple List” oder einfach geordnete Liste, ist im Prinzip keine Visualisierungstechnik, sondern eine einfache Auflistung der Unterkategorien. Sie zeigt die Anzahl der Unterkategorien in der jeweiligen Oberkategorie und die gesamte sowie einmalige Anzahl der Kategorien (Abb. 2).

Abbildung 2: Visualisierung des Wikipedia-Kategoriensystems „Sänger“ in Form von Simple List

Das Collapsible Tree Layout zeigt hierarchische Zusammenhänge zwischen einzelnen Kategorien, indem es jede Kategorie als einen Knoten auf einer ihr hierarchisch entsprechenden Ebene präsentiert (Abb. 3).

Abbildung 3: Visualisierung des Wikipedia-Kategoriensystems „Sänger“ im Collapsible Tree Layout

Das Graph-Layout (Force-Directed Graph with Mouseover) veranschaulicht das beispielhafte Wikipedia-Kategoriensystem „Sänger“ in Form eines Netzwerkes (Abb. 4).

Abbildung 4: Visualisierung des Wikipedia-Kategoriensystems „Sänger“ im Graphen-Layout

Das Zoomable Circle Packing Layout veranschaulicht nicht nur die hierarchischen Zusammenhänge zwischen den einzelnen Kategorien durch Farbhervorhebungen, sondern es zeigt mit Hilfe der unterschiedlichen Kreisgrößen die proportionale Verteilung der Menge an Artikelseiten, die den einzelnen Kategorien zugewiesenen sind. Das Layout ist insofern interaktiv, als dass in die hierarchisch tieferen Ebenen hineingezoomt werden kann (Abb. 5).

Abbildung 5: Visualisierung des Wikipedia-Kategoriensystems „Sänger“ im Zoomable Circle Packing Layout

Die gesamte Anwendung hat zwei Nutzungsrichtungen:

Erstens kann sie benutzt werden, um Kategorienbäume zu visualisieren und damit die Struktur, die Verhältnisse und die Quantitäten einzelner Kategoriensysteme besser zu verstehen.

Zweitens können die gesammelten Daten und Visualisierungen benutzt werden, um die Struktur der Wikipedia selbst und die Art und Weise, in der Informationen organisiert werden, nachzuvollziehen und mögliche kulturelle Unterschiede zwischen den verschiedenen Sprachversionen zu analysieren.

Für die Zukunft ist geplant, die Anwendung öffentlich zugänglich zu machen und weitere Layouts und Features hinzuzufügen. Damit wäre u.a. die Grundlage geschaffen, die Kategoriensysteme der Wikipedia sprachübergreifend zu analysieren.

Papyri Wörterlisten, jetzt online verfügbar

Die WörterListen (WL) sind ein Hilfsmittel für die griechische Papyrologie, d.h. für die Spezialdisziplin der klassischen Altertumswissenschaften, die sich mit der Edition und Auswertung der in der Zeit zwischen ca. 300 v.Chr. und 700 n.Chr. in Ägypten auf Griechisch (und z.T. auch auf Latein) geschriebenen Papyri (und anderen Schriftträgern) befaßt. In den WL werden die Wörter, Namen, geographischen Begriffe usw. gesammelt, die in den Registern zu den seit etwa dem Jahre 1995 veröffentlichten Editionen griechisch (und z.T. auch lateinisch) verfasster dokumentarischer Papyri aufgelistet sind.

Dieter Hagedorn pflegt diese kumulierten Register seit 2000 in einer eigenen Datenbank und hat sie bislang als PDF veröffentlicht. Im Rahmen der Digitalisierungsaktivitäten der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste wird auch die Kölner Papyrussammlung sowie umliegende Quellen zu Online-Ressourcen umgebaut. Das CCeH hat deshalb eine Webanwendung für die Wörterlisten entwickelt, in die Dieter Hagedorn und Klaus Maresch vom Institut für Altertumskunde der Universität zu Köln auch in Zukunft neue Daten einpflegen werden. Die Anwendung selbst basiert auf eXist und ist unter Peter Dängelis konzeptioneller Leitung von Ben Bigalke realisiert worden.

Benutzung der Wörterlisten

Die Webanwendung ist unter verfügbar.

Um für ein bestimmtes Wort die (bisher erfassten) Publikationen nachzuschlagen, in denen es vorkommt, hat der Nutzer mehrere Möglichkeiten:

  • Durch Klick auf einen Buchstaben im lateinischen oder griechischen Alphabet und wahlweise eine der Kategorien lässt sich eine Liste aller mit dem gewählten Buchstaben beginnenden Wörter laden, die dann über die gegebenen Buchstabenkombinationen weiter gefiltert werden kann. Dieses Vorgehen ist z.B. hilfreich, wenn sich nur Teile eines zu transkribierenden Wortes sicher lesen lassen.
  • Durch Eintrag einer beliebigen Buchstabenfolge in das Suchfeld oben rechts neben dem griechischen Alphabet läßt sich nach deren Vorkommen in dem Gesamtbestand der WL suchen, unabhängig von der Position der eingegebenen Buchstaben in den Wörtern.
  • Detaillierte Suchmöglichkeiten bietet die „Erweiterte Suche“. Hier kann man ebenfalls die Suche auf einzelne Abteilungen der WL beschränken, hat aber auch die Wahl, die Position der Buchstabenfolge im Wort festzulegen. Markiert man z.B. „Wortende“, dann findet man u. a. alle entsprechend endenden Verben. Diese Option ersetzt daher die Funktion des „Konträrindex“ der bisherigen pdf-Version.

Ein Klick auf das gesuchte Wort führt zu einer Resultatansicht, in der alle Belegstellen aufgeführt sind. Eine Verlinkung dieser Werke zum entsprechenden Literatureintrag auf ist im Ansatz umgesetzt, sie soll aber noch dahingehend erweitert werden, dass man dort direkt eine Volltextsuche im entsprechenden Band aufrufen kann.

Neben weiteren Metadaten lässt sich auch die dem Eintrag zugrundeliegende TEI-Datei aufrufen.

Datenerstellung und Übernahme

Anglegt und gepflegt wurden die Wörterlisten ab 2000 durch Dieter Hagedorn zunächst in einer eigens erstellten Hypercard-Datenbank. Die den Registern gewonnenen Rohdaten wurden darin kompiliert und via rtf-Export in Word ein PDF-Output erzeugt. In jüngerer Zeit erfolgte die Kompilation durch Scripts einer FileMaker Pro-Datenbank und die Weitergabe an Word geschah über einen Export im html-Format. In dieser Umgebung werden die Listen gegenwärtig auch weiter gepflegt, es schließt nun aber ein anderes Übernahme-Szenario an:

Mit jeder neuen Fassung der Wörterlisten werden die Daten aus FileMaker in dessen XML-Format exportiert. Die resultierenden Dateien werden durch eine XProc-Pipeline ins TEI-Zielformat transformiert, wobei verschiedene neue Metadaten mit aufgenommen werden, unter anderem eine stabile Identifikationsnummer der Form wl-grc-00001 bzw.wl-la-00001. Sobald alle Auffälligkeiten bereinigt sind, die in einem Exportbericht ausgegeben werden, erfolgt die finale Konversion. Die so gewonnenen Daten werden als neue Version nach Github geschrieben und von dort an die Webanwendung sowie automatisch auch an die Forschungsdatenplattform Zenodo übergeben. Die Daten führen so gewissermaßen ein von der Webanwendung unabhängiges Eigenleben.


Rückmeldungen zu den Inhalten und der Anwendung nimmt das Wörterlisten-Team gerne unter entgegen.