XML Pipelines and XProc 3.0: Report of the WG Meeting in Aachen

Last week (14th and 15th of September 2017) a meeting of the XProc 3.0 working group took place in Aachen, organized by Achim Berndzen of xml-project and Gerrit Imsieke of le-tex and hosted by LOGOI.

The meeting was extremely successful, consensus has been reached on many topics and important roadblocks have been overcome. I will tell you about what the WG accomplished in a second. Before that allow me to introduce XProc, XML pipelines and explain why they are useful. (If you already know all this stuff, skip directly to the XProc 3 section, that’s OK. :))

XML pipelines? What are you talking about?

Pipelines
Pipeline, by JuraHeep, CC0

Everybody who has worked with XML knows that real-world applications are always born as simple transformations (“I’ll just convert this XML to HTML with XSLT”) but quickly develop into a big tangled web of unreadable code as soon as you have to deal the inevitable…

  • small mistakes in the input (“wait, why is there a <p> inside a <em>?”),
  • flaws in the receiving applications (“let’s have a separate output for Internet Explorer 6, so that the poor students access this from the library”) or
  • requests from the project collaborators (“could you make a summary version with only one sentence per chapter?”).

Addressing all these needs can be done, but doing it by adding fixes on top of fixes on the original core transformation is a nightmare in terms of maintenance and readability.

Small steps and scripts

A better way to solve all these issues is splitting monolithic transformations into smaller pieces, or steps. (More about how our experience at the CCeH in splitting complicated transformations into focused steps in a future article.)

Now that you have all these steps, how do you transform the input into the output in practice?

Are you going to run each step manually, clicking around in your XML editor? I hope not.

A much better way to run this split transformation is to create a shell script that takes the input file, applies the first step (fix the small mistakes), then the second (transform into HTML) and then, if requested, the third (uglify HTML to make it IE6 compatible).

Such a script would work just fine but it has many problems:

  • Either you hardcode how to invoke the XSLT processor or you have to write an abstraction layer that allows you to call other XSLT processors.
  • Requires a working Bash shell environment (not that easy to get on Windows).
  • Does not provide any kind of validation of the intermediate results.
  • Requires a deserialization/serialization cycle for each step.
  • Gets rapidly very complex as soon as other steps, conditional steps and loops are added.
  • Works only on a single document.

We could address all these problems ourselves making a better script. Or we could avoid reinventing the wheel and make use of XProc and write a declarative XML pipeline.

Enter XML pipelines and XProc

XProc is a language for writing declarative XML pipelines.

An XML pipeline is a series of steps though which an XML documents flow, just as in the shell script in the previous example. However, in contrast with a shell script, XProc pipelines are:

  • Declarative: you state what you want and the XProc interpreter chooses the right tools. (A PDF transformation? Let’s use Apache FOP. An XSLT Transformation? Let’s use libxslt. Oh, are we running inside oXygen? Let’s use the internal Saxon-EE engine then.)
  • Portable: pipelines can run wherever there is a XProc interpreter: Linux, Windows, Mac OS, you name it.
  • Specialized for XML: documents are not deserialized and serialized in each step.
  • Can have more than one input and produce more than one output.
  • Easily extend to intricate pipelines with loops and parallel branches.

An example pipeline looks like the following

<p:pipeline xmlns:p="http://www.w3.org/ns/xproc" version="1.0">
    <p:xslt>
        <p:input port="stylesheet">
            <p:document href="fix-mistakes.xsl"/>
        </p:input>
    </p:xslt>

    <p:xslt>
        <p:input port="stylesheet">
            <p:document href="convert-doc.xsl"/>
        </p:input>
    </p:xslt>

    <p:xslt use-when="p:system-property('ie6-compatible') = 'true'">
        <p:input port="stylesheet">
            <p:document href="make-ie6-compatible.xsl"/>
        </p:input>
    </p:xslt>
</p:pipeline>

XProc 3.0

XProc 3.0 is the upcoming version of XProc. The original XProc 1 specifications have been published in 2010 by the W3C and since then users and implementers have found small problems, inconsistencies as well as ergonomic issues that make writing XProc pipelines harder than it should.

The focus of XProc 3 is simplifying the language, making implementations behave in more sensible way by default and making it possible to process non-XML documents (think LaTeX or graphic files).

During last week’s working group meeting in Aachen plenty of progress has been done in this direction, with consensus reached on many key issues. I will summarize the main outcomes; the minutes are available at https://github.com/xproc/Workshop-2017-09/wiki/Agenda-and-Minutes.

Simplified and streamlined language

  • The actual unnecessary distinction between a pipeline and a step will be removed. (It turns out that the current definition of a pipeline makes it so strict that nobody is actually using it.)
  • The definition of a port and the use of a port will use different names. (This often confused beginners.)
  • Non XML documents will become first-class citizens in XProc 3.0 and treated exactly as XML documents.
  • The well known try/catch/finally construct will be introduced.

Run-time evaluation and extension

  • A new eval step will be introduced to run dynamically created pipelines.
  • User functions written in XPath, XSLT and XQuery will be usable in all fields where XPath can be used.

Diagnostic and debugging

  • Steps will be able to output side-information on the diagnostic, forwarded to stderr by default.
  • Implementation will provide a way to dump all the temporary documents produced by the intermediate steps.
  • A separate specification will standardize error reporting (so that XML editors like oXygen will be able to highlight where the problem occurred).

Plenty of interesting stuff, isn’t it? If you are interested in the development of XProc 3.0 or XProc in general, please participate in the discussions held on the XProc mailing list, join the W3C Community group, and suggest improvements on the XProc developement website.

See you at the next XProc meeting!

Cologne Autumn School and Expert Workshop: „Encoding Inscriptions, Papyri, Coins & Seals“

From 9 to 13 October 2017 the University of Cologne is hosting an Epidoc Autumn school in combination with an expert workshop on digital sigillography. During the first three days the autumn school will introduce the participants to Epidoc, the encoding standard for epigraphic texts and materials. Wednesday afternoon is dedicated to presentations on advanced imaging technologies in the fields of epigraphy, papyrology and sigillography. On Thursday and Friday there will be an expert workshop focusing on digital formats and standards for the description and publication of seals and similar materials.

Time: 9-13 October 2017
Place: Universität zu Köln
Language: English
Deadline for registration: 24 September 2017
Registration contact: martina.filosa@gmail.com
School participants: max. 25

Programme

Monday, 9.10.2017

EpiDoc Autumn School, Day 1
(Thomas Institut, Seminar room, Universitätsstraße 22, ground floor; see on map)

14:00 Welcome, Introduction to XML, TEI and EpiDoc (Background; Markup; Semantic tagging; XML Rules)

15:30 break

16:00 EpiDoc Guidelines and Quick reference docs, Download package; Oxygen demonstration and hands-on exercises; History and description fields (Description; Places; Dates)

17:30 ends

Tuesday, 10.10.2017

EpiDoc Autumn School, Day 2
(Thomas Institut, Seminar room, Universitätsstraße 22; see on map)

09:00 Text transcription and Leiden (Lacunae; Abbreviations)

10:30 break

11:00 Further Leiden practice (Structure of Text; Certainty & precision; Apparatus Criticus)

12:30 lunch

14:00 Transforming EpiDoc to HTML; Customizing Example stylesheet transformations (Parameters)

15:30 break

16:00 Entities, indexing and vocabularies (Token tagging; London rules; Authority Lists; EAGLE-Europeana vocabularies; Pleiades; LGPN; papyri.info – time permitting)

17:30 ends

 

Wednesday, 11.10.2017

EpiDoc Autumn School, Day 3
(Thomas Institut, Seminar room, Universitätsstraße 22; see on map)

09:00 More Leiden practice, marking up all elements of an edition

10:30 break

11:00 EpiDoc Community and resources (epidoc.sf.net; markup; workshop blog; wiki page)

12:30 lunch

Afternoon presentations on advanced imaging technologies
(location: Wienand Haus – Morphomata, Weyertal 59; see on map)

15:00 Hubert Mara (Heidelberg): Visual Computing for Analysis of Sealings, Script and Fingerprints in 3D

15:30 Branko van Oppen (Amsterdam): SigNet – A Network of Hellenistic Sealings & Archives (slides)

16:00 break

16:30 Stephan Makowski (Cologne): Seal Digitisation with Reflectance Transformation Imaging (RTI)

17:00 Tiziana Mancinelli (Cologne): RTI and Ancient Magic Curses

Evening
Brauhaus (Restauration Pütz; see on map)


Thursday, 12.10.2017

Seals expert workshop, part I: Encoding Seals
(location: Wienand Haus – Morphomata, Weyertal 59; see on map)

9:00-12:30 Introduction & Overview
– Seal digitization projects: state of affairs
– Adjacent projects and encoding standards (TEI, NUML, CEI)
– Vocabularies and terminology

14:00-17:30 Towards an encoding standard in digital sigillography:
– Metadata
– Physical description
– Iconography
– Transcription

Public lecture
(Neues Seminargebäude / Seminar room S13 / 1. floor; see on map)
18:00-19:30 Charlotte Roueché (London): Back to Socrates: Publication as Dialogue

Abstract: “The traditional model of scholarship has been an exchange of ideas built up over time, using print; but in the second half of the twentieth century this became steadily more difficult, as the volume of academic publications increased, and the cost of printing rose. Cologne was the home of new approaches, particularly in epigraphy and papyrology – the Inschriften griechischer Städte aus Kleinasien series has transformed our understanding of the epigraphy of Asia Minor; and ZPE has stimulated new levels of conversation. In the home city of such innovation, I would like to ask what the 21st century might look like.”


Friday, 13.10.2017

Seals expert workshop, part II: Presenting Seals
(location: Wienand Haus – Morphomata, Weyertal 59; see on map)

9:00-12:30 Topics to be discussed:
– Interfaces
– Presentation systems
– Portals

Conclusions, Plans & Perspectives

Teachers & Organizers:
– Gabriel Bodard (London)
– James Cowey (Heidelberg)
– Martina Filosa (Cologne)
– Franz Fischer (Cologne)
– Antonio Rojas Castro (Cologne)
– Patrick Sahle (Cologne)
– Claudia Sode (Cologne)
– Simona Stoyanova (London)

Institutions involved:
– Institut für Altertumskunde, Abteilung Byzantinistik und Neugriechische Philologie
– Nordrhein-Westfälische Akademie der Wissenschaften und der Künste, Arbeitsstelle für Papyrologie, Epigraphik und Numismatik am Institut für Altertumskunde
– Historisches Institut, Abteilung Alte Geschichte
– Cologne Center for eHumanities (CCeH)

Der Rigveda wird bald Vedaweb

Der Rigveda, im altindischen Sanskrit verfasst, stellt eines der zentralen, wenn nicht das wichtigste, Datenkorpus der Indogermanistik bzw. Historisch-Vergleichenden Sprachwissenschaft dar. Dieses Korpus zeichnet sich sowohl durch seine große Zeittiefe – die ältesten Schichten stammen aus dem späten zweiten Jahrtausend vor Christus – als auch durch seinen großen Umfang aus.

Das Vedaweb-Projekt hat zum Ziel, eine virtuelle Forschungsumgebung zu entwickeln, in der der Rigveda vollständig digital sowie in linguistisch vorannotierter Weise zugänglich gemacht und der Forschungsgemeinschaft zur Weiterbearbeitung und Analyse zur Verfügung gestellt wird. Eine Besonderheit bildet dabei die Verknüpfung jedes einzelnen Wortelements mit den Lemmata der in Köln angesiedelten digitalen Sanskritwörterbücher (alte / neue Installation), was den qualitativen Sprung in der linguistischen und kulturwissenschaftlichen Erforschung unterstützt.

Die komplette morphologische Annotation des Rigvedas wird von Prof. Dr. Paul Widmer und Dr. Salvatore Scarlata von der Universität Zürich zur Verfügung gestellt.

Das Projekt wird flankiert von Bestrebungen, digitale Sprachressourcen zu Südasien an der Universität zu Köln neu zusammenzuführen. Unter dem Namen C-SALT (Cologne South Asian Languages and Texts Portal) sollen hier lexikalische Hilfsmittel (wie das Critical Pāli Dictionary) sowie Texte und Korpora versammelt und besser zugänglich gemacht und ggf. mit dem Vedaweb verbunden werden.

Mehrere Einrichtungen der Philosophischen Fakultät der Universität zu Köln sind im Projekt beteiligt: Die Allgemeine Sprachwissenschaft und die Historisch-Vergleichende Sprachwissenschaft sind für die Datenaufbereitung zuständig. Das CCeH übernimmt die TEI-Modellierung des Korpus und verwandter Ressourcen. Die Webapplikation wird von der Sprachliche Informationsverarbeitung entwickelt. Die Archivierung und Nachhaltigkeit der Daten wird schließlich vom Data Center for the Humanities (DCH) gewährleistet.

Projektteam Vedaweb 

(Einrichtungen sind alphabetisch sortiert)

Allgemeine Sprachwissenschaft, Institut für Linguistik

Dr. Uta Reinöl

Felix Rau

Jakob Halfmann

Cologne Center for eHumanities

Prof. Dr. Patrick Sahle

Francisco Mondaca

Data Center for the Humanities

Jonathan Blumtritt

Historisch-Vergleichende Sprachwissenschaft, Institut für Linguistik

PD Dr. Daniel Kölligan

Natalie Korobzow 

Sprachliche Informationsverarbeitung, Institut für Linguistik

Prof. Dr. Jürgen Rolshoven

Claes Neuefeind

Börge Kiss

Laufzeit:

Juli 2017- Juli 2020

vorläufige Projektseite am Institut für Linguistik

Das Projekt Vedaweb wird gefördert von der

‘Natural Language Understanding and AritficiaI Intelligence’, Gastvortrag von Dr. Kruchinina, 10. Juli 2017

Die Sprachliche Informationsverarbeitung lädt zu einem Gastvortrag von Dr. Ekaterina Kruchinina (Nuance) mit dem Titel “Nuance NLU and AI Research. Driving Innovations” ein. Der Vortrag wird am kommenden Montag, 10. Juli 2017, im PC-Pool (Raum 72) im Philosophicum stattfinden.

Abstract

Speech Recognition, Biometrics, Text-To-Speech, Natural Language Understanding and AI are key research areas to redefine the relationship between people and technology. Nuance’s Research team is working on all of these in order to develop a more human conversation with technology. This talk will highlight a few current research topics and trends in the company. Automotive solutions in cars on the road today and others that will come out in the next few years will be used to illustrate how achievements in Natural Language Understanding and AI help to create the next generation of digital assistants.

Speaker: Dr. Ekaterina Kruchinina, NLP Research Manager at Nuance Communications

Ekaterina Kruchinina is a Research Manager in the Natural Language Understanding department at Nuance. Her principal research responsibilities are in NLU, machine learning, corpus annotation and evaluation of NLU systems. Ekaterina joined Nuance as a Senior Research Scientist in 2012. Before joining Nuance, she worked as a research associate at the JulieLab at the Friedrich-Schiller-University of Jena.  She received her Phd supervised by Prof. Dr. Udo Hahn (Friedrich-Schiller-University Jena)  and  Prof. Ted Briscoe (University of Cambridge) with a dissertation titled “Event Extraction from Biomedical Texts Using Trimmed Dependency Graphs” in 2012.  Ekaterina developed the relation extraction system JReX that was ranked second during the BioNLP 2009 Shared Task on Event Extraction (at NAACL-HLT 2009). Ekaterina has 12 years of academic and industry experience, leadership in development and application of cutting edge technology in NLP solutions for intelligent human-machine interfaces. Ekaterina speaks Russian, German, English and French. Ekaterina’s work has been featured in the article „Die Computerversteherin. Ein Job an der Schnittstelle von Mensch und Maschine“, c’t 04/2017.

CCeH-Mitgliederversammlung, 14. Juli 2017

Die diesjährige CCeH-Mitgliederversammlung wird am Freitag, 14. Juli 2017, 15:30-17:30 Uhr, im Sitzungsraum des Dekanats im Philosophikum stattfinden. Alle Mitglieder sowie all diejemigen, die es werden wollen, weil sie an digitaler geisteswissenschaftlicher Forschung und Lehre an der Universität zu Köln interessiert sind, sind herzlich eingeladen.

Transkribus Workshop & Vortrag, 13. Juli 2017

Tobias Hodel (Zürich) wird am Donnerstag, von 14:00 bis 16:00 einen Miniworkshop zu “Transkribus” im Besprechungsraum des CCeH (Universitätsstraße 22) durchführen. Um 16 schließt sich sein Vortrag zum Projekt “READ” im DH Kolloquium (Neues Seminargebäude, Raum S14) an. Studierende und KollegInnen aus Forschung und Lehre sowie alle, die sich für aktuelle Transkriptionssoftware bzw. die Erkennung handschriftlicher Texte interessieren, sind herzlich eingeladen. Die Teilnahme ist kostenlos. Um Anmeldung per Email an info-cceh@uni-koeln.de wird gebeten.

Abstract:

Transkribus (https://transkribus.eu/Transkribus/) is a platform for the automated recognition, transcription and searching of handwritten historical documents. Transkribus is part of the EU-funded Recognition and Enrichment of Archival Documents (READ) (http://read.transkribus.eu/) project. The core mission of the READ project is to make archival material more accessible through the development and dissemination of Handwritten Text Recognition (HTR) and other cutting-edge technologies.
The workshop is aimed at institutions, researchers, and students who are interested in the transcription, searching and publishing of historical documents. It will introduce participants to the technology behind the READ project and demonstrate the Transkribus transcription platform. Transkribus can be freely downloaded. Participants should bring their laptops along to the workshop. And have (if possible) Transkribus installed.

Mit der Software Transkribus koennen historische Handschriften automatisch entschluesselt werden.

Exploring Charters online – Monasterium Summer School, Köln 12.-14. Juni 2017

Vom 12. bis zum 14. Juni 2017 findet am CCeH die erste Monasterium Summer School statt.

Ziel der Veranstaltung ist eine Einführung in die Plattform Monasterium.net, der größten Plattform für mittelalterliche und frühneuzeitliche Urkunden online.

Während der Summer School werden sowohl Einführungen in grundlegende Nutzungs- und Arbeitsweisen geboten (Suche von Begriffen, Anzeige von Urkunden, etc.) als auch weiterführende Themen und Methoden wie das detailgenaue Beschreiben und Auszeichnen von Urkunden im MOM-CA-Editor behandelt.

Von besonderer Wichtigkeit ist hier vor allem der “Mitmach”-Effekt. So ist es ausdrücklich erwünscht, dass Teilnehmerinnen und Teilnehmer gemeinsam an eigenen oder bereitgestellten Materialien arbeiten.

Eine detaillierte Übersicht über Ablauf und Themen bietet das hier als Download bereitgestellte Programm.

Für Anmeldungen oder Fragen wenden Sie sich bitte an: Stephan.Makowski@uni-koeln.de

Adresse:
Cologne Center for eHumanities
Universitätsstraße 22 (Dachgeschoss, rechts)
50937 Köln

DHd 2018, Kritik der digitalen Vernunft, 26.2.-2.3. in Köln

Die 5. Jahrestagung der “Digital Humanities im deutschsprachigen Raum” wird vom 26. Februar bis zum 2. März 2018 von der Universität zu Köln ausgerichtet. Das Thema lautet “Kritik der Digitalen Vernunft”.

Call for Papers

I. Allgemein

Die Digital Humanities werden häufig als digital transformierte Bearbeitung von Fragestellungen aus den verschiedenen beteiligten Fächern beschrieben. Daneben entsteht der Eindruck, dass die DH in weiten Teilen eine daten-, algorithmen- und werkzeuggetriebene Wissenschaft sei, die von ihren unmittelbaren Möglichkeiten und ihren Praktiken dominiert sei. Wie lässt sich dies aber mit dem kritischen Anspruch der Geisteswissenschaften vereinbaren? Gibt es im Umgang mit digitalen Medien, in der Modellierung, Operationalisierung und Formalisierung der Arbeit mit Computern implizite, stillschweigend akzeptierte Agenden, die einer Reflexion durch einen „Intellectual Criticism“ bedürfen? Die Tagung soll den Fokus auf die kritische Dimension digitaler Forschung richten und damit Denkanstöße zu Theoriebildung und Epistemologie der digitalen Forschung geben. In diesem Rahmen sollen auch gesellschaftliche, soziale und politische Dimensionen der in allen Bereichen wirksamen Digitalisierungsprozesse unter so heterogenen Begriffen wie Interaktionsformen, Partizipation, Bildung, Digital Literacy sowie Auswirkungen und Rückwirkungen der Digitalität auf Wissenschaft und Gesellschaft diskutiert werden.

Im Rahmen der Tagung sollen daher unter anderem folgende Fragen verfolgt werden:

– Kritik der Digitalisierung – Formate, Standards und Praktiken
– Kritik digitaler Angebote, Projekte und Werkzeuge
– Kritik der digitalen Methoden
– Kritik der digitalen Geisteswissenschaften (traditionelle Fächer und DH)
– Kritik der digitalen Wissenschaftstheorie
– Kritik der digitalen Gesellschaft

Darüber hinaus sind Vorträge zu allgemeinen Themen aus dem Bereich der DH sowie die Diskussion von positiven und negativen, eigenen und fremden Projektergebnissen willkommen.

II. Formales

Es können eingereicht werden:

– Poster (Abstract von mindestens 500, maximal 750 Wörtern).
– Vorträge (Abstract von mindestens 1200, maximal 1500 Wörtern).
– Panels (minimal drei, maximal sechs Teilnehmerinnen und Teilnehmer, ein Abstract von mindestens 1200, maximal 1500 Wörtern).
– Vor der Konferenz stattfindende Workshops (Vorschlag von mindestens 1200, maximal 1500 Wörtern).

Für die Einreichung eines Abstracts müssen Sie sich unter der folgenden Adresse registrieren:
https://www.conftool.com/dhd2018/

Weitere Instruktionen finden Sie auf der Konferenz-Webseite:
http://dhd2018.uni-koeln.de/

Rückfragen richten Sie bitte per Email an die folgende Adresse: info-dhd2018@uni-koeln.de.

Die Frist für die Einreichung von Beiträgen läuft am 18.09.2017 ab. Eine Benachrichtigung darüber, ob der Beitrag angenommen wurde, wird bis spätestens 30.11.2017 versandt.

Die primäre Sprache der Veranstaltung ist Deutsch. Abstracts werden bevorzugt auf Deutsch eingereicht. Wird das Abstract in einer anderen Sprache eingereicht, so kann eine Übersetzung ins Deutsche beigefügt werden. In diesem Fall entscheiden die Einreichenden über die zu begutachtende Fassung.

In der Regel wird erwartet, dass von einem Verfasser/einer Verfasserin/einer Projektgruppe nur ein Poster oder Vortrag eingereicht wird. Eine Beteiligung von Beitragenden darüber hinaus an maximal einem Panel oder Workshop ist jedoch möglich.

1) Posterpräsentationen
Poster (Abstracts: mindestens 500, maximal 750 Wörter) können zu jedem Thema des Call for Papers eingereicht werden. Sie können auch den Stand einzelner Projekte anschaulich beschreiben oder Software demonstrieren.

2) Vorträge
Vorträge (Abstracts: mindestens 1200, maximal 1500 Wörter) stellen unveröffentlichte Ergebnisse dar, und/oder berichten über die Entwicklung von signifikanten neuen Methoden oder digitalen Ressourcen und/oder stellen ein methodischesbzw. theoretisches Konzept vor. Für die einzelnen Vorträge sind 20 Minuten Präsentationszeit und zehn Minuten für Fragen vorgesehen. Es wird erwartet, dass im Abstract zumindest signifikante Zwischenergebnisse vorgelegt werden. Vortragsvorschläge sollten den Forschungsbeitrag in geeigneter Weise auf dem Hintergrund des Forschungsstands kontextualisieren und seine Bedeutung für die (digitalen) Geisteswissenschaften oder einen jeweiligen Teilbereich deutlich machen. Ein Literaturverzeichnis ist beizufügen. Für die Ankündigung von Vorhaben, zu denen noch keine Zwischenergebnisse vorliegen, ist das Posterformat vorgesehen.

3) Panels
Panels bieten drei bis sechs Teilnehmerinnen und Teilnehmern die Möglichkeit ein Thema auf der Basis einleitender Kurzvorträge zu diskutieren. In der Regel wird erwartet, dass von der 90-minütigen Sitzung je ein Drittel auf die vorbereiteten Statements, die Diskussion innerhalb des Panels und die Diskussion des Panels mit dem Publikum entfällt. Die Panel-Organisatorinnen und Organisatoren reichen eine kurze Beschreibung des Themas im Umfang von mindestens 1200, maximal 1500 Wörtern ein und bestätigen die Bereitschaft der aufgeführten Personen, am Panel teilzunehmen. Für die Annahme eines Panelvorschlags ist die stringente Darlegung des thematischen bzw. methodischen Zusammenhangs der Einzelbeiträge von entscheidender Bedeutung.

4) Vor der Konferenz stattfindende Workshops
Die Vorschläge sollten die folgenden Informationen enthalten:
Titel und eine kurze Beschreibung des Themas (mindestens 1200, maximal 1500 Wörter). Die vollständigen Kontaktdaten aller Beitragenden sowie einen Absatz zu deren Forschungsinteressen.
Die Zahl der möglichen Teilnehmerinnen und Teilnehmer.
Angaben zu einer etwa benötigten technischen Ausstattung. Den Workshop spezifischen Call for Papers, falls ein solcher veröffentlicht wird. Workshops dauern einen halben Tag. Von den Workshopleiterinnen und -leitern wird erwartet, dass sie sich für die Konferenz anmelden.

III. Bewertung der Beiträge

Ein gutes Proposal beschreibt das gestellte Forschungsproblem, bezieht sich auf den aktuellen Forschungsstand, beschreibt die angewendete Methode und benennt das Ergebnis der Forschungen.

In der Begutachtung werden die folgenden Bewertungskriterien angelegt:
– Allgemeine Empfehlung zur Annahme (4-fach gewertet)
– Es handelt sich um einen innovativen Beitrag zum Gegenstandsbereich der DH (3-fach gewertet)
– Der Stand der Forschung ist hinreichend dargestellt (u.a. Bibliographie) (2-fach gewertet)
– Die Forschungsmethodik ist verständlich beschrieben (2-fach gewertet)
– Das Abstract ist verständlich formuliert (1-fach gewertet)

Bewertungsskala (Punkte):
5 – trifft völlig zu
4 – trifft weitgehend zu
3 – trifft eher zu
2 – trifft eher nicht zu
1 – trifft weitgehend nicht zu
0 – trifft gar nicht zu

Es können demnach maximal 60 Punkte erreicht werden.

IV. Programmkomitee

Chair: Georg Vogeler (Universität Graz)
Andreas Münzmay (Universität Paderborn)
Claudine Moulin (Universität Trier)
Christof Schöch (Universität Würzburg)
Anne Baillot (Centre Marc Bloch, Berlin)
Peter Gietz (DAASI international, Tübingen)
Mareike König (Deutsches Historisches Institut, Paris)
Walter Scholger (Universität Graz)
Lisa Dieckmann (Universität zu Köln)
Andreas Henrich (Universität Bamberg)
Petra Gehring (Technische Universität Darmstadt)
Lars Wieneke (Universität Luxemburg)

IV. Lokales Organisationskomitee

Jonathan Blumtritt (DCH)
Arjan Dhupia (CCeH)
Lisa Dieckmann (prometheus)
Øyvind Eide (HKI)
Franz Fischer (CCeH)
Jürgen Hermes (Spinfo)
Andreas Mertgens (CCeH)
Brigitte Mathiak (CCeH)
Claes Neuefeind (Spinfo)
Eleftheria Paliou (Archäologie)
Patrick Sahle (CCeH)
Andreas Speer (CCeH)
Agnes Thomas (CCeH)
Mona Weinle (Spinfo)
Andreas Witt (Spinfo)

Einladung zur Eröffnung des neuen Papyrus-Portals

Montag, 19. Juni 2017
18.00-20.00 Uhr
Hörsaal XII, Hauptgebäude (Lageplan)

Mit der Eröffnung des neuen Papyrus-Portals ist ein wichtiges Etappenziel bei der Umstellung der Erschließung und Edition der Kölner Papyrus-Urkunden auf digitale Verfahren erreicht worden. Die von der Nordrhein-westfälischen Akademie der Wissenschaften und Künste geförderte Digitalisierungsmaßnahme innerhalb des Langzeitvorhabens wird gemeinsam von der Arbeitsstelle für Papyrologie, Epigraphik und Numismatik und dem Cologne Center for eHumanities (CCeH) am Institut für Altertumskunde vorangetriebenen.

Neben der Präsentation des digitalen Papyrusportals und seiner Möglichkeiten durch die Papyruskustodin Priv.-Doz. Dr. Chariklea Armoni und den CCeH-Mitarbeiter Marcel Schaeben sowie zweier weiterer Vorhaben aus dem Bereich der Papyrologie wird Kustos Priv.-Doz. Dr. Gregor Staab in einer Kurzvorstellung die digitale Münzsammlung am Institut für Altertumskunde als ein weiteres digitales, in Zusammenarbeit mit der Kölner Universitätsbibliothek erfolgendes Projekt der Arbeitsstelle erläutern.

Als Gastvortragenden zu diesem erfreulich Anlass konnten wir Michael Maggen, Head of Paper Conservation Laboratory of The Israel Museum, Jerusalem gewinnen. Er wird über Heritage Imaging Solutions for the Real World sprechen.

Abgerundet wird das Ereignis durch einen kleinen Empfang.

Über Ihr Kommen würden wir uns sehr freuen.

Neues Papyrus-Portal Köln veröffentlicht

Die Papyrus-Sammlung am Institut für Altertumskunde der Universität zu Köln ist mit fast 3500 Objekten eine der größten ihrer Art. Ihr Aufbau, ihre Erschließung und die wissenschaftliche Edition der Texte wird seit 1972 von der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste im Akademienprogamm gefördert. Im Rahmen der Digitalisierungsbemühungen der Akademie kooperiert seit 2013 die Arbeitsstelle für Papyrologie mit dem CCeH, um ein nachhaltiges Datenmodell, eine virtuelle Arbeitsumgebung, eine Online-Datenbank und eine digitale Publikation der Sammlung aufzubauen. Wir freuen uns ganz besonders, nun im Mai 2017 das neue Online-Portal der Kölner Papyrussammlung präsentieren zu können.

Die Datenbank weist gegenwärtig 3462 Objekte nach, die 4254 Texte enthalten. Davon sind 840 Texte in bisher 66 Publikationsbänden veröffentlicht worden. Kern des neuen Papyrusportals sind die verfügbaren Kataloginformationen zu allen Stücken und ihre digitalen Abbildungen. Für die Zukunft tritt neben die weitere Objekterschließung auch die Bereitstellung von Transkriptionen und Editionen in den Mittelpunkt der Arbeit. Außerdem sollen die Verknüpfungen mit anderen Ressourcen der papyrologischen Forschung verbessert und weitere Projekte der Arbeitsstelle unterstützt werden.

Für die bisherige Arbeit ist ganz besonders zu danken: Prof. Jürgen Hammerstaedt (Arbeitsstellenleiter), PD Dr. Charikleia Armoni (Kustodin, fachliche Leitung), Dr. Robert Daniel (Kustode bis 2016), Natalia Vega (Katalogisierung und Erschließung), Sophie Breternitz (Restauration, Digitalisierung). Für das CCeH haben das Projekt Marcel Schaeben (technische Entwicklung), Peter Dängeli (Bildarchiv), apl.Prof. Dr. Patrick Sahle (Koordination), Ulrike Henny (Datenmodell, technisches System; 2013-2015) umgesetzt. Sie wurden dabei von Ben Bigalke (Entwicklung), Gioele Barabucci (Datenmodell) und Franz Fischer (Projektorganisation) unterstützt.