Questioning models: Intersectionality in Digital Humanities, Symposium, 8-10 Nov 2017

Questioning models: Intersectionality in Digital Humanities.
Digital Editing, Literature and Gender Studies

Call for Papers

The Cologne Centre for eHumanities (CCeH) is organising a three-day symposium from the 8th to the 10th of November at the University of Cologne. The event aims at exploring intersectional approaches on textual scholarship and Digital Humanities theories, practices, and tools. A session will be dedicated to Italian and German women writers during the Renaissance. This specific case study is part of a project funded by NetEx (Network and Exchange funding programme, University of Cologne).

We welcome proposals in any area of scholarship, that pay specific attention to intersectionality, and that employ digital and collaborative approaches to the study or the editing of marginalised subjectivities and their digital modelling and representations. We encourage the submission of projects’ presentations at an advanced stage that investigate how digital technologies can re/produce, enable or restrict the construction of identities (e.g. in racialised and gendered terms).

Researchers of all levels, including students and professional practitioners, are welcome. We expect a diverse audience of textual scholars, historians, information scientists, social scientists, digital humanists, graduate students and interested members of the public. The communication language of the symposium will be English, but we are accepting proposals and papers in English, Italian and German.

Type of presentations:

– Short paper (20 minutes)
– Lightning talk (10 minutes)
– Posters

To submit a paper, please email an abstract to up to 300 words as an attachment to by 31st August, 2017.


Confirmed plenary speakers:

Barbara Bordalejo (KU Leuven)
Øyvind Eide (Universität zu Köln)
Vera Faßhauer (Goethe-Universität Frankfurt am Main)
Domitilla Olivieri (Utrecht University)
Elena Pierazzo (Université Grenoble)
Serena Sapegno (University of Rome La Sapienza)

Topics include but are not restricted to:

– Critical race, feminism, gender, queer, and disability studies in Digital Humanities
– Women writers during the Renaissance and women’s writing
– Digitization, editing, and curation of primary texts and the writing process by women and marginalized identities
– Building and analysing corpora of texts produced by or about marginalised identities
– Traditional authorship, subversive subjectivities, and challenging canonical models of scholarship
– The role of social media and new media in constructing racialised and gendered identities
– Collaborative digital research, infrastructures, methods and tools
– Representations of identities, transmedia storytelling and digital media
– Digital archives in relation to black and LGBT histories
– The challenges and implications of developing digital literary archives and online repositories of diaspora communities and marginalised identities
– Context of production: diversity in academia, publishing, library, information science, or programming
– Dissemination, accessibility,sustainability, and the challenges faced by digital projects

Important dates:

Deadline for submissions: 31st August 2017
Notification of acceptance: 15th September 2017
Symposium: Cologne (Germany), 8th-10th November 2017

‘Digital Editing and Medieval Manuscripts’ – Workshop series in collaboration with Ca’ Foscari, University of Venice

“Digital Editing and Medieval Manuscripts” is a series of three workshops organised by Ca’ Foscari, University of Venice together with the Cologne Center for eHumanities within the ERC StG Project BIFLOW seminar programme “Lingue, saperi e conflitti nell’Italia medievale”. It aims to explore the role of digital technologies in the field of medieval studies and to provide insights into current methodologies and digital tools in scholarly editing. These three workshops will introduce participants to current approaches for editing medieval manuscripts in a digital framework. During the workshops the following topics will be covered: palaeography; codicology; as well as practices and theories of digital editing, including critical apparatus, multilingualism and text-image linking.

Announcement on

I: Digital Manuscripts

3 luglio 2017 ore 9:30 – 18:00 Università Ca’ Foscari Venezia, Dipartimento di Studi Umanistici, Palazzo Malcanton Marcorà , Sala Consiglio (“Sala Grande”)

9.30 – 10.00 Welcome Antonio Montefusco, Università Ca’ Foscari Venezia

10.00 – 10.30 Franz Fischer, Cologne Center for eHumanities, Universität zu Köln

“Editing Medieval Texts: Theories, Practices, and Challenges in the Digital Age”

10.30 – 11.00 Paolo Monella, Università di Palermo
“Multi-layer textual representation of pre-modern primary sources”

11.00-11.30 Coffee break

11.30 – 12.00 Marjorie Burghart, Centre National de la Recherche Scientifique (CNRS)
“Tools and Software for Editing Medieval Texts”

12.00 – 12.30 Discussion

12.30 – 14.00 Lunch Break

14.00 – 18.00 Workshop

Alberto Campagnolo, CLIR/Library of Congress, (video conference)
“Towards a digitization of the materiality of documents”

Tiziana Mancinelli CCeH – Università Ca’ Foscari Venezia

Comitato scientifico: Antonio Montefusco, Tiziana Mancinelli

Comitato organizzatore: Sara Bischetti, Maria Conte, con la gentile collaborazione di Stefano Pezzé, Giulia Zava.

Ciclo di workshop organizzato nell’ambito del progetto BIFLOW

Bilingualism in Florentine and Tuscan Works (ca. 1260 – ca. 1416)

This project has received funding from the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (grant agreement No 637533).

‘Natural Language Understanding and AritficiaI Intelligence’, Gastvortrag von Dr. Kruchinina, 10. Juli 2017

Die Sprachliche Informationsverarbeitung lädt zu einem Gastvortrag von Dr. Ekaterina Kruchinina (Nuance) mit dem Titel “Nuance NLU and AI Research. Driving Innovations” ein. Der Vortrag wird am kommenden Montag, 10. Juli 2017, im PC-Pool (Raum 72) im Philosophicum stattfinden.


Speech Recognition, Biometrics, Text-To-Speech, Natural Language Understanding and AI are key research areas to redefine the relationship between people and technology. Nuance’s Research team is working on all of these in order to develop a more human conversation with technology. This talk will highlight a few current research topics and trends in the company. Automotive solutions in cars on the road today and others that will come out in the next few years will be used to illustrate how achievements in Natural Language Understanding and AI help to create the next generation of digital assistants.

Speaker: Dr. Ekaterina Kruchinina, NLP Research Manager at Nuance Communications

Ekaterina Kruchinina is a Research Manager in the Natural Language Understanding department at Nuance. Her principal research responsibilities are in NLU, machine learning, corpus annotation and evaluation of NLU systems. Ekaterina joined Nuance as a Senior Research Scientist in 2012. Before joining Nuance, she worked as a research associate at the JulieLab at the Friedrich-Schiller-University of Jena.  She received her Phd supervised by Prof. Dr. Udo Hahn (Friedrich-Schiller-University Jena)  and  Prof. Ted Briscoe (University of Cambridge) with a dissertation titled “Event Extraction from Biomedical Texts Using Trimmed Dependency Graphs” in 2012.  Ekaterina developed the relation extraction system JReX that was ranked second during the BioNLP 2009 Shared Task on Event Extraction (at NAACL-HLT 2009). Ekaterina has 12 years of academic and industry experience, leadership in development and application of cutting edge technology in NLP solutions for intelligent human-machine interfaces. Ekaterina speaks Russian, German, English and French. Ekaterina’s work has been featured in the article „Die Computerversteherin. Ein Job an der Schnittstelle von Mensch und Maschine“, c’t 04/2017.

Transkribus Workshop & Vortrag, 13. Juli 2017

Tobias Hodel (Zürich) wird am Donnerstag, von 14:00 bis 16:00 einen Miniworkshop zu “Transkribus” im Besprechungsraum des CCeH (Universitätsstraße 22) durchführen. Um 16 schließt sich sein Vortrag zum Projekt “READ” im DH Kolloquium (Neues Seminargebäude, Raum S14) an. Studierende und KollegInnen aus Forschung und Lehre sowie alle, die sich für aktuelle Transkriptionssoftware bzw. die Erkennung handschriftlicher Texte interessieren, sind herzlich eingeladen. Die Teilnahme ist kostenlos. Um Anmeldung per Email an wird gebeten.


Transkribus ( is a platform for the automated recognition, transcription and searching of handwritten historical documents. Transkribus is part of the EU-funded Recognition and Enrichment of Archival Documents (READ) ( project. The core mission of the READ project is to make archival material more accessible through the development and dissemination of Handwritten Text Recognition (HTR) and other cutting-edge technologies.
The workshop is aimed at institutions, researchers, and students who are interested in the transcription, searching and publishing of historical documents. It will introduce participants to the technology behind the READ project and demonstrate the Transkribus transcription platform. Transkribus can be freely downloaded. Participants should bring their laptops along to the workshop. And have (if possible) Transkribus installed.

Mit der Software Transkribus koennen historische Handschriften automatisch entschluesselt werden.

Exploring Charters online – Monasterium Summer School, Köln 12.-14. Juni 2017

Vom 12. bis zum 14. Juni 2017 findet am CCeH die erste Monasterium Summer School statt.

Ziel der Veranstaltung ist eine Einführung in die Plattform, der größten Plattform für mittelalterliche und frühneuzeitliche Urkunden online.

Während der Summer School werden sowohl Einführungen in grundlegende Nutzungs- und Arbeitsweisen geboten (Suche von Begriffen, Anzeige von Urkunden, etc.) als auch weiterführende Themen und Methoden wie das detailgenaue Beschreiben und Auszeichnen von Urkunden im MOM-CA-Editor behandelt.

Von besonderer Wichtigkeit ist hier vor allem der “Mitmach”-Effekt. So ist es ausdrücklich erwünscht, dass Teilnehmerinnen und Teilnehmer gemeinsam an eigenen oder bereitgestellten Materialien arbeiten.

Eine detaillierte Übersicht über Ablauf und Themen bietet das hier als Download bereitgestellte Programm.

Für Anmeldungen oder Fragen wenden Sie sich bitte an:

Cologne Center for eHumanities
Universitätsstraße 22 (Dachgeschoss, rechts)
50937 Köln

DHd 2018, Kritik der digitalen Vernunft, 26.2.-2.3. in Köln

Die 5. Jahrestagung der “Digital Humanities im deutschsprachigen Raum” wird vom 26. Februar bis zum 2. März 2018 von der Universität zu Köln ausgerichtet. Das Thema lautet “Kritik der Digitalen Vernunft”.

Call for Papers

I. Allgemein

Die Digital Humanities werden häufig als digital transformierte Bearbeitung von Fragestellungen aus den verschiedenen beteiligten Fächern beschrieben. Daneben entsteht der Eindruck, dass die DH in weiten Teilen eine daten-, algorithmen- und werkzeuggetriebene Wissenschaft sei, die von ihren unmittelbaren Möglichkeiten und ihren Praktiken dominiert sei. Wie lässt sich dies aber mit dem kritischen Anspruch der Geisteswissenschaften vereinbaren? Gibt es im Umgang mit digitalen Medien, in der Modellierung, Operationalisierung und Formalisierung der Arbeit mit Computern implizite, stillschweigend akzeptierte Agenden, die einer Reflexion durch einen „Intellectual Criticism“ bedürfen? Die Tagung soll den Fokus auf die kritische Dimension digitaler Forschung richten und damit Denkanstöße zu Theoriebildung und Epistemologie der digitalen Forschung geben. In diesem Rahmen sollen auch gesellschaftliche, soziale und politische Dimensionen der in allen Bereichen wirksamen Digitalisierungsprozesse unter so heterogenen Begriffen wie Interaktionsformen, Partizipation, Bildung, Digital Literacy sowie Auswirkungen und Rückwirkungen der Digitalität auf Wissenschaft und Gesellschaft diskutiert werden.

Im Rahmen der Tagung sollen daher unter anderem folgende Fragen verfolgt werden:

– Kritik der Digitalisierung – Formate, Standards und Praktiken
– Kritik digitaler Angebote, Projekte und Werkzeuge
– Kritik der digitalen Methoden
– Kritik der digitalen Geisteswissenschaften (traditionelle Fächer und DH)
– Kritik der digitalen Wissenschaftstheorie
– Kritik der digitalen Gesellschaft

Darüber hinaus sind Vorträge zu allgemeinen Themen aus dem Bereich der DH sowie die Diskussion von positiven und negativen, eigenen und fremden Projektergebnissen willkommen.

II. Formales

Es können eingereicht werden:

– Poster (Abstract von mindestens 500, maximal 750 Wörtern).
– Vorträge (Abstract von mindestens 1200, maximal 1500 Wörtern).
– Panels (minimal drei, maximal sechs Teilnehmerinnen und Teilnehmer, ein Abstract von mindestens 1200, maximal 1500 Wörtern).
– Vor der Konferenz stattfindende Workshops (Vorschlag von mindestens 1200, maximal 1500 Wörtern).

Für die Einreichung eines Abstracts müssen Sie sich unter der folgenden Adresse registrieren:

Weitere Instruktionen finden Sie auf der Konferenz-Webseite:

Rückfragen richten Sie bitte per Email an die folgende Adresse:

Die Frist für die Einreichung von Beiträgen läuft am 18.09.2017 ab. Eine Benachrichtigung darüber, ob der Beitrag angenommen wurde, wird bis spätestens 30.11.2017 versandt.

Die primäre Sprache der Veranstaltung ist Deutsch. Abstracts werden bevorzugt auf Deutsch eingereicht. Wird das Abstract in einer anderen Sprache eingereicht, so kann eine Übersetzung ins Deutsche beigefügt werden. In diesem Fall entscheiden die Einreichenden über die zu begutachtende Fassung.

In der Regel wird erwartet, dass von einem Verfasser/einer Verfasserin/einer Projektgruppe nur ein Poster oder Vortrag eingereicht wird. Eine Beteiligung von Beitragenden darüber hinaus an maximal einem Panel oder Workshop ist jedoch möglich.

1) Posterpräsentationen
Poster (Abstracts: mindestens 500, maximal 750 Wörter) können zu jedem Thema des Call for Papers eingereicht werden. Sie können auch den Stand einzelner Projekte anschaulich beschreiben oder Software demonstrieren.

2) Vorträge
Vorträge (Abstracts: mindestens 1200, maximal 1500 Wörter) stellen unveröffentlichte Ergebnisse dar, und/oder berichten über die Entwicklung von signifikanten neuen Methoden oder digitalen Ressourcen und/oder stellen ein methodischesbzw. theoretisches Konzept vor. Für die einzelnen Vorträge sind 20 Minuten Präsentationszeit und zehn Minuten für Fragen vorgesehen. Es wird erwartet, dass im Abstract zumindest signifikante Zwischenergebnisse vorgelegt werden. Vortragsvorschläge sollten den Forschungsbeitrag in geeigneter Weise auf dem Hintergrund des Forschungsstands kontextualisieren und seine Bedeutung für die (digitalen) Geisteswissenschaften oder einen jeweiligen Teilbereich deutlich machen. Ein Literaturverzeichnis ist beizufügen. Für die Ankündigung von Vorhaben, zu denen noch keine Zwischenergebnisse vorliegen, ist das Posterformat vorgesehen.

3) Panels
Panels bieten drei bis sechs Teilnehmerinnen und Teilnehmern die Möglichkeit ein Thema auf der Basis einleitender Kurzvorträge zu diskutieren. In der Regel wird erwartet, dass von der 90-minütigen Sitzung je ein Drittel auf die vorbereiteten Statements, die Diskussion innerhalb des Panels und die Diskussion des Panels mit dem Publikum entfällt. Die Panel-Organisatorinnen und Organisatoren reichen eine kurze Beschreibung des Themas im Umfang von mindestens 1200, maximal 1500 Wörtern ein und bestätigen die Bereitschaft der aufgeführten Personen, am Panel teilzunehmen. Für die Annahme eines Panelvorschlags ist die stringente Darlegung des thematischen bzw. methodischen Zusammenhangs der Einzelbeiträge von entscheidender Bedeutung.

4) Vor der Konferenz stattfindende Workshops
Die Vorschläge sollten die folgenden Informationen enthalten:
Titel und eine kurze Beschreibung des Themas (mindestens 1200, maximal 1500 Wörter). Die vollständigen Kontaktdaten aller Beitragenden sowie einen Absatz zu deren Forschungsinteressen.
Die Zahl der möglichen Teilnehmerinnen und Teilnehmer.
Angaben zu einer etwa benötigten technischen Ausstattung. Den Workshop spezifischen Call for Papers, falls ein solcher veröffentlicht wird. Workshops dauern einen halben Tag. Von den Workshopleiterinnen und -leitern wird erwartet, dass sie sich für die Konferenz anmelden.

III. Bewertung der Beiträge

Ein gutes Proposal beschreibt das gestellte Forschungsproblem, bezieht sich auf den aktuellen Forschungsstand, beschreibt die angewendete Methode und benennt das Ergebnis der Forschungen.

In der Begutachtung werden die folgenden Bewertungskriterien angelegt:
– Allgemeine Empfehlung zur Annahme (4-fach gewertet)
– Es handelt sich um einen innovativen Beitrag zum Gegenstandsbereich der DH (3-fach gewertet)
– Der Stand der Forschung ist hinreichend dargestellt (u.a. Bibliographie) (2-fach gewertet)
– Die Forschungsmethodik ist verständlich beschrieben (2-fach gewertet)
– Das Abstract ist verständlich formuliert (1-fach gewertet)

Bewertungsskala (Punkte):
5 – trifft völlig zu
4 – trifft weitgehend zu
3 – trifft eher zu
2 – trifft eher nicht zu
1 – trifft weitgehend nicht zu
0 – trifft gar nicht zu

Es können demnach maximal 60 Punkte erreicht werden.

IV. Programmkomitee

Chair: Georg Vogeler (Universität Graz)
Andreas Münzmay (Universität Paderborn)
Claudine Moulin (Universität Trier)
Christof Schöch (Universität Würzburg)
Anne Baillot (Centre Marc Bloch, Berlin)
Peter Gietz (DAASI international, Tübingen)
Mareike König (Deutsches Historisches Institut, Paris)
Walter Scholger (Universität Graz)
Lisa Dieckmann (Universität zu Köln)
Andreas Henrich (Universität Bamberg)
Petra Gehring (Technische Universität Darmstadt)
Lars Wieneke (Universität Luxemburg)

IV. Lokales Organisationskomitee

Jonathan Blumtritt (DCH)
Arjan Dhupia (CCeH)
Lisa Dieckmann (prometheus)
Øyvind Eide (HKI)
Franz Fischer (CCeH)
Jürgen Hermes (Spinfo)
Andreas Mertgens (CCeH)
Brigitte Mathiak (CCeH)
Claes Neuefeind (Spinfo)
Eleftheria Paliou (Archäologie)
Patrick Sahle (CCeH)
Andreas Speer (CCeH)
Agnes Thomas (CCeH)
Mona Weinle (Spinfo)
Andreas Witt (Spinfo)

Workshop “Topic Modeling”

Workshop “Topic Modeling”

Ulrike Henny ( und
Christof Schöch (

CCeH, Universität zu Köln, in Kooperation mit DiXiT

Termin: 9.12.2016 von 9:00-17:30, Besprechungsraum des CCeH (Universitätsstraße 22, Dachgeschoss rechts)


Topic Modeling ist eine quantitative Methode der Textanalyse, die zum Ziel hat, einen Zugriff auf (im weitesten Sinne) inhaltliche Muster in umfangreichen Textsammlungen anzubieten. Um Topic Modeling mit eigenen Textdaten durchzuführen, sind drei wesentliche Schritte notwendig: Erstens das Vorbereiten der Texte und Metadaten für die Analyse; zweitens der eigentliche Vorgang des Topic Modelings, d.h. der Extraktion von Struktur in den Daten; und drittens die Aufbereitung und Visualisierung des Modells in einer Form, die eine Interpretation der Ergebnisse erlaubt. Ziel des Workshops “Topic Modeling” ist es, die TeilnehmerInnen in die Lage zu versetzen, den vollständigen Arbeitsablauf für das Topic Modeling am eigenen Rechner und mit eigenen Textdaten durchzuführen.

Vorbereitung und praktische Voraussetzungen:

Wir empfehlen die vorbereitende Lektüre des folgenden Beitrags zu den Grundlagen von Topic Modeling:
David Blei, “Probabilistic Topic Models”, 2012:

Wir bitten alle TeilnehmerInnen, ihren eigenen Laptop mitzubringen und vor der Veranstaltung Python3 (aktuelle Version, mindestens aber 3.4) einschließlich der Pakete numpy, pandas, matplotlib, scipy, seaborn und wordcloud zu installieren. Bei Problemen mit der Installation bitten wir darum, uns vorab zu kontaktieren. Programmierkenntnisse sind hilfreich, aber nicht erforderlich. Wir werden vorbereitete Textsammlungen in verschiedenen Sprachen für die Durchführung des Topic Modeling anbieten, bei Interesse können die TeilneherInnen auch mit eigenen Daten arbeiten.
Benötigt werden möglichst viele Dokumente im Volltext (einfache Textdateien) und Metadaten zu den Texten in tabellarischer Form (z. B. im Format CSV) mit Angaben wie ID des Textes, AutorIn, Erstellungsjahr, usw., je nach Erkenntnisinteresse.



09:00-10:30: Vorstellungsrunde, inhaltliche Einführung, Installation

10:30-11:00: Kaffeepause

11:00-13:00: Workflow I: Preprocessing & Topic Modeling

13:00-14:00: Mittagspause

14:00-15:30: Workflow II: Visualisierung

15:30-16:00: Kaffeepause

16:00-17:30: Diskussion von Ergebnissen & Ausblick

etwa 17:30: Ende der Veranstaltung

Teilnehmerzahl ist begrenzt
Anmeldungen und Rückfragen an

Internationaler Open Access Workshop

Open Access and Open Data in Language Research and Documentation: Opportunities and Challenges

SOAS World Languages Institute in collaboration with the Cologne Center for eHumanities and the University and City Library of Cologne is running the international workshop Open Access and Open Data in Language Research and Documentation: Opportunities and Challenges in Cologne, Germany from October 10-12, 2016.

Open Access, unrestricted online access to publicly funded peer-reviewed publications, has become a major movement in the academic world over the past decade. While Open Access to publications is generally supported, the call for access to the primary materials — the data on which the publications are based — is contested and sometimes hotly debated, especially in the documentation of endangered languages. At the same time, best practice in scientific conduct and sharing of data are basic academic principles.

Funded by the Volkswagen Stiftung the workshop is bringing together researchers, archivists, speakers, users, funders and research institutions from different geographical areas to discuss key issues in evaluating challenges and opportunities and provide practical solutions to Open Access/Open Data of primary documentation materials. UNESCO’s Universal Access and Preservation Section, Information Society Division, Communication and Information Sector is partnering to support policy development in the sector and to provide practical teaching materials.

Conference organizers:

Mandana Seyfeddinipur, Ph.D., School of Oriental and African Studies, University of London, Endangered Languages Documentation Programme

PD Dr. Sebastian Drude, Universiteit Utrecht, CLARIN

Apl. Prof. Dr. Patrick Sahle, Cologne Center for eHumanities, University of Cologne

Dr. Hubertus Neuhausen, University and City Library of Cologne, University of Cologne

Workshop participation by invitation only.

More information can be found here

RTI refresher course by Dr Kathryn E. Piquette

Dr Kathryn E. Piquette (University College London) will hold a Refresher Course on Reflectance Transformation Imaging (RTI), an advanced imaging technique for the documentation and research of cultural heritage.

The course will take place at the University of Cologne on 7 – 9 September.

Dr. Kathryn E. Piquette

Dr. Piquette has been practicing dome-based RTI and Highlight RTI (H-RTI) for over four years on a wide array of artefacts and other material surface types in museum collections around the world, as well as in a variety of field contexts. Her currently work revolves around the Magica Levantina project ( and the development of Infrared RTI for the Herculaneum papyri. She received training in RTI techniques from Cultural Heritage Imaging (CHI) and bases her course on their 4-day training. For more information on the trainings, services and resources offered by CHI, visit:

Arbeitstreffen zur Zitierbarkeit und Adressierbarkeit digitaler Forschungsressourcen bei den Akademien der Wissenschaften

Am 23./24. August 2016 findet am CCeH (Koordinierungsstelle Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste) das erste Arbeitstreffen einer dem Thema gewidmeten Unterarbeitgruppe der AG eHumanities der Union der deutschen Akademien der Wissenschaften statt.

Agenda: Zitierbarkeit und Adressierbarkeit digitaler Ressourcen

Voraussetzung für die wissenschaftliche Verwendung und Nachnutzung digitaler Daten und Publikationen aus den Akademieprojekten ist ihre Zitierbarkeit und Adressierbarkeit. Anders als bei gedruckten Publikationen, mit ihrem medienspezifischen Referenzsystem der bibliografischen Angaben und Seitenzahlen, besteht bei digitalen Ressourcen eine noch unentwickelte und bestenfalls hochgradig heterogene Landschaft an Technologien und Standards zur Identifikation und Prädikation digitaler Objekte.

Um die Ergebnisse der akademiegetragenen Grundlagenforschung hinsichtlich ihrer Zitierbarkeit und Adressierbarkeit möglichst einheitlich, zukunftsfähig und nachhaltig gestalten zu können, sollen in einem mehrstufigen Prozess Handreichungen zu minimalen, empfohlenen und erweiterten Vorgehensweisen im Rahmen der Akademieforschung erarbeitet werden.

Die erste Stufe bildet dabei die Erfassung des Ist-Zustandes durch die Zusammenstellung, systematische Aufarbeitung und Bewertung der derzeit in den Projekten realisierten Zitationsschemata sowie deren Typisierung, theoretische Fundierung und Bestimmung der Granularität. Auf dieser Basis können aktuelle Brennpunkte und best practice-Lösungen bestimmt und zunächst grobe Handlungsempfehlungen formuliert werden.

In den darauf folgende Stufen sollen die Handlungsempfehlungen konkretisiert sowie alternative Technologien kritisch analysiert und deren Verwendungspotenzial bestimmt werden. Für die Implementation dauerhafter Adressierungsschemata sind möglichst einfach umsetzbare Vorschläge zu machen.

Roadmap: mögliche Aufgaben und Schritte

  • Aufgabe 1: Konzeptionelle Grundlagen
    • Verfügbarkeit, Identifizierung, Wissenschaftliche Praxis
    • Typisierung digitaler Ressourcen (Text, Bild, Video, Ton, Datenbank, Software)
    • Wie werden wir forschen? Prospektive Verwendungsszenarien: Zwischen Literaturzitat und Portalintegration. Zitierbarkeit für Menschen? Adressierbarkeit für Maschinen?
  • Aufgabe 2: Grundsätzlich bestehende Ansätze und Lösungen
    • Identifikationssysteme: PURL, URN, DOI, ARK, Handle, Permalink etc.
    • Feingranulare Textadressierung: zum Beispiel CTS
    • Empfehlungen der DFG und anderer Akteure (derzeit keine Empfehlungen für Texte!)
  • Aufgabe 3: Analyse der Situation in den Akademievorhaben
    • Wo bestehen schon PID-Systeme, wo fehlen sie noch?
    • Wo gibt es bereits Pläne für laufende Vorhaben?
  • Aufgabe 4: Handlungsempfehlungen
    • Welche Lösungen für welche Projekttypen und Datenarten?
    • Mögliche externe Partner bei der Realisierung von PID-Systemen
    • Gleiche Lösungen für gleiche Problemlagen! Wie erreichen wir Konvergenz über die Einzelakademien hinweg?
  • Aufgabe 5: Begleitung der Umsetzung von PID-Lösungen in den Vorhaben und Akademien