News

Arbeitstreffen zur Zitierbarkeit und Adressierbarkeit digitaler Forschungsressourcen bei den Akademien der Wissenschaften

Am 23./24. August 2016 findet am CCeH (Koordinierungsstelle Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste) das erste Arbeitstreffen einer dem Thema gewidmeten Unterarbeitgruppe der AG eHumanities der Union der deutschen Akademien der Wissenschaften statt.

Agenda: Zitierbarkeit und Adressierbarkeit digitaler Ressourcen

Voraussetzung für die wissenschaftliche Verwendung und Nachnutzung digitaler Daten und Publikationen aus den Akademieprojekten ist ihre Zitierbarkeit und Adressierbarkeit. Anders als bei gedruckten Publikationen, mit ihrem medienspezifischen Referenzsystem der bibliografischen Angaben und Seitenzahlen, besteht bei digitalen Ressourcen eine noch unentwickelte und bestenfalls hochgradig heterogene Landschaft an Technologien und Standards zur Identifikation und Prädikation digitaler Objekte.

Um die Ergebnisse der akademiegetragenen Grundlagenforschung hinsichtlich ihrer Zitierbarkeit und Adressierbarkeit möglichst einheitlich, zukunftsfähig und nachhaltig gestalten zu können, sollen in einem mehrstufigen Prozess Handreichungen zu minimalen, empfohlenen und erweiterten Vorgehensweisen im Rahmen der Akademieforschung erarbeitet werden.

Die erste Stufe bildet dabei die Erfassung des Ist-Zustandes durch die Zusammenstellung, systematische Aufarbeitung und Bewertung der derzeit in den Projekten realisierten Zitationsschemata sowie deren Typisierung, theoretische Fundierung und Bestimmung der Granularität. Auf dieser Basis können aktuelle Brennpunkte und best practice-Lösungen bestimmt und zunächst grobe Handlungsempfehlungen formuliert werden.

In den darauf folgende Stufen sollen die Handlungsempfehlungen konkretisiert sowie alternative Technologien kritisch analysiert und deren Verwendungspotenzial bestimmt werden. Für die Implementation dauerhafter Adressierungsschemata sind möglichst einfach umsetzbare Vorschläge zu machen.

Roadmap: mögliche Aufgaben und Schritte

  • Aufgabe 1: Konzeptionelle Grundlagen
    • Verfügbarkeit, Identifizierung, Wissenschaftliche Praxis
    • Typisierung digitaler Ressourcen (Text, Bild, Video, Ton, Datenbank, Software)
    • Wie werden wir forschen? Prospektive Verwendungsszenarien: Zwischen Literaturzitat und Portalintegration. Zitierbarkeit für Menschen? Adressierbarkeit für Maschinen?
  • Aufgabe 2: Grundsätzlich bestehende Ansätze und Lösungen
    • Identifikationssysteme: PURL, URN, DOI, ARK, Handle, Permalink etc.
    • Feingranulare Textadressierung: zum Beispiel CTS
    • Empfehlungen der DFG und anderer Akteure (derzeit keine Empfehlungen für Texte!)
  • Aufgabe 3: Analyse der Situation in den Akademievorhaben
    • Wo bestehen schon PID-Systeme, wo fehlen sie noch?
    • Wo gibt es bereits Pläne für laufende Vorhaben?
  • Aufgabe 4: Handlungsempfehlungen
    • Welche Lösungen für welche Projekttypen und Datenarten?
    • Mögliche externe Partner bei der Realisierung von PID-Systemen
    • Gleiche Lösungen für gleiche Problemlagen! Wie erreichen wir Konvergenz über die Einzelakademien hinweg?
  • Aufgabe 5: Begleitung der Umsetzung von PID-Lösungen in den Vorhaben und Akademien

Teilnehmer

Lecture: “The CMV+P document model”

Digitalized and born-digital documents are being changed all the time. How can we discuss changes like “rephrasing a sentence” when all the computer sees is a different string of bits? In the talk “The CMV+P document model” Dr. Gioele Barabucci (CCeH) will introduce a novel document model that allows humans and computer to compare different documents and different versions of the same document at multiple interpretative levels.

When and where

The talk will be held on the 24th of October, 11:00 in the Seminar room of the CCeH (Universitätsstraße 22).

Abstract

The CMV+P model is a layered document model that can describe any electronic document. Each document is seen a stack of layered abstraction levels, each characterized by three components: Content, Model and Variant. This layered structure allows for the co-existence of many separate and concurrent document formats. Such a structure is needed to refer with precision to parts of a changing document, as well as to identify at which of these layer a modification has been done (did I modify some bits or did a split a paragraph of text?).

“A new digital edition of St Patrick’s writings: canonical text vs manuscript transcription”, Presentation by Dr. Roman Bleier (MSC/DiXiT)

25th August 2016, 16:00h
CCeH, Seminar Room (Universitätsstraße 22)

Everybody welcome!

Abstract:

Arguably the most important sources for fifthcentury Irish history are two contemporary epistles written by St Patrick. These epistles survived in seven medieval manuscript witnesses in repositories in Ireland, England and Europe. During my PhD at Trinity College Dublin I created TEI transcriptions of the manuscripts following a documentary editing approach.
Currently, I am working as DiXiT Experienced Researcher at the Centre for Information Modelling Austrian Centre for Digital Humanities at the University of Graz on the topic Canonical reference & sustainability of digital editions. As part of my DiXiT research, I develop a new digital edition of St Patrick’s epistles based on the above mentioned TEI transcriptions. This new edition will serve as a case study for my research in canonical referencing and, at the same time, it will provide a new digital resource for the study of the versions of St Patrick’s texts from a documentary perspective.
This work-in-progress paper will briefly introduce the primary sources, the rationale for the development of the TEI transcriptions and discuss my current thoughts about possible directions for the new edition of St Patrick’s epistles.

Short biographical note:

Roman Bleier studied history and religious studies at the University of Graz. He completed a PhD in Digital Arts and Humanities (DAH) at Trinity College Dublin and works now as DiXiT Marie Curie fellow at the Centre for Information Modelling Austrian Centre for Digital Humanities, University of Graz.

“Letters 1916: Building and understanding a large corpus of correspondence” Presentation by Richard Hadden (DiXiT-Fellow)

“Letters 1916: Building and understanding a large corpus of correspondence”
Presentation by Richard Hadden (DiXiT-Fellow)

When and where

The talk will be held on July 5th 2016, 16:00 in the Seminar room of the CCeH (Universitätsstraße 22).

Abstract:

This presentation will look firstly at the work behind building the Letters of 1916 corpus, a collection of correspondence from 1915 and 1916, covering the period leading up to, and the aftermath of, the Easter Rising. As Ireland’s first “public digital humanities project”, the corpus is strongly reliant on crowd-sourced methodologies for sourcing, digitising and transcribing letters. This first section will discuss the tools and workflow employed, including automated processes for converting crowd-transcribed and marked-up text into full TEI documents.

The next section will showcase a number of letters from the corpus, highlighting above all the effects upon correspondence itself of the political situation in Ireland: the Rising is, after all, a revolution that began in a post office.

The final section looks more deeply at my own research into the corpus, asking what questions can be legitimately asked of such a large and disparate corpus over and above its obvious utility as a collection of individual texts. It will explore the many problems to be considered in the application of digital humanities
techniques such as topic modelling to a corpus of this nature.

DCHx4@FORGE2016

DCH mit 4 Beiträgen auf der FORGE2016 Tagung

Das Projekt Geisteswissenschaftliche Infrastruktur für Nachhaltigkeit (gwin) veranstaltet zum 2. mal die Konferenz

“Forschungsdaten in den Geisteswissenschaften (FORGE 2016)”
Jenseits der Daten. Nachhaltigkeit für Forschungsanwendungen und Software

vom 14. bis 16. September 2016 an der Universität Hamburg

Das DCH ist mit vier Beiträgen auf der Konferenz vertreten:

(1) Sven Bingert (HDC), Jonathan Blumtritt (DCH), Stefan Buddenbohm (HDC), Claudia Engelhardt (HDC), Simone Kronenwett (DCH), Daniel Kurzawe (HDC): “Anwendungskonservierung und die Nachhaltigkeit von Forschungsanwendungen”

(2) Jonathan Blumtritt (DCH), Brigitte Mathiak (DCH): “Consulting Workflow for Humanities Research Data”

(3) Jonathan Blumtritt (DCH), Felix Rau (Universität zu Köln), Sebastian Zimmer (CCeH): “Das Web als Plattform für wissenschaftliche Software: Erfahrungen aus der Entwicklung und Pflege einer HTML5 Anwendung”

(4) Brigitte Mathiak (DCH), Reinhard Messerschmidt (Universität zu Köln): “Contemporary challenges and future perspectives for sustainable reuse of archived textual qualitative research data”

Weitere Informationen zur Tagung finden Sie hier.

Einladung zur Online-Umfrage: Forschungsdaten an der Philosophischen Fakultät der Universität zu Köln

Das Data Center for the Humanities (DCH) führt zusammen mit dem Dekanat der Philosophischen Fakultät und der Universitäts- und Stadtbibliothek (USB) Köln eine Umfrage zu Forschungsdaten an der Philosophischen Fakultät der Universität zu Köln durch.

Das Ziel der Umfrage ist es, den aktuellen Bedarf der Philosophischen Fakultät im Bereich Forschungsdaten zu erheben.

Den Link zur Umfrage sowie alle weiteren Informationen rund um die Erhebung finden Sie hier.

Die Erhebung läuft bis zum 12. Juni 2016 und erfolgt vollständig anonym.

Wir würden uns sehr freuen, wenn Sie diese Initiative durch Ihre Teilnahme an der Befragung unterstützen.

DH-Stammtisch Cologne, 25. May 2016

The next DH-Stammtisch Köln will take place on Wednesday May 25 from 19.00 onwards (people are free to arrive later).

We will be at Haus Unkelbach: http://www.hausunkelbach.de/

Everybody interested in Digital Humanities is welcome!

“The web as a platform”, Guest lecture by Andrea Marchesini (Mozilla Foundation)

“The web as a platform”, Guest lecture by Andrea Marchesini (Mozilla Foundation)

When and where

The talk will be held on May 11th 2016, 17:00-18:30 in the Seminar room of the CCeH (Universitätsstraße 22).

Abstract

The web is in ongoing and rapid evolution. Often there is a huge gap between what browsers offer and web-developers’ knowledge, within the fields of multi-threading programming, network interception, offline management, 3d APIs, inter-context communication, hardware and networking APIs and so on. I will focus on two main issues: firstly, the reason why we should consider any web-page at the same level as an application; secondly, how browsers can offer functionalities in order to reach the complexity and performance of native apps: for instance, JIT, WebGL and multi-threading computation.
I would like to have a horizontal discussion with the DH community about HTML5 and web technologies in general, as well as a deep conversation about new standards. It would be interesting to hear more about your projects and your interests in order to create new networks and exchange ideas.

Andrea Marchesini is currently working in Mozilla platform – hacking on DOM, WebAPIs, Workers, privacy and security components.

Lecture: “The Web stack in 2016: From the original static web sites to the current bleeding-edge web technologies”

How has the Web changed since its inception? In which direction(s) is it evolving at the moment? In the talk “The Web stack in 2016: From the original static web sites to the current bleeding-edge web technologies” Dr. Gioele Barabucci (CCeH) will discuss how the Web has progressed since its early days at CERN.

When and where

The talk will be held on May 10th 2016, 14:00-16:00 in the Seminar room of the CCeH (Universitätsstraße 22).

Abstract

The talk will touch many technical details but also more general aspects of the development of the web. It will show how the Web worked originally (a simple server sending static files and a simple browser visualizing static HTML pages) and how it works now (with layers of middleware, with a lot of computation being moved into the clients via JS or NaCL, with clients being small devices with 10cm screens and with pages generated on the fly via PHP or XQuery). How did we get here? How will things evolve from this point? Does the development of the Web conflicts with the will to preserve all the data and the knowledge that flows through it?

Workshop: project data management with git

For every humanist that always wanted to know what this “git” thing is that everybody seems to be talking about these days:

On April 26., 14:00 we will have a workshop about Management of humanities research data with Git and GitHub. Everybody interested is very welcome to attend.

Topics:

– git basics: version management
– commits / merges: best practices
– collaborative editing of (XML) research data using GitHub
– Using GitHub for project management: readme, issues, wiki