Der Themenkomplex "Linked Open Data" hat in den letzten zwei Jahren auch in der Bibliothekswelt große Aufmerksamkeit erlangt. Dieser Workshop soll zum einen grundlegend in die dahinterliegenden Technologien einführen, zum anderen aber auch die sich daraus ergebenden rechtlichen Fragestellungen beleuchten. Nach einer Einführung in das Linked-Data-Konzept, das RDF-Modell, Ontologien und SKOS sowie geeignete Open-Data-Lizenzen sollen die Teilnehmer das erlangte Wissen praktisch anwenden. Dazu werden sie Beschreibungen ihrer selbst anhand der weit verbreiteten FOAF-Ontologie erstellen. Diese Beschreibung soll auch nach Linked-Data-Prinzipien mit einer Open-Data-Lizenz verknüpft werden, um eine maschinenlesbare Lizenzierung zu implementieren.
In den letzten Jahren hat die Bereitstellung von Informationen als Linked Open Data in RDF beständig zugenommen. Gleichwohl kann die Frage nach dem Nutzen der Bereitstellung oft nicht überzeugend beantwortet werden. Es ist zu bezweifeln, dass dies durch eine "Killeranwendung" geschehen wird, die eindrucksvoll die Weiterentwicklung des World Wide Web demonstriert. Stattdessen lassen sich mit überschaubarem Aufwand bereits jetzt eigene Anwendungen entwickeln, die RDF und Linked Open Data nutzen, ohne diese Techniken als Selbstzweck in den Mittelpunkt zu stellen.
Im Workshop soll der Weg von der Idee zu einer eigenen Anwendung basierend auf vorhandenen RDF-Daten gezeigt werden. Der Schwerpunkt liegt dabei weniger auf der Zusammenführung und Auswertung großer Datenmengen ("Big Data"), sondern auf kleinen, spezialisierten Anwendungen ("Long Tail"), wie sie in Bibliotheken und anderen Einrichtungen regelmäßig benötigt werden.
Der Workshop richtet sich vorrangig an Entwickler und andere Interessierte mit rudimentären Programmierkenntnissen und/oder Kenntnissen in HTML/CSS. Mit Hilfe eines an der Verbundzentrale des GBV entwickeltes Framework zur einfachen Entwicklung von RDF-basierten Webanwendungen, sollen die Teilnehmer am Ende des Workshops in der Lage sein, eigene Anwendungen zu entwickeln, die RDF-Daten aus verschiedenen Quellen zusammenführen und diese für Endnutzer aufbereitet darstellen. Gemeinsam werden wir diskutieren, welche Hürden dabei überwunden werden müssen und welche Möglichkeiten es für die Weiterentwicklung gibt. Die praktischen Übungen werden in kleinen Teams stattfinden.
This session will introduce two recent technologies that are relevant to
making scholarly and cultural heritage collections accessible and usable:
(1) Conceptually, the
Memento framework
introduces the time dimension that has been missing from the Web. Technically,
it achieves this by introducing content negotiation in the time dimension
for resources that have HTTP URIs. This allows seamless, protocol-based
access to prior representations of a resource, given its URI and a desired time.
Memento also yields an HTTP-based resource versioning approach that offers
attractive temporal navigation features for Web resources, and that is truly
powerful for leveraging Linked Data that changes over time. Memento is
already catching on in the Web Archiving community, and an RFC is in the making
to support broad adoption.
(2)
Open Annotation
specifies a
Web-centric approach aimed at annotating resources and sharing annotations
across the boundaries of content collections and annotation clients. When it
comes to modeling and representing annotations, Open Annotation is inspired
by the W3C Annotea project. But it differs in its approach to share
annotations, relying on a publish/discover paradigm that is aligned with
Linked Data practices rather than on a client-server protocol as was
the case with Annotea. Open Annotation's requirements gathering has focused
on - sometimes complex - eHumanities use cases, but broad applicability has
remained a priority throughout the effort.
Im DFG-Projekt eco4r "Exposing Compound Objects for Repositories" wurde ein konkretes Anwendungsszenario prototypisch umgesetzt. Komplexe Publikationen werden aus produktiven Repository-Umgebungen der Projektpartner (hbz NRW und Universitätsbibliothek Bielefeld) so aggregiert und visualisiert, dass die verteilt vorliegenden Publikationen unter neuen (z.B. fachspezifischen) Kriterien zusammengestellt werden. Es entsteht ein sogenanntes Overlay Journal. Neben dem Austausch komplexer Informationseinheiten über Systemgrenzen hinweg, werden auch Aspekte der Langzeitarchivierung betrachtet.
Nach einer kurzen Einführungsphase rund um das Thema von komplexen Informationsobjekten in Repository-Umgebungen wird das Hauptaugenmerk auf die praktischen Anwendungen gelegt. Die Teilnehmer werden von der Installation und Konfiguration bis hin zur Nutzung der wichtigsten im Projekt entwickelten Module (OAI-ORE Repository-Plugins für OPUS und Fedora, Exportschnittstellen, Triplestore, Metadatenanreicherung etc. ) begleitet.
Das vorläufige Workshopprogramm sieht folgendermaßen aus: