Über die Repositories-Mailingliste der JISC wurde heute ein von eben dieser JISC im Rahmen des Research Data Spring gefördertes Projekt namens Clipper mit dem Aufruf zum Feedback gestreut. Mit dem auf den ersten Blick, nämlich dem des Demos, erfreulich überschaubar gehaltenen und auf HTML5 setzenden Werkzeugs soll es möglich sein, Bewegtbild, Tonaufnahmen und also so genannte „time-based media“ zu markieren und zu annotieren sowie die Annotationen, mit einem URI versehen, zu teilen. In der Beschreibung liest sich das folgendermaßen:
Users will be able to specify what parts of a video or audio recording to select and share in the form of ‘virtual clips’, by indicating a source, start and end time. In addition, they can associate descriptive textual annotations with each clip that are used as a basis for exploratory search across clip collections. Clips from the same, or different, video and audio files, can be combined to create a clip playlist – which we call ‘cliplists’ – that enable researchers to structure and view the data according to their coding themes. Rather than just embedding an online video or linking to one, Clipper opens up new possibilities for research data service development using time-based media.
Ein Democlip auf Youtube visualisiert das entsprechend:
Das Potential einer derartigen Lösung ist nicht nur für die Film- und Medienwissenschaft sondern vielleicht sogar für eine auf YouTube referenzierende Social Annotation sofort einsichtig. Dass es als Open-Source-Anwendung vorliegen wird, macht es nur noch sympathischer und entsprechende Erweiterungen wahrscheinlicher. Da das Werkzeug jedoch noch in Entwicklung ist, kann man aktuell nicht allzu viel mehr dazu sagen. Aber vielleicht ergänzen, dass der hinter dem Projekt stehende John Casey auch die Stärken des Mediums Papier in einer Weise zu würdigen versteht, der wir uns aus eigener Erfahrung gern anschließen.