Über die Repositories-Mailingliste der JISC wurde heute ein von eben dieser JISC im Rahmen des Research Data Spring gefördertes Projekt namens Clipper mit dem Aufruf zum Feedback gestreut. Mit dem auf den ersten Blick, nämlich dem des Demos, erfreulich überschaubar gehaltenen und auf HTML5 setzenden Werkzeugs soll es möglich sein, Bewegtbild, Tonaufnahmen und also so genannte „time-based media“ zu markieren und zu annotieren sowie die Annotationen, mit einem URI versehen, zu teilen. In der Beschreibung liest sich das folgendermaßen:
Users will be able to specify what parts of a video or audio recording to select and share in the form of ‘virtual clips’, by indicating a source, start and end time. In addition, they can associate descriptive textual annotations with each clip that are used as a basis for exploratory search across clip collections. Clips from the same, or different, video and audio files, can be combined to create a clip playlist – which we call ‘cliplists’ – that enable researchers to structure and view the data according to their coding themes. Rather than just embedding an online video or linking to one, Clipper opens up new possibilities for research data service development using time-based media.
Ein Democlip auf Youtube visualisiert das entsprechend: