Na een korte zomerpauze hebben we de draad weer opgepakt met ons project, waarmee we proberen camerabeweging als zoekterm te gebruiken. Met het oppikken van de draad hebben we vooral inhoudelijk gereflecteerd op het werk en het onderzoek dat we de afgelopen weken hebben gedaan. Op dit moment proberen we de nader te specificeren welk pad we in gaan slaan richting de uitwerking van ons initiële concept. Om dit gestructureerd te kunnen doen hebben we ons project onderverdeeld in de volgende drie werkfasen.
- Concept. Hoe maken we een tijdportaal tussen de gebruiker van onze tool in het hier en nu en de cameraman uit de video in het toen en daar?
- Redactioneel. Hoe maken we de tool en videoresultaten persoonlijker, en hoe kiezen we welke video’s mee worden genomen in de zoekresultaten?
- Presentatie. Wat wordt de vorm van de tool en hoe maken we hem beschikbaar voor een groter publiek?
We merkten al gauw dat we de eerste twee punten enigszins samen kunnen voegen: door de juiste selectie van video’s te gebruiken kunnen we al een veel sterker verband leggen tussen de realiteit en het gefilmde. De zoekopdracht die de gebruiker van onze tool straks kan maken baseren we dan ook zo veel mogelijk op de “realiteit om ons heen”: zo kan men een selectie maken gebaseerd op geolocatie, datum, tijd van het jaar, en temperatuur… Kortom: het wordt op deze manier mogelijk om op een hete zomerdag video’s uit het Beeld & Geluid archief te tonen van een soortgelijke hete dag uit het verleden. Hiervoor gebruiken we de sensorische input van de smartphone, zodat de gebruiker hier zelf geen extra stappen voor hoeft te ondernemen en dus niet verstrikt raakt in onnodige interface opties.
Originele beelden van Polygoon-Profilti – CC-BY-SA
Interpretaties van IJsberen – Superposition – CC-BY-SA
Originele beelden van Polygoon-Profilti
Over de presentatievorm van onze uiteindelijke tool hebben we op dit moment nog diverse ideeën welke wij nu aan het onderzoeken zijn . Nadat de tool de zoekresultaten terug heeft gekregen van het Beeld & Geluid archief eindigen we op dit moment met een gegenereerde kaart van de video, de oorspronkelijke video zelf en de metadata over de video. We onderzoeken dezer dagen diverse manier waarop deze drie outputs in één view gecombineerd kunnen worden.
KEMA Tracking sketches – Superposition – CC-BY-SA
Originele beelden van Polygoon-Profilti
Een andere mogelijkheid is om Virtual Reality te gebruiken, waarbij de smartphone zowel als zoekhulpmiddel en als presentatievorm wordt gebruikt.
Nog een overweging is hoe het publiek dat op dat moment niet met de smartphone bezig is toch kan zien wat de gebruiker ziet.
Een andere mogelijkheid die we willen onderzoeken is om uit onze videokaarten een fysieke sculptuur te bouwen, die vervolgens weer uitgelicht kan worden om bepaalde delen te benadrukken.
KEMA Tracking sketches – Superposition – CC-BY-SA
Originele beelden van Polygoon-Profilti
Zo zou de oorspronkelijke video afgespeeld kunnen worden, met daarnaast een geprojecteerde lijn die in de sculptuur het huidige frame aangeeft.
KEMA Tracking sketches – Superposition – CC-BY-SA
Originele beelden van Polygoon-Profilti
Header afbeelding: Originele beelden van Polygoon-Profilti – CC-BY-SA
Comments are closed.