Narrative Clip – en spännande teori som inte riktigt når praktiskt värde

narrative

Efter lång väntan kom slutligen Narrative Clip. Eller Memoto som den hette innan. En minst sagt luxuös Appleinspirerad ask och en liten svart plastig pryl. Upphaussad av mig och många andra under de år som det tagit sen vi på Kickstarter en förmiddag valde att backa Martins nya lifelogging-projekt.

I våra trendföreläsningar noterar @sa_na_si och jag att wearable tech är en stark trend kommande år (läs gärna min trendspaning) – och det är knappast någon högoddsare. Det intressanta ligger i att fundera över hur wearables eller wearable tech också kan delas upp i två undergrupper:

  • information layer respektive
  • lifelogging.

Det senare kan sedan också delas upp i

  • data vs
  • innehåll.

Om Jawbone UP och dess motsvarigheter handlar om wearable tech/lifelogging/data så är Google Glass wearable tech/information layer/innehåll. Narrative Clip skulle jag påstå är wearable tech/lifelogging/innehåll.

För det är en kamera man har på sig. Den tar bilder två gånger i minuten tills man lägger den mörkt – eller batteriet ligger runt 10%. För det är en av de första sakerna jag märker när jag några dagar använt Narrative Clip: batteriet tar slut mycket fortare än tänkt. Att man skulle kunna ha den igång de två dagar som minnet räcker tvivlar jag på. Den lägger av att ta bilder så fort den går ner mot 20 %. Det är riktigt irriterande. Generellt upplever jag att jag har dålig kontroll över om den fungerar alls.

För just att inte riktigt veta är en av de stora problemen för flera av de wearable tech-gadgets som finns. De bygger inte på realtid utan måste hela tiden hanteras av mobilen, datorn eller paddan. Det börjar dyka upp blåtandsbaserade kopplingar men generellt finns det ett gap mellan wearable tech och den starka trend, eller beteendet runt realtidsuppdateringar.

Med Narrative Clip blir det påtagligt då det handlar om bilder: jag vill kunna kolla upp bilder enklare och snabbare. Tänk scenariot att jag varit på stan, träffat en vän och vill berätta det på Twitter. Jag har min Narrative Clip på mig och det vore trevligt att inte bara säga ”Så oerhört kul att träffa @minvän på stan. Hen verkar må så bra!” utan också kunna posta en bild direkt. Det går inte.

Det är en sak som jag reagerar mycket mot faktiskt: att Narrative Clip är helt beroende av datorn. I en tid där fler och fler använder mobila plattformar till största delen av livet så släpps en wearable tech som är beroende av datorn. För du behöver koppla in NC i datorn via medföljande USB-sladden, och via Narrative Uploader (installationsvägarna ska vi tala om sen) laddas bilderna först ner till hårddisken för att sedan via datorns uppkoppling laddas upp till Narratives servrar. Förstår behovet av att ha en mellanlagring men det innebär att Narrative kräver en hel del planering och tid innan man kan göra något med bilderna. Följaktligen – om jag vill ha en bild med i min tweet om mitt möte med min kompis så måste jag vänta. Vänta tills jag kommit till en dator, vänta tills allt laddats ner till hårddisken, laddats upp till servrarna. Och sedan vänta på att servrarna ska skapa sk Moments i min användare.

Och sen – kommer jag åt mina bilder via min Iphone i Narrative-appen – men då väldigt instängt i den: att göra något intressant med bilderna kräver nedladdning till Bilder och om jag vill ha dem till datorn att jag synkar ner bilderna via Icloud eller Dropbox.

Det här handlar om mellan 5-30 minuter beroende på lastning, uppkoppling mm.

Nåväl.

Narrative Clip (eller fr a Memoto under tiden de flesta bara hade hört pitchen) är kanske den viktigaste och mest intressanta idén när det gäller wearable tech, just då den inte ”lifeloggar” det jag själv gör (springer, sover, äter) utan lika mycket omvärlden. Eller i varje fall är tanken det. Lifelogging med Narrative Clip är tanken att berätta om min vardag men lika mycket om alla andras vardag som kommer i ”skottlinjen”. Det är som tanke spännande – och självklart ger det upphov till många diskussioner. Jag har ännu inte mött någon som varit oerhört negativ men indikationerna är där. ”Va, hade du den på dig? Det såg jag inte. Varför sa du inget?”.

Samtidigt kan man lugnt säga att alla som är oerhört oroade över ”spionkamera”-tanken kan vara ganska lugna. Och praktiskt är jag inte helt övertygad om att Narrative Clip loggar mitt liv speciellt bra. Problemet ligger i att den helt enkelt inte tar tillräckligt bra bilder, att placeringen av den är oerhört svår för att få något som är intressant att titta på. De dagar jag har använt den så är det få personer som lyckats fastna på bilderna, och då ofta i väldigt avkapade versioner. Objektivet och ljuskänsligheten är inte fullt så bra att det, i min vardag, blir speciellt bra bilder. Värdet i de bilder som tas är därmed väldigt lågt. Användbarheten nästan noll.

Och mängden bilder, och att man hela tiden har bilder av det man gör innebär möjligen att man inser att man har ett oerhört tråkigt liv. Jag tror helt enkelt att Narrative Clip på många sätt gör att vi kan få en lite annan bild av visuell storytelling. Och av att ta bilder för att berätta vad vi gör (läs gärna min text om vårt nya sätt att ta bilder) så handlar det alltid om att vi curaterar vår verklighet. Narrative Clip fäster hela vår verklighet på bild men vi har ingen kontroll över det. Förutom att bildkvaliteten sällan når den höjd som gör att det är värt att dela dem så bygger bilderna på en sån extrem dokumentär berättelse att de tenderar att bli ointressanta. Lärdomen av det här är att varje visuell story kräver någon sorts revidering av verkligheten, vinkel och tanke bakom bilden. Även om den inte ens alltid är medveten så innebär varje manuellt tagen bild en aktiv form av val och vinkel för det man vill berätta med den. Narrative Clip är fullkomligt objektiv i det fallet – valen blir att i efterhand välja den bild som bäst visar det man vill berätta.

Det för oss självklart till appen. Förutom att jag reagerar mot NCs totala beroende av en dator så känns det bakvänt att sedan behöva använda Iphonen. UX i appen är rätt ok men det är en hel del saker som är märkliga och jag upplever att jag saknar snabbheten i att hitta de bästa bilderna. Tror det finns utvecklingsmöjligheter i det hela. Plus att jag saknar användande av geotaggningen i appen och flera andra möjliga filtreringsvarianter. Tid är inte alltid den bästa även om lifelogging tenderar att bygga på det.

Det här inser jag också delvis påverkar vilka bilder jag väljer att dela. Om jag någon gång tar en bild med Iphone på en grupp personer så ser alla det, de kan ifrågasätta mitt handlande eller tycka det är kul. Eller inte bry sig. Men de har fått någon sorts medvetenhet om det. De personer som fastnar på Narrative Clip-bilder vet inte om det. De är väldigt dokumentära – och för min del innebär det en väldigt mycket högre tröskel att publicera bilder på personer eftersom jag själv är medveten om att de inte vet om att de blivit fotograferade. På samma sätt skulle jag ha svårt att utnyttja den i samband med att man är på besök hos folk mm.

Jag har haft den i några dagar – självklart kommer det finnas tillfällen där Narrative Clip fungerar precis som det är tänkt och kanske kommer den vara riktigt nyttig. Problemet är att jag inte är säker på att jag kommer att bry mig om att använda den tillräckligt länge för att den ska få ett sånt värde. Idag är det ett mycket lågt värde i Narrative Clip. Bilderna för dåliga, den är för svår att använda både som kamera och i att få fram bilderna: trösklarna är för höga. Plus att det som visserligen är en av de intressanta aspekterna på det: ambiensen och den råa extrema dokumentäraktigheten samtidigt skapar problem i att publicera – och därmed få ett värde av bilderna.

Det jag kommer att använda den till är självklart i föreläsningar. Precis som att både Sarah och jag använder varsitt Jawbone UP så handlar det här om att testa saker vi faktiskt pratar om. Diskussionen om storytelling och curatering har en pendang i att konstant kunna dokumentera sin egen vardag med NC. Men jag ser idag nästan ingen meningsfull användning av den för exempelvis ett företag. Det är lite synd men kanske inte heller konstigt: vi är så oerhört tidigt i utvecklingen av såväl wearable tech liksom att den data respektive det innehåll som de producerar måste vänta in både inställningen hos oss som användare och iakttagare, liksom upplevelser av personlig integritetskränkning mm.

Andra om Narrativeclip:

The Next Web, Slashgear, Financial Times Tech Blog, Huff Post, Wired, Fast Company, Computer Sweden, Metro, Liora Hess, Mobile Syrup, Davidsson.

Kolla in #narrativeclip på Twitter och på Instagram.

 

  • Pingback: HACKERNYTT.se - dagliga nyheter för dig som bygger framtiden()

  • Pingback: Uppackning av Narrative Clip – Life Logging Camera | Business by web()

  • Jonathan

    Tack för recensionen! Har hållt ett öga på Narrativeclip och varit lite småsugen på att lägga en beställning men proceduren du beskriver får mig att tappa suget.

    Hade definitivt varit smidigare om den hade kunnat skicka ut bilder direkt till Twitter/Facebook/Instagram 1 gång i timmen eller liknande. Att manuellt behöva göra detta känns inte så 2014.

    Men tills dess att dessa funktioner finns så väntar jag nog med min beställning.

  • Det vore en riktigt korkad funktion. Dels handlar det om mängder av bilder, dels är de sällan speciellt bra – och fr a så vill du garanterat att vissa bilder inte går ut. Så automatik vore dumt. Själv har jag börjat att plocka upp bilderna i Ipad och då blir de större och enklare att välja mellan.

  • Jonathan

    Tror det måste vara automatik för att det ska skapa något värde – iallafall ur min synvinkel. Bilder som bara sparas ner i en hårddisk blir det sällan något av, speciellt om det är en himla massa bilder. Givetvis så borde det inte gå ut en bild varannan minut men en/två/tre per dag vore schysst och ge en rolig inblick i varje persons vardag på t.e.x instagram. I de lägena som man kanske inte vill att bilder ska gå ut så borde man kunna pausa delningen t.e.x via appen.

    Men med faktumet att varken någon av dessa funktioner inte verkar finnas idag så blir det bara ett administrativ arbete att lägga upp. Och vem har tid med det 2014? :-)

  • Inget sparas ner på hårddisken utan upp i Narrativeclip-molnet. Det är 2400 bilder på två dygn så det finns inte mycket mening att spara allt.

    Grejen är att Narrativeclip är en Kickstarter-produkt – den är inte på långa vägar klar men den (nästan) första i sitt slag; och det intressanta är snarare tanken på lifecasting än dess reella användning.

    Problemet är helt enkelt att även två – tre bilder snabbt skulle bli meningslöst. Generellt kan jag säga att i mitt fall finns det typ 15000 bilder på en datorskärm…