Vem ska tämja internet?

Idag recenserar jag Andrew Keens nya bok, Internet är inte svaret i DN; inleder så här: “I webbens barndom gjorde science fictionförfattaren William Gibson prognosen att framtiden redan är här – ”den är bara inte särskilt jämt fördelad”. Det är en stilig oneliner, och fungerar som ett slags motto för Andrew Keens ny bok. Som författare och it-entreprenör har han under det senaste decenniet gjort internationell karriär som den kanske mest oförsonlige nätskeptikern av alla.” Recensionen kan läsas här: Vem ska tämja internet?.

Publiceringsfigurens död

Idag har jag föreläst på konsthögskolan kring vad jag lätt spekulativt kallat publiceringsfigurens död. Tanken var att använda termen ”publicering” som ett plastiskt och dynamiskt begrepp vilket i allra högsta grad kan användas för att förstå ”det digitala”. I föreläsningen turnerar jag därför begreppet ”digital publicering” – förstått i synnerligen vid bemärkelse – från tre olika mediala perspektiv vilka alla hänger samman med medieforskning som jag ägnat mig åt, eller som jag för närvarande arbetar med: 1. Multimedial publicering & remix, 2. Illegal publicering som bevarande, och 3. Publicering som explorativ och undersökande metod. Föreläsningen kan laddas ned som PDF här: snickars_konsthögskolan_2015.

Ny bok äntligen klar – Universitetet som medium

Forskningsantologin Universitetet som medium – redigerad av Matts Lindström och Adam Wickberg Månsson, bägge vid Stockholms universitet – är efter en alltför lång produktionstid nu äntligen klar. Boken levererades från trycket häromdagen, och finns i linje med bokserien Mediehistoriskt arkivs policy fritt att ladda ned. Baksidan av boken ger en vink om vad det hela handlar om:

Vem är framtidens humanist om empiri är på väg att ersättas av Big Data, och tolkning kompletteras av algoritmer? Som en följd av samhällets digitalisering tycks universitetets traditionstyngda institutioner vara på väg att förändras. Sedan en tid talar man allt oftare om digitala humanistiska laboratorier och om en digital humaniora som är på väg att ta plats invid den gamla. Om universitetet är ett medium byggt på andra medier – från pergament, föreläsningssalar och tryckpress till dagens Internet och datorer – betyder nya medier också ett nytt universitet? Med utgångspunkt i frågor som dessa samlar den här boken ett antal texter som vill belysa universitetets mediemateriella komplex – både genom historiska fallstudier och samtida reflexion. I fyra tematiska avdelningar diskuterar forskare från olika discipliner ämnen som akademins fysiska plats i relation till nya digitala praktiker, universitetets historiska och samtida mediesystem, ordens och språkets roll, och introducerar samtidigt också nya kritiska perspektiv på universitets långa historia. Tillsammans tecknar de tolv bidragen ett utkast mot universitetets långa och komplexa förflutna – såväl som dess rika samtid och mångfacetterade framtid.

Själv var jag den som ännu dazumal initierade detta bokprojekt – och fick Matts Lindström och Adam Wickberg Månsson att trots intensiva doktorandstudier lägga tid och kraft på detta bokprojekt. Det är befriande att boken nu äntligen är klar. Själv har jag skrivit en artikel i boken med titeln, “Publikationshack”.

Boken kan laddas ned här: universitetet_som_medium

PITHON – Hera Research Proposal

Today – together with a number of European colleagues (notably Eggo Müller and Andreas Fickers) – we have finalised our Hera project proposal (which previously made it to the second round). PITHON is the acronym – Pirated Television Heritage: Online Video, Counter-narratives and European Identity. The summary reads as follows:

PITHON is steered by the following research question: How do online video remix cultures engage with Europe’s past, and how do these practices contribute to the popular history and memory of Europe?” In the past decennium, a massive body of audiovisual heritage has become accessible online on websites of archives and video sharing sites as YouTube and Vimeo. PITHON is the first project to investigate the re-use of television heritage in an European perspective. So far, research has focused on institutionally legitimized forms of re-use as in historical television documentaries, museum exhibitions or on websites of European initiatives. However, re-use today includes new popular forms as playlists, memes, spoofs, remixes and mashups creating parodies and counter-narratives to established forms European history. PITHON investigates the cultural dynamics and political power of pirated and re-circulated television heritage combining novel computational methods as video fingerprinting and digital historiography with discourse analysis and the (virtual) ethnography of remix practices. Whereas the content industry seeks to control piracy, PITHON will use digital methods to analyse the contribution of remix cultures to European history and memory. PITHONS Research Team is formed by researchers affiliated with the Centre for Television in Transition (Utrecht University), the Institute for Contemporary History (Prague), the DigHumLab (Umeå University) and the Digital History Laboratory (University of Luxembourg). The project cooperates with major European initiatives in the archival and educational sector: the portal for European audiovisual heritage EUscreen.eu, the European Digital Library Europeana.eu and the European Association of History Educators EUROCLIO.eu. The outcomes of the project will contribute to a deeper understanding of the dynamics of participatory engagement in European history, memory and identity, and to new methods in Digital Humanities. It will also provide customized tools for online video recognition and for digital source critique professionals in the archival and educational field.

Umeå university and HUMlab will be in charge of work package 1 – Tracking & Tracing Pirated TV Heritage. According to the description, we are going to do the following:

The aim of WP1 is to accomplish the PITHON objectives by delivering a technical solution through software set-up and a designated video comparison platform. By tracking and tracing the flow of video content online and the circulation of reused audiovisual heritage, researchers in humanities gain a better understanding of the socio-cultural ’life of data’ in general, and the different ways that footage from the past is reused on video sharing sites in particular. WP1 is geared towards studying the cultural significance of code, using ideas from the emerging field of digital artifact and critical code studies (Chun 2011; Montfort et.al. 2012; Manovich 2013; Casemajor 2014). The underlying rationale of WP1 is to provide the technical solution that allows various research issues to be explored and executed in the subsequent WPs. Methodologically, WP1 strives to follow the medium’s evolving digital methods (Rogers 2014), by repurposing technical solutions and building upon already existing applications and software. The digital humanities centre HUMlab (UMU) is responsible for platform design; whereas tools for video tracking, tracing and matching will be supplied by open-source (project Squid by Kennisland) and third party software (INA Signature). Technically, the work will consist of several steps: firstly, identifying a set of video files, footage and collections of interest in relation to the PITHON objectives, in collaboration with the online collections of EUscreen partners. Since video processing is data-intensive and requires adequate hardware, supplied by HUMlab, the identification process of the content is decisive. Scholarly input and knowledge around participatory video cultures is essential. Thus, within WP1 there are a number of fundamental overlaps between the work of WP1, WP2 (UU) and WP3 (UL). Secondly, the video files selected will be downloaded from a video repository (as EUscreen) for local fingerprinting. Thirdly, these files are processed using an (a) open source tool set Squid, and (b) third party commercial software Signature that creates a fingerprint for each file. These, highly compressed, are then stored locally at HUMlab. Fourthly, a specific but major collection of videos is identified online at the YouTube channels of EUscreen partners, which contain previously fingerprinted footage. WP1 is responsible too for capturing, processing and fingerprinting these videos and/or collections. The final phase in the work of WP1 consists of a comparison using open source software such as Squid, or a licensed access to an INA cloud service, which does the actual matching between video fingerprints. A positive match indicates that the online content contains the sequences of reused old footage which we are seeking. These will then be further analysed and researched in consecutive WPs.

Public service-kommissionen

Sedan igår har arbetet med den så kallade public service-kommissionen påbörjats. Jag ingår som ledamot – och ser mycket fram emot att ägna mig åt frågor som ska handla om public service roll och funktion i det framtida medielandskapet. Tanken är att det primärt ska handla om diverse samtal och hearings; kommissionens arbete är därtill tänkt att resultera i en mindre rapport till våren 2016. Men vi har inte haft vårt första möte ännu. Mer information för den intresserade finns på public service-kommissionens sajt.

Mediemetoder 4

Doktorandkursen vid mitt universitet i Umeå fortsätter; denna vecka handlar det om digitala metoder – inte minst med utgångspunkt i Richard Rogers arbeten på området. Rogers har metodologiskt framhållit att denna typ av medieforskning har det gemensamt att den är fotad i det digitala, ”online groundedness”. Vad de sinsemellan olika typerna av digitala metoder har gemensamt är såtillvida att det handlar om analys och forskning som följer mediet. Föreläsningen kan laddas ned i PDF-format här: mkv_mediemetoder_4.

Personifierad data, informationskonsumism och datahandlare

Till den kommande forskningsantologi – som är tänkt att beledsaga den pågående medieutredningen – har jag idag skickat redaktör Oscar Westlund en artikel med den långa titeln: “Personifierad data, informationskonsumism och datahandlare. Inför en grön datahushållning”. Artikeln säger sig handla om hur “användargenererade och personliga data skapas, används, återanvänds, förpackas, analyseras, säljs, kontrolleras och (möjligen bör) regleras – samt vilka implikationer det kan tänkas ha för den nationella mediepolitiken”. Artikeln lyfter därför fram både EU:s dataskyddsdirektiv och den pågående diskussionen kring datalagring, liksom nätets delningslogik och delningsekonomi. En annan utgångspunkt tas i nya sätt att analysera personifierad data – med hjälp av olika slags digitala analysmetoder. För så kallade datahandlare eller datamäklare är affärsidén att samla ihop så mycket information som det bara är möjligt – för att sedan processa, jämföra och sälja denna data till andra företag. Vad som genomgående intresserar mig i texten är hur denna sorts data, databehandling och datahandel beskrivs, det vill säga hur den språkliggörs och vilka ord och termer som används för att beteckna den – exempelvis hos företag som Social Data Collective, vilka arbetar efter en devis som ingen kan ta miste på: ”Share more, Earn more”.

Jag vet inte riktigt när forskningsantologin är tänkt att publiceras – men det sker möjligen före årskiftet. Min artikel börjar så här:

Det sägs att data aldrig sover. Data skapas snarare hela tiden – utan att vi märker det. Det hävdas åtminstone i den spektakulära informationsgrafik (infographic) som det amerikanska mätföretaget Domo producerat ett par tre gånger de senaste åren. Digital data kan se ut på högst olika sätt; framför allt är informationsutbyte på internet automatiserat och sker maskiner emellan. Men genom att ställa den retoriska frågan hur mycket data som globalt genereras varje minut – under hela dygnet – har Domo samlat och mätt personliga datapunkter vilka resulterat i närmast astronomiska siffror. Den personifierade data som Domo listat handlar om flöden som genereras av människors digitala medieanvändning. I företagets senaste infografik, ”Data Never Sleeps 3.0” (från augusti 2015) pågår i sextio-sekunders-intervall exempelvis följande: användare gillar 4 166 667 inlägg på Facebook, på Twitter skickas 347 222 meddelanden, på Netflix strömmas det 77 160 timmar video, på Snapchat delas 284 722 bilder, på YouTube laddas det upp 300 timmar video – och hos Apple laddas det ned 51 000 appar. Och allt detta sker alltså konstant, dygnet runt, varje minut.

Denna söm(n)lösa malström av data genererar en flod av information som för närvarande gröper allt djupare fåror i vår vardag. Det är en förändring som inte gör mycket väsen av sig, och den är svår att få korn på. Men det hindrar inte att en av de mest intrikata frågeställningarna när man man idag diskuterar det digitala medielandskapets möjligheter och tillkortakommanden handlar om hur denna exponentiellt tilltagande mängd data egentligen skall hanteras, kommersialiseras och kanhända regleras. Som bekant genererar all digital medieanvändning idag den här typen av kopiösa dataflöden. När Aftonbladet senhösten 2014 publicerade sin så kallade ”Framtidsrapport” om hur tidningen bättre skulle anpassa sig till ett tilltagande digitalt medieumgänge, kunde man följaktligen läsa att ”användardata är vårt viktigaste redskap. […] Allt går ut på att mäta beteende och bara fatta beslut utifrån det” (Aftonbladet, 2014). På samma sätt har den pågående fusionen mellan Mittmedia och Schibstedt skett i de samtida dataflödenas tecken; affären har åtminstone omtalats så, med det primära syftet att samordna nya digitala satsningar som exempelvis investeringar i digitala plattformar. Expressen vill givetvis inte vara sämre, och chefredaktör Thomas Mattsson har i olika sammanhang påpekat att tidningens ambition är ”att under 2015 bli Sveriges mest datadrivna medieverksamhet … det [handlar] inte bara om ’mest läst’ och ’antal besök’, utan om mycket mer som skapar trafik och intäkter” (Mattson, 2014).

I mediernas tid

Jag håller för närvarande på att sy ihop ett forskningssamarbete med Tromsö universitet i det allra nordligaste Norge. Som ett led i etableringen av detta samarbete höll jag förra veckan en föreläsning i Tromsö under rubriken: “I mediernas tid – Om digitalisering och arkivering som mediearkeologi“. Följer man ingressen till föredraget var det tänkt att det skulle handla om följande:

Som kulturhistorisk medieforskare – med fokus på såväl nya som äldre medier – funderar jag inte sällan över medier och tid. Men som digitalt orienterad mediehistoriker finns det ofta en skillnad gentemot kollegor från andra discipliner, detta eftersom studieobjekten i fråga – medierna – också själva producerar, lagrar, loopar och strömmar tid. Det mediearkeologiska forskningsfältet har uppmärksammat detta, och det binder därtill samman mediehistorier från då och nu – ofta i mediet. Detsamma gäller forskningsperspektiv hämtade från digital humaniora (DH) eller mjukvarustudier. I min presentation tänker jag resonera om sådana frågor, dels med utgångspunkt i några aktuella dh-projekt, dels med utgånsgpunkt i den svenska Dataarkiveringskommitténs arbete mellan 1967 till 1975.

Mina föredrags-slides kan laddas ned som PDF här: snickars_tromsö

Föredraget bandades också i rörlig bild och kan ses här.

Introduktionsföreläsning MKV

När ett medium kan beskrivas som, ”algorithms + a data structure”, (Lev Manovich) blir då inte både traditionella humanistiska och samhällsvetenskapliga medieperspektiv obsoleta (åtminstone i vissa avseenden)? I en introduktionsföreläsning för studenterna i medie- och kommunikationsvetenskap funderar jag på vad mediestudier är och vart de är på väg – exemplifierat med forskningsfälten kring medialiseringsteori och mediearkeologi. PDF av föreläsningsanteckningarna finns här: mkv_intro_snickars.

Mediemetoder 2 & 3

Doktorandkursen i mediemetoder fortsätter inom MKV på Umeå universitet. Denna vecka handlar det om kvalitativa och kvantitativa metoder. Kursen ger än så länge tämligen basala insikter om dessa olika metodmässiga tillvägagångssätt; mest intressant blir det när metodfrågorna handlar om och centreras kring forskning som praktik och vetenskap som görande. Föreläsningarna i PDF-format kan laddas ned här: mkv_mediemetoder_2 och mkv_mediemetoder_3.