The research project “Streaming Heritage: ‘Following Files’ in Digital Music Distribution”, funded by the Swedish Research Council, is now in its second year. The project team consists of Pelle Snickars (project leader), Rasmus Fleischer, Anna Johansson, Patrick Vonderau and Maria Eriksson. The project is located at HUMlab where developers Roger Mähler and Fredrik Palm do the actual coding. In short, the project studies emerging streaming media cultures in general, and the music service Spotify in particular (with a bearing on the digital challenges posed by direct access to musical heritage.) Building on the tradition of ‘breaching experiments’ in ethnomethodology, the research group seeks to break into the hidden infrastructures of digital music distribution in order to study its underlying norms and structures. The key idea is to ‘follow files’ (rather than the people making or using them) on their distributive journey through the streaming ecosystem.
So far research has focused basically four broader areas: the history and evolvement of streaming music in general and Spotify in particular (Fleischer), streaming aggregation’s politics and effects on value and cultural production (Vonderau), the tracing of historical development of music metadata management and its ties to knowledge production and management that falls under the headline of ‘big data’ (Eriksson), and various forms of bot culture in relation to automated music aggregation (Snickars). One article has been published, and more preliminary results are to be presented in a number of upcoming articles and conferences during 2016. Eriksson, for example recently submitted an article around digital music distribution increasingly powered by automated mechanisms that capture, sort and analyze large amounts of web-based data. The article traces the historical development of music metadata management and its ties to the field of ‘big data’ knowledge production. In particular, it explores the data catching mechanisms enabled by the Spotify-owned company The Echo Nest, and provides a close reading of parts of the company’s collection and analysis of data regarding musicians. In a similar manner, Johansson and Eriksson are exploring how music recommendations are entangled with fantasies of for example age, gender, and geography. By capturing and analyzing the music recommendations Spotify delivers to a selected number of pre-designed Spotify users, the experiment sets out to explore how the Spotify client, and it’s algorithms, are performative of user identities and taste constellations. Results will be presented at various conferences during next year. In addition, Snickars has continued working with the HUMlab programers on various forms of “bot experiments”. One forthcoming article focuses the streaming notion of “more music”, and an abstract for the upcoming DH-conference in Kraków (during the summer of 2016) is entitled: “SpotiBot—Turing testing Spotify”. It reads as follows, and gives an indication of the ways in which the project is being conducted:
Under the computational hood of streaming services all streams are equal, and every stream thus means (potentially) increased revenue from advertisers. Spotify is hence likely to include—rather than reject—various forms of (semi-)automated music, sounds and (audio) bots. At HUMlab we therefore set up an experiment—SpotiBot—with the purpose to determine if it was possible to provoke, or even to some extent undermine, the Spotify business model (based on the 30 second royalty rule). Royalties from Spotify are only disbursed once a song is registered as a play, which happens after 30 seconds. The SpotiBot engine was be used to play a single track repeatedly (both self-produced music and Abba’s ”Dancing Queen”), during less and more than 30 seconds, and with a fixed repetition scheme running from 10 to n times, simultaneously with different Spotify account. Based on a set of tools provided by Selenium the SpotiBot engine automated the Spotify web client by simulating user interaction within the web interface. From a computational perspective the Spotify web client appeared as black box; the logics that the Spotify application was governed by was, for example, not known in advance, and the web page structure (in HTML) and client side scripting quite complex. It was not doable within the experiment to gain a fuller understanding of the dialogue between the client and the server. As a consequence, the development of the SpotiBot-experiment was (to some extent) based on ‘trial and error’ how the client behaved, and what kind of data was sent from the server for different user actions. Using a single virtual machine—hidden behind only one proxy IP—the results nevertheless indicate that it is possible to automatically play tracks for thousands of repetitions that exceeds the royalty rule. Even if we encountered a number of problems and deviations that interrupted the client execution, the Spotify business model can in short be tampered with. In other words, one might ask what happens when—not if—streaming bots approximate human listener behavior in such a way that it becomes impossible to distinguish between a human and a machine? Streaming fraud, as it has been labeled, then runs the risk of undermining the economic revenue models of streaming services as Spotify.
Finally, during the following weeks the project group will do presentations in the U.S. The first one is called, “Spotify Teardown”, and consists of a project presentation and roundtable at the Center for Information Technology and Society at the University of California, Santa Barbara. On the one hand the presentation will have a focus on methodology, background research and preliminary findings, and on the other hand try to initiate a discussion with three focused areas: (1.) ”Ethical and Legal Limitations”: What are the ethical/legal issues that arise in relation to activist projects, and how to tackle them? (2.) ”Metaphors for Research”: What metaphors are useful, or more useful than conventional metaphors such as “platform” or “platform responsibility”? and (3.) ”New Qualitative Methods and Old Disciplinary Frameworks”: What are the key challenges of working with qualitative, inter- and transdisciplinary methods in institutional environments? In addition, Pelle Snickars will also do another project presentation in New York at Cuny (The City University of New York) at the conference, ”Digging Deep: Ecosystems, Institutions and Processes for Critical Making”.
Idag intervjuas jag i Göteborgs-Posten kring vad jag lite löst kallar för “den automatiserade offentligheten”. “Att du får mindre och ny typ av spam innebär inte att de digitala reklambudskapen minskar. Avsändarna agerar allt mer i det fördolda”, står det i ingressen. Intervjun är tämligen kort – och kan läsas här: Robotar tar över reklamen.
Idag recenserar jag Andrew Keens nya bok, Internet är inte svaret i DN; inleder så här: “I webbens barndom gjorde science fictionförfattaren William Gibson prognosen att framtiden redan är här – ”den är bara inte särskilt jämt fördelad”. Det är en stilig oneliner, och fungerar som ett slags motto för Andrew Keens ny bok. Som författare och it-entreprenör har han under det senaste decenniet gjort internationell karriär som den kanske mest oförsonlige nätskeptikern av alla.” Recensionen kan läsas här: Vem ska tämja internet?.
Idag har jag föreläst på konsthögskolan kring vad jag lätt spekulativt kallat publiceringsfigurens död. Tanken var att använda termen ”publicering” som ett plastiskt och dynamiskt begrepp vilket i allra högsta grad kan användas för att förstå ”det digitala”. I föreläsningen turnerar jag därför begreppet ”digital publicering” – förstått i synnerligen vid bemärkelse – från tre olika mediala perspektiv vilka alla hänger samman med medieforskning som jag ägnat mig åt, eller som jag för närvarande arbetar med: 1. Multimedial publicering & remix, 2. Illegal publicering som bevarande, och 3. Publicering som explorativ och undersökande metod. Föreläsningen kan laddas ned som PDF här: snickars_konsthögskolan_2015.
Forskningsantologin Universitetet som medium – redigerad av Matts Lindström och Adam Wickberg Månsson, bägge vid Stockholms universitet – är efter en alltför lång produktionstid nu äntligen klar. Boken levererades från trycket häromdagen, och finns i linje med bokserien Mediehistoriskt arkivs policy fritt att ladda ned. Baksidan av boken ger en vink om vad det hela handlar om:
Vem är framtidens humanist om empiri är på väg att ersättas av Big Data, och tolkning kompletteras av algoritmer? Som en följd av samhällets digitalisering tycks universitetets traditionstyngda institutioner vara på väg att förändras. Sedan en tid talar man allt oftare om digitala humanistiska laboratorier och om en digital humaniora som är på väg att ta plats invid den gamla. Om universitetet är ett medium byggt på andra medier – från pergament, föreläsningssalar och tryckpress till dagens Internet och datorer – betyder nya medier också ett nytt universitet? Med utgångspunkt i frågor som dessa samlar den här boken ett antal texter som vill belysa universitetets mediemateriella komplex – både genom historiska fallstudier och samtida reflexion. I fyra tematiska avdelningar diskuterar forskare från olika discipliner ämnen som akademins fysiska plats i relation till nya digitala praktiker, universitetets historiska och samtida mediesystem, ordens och språkets roll, och introducerar samtidigt också nya kritiska perspektiv på universitets långa historia. Tillsammans tecknar de tolv bidragen ett utkast mot universitetets långa och komplexa förflutna – såväl som dess rika samtid och mångfacetterade framtid.
Själv var jag den som ännu dazumal initierade detta bokprojekt – och fick Matts Lindström och Adam Wickberg Månsson att trots intensiva doktorandstudier lägga tid och kraft på detta bokprojekt. Det är befriande att boken nu äntligen är klar. Själv har jag skrivit en artikel i boken med titeln, “Publikationshack”.
Boken kan laddas ned här: universitetet_som_medium
Today – together with a number of European colleagues (notably Eggo Müller and Andreas Fickers) – we have finalised our Hera project proposal (which previously made it to the second round). PITHON is the acronym – Pirated Television Heritage: Online Video, Counter-narratives and European Identity. The summary reads as follows:
PITHON is steered by the following research question: How do online video remix cultures engage with Europe’s past, and how do these practices contribute to the popular history and memory of Europe?” In the past decennium, a massive body of audiovisual heritage has become accessible online on websites of archives and video sharing sites as YouTube and Vimeo. PITHON is the first project to investigate the re-use of television heritage in an European perspective. So far, research has focused on institutionally legitimized forms of re-use as in historical television documentaries, museum exhibitions or on websites of European initiatives. However, re-use today includes new popular forms as playlists, memes, spoofs, remixes and mashups creating parodies and counter-narratives to established forms European history. PITHON investigates the cultural dynamics and political power of pirated and re-circulated television heritage combining novel computational methods as video fingerprinting and digital historiography with discourse analysis and the (virtual) ethnography of remix practices. Whereas the content industry seeks to control piracy, PITHON will use digital methods to analyse the contribution of remix cultures to European history and memory. PITHONS Research Team is formed by researchers affiliated with the Centre for Television in Transition (Utrecht University), the Institute for Contemporary History (Prague), the DigHumLab (Umeå University) and the Digital History Laboratory (University of Luxembourg). The project cooperates with major European initiatives in the archival and educational sector: the portal for European audiovisual heritage EUscreen.eu, the European Digital Library Europeana.eu and the European Association of History Educators EUROCLIO.eu. The outcomes of the project will contribute to a deeper understanding of the dynamics of participatory engagement in European history, memory and identity, and to new methods in Digital Humanities. It will also provide customized tools for online video recognition and for digital source critique professionals in the archival and educational field.
Umeå university and HUMlab will be in charge of work package 1 – Tracking & Tracing Pirated TV Heritage. According to the description, we are going to do the following:
The aim of WP1 is to accomplish the PITHON objectives by delivering a technical solution through software set-up and a designated video comparison platform. By tracking and tracing the flow of video content online and the circulation of reused audiovisual heritage, researchers in humanities gain a better understanding of the socio-cultural ’life of data’ in general, and the different ways that footage from the past is reused on video sharing sites in particular. WP1 is geared towards studying the cultural significance of code, using ideas from the emerging field of digital artifact and critical code studies (Chun 2011; Montfort et.al. 2012; Manovich 2013; Casemajor 2014). The underlying rationale of WP1 is to provide the technical solution that allows various research issues to be explored and executed in the subsequent WPs. Methodologically, WP1 strives to follow the medium’s evolving digital methods (Rogers 2014), by repurposing technical solutions and building upon already existing applications and software. The digital humanities centre HUMlab (UMU) is responsible for platform design; whereas tools for video tracking, tracing and matching will be supplied by open-source (project Squid by Kennisland) and third party software (INA Signature). Technically, the work will consist of several steps: firstly, identifying a set of video files, footage and collections of interest in relation to the PITHON objectives, in collaboration with the online collections of EUscreen partners. Since video processing is data-intensive and requires adequate hardware, supplied by HUMlab, the identification process of the content is decisive. Scholarly input and knowledge around participatory video cultures is essential. Thus, within WP1 there are a number of fundamental overlaps between the work of WP1, WP2 (UU) and WP3 (UL). Secondly, the video files selected will be downloaded from a video repository (as EUscreen) for local fingerprinting. Thirdly, these files are processed using an (a) open source tool set Squid, and (b) third party commercial software Signature that creates a fingerprint for each file. These, highly compressed, are then stored locally at HUMlab. Fourthly, a specific but major collection of videos is identified online at the YouTube channels of EUscreen partners, which contain previously fingerprinted footage. WP1 is responsible too for capturing, processing and fingerprinting these videos and/or collections. The final phase in the work of WP1 consists of a comparison using open source software such as Squid, or a licensed access to an INA cloud service, which does the actual matching between video fingerprints. A positive match indicates that the online content contains the sequences of reused old footage which we are seeking. These will then be further analysed and researched in consecutive WPs.
Sedan igår har arbetet med den så kallade public service-kommissionen påbörjats. Jag ingår som ledamot – och ser mycket fram emot att ägna mig åt frågor som ska handla om public service roll och funktion i det framtida medielandskapet. Tanken är att det primärt ska handla om diverse samtal och hearings; kommissionens arbete är därtill tänkt att resultera i en mindre rapport till våren 2016. Men vi har inte haft vårt första möte ännu. Mer information för den intresserade finns på public service-kommissionens sajt.
Doktorandkursen vid mitt universitet i Umeå fortsätter; denna vecka handlar det om digitala metoder – inte minst med utgångspunkt i Richard Rogers arbeten på området. Rogers har metodologiskt framhållit att denna typ av medieforskning har det gemensamt att den är fotad i det digitala, ”online groundedness”. Vad de sinsemellan olika typerna av digitala metoder har gemensamt är såtillvida att det handlar om analys och forskning som följer mediet. Föreläsningen kan laddas ned i PDF-format här: mkv_mediemetoder_4.
Till den kommande forskningsantologi – som är tänkt att beledsaga den pågående medieutredningen – har jag idag skickat redaktör Oscar Westlund en artikel med den långa titeln: “Personifierad data, informationskonsumism och datahandlare. Inför en grön datahushållning”. Artikeln säger sig handla om hur “användargenererade och personliga data skapas, används, återanvänds, förpackas, analyseras, säljs, kontrolleras och (möjligen bör) regleras – samt vilka implikationer det kan tänkas ha för den nationella mediepolitiken”. Artikeln lyfter därför fram både EU:s dataskyddsdirektiv och den pågående diskussionen kring datalagring, liksom nätets delningslogik och delningsekonomi. En annan utgångspunkt tas i nya sätt att analysera personifierad data – med hjälp av olika slags digitala analysmetoder. För så kallade datahandlare eller datamäklare är affärsidén att samla ihop så mycket information som det bara är möjligt – för att sedan processa, jämföra och sälja denna data till andra företag. Vad som genomgående intresserar mig i texten är hur denna sorts data, databehandling och datahandel beskrivs, det vill säga hur den språkliggörs och vilka ord och termer som används för att beteckna den – exempelvis hos företag som Social Data Collective, vilka arbetar efter en devis som ingen kan ta miste på: ”Share more, Earn more”.
Jag vet inte riktigt när forskningsantologin är tänkt att publiceras – men det sker möjligen före årskiftet. Min artikel börjar så här:
Det sägs att data aldrig sover. Data skapas snarare hela tiden – utan att vi märker det. Det hävdas åtminstone i den spektakulära informationsgrafik (infographic) som det amerikanska mätföretaget Domo producerat ett par tre gånger de senaste åren. Digital data kan se ut på högst olika sätt; framför allt är informationsutbyte på internet automatiserat och sker maskiner emellan. Men genom att ställa den retoriska frågan hur mycket data som globalt genereras varje minut – under hela dygnet – har Domo samlat och mätt personliga datapunkter vilka resulterat i närmast astronomiska siffror. Den personifierade data som Domo listat handlar om flöden som genereras av människors digitala medieanvändning. I företagets senaste infografik, ”Data Never Sleeps 3.0” (från augusti 2015) pågår i sextio-sekunders-intervall exempelvis följande: användare gillar 4 166 667 inlägg på Facebook, på Twitter skickas 347 222 meddelanden, på Netflix strömmas det 77 160 timmar video, på Snapchat delas 284 722 bilder, på YouTube laddas det upp 300 timmar video – och hos Apple laddas det ned 51 000 appar. Och allt detta sker alltså konstant, dygnet runt, varje minut.
Denna söm(n)lösa malström av data genererar en flod av information som för närvarande gröper allt djupare fåror i vår vardag. Det är en förändring som inte gör mycket väsen av sig, och den är svår att få korn på. Men det hindrar inte att en av de mest intrikata frågeställningarna när man man idag diskuterar det digitala medielandskapets möjligheter och tillkortakommanden handlar om hur denna exponentiellt tilltagande mängd data egentligen skall hanteras, kommersialiseras och kanhända regleras. Som bekant genererar all digital medieanvändning idag den här typen av kopiösa dataflöden. När Aftonbladet senhösten 2014 publicerade sin så kallade ”Framtidsrapport” om hur tidningen bättre skulle anpassa sig till ett tilltagande digitalt medieumgänge, kunde man följaktligen läsa att ”användardata är vårt viktigaste redskap. […] Allt går ut på att mäta beteende och bara fatta beslut utifrån det” (Aftonbladet, 2014). På samma sätt har den pågående fusionen mellan Mittmedia och Schibstedt skett i de samtida dataflödenas tecken; affären har åtminstone omtalats så, med det primära syftet att samordna nya digitala satsningar som exempelvis investeringar i digitala plattformar. Expressen vill givetvis inte vara sämre, och chefredaktör Thomas Mattsson har i olika sammanhang påpekat att tidningens ambition är ”att under 2015 bli Sveriges mest datadrivna medieverksamhet … det [handlar] inte bara om ’mest läst’ och ’antal besök’, utan om mycket mer som skapar trafik och intäkter” (Mattson, 2014).
Jag håller för närvarande på att sy ihop ett forskningssamarbete med Tromsö universitet i det allra nordligaste Norge. Som ett led i etableringen av detta samarbete höll jag förra veckan en föreläsning i Tromsö under rubriken: “I mediernas tid – Om digitalisering och arkivering som mediearkeologi“. Följer man ingressen till föredraget var det tänkt att det skulle handla om följande:
Som kulturhistorisk medieforskare – med fokus på såväl nya som äldre medier – funderar jag inte sällan över medier och tid. Men som digitalt orienterad mediehistoriker finns det ofta en skillnad gentemot kollegor från andra discipliner, detta eftersom studieobjekten i fråga – medierna – också själva producerar, lagrar, loopar och strömmar tid. Det mediearkeologiska forskningsfältet har uppmärksammat detta, och det binder därtill samman mediehistorier från då och nu – ofta i mediet. Detsamma gäller forskningsperspektiv hämtade från digital humaniora (DH) eller mjukvarustudier. I min presentation tänker jag resonera om sådana frågor, dels med utgångspunkt i några aktuella dh-projekt, dels med utgånsgpunkt i den svenska Dataarkiveringskommitténs arbete mellan 1967 till 1975.
Mina föredrags-slides kan laddas ned som PDF här: snickars_tromsö
Föredraget bandades också i rörlig bild och kan ses här.