SR Kulturnytt – ”Svårt att få access till teknikens svarta låda”

Kulturjournalisten Mattias Berg har idag gjort ett inslag om vårt forskningsprojekt kring strömmande kulturarv, Forskare startar fiktivt skivbolag. Det är ett kortare reportage som ganska väl sammanfattar vad vi tänker oss att göra. Ingressen anger på ett ungefär vad det hela ska handla om: “HUMlab vid Umeå universitet drar igång ett annorlunda forskningsprojekt för att under fem år framåt lära sig mer om den digitala logiken på framför allt musikområdet.”

Bok om digitalisering nu klar

Min bok, Digitalism. När allting är internet, är nu färdig. Den släpps den 15:e maj – med recensionsdatum första juni. Den har blivit snygg; formgivaren Viktor Hertz har gjort ett strålande arbete. Boken kostar knappt 200 kronor, och finns hos de flesta nätbokhandlare samt (förhoppningsvis) i mer välsorterade boklådor.

bokomslag

Disruption in the Music Industry

The research project centered around Spotify that I am in charge of, Streaming Heritage: Following Files In Digital Music Distribution, is slowly picking up speed. One example is a book project that I have been invited to join, Business Innovation and Disruption in the Music Industry edited by Patrik Wikström and Robert DeFillippi which will be published by Edward Elgar next year. “During the past fifteen years”, the rationale for the book states, “the music industries experience a truly disruptive process of digital transformation. The process reshapes most aspects of the music industry and in 2014 the contours of a “new music economy” begin to emerge. The structure and mechanics of these evolutionary processes vary considerably between continents, countries and regions and this volume will examine these processes and present evidence of business innovation and disruption in national and regional music industries.” I have recently submitted an abstract of my article which I have called, “More Music is Better Music”. What I have in mind to write is the following:

From an audience perspective, one of the core motives underlying the disruption process within the music industry during the last decade, has been the establishment of vast online music archives. Streaming services wouldn’t have been able to gain global and rapid popularity if it hadn’t been for the swelling back catalogues of music providers. The number of tracks available at popular music streaming sites have, as a consequence, during the last years been constantly promoted as a market advantage—Xbox Music claims 30 million songs, Grooveshark 15, Deezer, Rdio and Spotify 20, Soundcloud 16 and Last.fm 12 (at least according to the latest figures). Most digital entertainment services are also grappling with the so called ”discovery challenge”, i.e how to make users consume more—all in order to make the service indispensable. As a consequence, the deep back catalogue of streaming sites market constant rediscovery; functionalities at Spotify as ”Discover”, ”Radio” or ”Browse” are all algorithmic archival modes based on its long-tail-catalogue.

However, digital technology also has the inherent ability to go berserk, undermining classical notions of archives and/or collections as trusted repositories of material or cultural objects. Spam is the obvious example. But there are other ways where aggregating musical content à la web 2.0 runs the risk of a technological back-fire, damaging the very notion of what a musical archive is—and should be. Machines pose the biggest threat. Still, humans can also subvert the archive. Take Matt Farley, for instance, who has apparently earned more than $20 000 from his music since he has written, recorded and released over 14 000 songs.

The purpose of my article is to discuss and elaborate around a kind of robot (or spam logic) currently in vogue online in various ways—from semi-automatic (positive) bought reviews on Amazon to robot writers as Philip M. Parker, who has developed a method to automatically generate books and claims to have written over 200 000 of them, to aggregation of spam-music or the ability to buy 10 000 new twitter followers (in the form of social bots) for a thousand dollars on Swenzy (or similar sites). Given the focus at music streaming sites on sheer quantity, what do digital developments as the ones described actually impose? Is more music always better music?

Introduktion till forskningsantologin Återkopplingar

Den senaste tiden har jag tillsammans med kollegor i Lund (Marie Cronqvist och Patrik Lundell) ägnat åt att försöka sätta samman en introduktion till den forskningsantologi som vi arbetat med sedan i höstas. Utgångspunkt för den kommande boken – men arbetstiteln, Återkopplingar – är den kulturhistoriska mediekonferens vi anordnade i Lund för precis ett år sedan. Introduktionens första passager lyder nu som följer:

Hur skriver man inte mediehistoria? Den lätt provocerande frågan ställde den tyske mediearkeologen Wolfgang Ernst för ett par år sedan i artikeln, ”Von der Mediengeschichte zur Zeitkritik”. Förflutenhetens medieteknologier producerar nämligen tid, påpekade han – men på helt andra sätt än strikt mediehistoriskt. Att bokstavligen skriva fram mediehistoria med utgångspunkt i medier som ibland tekno-temporalt fungerar icke-linjärt kan leda till problem. För mediemaskiner har ofta en specifik temporalitet som inte med nödvändighet är densamma som mediehistoriens. Ibland pratar man om tidsbaserade medier, vilka exempelvis i strömmande skepnad blivit allt vanligare på webben. Tar man ett sådant begrepp på allvar stipulerar (vissa) medier en sorts inre temporalitet [Eigenzeit] som understundom skiljer sig från den historiska linjäritet vi är vana vid. I datalogiska mediesammanhang kan man exempelvis anföra att loopad algoritmisk, eller rekursivt återanropad, temporalitet avsevärt skiljer sig från kronologisk tidsföljd. Linjär kod bygger upp digitala medier, men den fungerar allt annat än linjärt. På en sorts mikroteknologisk nivå råder därför en annan tidsuppfattning – i mediet.

Men Ernst menade alltså att det även gäller medier i det förflutna. Man bör därför inte falla för frestelsen att skriva mediehistoria, påpekade han, utan med utgångspunkt i mediet kritiskt överväga, prova eller åtminstone potentiellt tänka (medie)tid cykliskt, repetitivt – eller rentav temporalt motvalls. Konkret kan man till exempel fråga sig vilken slags tidsuppfattning som elektromagnetiska vågor, det vill säga radio, egentligen genererar? Som framväxande disciplin har det mediearkeologiska forskningsfältet varit strikt materialitetsorienterat; det har främst ägnat sig åt artefakter eller speciellt teknologiskt präglade mediesituationer. Det vill säga, exakt vad händer när en radioapparat tar emot en utsändning? ”Regardless of whether this radio is an old or a recent model,” menade Ernst (i en engelsk översättning av sin artikel), ”the broadcast always takes place in the present. In contrast to media history … media archaeology tentatively adopts the temporal perspective of the apparatus itself – the aesthetics of micro-temporal processes.” I jämförelse med mer traditionella mediehistoriska analysmodeller handlar det därför om att uppmärksamma mediers alternativa temporaliteter. Inte sällan är de baserade på mikrotemporala processer som är annorlunda än traditionell narrativ logik. I Ernst tappning är mediearkeologi såtillvida en kritik av hur mediehistoria alltid skrivs på ett linjärt och berättande sätt. ”Media archaeology is a critique of media history in the narrative mode”, som han summerat i en intervju med medieteoretikern Geert Lovink.

Vi menar att mediehistoria kan – och bör – skrivas på många olika sätt. Om inte annat vittnar denna bok om det. Återkopplingar är alltså inte en kritik av hur mediehistoria skrivs – eller att den skrivs. Tvärtom. Vi menar att det (åtminstone i Sverige) skrivs och bedrivs alltför lite mediehistorisk forskning. Av den anledningen behöver man inte med nödvändighet bejaka tyskt teoridriven mediearkeologisk analys. Även om den stundtals framstår som högst originell. Kritiserad är den jämväl. Den mediearkeologiska optik som riggas har bland annat beskyllts för att vara teknikdeterministisk. Om, eller snarare när, (medie)tekniken driver samhällsutvecklingen blir människan – der sogenannte Mensch i kittlersk tappning – närmast överflödig. I alla fall står studier av mediebruk inte högt på agendan. I den meningen är alla mediearkeologer en sorts maskinfetischistiska reduktionister, vilka på det stora hela glömt att medier trots all behöver subjekt och användarpraktiker för att överhuvudtaget skapa mening. Med tidskritiska medieprocesser kan man möjligen få korn på diverse inherenta medieteknologiska egenheter. Men synsättet riskerar att dölja mer än det uppenbarar. Väl i mediet försvinner om inte annat precis all form av medieumgänge.

Digital infrastruktur bygger inte sig själv

Jag har idag publicerat en kortare kommentar i SvD om sökmotorer – en text som också återfinns nedan på bloggen – under rubriken, Digital infrastruktur bygger inte sig själv. Har inte mycket mer att tillägga – men ingressen är bra tycker jag: “Sökmarknaden är ett misslyckande. Mer än 90 procent av alla sökningar i Europa görs med Google, ett företag som alltmer styrs av betalda svar på sökningar. Är det dags för ett public service-internet?, frågar sig Pelle Snickars.”

Något om sökmotorer

För en tid sedan skrev jag en kommentar till SvD apropå ett symposium om sökmotorer och Google som jag var med på i Lund i början av april. Jag vet inte riktigt var texten tagit vägen; kanhända kommer den att publiceras. Den är långt ifrån dagsaktuell – men värd att läsas åtminstone av någon. Artikeln lyder som följer:

Det händer att sökmotorer skriver dikt. På egen hand. På googlepoetics.com samlas poesifragment som sökmotorns så kallade auto-suggestion föreslagit. Dessa lyriska förslag kan ibland vara bedårande. Sök efter ”I expect” – och på basis av vad andra sökt föreslår den vita sökrutan:

I expect …
I expect death to be nothingness
I expect you to die
I expect a miracle
I expect nothing less

Men automatiska sökförslag kan också ha en mer sinister sida. Söker man på frasen ”women need to” får man till exempel allt annat än charmerande förslag. Här framstår sökmotorn snarare som misogyn. I slutet av förra året använde organisationen UN Women sådana sökresultat i en reklamkampanj, där sökrutan grafiskt tejpades över kvinnors munnar, för att illustrera behovet av jämställdhet. Även digital teknik har ett kön.

Jag söker – därför är jag. Möjligen är det vår tids digitala cogito. På ett symposium vid Lunds universitet behandlas för en tid sedan sökmotorers reglering av våra tankar, Googles dominans och behovet av alternativ sökregimer. Sökning efter information föregår ju det mesta på webben. Ändå är ”sök” inte den förhärskande användarform som många tror. I sociala medier söker vi exempelvis inte alls. Där råder en helt annan digital logik.

Under symposiet gav flera uttryck för en skepsis mot sökmotorer; vi litar inte riktig på att sökningar ger adekvata svar. Samtidigt fortsätter vi alla att använda främst Google varje dag. Det är en praktik som effektivt underminerar kritik mot felaktiga sökresultat. Sökmotorer måste därför framstår som relevanta för oss; för Google kommer användarna alltid först – därefter möjliga intäkter. Undersökningar där ögonrörelser registreras har exempelvis visat att klickfrekvens på sökresultat alltid påverkas av var information finns. Mest klickar vi högst upp i träfflistan, och det är också där som Google tjänar pengar genom att placera annonser. Genom nya satsningar som Google Shopping finns dock en alltmer grumlad gräns mellan information om produkter – och reklam för dem.

Mer än 90 procent av alla sökningar i Europa görs med Google. Den amerikanska nätdominansen är total, och mer mjuk makt än så går inte att köpa för pengar. Lägg därtill NSA-övervakning, och många frågar sig om det inte är dags för europeiska alternativ. Marknaden har faktiskt misslyckats med att lansera valmöjligheter. Microsofts sökmotor Bing är visserligen ett, men det är ett gigantiskt förlustföretag, dessutom finns marginella sökmotorer som DuckDuckGo eller ryska Yandex. Ett alternativt skulle vara ett gemensamt öppet index för webben, vilket kunde användas gratis i icke-kommersiella syften och mot en mindre kostnad i andra. Digital infrastruktur bygger inte sig själv och här kunde EU spela större roll. Frågan är dock större: för är det inte så att vi faktiskt börjar bli redo för ett public service internet?

Mot en ny sorts medieforskning

Den samtida medieforskningen står mycket förenklat inför två betydande utmaningar. För det första är medier numera inte vad det en gång var, och de som producerar dem är i ökande omfattning också allt annat än traditionella medieproducenter. Naturligtvis finns de dominerande mediehusen kvar men de får mer och mer konkurrens av rena teknikföretag som Google, Facebook, Apple, Amazon, Twitter etcetera. På vilket sätt de senare är att betrakta som medieproducenter är emellertid inte det enklaste att svara på.

För det andra genererar dessa “nya” medieproducenter enorma mängder data som medieforskningen alls inte når och kan använda eftersom de inte sällan rör sig om företagshemligheter, där i synnerhet de dominerande nätjättarna vill behålla denna data för sig själv. Att få tillgång till denna nya mediala svarta låda utgör därför en betydande utmaning. Som kulturjournalisten Andreas Ekström påpekade igår i en krönika, Jättarna betalar – i data, finns det dock vissa tecken på att sådan eftersträvansvärd data ibland delas ut till exempelvis forskare. Mikrobloggtjänsten Twitter har bland annat bestämt sig för att öppna sina databaser för forskning. Under en tid har Twitter tagit emot ansökningar från universitet och forskargrupper med projektbeskrivningar, skriver Ekström. “Inom ett par veckor offentliggörs det vem som får tillgång till servrarnas guldgruvor, och exakt vad det är dessa utvalda forskare sedan vill ta reda på. Det kan handla om allt från sociologi till teknik och mediestudier.” Ekström menar att Twitters initiativ är synnerligen välkommet – och det är bara att hålla med. Själv brottas jag med snarlika frågeställningar i det VR-projekt kring strömmande medier vi håller på att starta upp, vilket i hög grad kommer att handla om Spotify. 10 000-kronorsfrågan är här just hur vi får tag i adekvat data. Med en sådan öppnar sig helt enkelt möjligheter för en ny sorts medieforskning

Om Google – i Lund

Igår arrangerades ett symposium vid Lunds universitet som jag deltog i, “Is Google enough?” Diskussionen kretsade kring hur Google blivit en så central del av människors vardag och hur man som forskare förhåller sig till detta – och vilken forskning som behövs för att bidra med ett kritiskt perspektiv. En kortare rapport finns att läsa på Institutionen för kulturvetenskapers hemsida, och själv är jag på gång med en artikel om frågeställningen för Svenska Dagbladet – där den möjligen publiceras under nästa vecka.

Digital Second Hand

Till en forskningsantologi som jag håller på och sammanställer med mina mediehistoriska kollegor vid Lunds universitet har jag själv precis skrivit klart en artikel, “Överflöd, brist & begagnade medier”. Den resonerar om abstrakta kategorier som brist och överflöd vilka framstår som alltmer relevanta för en mediehistorisk analys av skillnader (och likheter) mellan ’det analoga’ och ’det digitala’. Brist är exempelvis en sorts mediehistorisk belägenhet som förändrat sig under de senaste tio, eller möjligen femton åren. Det är skälet till att jag intresserat mig för denna medieprocess med utgångspunkt i medier som är begagnade, det vill säga som redan använts.

Ett längre avsnitt i artikeln handlar om “digital second hand” och lyder som följer:

I en tid när alltmer av den samtida mediekonsumtionen flyttar till det omtalade molnet har frågeställningen och den gradvisa framväxten av en e-andrahandsmarknad kring begagnade medier/filer blivit allt mer central. Uppkomst, idéer och teknik kring lansering av en e-andrahandsmarknad har bland annat haft som syfte att säkra, eller åtminstone försöka att bibehålla det ekonomiska värdet av det enskilt nedladdade och lagrade exemplaret. Det är nämligen ett värde som snabbt raseras, ja närmast raderas i en strömmande mediekontext. Ersättning per spelad låt i exempelvis strömmande musikmedier ligger ofta så lågt som mellan ett till fem öre. Jämför man med att kostnaden för att köpa och ladda ned en musikfil via iTunes Store är 12 kronor, så inser man vilken ekonomisk skillnad och försäljningsdiskrepans det handlar om – en låt måste inte sällan strömmas mer än tusen gånger för att bli ekonomiskt jämförbar med ett sålt låtexemplar. Återanvända i strömmande form kostar begagnade filer helt enkelt en bråkdel av vad de gör i nedladdningsbara format.

Visserligen kan alla strömmande medier göras nedladdningsbara (med tillräcklig digital know-how), men skapandet av en andrahandsmarknad för begagnade filer är tekniskt-ekonomiskt komplicerad också på andra sätt. Bland annat innebär det att filer måste bli närmast anti-digitala, det vill säga inte kopierbara som vanliga filer – för då börjar de likna strömmande medier och tappar igen i värde. Av den anledningen är försäljning av begagnade filer förknippad med en längre webbhistorik kring olika – och skiftande – sätt att begränsa, eller åtminstone kontrollera spridning av digitalt innehåll. Främst har det handlat om sätt att förhindra olovlig och illegal fildelning genom så kallade DRM-system (Digital Rights Management). DRM är en samlingsbeteckning för ett flertal olika tekniker som har (och haft) som syfte att ”från utgivarens perspektiv kontrollera spridning och användning av digitalt material såsom film, musik, ringsignaler … Förespråkarna hävdar att systemen är nödvändiga för att säkra upphovsmännens integritet och inkomster, kritiker menar att de begränsar användares rättigheter”, inte minst eftersom de senare (ofta) på legala sätt införskaffat produkterna i fråga.

Redan i den omtalade amerikanska Digital Millennium Copyright Act från 1998 förbjöds programvara som kunde eliminera DRM – med sinistra konsekvenser för mediebranschen. Det har ofta hävdats att DRM tar år och miljontals dollar att utveckla. Bara för att hackas på några minuter. DRM-systemens mediehistoria är därför en berättelse om ett slags ständig katt-och-råtta-lek mellan mediebransch och hackers. I princip har alla skydd som implementerats underminerats. Eftersom DRM består av kod, som alltid är mer eller mindre digitalt porös, kan den (på ett eller annat sätt) alltid kringgås av annan programvara. Håller man sig till musik, finns på opensource.com en illustrativ artikel i ämnet, ”The DRM graveyard: A brief history of digital rights management in music” , där de flesta äldre tekniker som införts – och hackats, eller snarare crackats – är omnämnda.

Företaget Apple är centralt i sammanhanget eftersom man genom sin iTunes Store redan 2003 skaffade sig kontroll över den globalt digitala musikmarknaden. Med programvaran FairPlay – ett minst sagt dubiöst namn i sammanhanget – skapade Apple emellertid en rad restriktioner kring umgänget med legalt införskaffad musik: den kunde bara lyssnas på tre olika datorer (vilket senare utökades till fem), det vara till en början bara tillåtet att göra tio kopior av låtlistor (vilket senare minskades till sju) etcetera. Tekniken byggde, i korthet, på att en krypteringsfil utgjorde en del av själva musikfilen, vilka hackers förstås snart lyckades (åter)separera från varandra. Även Apple insåg att restriktionerna begränsade mer än de tillförde, men musikbranschen höll länge fast vid att skydd var nödvändiga. I början av 2007 postade Apples VD Steve Jobs ett öppet brev, ”Thoughts on Music”, i vilken han frankt påtalade att DRM aldrig fungerat – ”and may never work, to halt music piracy.”

Det var det huvudsakliga skälet till att Apple 2009 lyckades övertyga musikbranschen att sälja musik genom iTunes utan kopieringsskydd. Spärrar och restriktioner fanns dock kvar för andra medieformer, och tankegången kring digitala mediers inkodade begränsningar är fortsatt högst levande. I relation till en andrahandsmarknad för begagnade medier är det intressanta med historien bakom FairPlay och Jobs öppna brev såtillvida att principen kring digitala restriktioner fortsatt att vara stark hos Apple. Genom det så kallade Apple-ID, som man numera behöver för att köpa medier på iTunes Store, kan man till exempel idag bara auktorisera fem datorer där det inköpta innehållet kan spelas upp. Eftersom vi i en digital miljö är vana att flytta filer hit och dit skapar detta ständiga problem – vilket många säkert är bekanta med. Det är dock själva poängen med alla kopieringsskydd; digital friktion måste till för att förhindra sömnlösa funktioner.

Samtidigt har många påpekat att den här typen av digitala restriktioner är oförenliga med hur en fri marknadsekonomi fungerar. Om jag på legal väg inhandlat en produkt så äger jag den och är, enligt äganderätten, fri att göra vad jag vill med den. Det gäller för min bil – och borde också gälla för de digitala medier jag köper. Jag kan sälja min bil, och borde förstås också kunna sälja mina gamla musikfiler om jag så önskar. Äganderätt är en grundläggande juridiska rättighet, vilken ställs på huvudet om olika restriktioner ständigt kringskär den – i synnerhet om de är inkodade i själva innehållet. Det är kring sådana frågeställningar som etableringen av en legal andrahandsmarknad för digitala medier stött på patrull. I teorin har det handlat om en sorts digitalt omstöpande av mediefiler till unika, och därigenom försäljningsbara objekt – inte bara en gång utan flera. Problemet är då att de underminerar marknadens behov av brist som prisreglerande mekanism; istället hotar överflöd då varje fil potentiellt kan kopieras/säljas hur många gånger som helst. Begagnade digitala medier upphäver helt enkelt traditionell marknadslogik.

Det är en handling som ser ut som en tanke att samma år som Apple tog bort sina kopieringsskydd på musik, sökte Amazon patent för en teknik med syfte att etablera en kontrollerad elektronisk marknadsplats kring återförsäljning av e-böcker, ljud, video och dataprogram. Patentansökan, ”Secondary market for digital objects”, lämnades in 2009 – men beviljades först i januari 2013. På patentprosa beskriver den emellertid grundproblematiken på ett pedagogiskt sätt:

“När användningen av digitala objekt ökar, kan användare tänkas vilja överföra digitala objekt till andra användare. Sådana överföringar kan inkludera försäljning, hyra, gåva, lån, handel etcetera. Det uppstår dock flera problem när man överför digitala objekt. Medan ett fysiskt objekt som en kopia av en pocketbok bara finns på ett ställe i taget, kan enkla och billiga kopior av ett digitalt objekt göras utan förlust av exakthet [loss of fidelity]. Därför är kopiering och upprepad försäljning av samma digitala objekt möjligt, vilket eliminerar brist [scarcity] av det digitala objektet. […] En andrahandsmarknad som tillåter användare att på ett effektivt och tillåtande sätt överföra ’använda’ digitala objekt till andra, samtidigt som brist upprätthålls är därför önskvärd. Ett ’använt’ digitalt objekt är ett objekt till vilken en användare har legitim tillgång eller äganderätt [access rights], och för vilken användaren kan överlåta denna nyttjanderätt till andra.”

Även Apple har sökt patent för snarlik teknik, ”Managing Access to Digital Content Items”, vilken beviljades strax efter Amazons ansökan 2013. Från Apples sida förefaller det dock mest handla om hur ett använt och överfört digital objekt, det vill säga en begagnad fil, inte ska kunna återanvändas av användaren som sålt filen ifråga. Principen är densamma som med DRM-skydd, det vill säga att data lagras inherent i den begagnade filen som ”fastställer vilken användare som för närvarande har tillgång till det digitala objektet.”

Både Amazons och Apples tanke – och affärsidé – med den här typen av digital second hand är att ta ut en mindre avgift på de bytestransaktioner som utförs. En infrastruktur måste till, som om den konstrueras sinnrikt och användarvänligt har potential att bli profitabel. App Store har exempelvis varit otroligt lönsam där 30 procent av all försäljning tillfaller Apple, trots att man enbart tillhandahåller själva plattformen där handelsutbytet sker (samt förhandsgranskning av appar). Andra företag har därför inte varit sena att haka på denna trend. Mest omtalat har bolaget ReDigi varit, med konceptet att låta användare legalt sälja och köpa begagnade musikfiler av varandra genom molnteknologi snarare än DRM-teknik (och där ReDigi på snarlikt manér tar ut en mindre avgift på varje transaktion). Uppenbarligen var idén bakom ReDigi till en början att hitta en molnbaserad lösning där användare legalt kunde donera sina begagnade mediefiler som de inte längre hade användning för. Läser man på företagssajtens FAQ framgår att ReDigi ägnar sig åt ”recycled digital media”, om så i form av musik, mjukvara, e-böcker eller ljudböcker – ”we’re sort of like your favorite used record store, but for digital music files.” ReDigi är framför allt att betrakta som en molnbaserad handelsplattform; företaget köper inte själv begagnade digital musik från användare. Snarare är ReDigi ett system som gör det möjligt för användare att via molnet inte bara dela, utan också köpa och sälja begagnad digital media av varandra.

I takt med att konsumtionsbeteenden kring digitala medier förändras, där det idag finns flera (och tydliga) tecken på att vi köper mer och mer kod, så är den här affärsutvecklingen helt logisk. Den innebär emellertid ett konstant experimenterande med de juridiska ramverken kring legalt införskaffat e-material, i akt och mening att luckra upp och göra dem mindre strikta för att underlätta uppkomsten av nya marknader. Försäljning av begagnade digitala medier utgör i så motto ett alternativt till både strömmande medier och den illegala fildelningen. Det är den positiva sidan av denna utveckling. Men där finns förstås även problem. Så har exempelvis ett litet start-up-företag som ReDigi inte betraktats med blida ögon av vare sig IT- eller mediebransch. Nätgiganter som Amazon och Apple vill naturligtvis själva behålla kontrollen över denna marknad. Sedan något år tillbaka pågår också en juridisk process där musikbolaget Capitol Records stämt ReDigi för olovligt upphovsrättsintrång, eftersom den senare agerar mellanhand (och tjänat pengar på) handeln av filer man inte äger immaterialrätten till.

I viss mån har det gjort att ReDigi hamnat i centrum för en pågående diskussion kring konsumenträttigheter i den digitala tidsåldern. Den har lite olika förtecken, där bland annat äganderätt, fri information och behovet av att etablera fungerande digitala marknader utgör variationer på samma tema. Amazons tanke med sin ”Secondary market for digital objects” är till exempel besläktad med de sätt som ägare av läsplattan Kindle (med ett abonnemang på Amazon Prime), idag fritt kan låna e-böcker ur bolagets bibliotek med 500 000 e-böcker. Frågan kring försäljning av begagnade medier har såtillvida även bäring på den pågående träta om e-lån som bibliotek och förlag idag är inbegripna i. Just i USA har bibliotekssektorn fått backa; amerikanska lån av e-böcker har följaktligen utvecklats till en ganska bisarr verksamhet, där det ofta bara är möjligt att låna en e-bok åt gången – trots deras oändliga kopierbarhet. Men anledningen är förstås att det är omöjligt att bygga upp en fungerande e-boksmarknad om det samtidigt är lagligt sanktionerat att gratis låna exakt samma bokfiler två klick bort. På samma sätt oroar sig både förlags- och författarbranschen för vad legal digital second hand egentligen skulle innebära. Farhågorna är att begagnade e-böcker tämligen omgående skulle påverka försäljningen av nya e-böcker (vilket i USA är en betydande försäljningsframgång). ”Who would want to be the sucker who buys the book at full price when a week later everyone else can buy it for a penny?”, som författaren och ordföranden i den amerikanska författarföreningen, Scott Turow, drastiskt påpekat i en intervju.

Det svårt att sia om exakt vilka prismekanismer som en fungerande e-andrahandsmarknad egentligen skulle innebära – förmodligen handlar det om rejäl prispress. Situationen liknar därför den kring e-lån och bibliotek. Men begagnade filer riskerar förstås också på sikt att fullständigt underminera nedladdningsmarknaden av medier som både Amazon och Apple byggt upp sina digitala imperier kring. Här finns också betydande risker för så kallad kannibalisering i det att nya försäljningskanaler slår ut dem man redan tjänar på, som exempelvis den amerikanska försäljningen av e-böcker. Men här finns också en (viss) ekonomisk potential för de allra största nätjättarna så länge som de själva behåller kontrollen över den infrastruktur som används.

Is Google enough?

Next week at Lund university I will participate in a symposium at the Department of Philosohy entitled, “Is Google enough?”. Apparently the symposium seeks to address “questions surrounding Google’s position in today´s culture of search: Why does Google dominate the search landscape? Does Google shape how we see the world? Which relevant aspects and alternatives are part of today’s search engine landscape?” The purpose is to engage in a critical discussion on Google and existing – and imagined alternatives – which I guess the panel I will participate in will try (at least) to discuss. The symposium is organized by the interesting project, Knowledge in a Digital World – Trust, Credibility & Relevance on the Web, located at Lund university and funded by the by the Swedish Research Council between 2013-2016. Since my own project on Streaming Heritage is also funded the Swedish Research Council, I am interested in hearing about project experiences as well as the possibility and potentials of future collaborations.