Kvalitet – vad är det?

Det är något förvånande men begreppet kvalitet är nuförtiden alltmer omtalat. Det skrivs spaltmeter om kvalitetskultur, om informationskvalitet, om mediekvalitet, och inte minst om kvalitetsjournalistik. Under det analoga 1900-talet betydde kvalitet en sak, i en ny digital tid innebär det uppenbarligen något annat. Frågan är bara vad? För som vanligt när det gäller detta sliriga begrepp är det inte alldeles enkelt att vare sig definiera vad kvalitet är, eller svara på hur ett mer kvalitativ kultur- eller medieutbud ska produceras, distribueras och konsumeras. För att nu inte tala om hur man digitalt ska ta betalt för det. Nedanstående utgör ett första axplock ur min kommande bok där ett kapitel just kommer att handla om begreppet kvalitet – och hur det ställs på huvudet i en digital tid:

Man kan fråga sig varför kvalitet är så omskrivet för närvarande; vad är det som gör att detta smaknormerande men notoriskt undanglidande begrepp åtminstone delvis hamnat i fokus för mediediskussionen på senare tid? Kvalitativa budskap riskerar att drunkna i webbens informations-tsunami, heter det ibland. Den hotande kommersialiseringen av medierna spökar därtill ideligen, vilken lömskt vill dra ner kvalitetsnivåerna. Överflöd och kommersialisering är ständiga fiender som all kvalitet har att kämpa mot.

Traditionella medier (som ofta betraktar sig som långt mer kvalitativa än nya webbaserade medier) lever numera i symbios med webbens snabba nyhetsflöde och det ideliga delandet på sociala medier. De senare driver upp webbtrafiken, men de har sällan på egen hand förmågan att sätta mer betydande avtryck i offentligheten. Ändå finns det för närvarande en påtaglig oro i mediebranschen att lika rörliga som snabba medier online håller på att ta över. Överflödet gör att traditionella medier hamnat på efterkälken, åtminstone enligt detta synsätt. Det är till och med en rädsla som ibland bearbetas i fiktionens form; i teve-serien House of Cards (2013) är det exempelvis sajten Slugline som målas ut som nyhetsdrivande och granskande – och inte den klassiska pressen. Vilket nu möjligen inte är så förvånande eftersom det är webbportalen Netflix som producerat serien.

På en mindre strukturell nivå är kvalitetsbegreppet dessutom ständigt aktuellt i den digitala domänen, detta eftersom det blivit allt svårare att bestämma vad som är sant eller inte. Det gäller naturligtvis också kvalitetsbegreppet per se. Enligt Wikipedia avser begreppet ”kvalitet” värdet av egenskaper som objekt, ett subjekt eller olika aktiviteter har. Begreppet sägs åsyfta ”det inre värdet” av en produkt, en tjänst, ett verk etcetera. Kvalitet kan också ”utvärderas, mätas och systematiskt förbättras genom kvalitetssäkring.” Det senare är precis det som inträffat på Wikipedia; tittar man på begreppsdiskussionens versionshistorik ser man nämligen hur olika synsätt och tolkningar av kvalitetsbegreppet växlat över tid. I en av de första versionerna av Wikipedia-artikel hävdades det exempelvis att kvalitet var ”ett värde eller unikhet som ett subjekt eller objekt har i tid och rum, vare sig det gäller konstnärliga verk, produkter (vara, tjänst, person eller kapital)” – men nu är definitionen alltså en annan.

Artikeln om kvalitet på Wikipedia utgör ett närmast övertydligt exempel på hur granskande av informationsutbudet på internet i allt högre grad innebär att vikta källor i olika kvalitetsnivåer. Det är bland annat en viktig uppgift för skolan framöver; webbens utbud är fantastiskt – men måste alltid läsas och betraktas med en kvalitativ och källkritisk blick. Samtidigt innebär mängden information och ett närmast oöverblickbart innehållsutbud att det som traditionellt betraktats som kvalitativt högtstående – om så av konstnärliga, kulturella eller ekonomiska skäl – blivit alltmer relativt. Hur kvalitativa omdömen delges och uppfattas idag beror därför både på vem som formulerar dem – och vem som läser, lyssnar eller ser på dem. I en digital kontext har kvalitetsbegreppet alltså relativiserats, för att inte säga underminerats – men samtidigt också väsentligt uppgraderats. På webben finns förstås mängder av sajter, bloggar och nättidskrifter där en synnerligen kvalitativ diskussion förs mellan användare med betydande kunskaper. Den offentlighet som tidigare satt inne med formuleringsprivilegiet när det gällde kvalitet är därför numera på reträtt. Omvänt kan man argumentera för att det just är därför som den offentliga kvalitetsdiskussion skjutit fart inom den traditionella mediesektorn. Det sker dels av ett nyfiket intresse – men också av en rädsla för att tappa initiativet. I en tid av relativt minskat offentligt genomslag och bristande uppmärksamhet, och i allt starkare konkurrens med kakafonin av röster på webben, är det såtillvida fullt begripligt att kvalitetsdiskussionen tagit fart.

Något om nätevangelism

I den bok jag skriver på är ett av de inledande kapitlen tänkt att handla om nätevangelism – detta som ett digitalt koncept som med fördel kan användas som karakteristika för såväl digtala förespråkare (förstås), men även motståndare i form av allehanda nätskeptiker. Hursom, här är ett första utkast:

Vint Cerf är tveklöst en av de allra viktigaste personerna i internets historia. Inte sällan omtalas han som ”one of the fathers of the Internet”, bland annat på Wikipedia. Cerf uppträder lika regelbundet på konferenser om internets framtid som han bekymrat skriver om hur nätet riskerar att censureras av illvilliga regimer. En varmare förespråkare för internet kan man nästan inte tänka sig. Allt sedan 2005 arbetar Cerf för Google i rollen som ”Chief Internet Evangelist”. Det är faktiskt just så han presenteras av Google. Som officiell nätevangelist är Cerf ansvarig för att identifiera nya tekniklösningar och applikationer på nätet. I realiteten är han dock en sorts publik frontfigur som skapar trovärdighet och en betydande goodwill för Google.

Cerfs berömmelse vilar främst på det faktum att han redan 1974 var huvudförfattare till det förslag som, i korthet, lade grunden för hur data och information bör slussas på internet, detta genom etableringen av en distinkt arkitektur för datakommunikation över nätverk uppdelad i olika lager. I förslaget, ”Specification of Internet Transmission Control Program”, skisserade Cerf (och andra) konturerna till ett slags universellt kommunikationsprogram, TCP (Transmission Control Program). Det är fortfarande standard, numera under beteckningen TCP/IP. Egentligen är det en samling av flera olika kommunikationsprotokoll, men sammanfattningsvis (och förenklat) handlar det om att alla datorer runt om i världen tilldelas ett specifikt nummer, detta för att underlätta kommunikation och att rätt datapaket skickas till rätt maskin. Cerfs förslag hade nummer 675 inom ramen för det så kallade Request for Comments (RFC). Även om namnet kan förefalla underligt så är dessa bokstavliga förfrågningar om kommentarer de kanske allra viktigaste dokumenten kring hur internet växte fram som universellt nätverk. Serien med RFC-protokoll, vilka administreras av den så kallade Network Working Group och där alla dokument numera finns tillgängliga på webben – www är som bekant ett av många kommunikationsprotokoll på internet – påbörjades redan 1969. I teknikkretsar har de idag närmast legendstatus. De utgör ett slags nätevangelismens urkund, allt i form av en uppsättning av förslag, förutsättningar och kravspecifikationer för hur det tidigare forskningsnätverket Arpanet (som byggdes upp under sextiotalet av det amerikanska försvarets utvecklingsavdelning DARPA) bäst kunde omvandlas till ett fungerande intra-nätverk med olika slags syften, även om det i realiteten till en början mest användes för e-post.

RFC-protokollen har behandlat de mesta som har med internet att göra. RFC 114 från 1971 försökte till exempel underlätta delning av filer genom etableringen av ett File Transfer Protocol (FTP). Serien fortsätter än idag, och sättet som RFC-protokollen implementeras har alltid följt ett snarlikt mönster: först skrivs ett förslag som sedan tillämpas i mer eller mindre modifierad form. Därefter följer analys och ett slags observation huruvida protokollet används eller inte – varefter en feed-back-fas tar över där de möjligen förändras och anpassas. I boken The New Digital Age (2013) har Eric Schmidt och Jared Cohen hävdat att internet är en av mänsklighetens stora uppfinningar som vi paradoxalt nog inte förstår oss på. Det är kanske riktigt – om någon borde Googles förre VD veta hur det ligger till. RFC-protokollen ger emellertid en teknikhistorisk inblick i det sätt som nätet de facto växte fram. Med utgångspunkt i dem är det därför faktiskt möjligt att förstå internet – åtminstone i en ursprunglig och mer teknisk och infrastrukturell bemärkelse. De flesta skulle visserligen invända att nätet idag är så mycket mer än bara teknik. Internets socio-kulturella och ekonomiska implikationer väger nästan alltid tyngre än tekniska kravspecifikationer när exempelvis journalister eller akademiker försöker förstå och beskriva nätets natur. Med programmerarens blick uppenbaras somligt, men det mesta förblir dolt. Ändå är det tekniken som utgör fundament och drivkraft – utan den finns ingenting, en insikt vilken förespråkare för teknikdeterministiska synsätt ofta påpekar. Av det följer också att nästan all teknik alltid är påfallande historielös; till sin natur är den snarare framåtblickande. Den samtida nätdiskussionen utgör inte något undantag; följaktligen blickar den ytterst sällan bakåt. Just RFC-protokollen är därför vare sig speciellt omtalade eller omskrivna, såvida det inte handlar om den mer putslustiga uppsättning skämtprotokoll som i regel författats till den första april, till exempel protokoll 2324 om hur kaffebryggare bör kontrolleras och styras över internet.

Den digitala utvecklingen gör inte halt och den kommer nog heller inte att avstanna, det menar åtminstone Schmidt och Cohen i sin bok. För nätevangelister som dem utgör denna skinande digitala framtid rentav en sorts himmelrike. Det framstår som lika hoppingivande som någonsin den maskinära moderniteten under det förra seklet – och även där var tekniken förstås motor. Skillnaden är att samtidens sökmotorer inte behöver något annat bränsle än information. Därför hackar de nästan aldrig, och just Google har strängt taget inte någon större användning för det som varit. Historien kan med fördel reduceras till ett gigantiskt index, och det är därför inte speciellt förvånande att teknologisk amnesi är det mest utmärkande draget för dagens nätdebatt. RFC-protokollen tillhör knappast de mest välciterade källorna online, om det nu ens är bekanta. För en nätevangelist som Cerf torde det framstå som lätt bekymmersamt, för att inte säga nedslående givet hans tidigare insatser.

Vint Cerfs samtid roll som Chief Internet Evangelist är emellertid intressant på många fler sätt; begreppet nätevangelist kan nämligen tas som intäkt för att skissera olika förhålningssätt till internet och den digitala kulturen. För det är många som numera känner sig kallade att lägga ut texten om digitaliseringens möjligheter och tillkortakommanden (inklusive jag själv). Tanken med det här kapitlet, som är strukturerat kring begreppet nätevangelism, är därför att som inledning till den här boken resonera kring olika synsätt på internet och den digitala kulturen, samt de idéer som ligger bakom sådana perspektiv – inte minst mediehistoriskt. För flera av tidens tankar som de exempelvis kommer i uttryck i några av de senaste årens mest omskrivna nätböcker, har i realiteten decennier på nacken, exempelvis frågan huruvida det är tekniken som driver samhällsutvecklingen – en idé som många nätevanglister bekänner sig till – eller om det förhåller sig tvärtom. En nätevangelist som Kevin Kelly, grundare av Wired – en tidskrift som kanske inte är allra mest känd för sin kritiska och problematiserande attityd gentemot ny teknik – har rentav hävdat att den digitala teknologin idag närmast förefaller ha en egen vilja. Kellys senaste teknikdeterminstiska traktat i ämnet heter följaktligen What Technology Wants (2010). Där ses teknikutvecklingen som en ofrånkomlig och förutbestämd process. Med hjälp av en sådan teknikdeterministisk lins betraktar nätevangelismen inte sällan tekniken som en högre makt. Nätevangelismen framstår då som närmast fundamentalistisk i sin tro och påminner starkt om nyliberalers okuvliga tilltro till Marknadens kraft att lösa alla samhällsproblem.

En annan av nätevangelismens många paradoxer är att den ofta lyfter fram IT som en närmast historielös skapelse, eller omvänt – och som en logisk följd av detta argument – att nätet och den digitala framtiden kommer att vara för evigt. Det är i denna omvända bemärkelse som det ofta blir IT-politiskt intressant och därtill ekonomiskt profitabelt för de evangelister som verkligen förmår lägga ut texten. För de allra mest troende nätevangelisterna har IT-historen nämligen tagit slut; internet som vi känner det idag kommer helt sonika att vara för evigt (om än lite bättre och uppdaterat). Det är just i dessa sammanhang som nätet framstår som religion – och nätevangelismen gör skäl för sitt namn. Men internet är inte religion, vilket ibland verkar vara svårsmält för somliga. Det är snarare en högst temporär teknologi – även nätet som kommunikationsform kommer att förändras, utmanövreras och till sist försvinna. Det är den enda sanning som informationteknologins historia lär oss. Det är ett påtagligt faktum om man så bara för ett ögonblick riktar blicken mot hur exempelvis webben utvecklats de senaste decenniet, förslagsvis genom en applikation som Wayback Machine (genom vilken man kan se ögonblicksbilder av gårdagens webb.) Få saker i vårt samhälle framstår faktiskt som så föråldrade och snabbt daterade som gammal digital teknik, webbsidor inkluderade.

Digitaliseringsbok på gång …

Sedan en tid tillbaka arbetar jag med en bok som kommer på Volante förlag till hösten. Arbetsnamn är fortfarande Digitaliseringsboken, detta i väntan på att den stora titel-snilleblixten ska slå ned. Jag har haft det rättså svårt att specificera exakt vad det hela handlar om, men boken tar nu i alla fall sin utgångspunkt i ett antal begrepp (närmare bestämt nio stycken) som antingen är illustrativa för att förstå internet (och den samtida nätdiskussionen) eller (möjligen) ställts på huvudet av digitalseringen som samhällsomdanande kraft. Dessa termer är rättså olika till sin karaktär som till exempel: nätevangelism, överflöd, kvalitet, delande eller lagring – men det är begrepp med en betydande kapacitet för att förklara den samtida digitala kulturen och de återkommer med jämna mellanrum i den pågående diskussionen om nätets natur (som exempelvis idag i Sam Sundbergs elaka krönika Kalkonvarning för Googles visionärer). Min ambition är att utnyttja dessa begrepp för att diskutera digitaliseringen som en sorts process, både i samtida bemärkelse liksom mediehistoriskt. Internet har nu trots allt mer än ett halvsekel på nacken. Perspektiven i boken växlar följaktligen, och tanken är att försöka belysa en hel del samtida fenomen med ett tydligt informationshistoriskt synsätt. I slutet av maj månad är förhoppningen att mer information om boken ska vara tillgänglig här samt på Volantes hemsida – kanske då till och med en titel.

Piratströmmar

Idag har Tobias Brandel i SvD skrivit två utmärkta artiklar om fildelningen som blir alltmer strömmande, Svensk illegal streaming växer snabbt liksom Stora faran: att Svensson hänger på. Kongenialt med sitt ämne (men knappast med den intentionen) är de numera delvis bara tillgängliga bakom betalvägg. Hursom, å den ena sidan är det idag helt uppenbart att det finns somliga som de facto tjänar pengar på fildelningen (vilket inte alltid var klart under The Pirate Bay-rättegången), å den andra sidan är de legala alternativen alltjämt för klena. Utbud reglerar efterfrågan och piratströmmar är långt mer populära än lugna och kommersiellt kvalimiga vattnen hos Netflix et al. För som Brandel skriver: “Trots de senaste månadernas kampanjer för lagliga streamingtjänster lever de inte upp till konsumenternas önskemål. Varför ligger bara två av sex säsonger av ”Mad Men” på Netflix? Varför är textningen på HBO Nordic så tafflig? Varför finns senaste Tarantinorullen ”Django Unchained” inte på SF Anytime? Så länge sådana frågetecken kvarstår kommer pirattittarnas samvete inte att vara riktigt lika dåligt som det kanske borde vara.” Mellan fildelandets fulaste stigma, det vill säga det ovedersägliga faktum att någon tjänar reklampengar på material de inte har någon rätt till, och (främst) filmbranschens oförmåga att släppa etablerade affärsmodeller med hierarkiska visningsfönster, utspelas för närvarande möjligen en sorts principiell slutkamp i de tio år långa fildelningskriget.

Digital humaniora och boolesk logik

Inom det forskningsfält jag själv är verksam – mediestudier i vid bemärkelse – händer för närvarande det mest spännande initiativen i olika former av digitala medieprojekt. Det är inte speciellt konstigt givet medieutvecklingen; till och med filminstitutet inser numera att de måste digitalisera sitt arkiv. Digital humaniora är ett ofta använt paraplybegrepp för olika former av humanistisk forskning med digitala förtecken. Frågan är emellertid hur forskningsfält som exempelvis mediestudier och digital humaniora egentligen relaterar till varandra? Det finns naturligtvis flera beröringspunkter men än så länge är de i mycket separerade; få medievetare skulle idag se sig som digitala humanister (även om jag själv står och väger i frågan).

I ämnet har Jason Rhody nyligen skrivit en intressant bloggpost, The Boolean Logic of the Digital Humanities. Där påpekar han boolesk logik möjligen kan komma till undsättning: “boolean logic is a relatively straight-forward series of choices (AND, OR, NOT) that can generate complex results; it’s also a method that can control fields and establish taxonomies. … Instead of focusing only on defining [Digital Humanities], as though we can come to a single result from a complex Boolean query, I’d like to suggest that we also consider the practice of DH as a recurring process of refining. Boolean logic presumes winnowing and filtering, but as any scholar who has spent a few hours in the library knows, it also presumes iteration. The value in Boolean logic is that it allows us to start with some basic principles and come to very different results of equal value.” Digital humaniora blir här alltså till ett slags processliknande praktik med vars hjälp man exempelvis kan bedriva mediestudier. Det förefaller som ett produktivt sätt att se på saken. Den egna ämnesidentiteten behöver inte överges – men kan samtidigt tilldelas drivkraft genom en ny uppsättning digitala verktyg och instrument.

Om öppet arkiv i SvD

Idag har jag publicerat en kommentar i SvD apropå nylanseringen av SVTs Öppet arkiv. Artikeln, Öppet arkiv återger
televisionen ett minne
resonerar kort om hur medier på webben alltmer stöps i en sorts arkivarisk form. Jag har tidigare skrivit om detta, bland annat i artikeln “Televisionen som arkiv – om webb-tv” i boken Svensk Television – en mediehistoria (2008). Den artikeln kan laddas ned här.

KB utan GPS

Igår skrev Jesper Högström en artikel i Expressen, Undertrycket som klargör en hel del om KBs prekära situation. Ingressen slår an temat: “I Kungliga bibliotekets underjordiska rum sträcker sig hyllkilometer av ickedigitaliserad litteratur.
Jesper Högström tar hissen ner från det flyktiga IT-samhällets ständiga krav på ny teknikanpassning.” I artikeln påpekas bland annat att kostnaderna för digital långtidsarkivering och kostnaderna för att lagring generellt är så stora att KB inte har möjlighet att presentera det som samlas in. “Går det ut över andra delar av KB:s uppdrag?”, frågar sig Högström. Ja svarar min min kollega Janis Kreslins: “- Vi måste lägga ner mer på förvärv, vi hänger inte med i dag. Vi kan inte bara ha svenskt tryck, det måste kontextualiseras, annars blir det som… en GPS-sändare som inte fungerar!”

Om digitala tv-serier i SvD

Idag har jag publicerat en artikel i SvD, Gamla berättelser i nya format som ingår i serien “Från dumburk till smart flöde”. Texten återfinns även nedan i en något längre (och bitvis annorlunda språkdräkt):

Det är idag lätt att glömma att TV länge var en närmast hatad medieform. Televisionen anklagades för att underhålla oss alla till döds (Postman), somliga menade att det var ett medium ”helt utan kvalitet” (Schein), och andra såg bara kulturindustriell manipulation och ideologisk indoktrinering. Dumburken var inget annat än ett nollmedium (Enzensberger).

Men televisionen, detta enligt McLuhan ”svala medium” med ”låg definition och ringa mängd information”, är idag hetare än någonsin. McLuhan hade fel. Men som ofta även rätt eftersom svala medier enligt hans synsätt karakteriserades av ”stort aktivt deltagande” från publikens sida. För i digital form håller televisionen numera genom social medieinteraktion att fyllas av mer än sitt eget innehåll. TV-mediet är budskapet; programmen är fortsatt i centrum men digitala aktiviteter runtikring framstår som nästan lika viktiga. Chat och sociala spellistor har kompletterats av kollektivt tittande (och kommenterande) över nätverk. Live och realtid spelar roll – framför allt när det gäller sport – men play-funktionaliteter gör alltmer mediet tidsoberoende. Social viewing accentuerar därför programmens beständighet och popularitet – en sorts lägerelden 2.0. En TV-series så kallade tweetability har på kort tid blivit viktigt för ett formats framgång eller inte, åtminstone bland potentiella annonsörer.

Få medieformer har därför genomgått en snarlik revival som televisionen under det senaste tjugo åren. TV må ha varit ett nollmedium, men digitaliseringen av TV är snarare detta mediums Stunde Null. Genremässigt är utvecklingen kanske allra tydligast på TV-seriens område. Om Dennis Potters TV-serier som The Singing Detective (1986) låg till grund för senare HBO-satsningar som The Sopranos (1999-2007), så har TV-serien stadigt och ständigt ökat sin kulturella prestige. HBO-berättelserna har i regel inte varit fixerade utan skrivits vidare i takt med seriernas eventuella publika genomslag. Det är en väsensskild narrativ strategi i jämförelse med den klassiska Hollywoodfilmen, men samtidigt identisk med den litterära tidnings- och tidskriftsföljetongen under 1800-talet vilken bokstavligen framskrevs i nummer efter nummer.

Digitala produktionsformer liknar alltså dem från 1800-talet, medan distribution och konsumtionsbeteenden radikalt förändrats. Främst är det olika play-tekniker som genererat nya tittarbeteenden. De har i sin tur påverkar hur det traditionella TV-tittandet – som alltjämt är omfattande och dominerar tittarmässigt – numera programmeras i det interaktiva bildflödets tecken. Fler än 1,6 miljoner svenskar SMS-röstade under finalen av årets Melodifestival. Vad som är verkligt revolutionerande är de helt igenom nya mediebeetenden som snabbt etablerats. Idag ser vi TV-serier ungefär som vi läser böcker, det vill säga vi väljer själva när, var och hur länge vi ska titta. Och trenden är att många vill ha mer. Min egen frustration den senaste månaderna över att behöva vänta en hel vecka på nästa avsnitt av Molanders har varit högst påtaglig. Nya sätt att se sätter nämligen snabbt nya beteenden. I USA är det som kallas binge watching – att se alla avsnitt i en TV-serie på en och samma gång över en helg – ett omtalat och statistiskt vederlagt fenomen. Det har lett till att Netflix nyligen lanserade alla avsnitt av den egenproducerade House of Cards samtidigt.

Det är ännu för tidig att skönja tendenser i hur förändrad mediekonsumtion påverkar såväl dramaturgi som televisuellt berättandet. House of Cards finns att se i sin helhet, men den är fortsatt indelad i 13 distinkta avsnitt med mängder av parallella intriger. Att berätta med bilder baserar sig på sekelgamla konventioner och genrer. Den typ av kryssklippning som D. W. Griffith lanserade för mer än hundra år sedan för att accentuera dramaturgi och seriell växelverkan mellan olika intriger kommer med all sannolikhet att utgöra default ännu en tid. Samtidigt analyseras tittardata som aldrig förr, och dessutom antyder mediepraktiker som binge watching en ny sorts televisuellt medieumgänge. Det skiljer sig betydligt från den form av interaktivitet som i vissa narratologiska cyberkretsar hyllades under 1990-talet, med ständiga subjektiva val, alternativa händelseförlopp och individualiserad dramaturgi. Stilbildande dataspel som Myst (1993) föreföll då utlova nya former för interaktivt berättande. TV-seriens framtid låg i dataspelandets dramaturgi. Men det var en televisuell interaktivitet som lockade ganska få tittare; de flesta vill få sig en god historia berättad – inte pussla ihop den själv.

Somliga stod dock på sig och hävdade att en snarlik interaktivitet rentav skulle leda berättelserna utanför mediets gränser genom så kallat transmedialt berättande. Matrix-trilogins berättelseform, där tre spelfilmer, ett tiotal animerade filmer och två datorspel, tillsammans berättade historien om människans kamp mot maskinerna utgör det kanske bästa exemplet. Play-tjänster för strömmande medieformat handlar dock om en interaktivitet som inte beblandar sig med berättandet per se – åtminstone inte ännu. De ger makt åt tittaren, och de har dels drivits fram av DVD-formatet, där TV-serier under flera år varit en storsäljande genre, dels fildelandet av TV-serier vilka inte sällan förpackas i nedladdningsbara säsongspaket à la 15 GB på sajter som The Pirate Bay.

Personaliserad mediekonsumtion påverkar förstås annonsmarknaden kring TV, men den går också på tvärs mot synen på TV som ett ständigt och oavbrutet bildflöde. Föreställningen om the flow of television, som Raymond Williams redan på 1970-talet hävdade var specifikt för mediet, stämmer dock inte längre i digital tappning. Det bakåtlutade och planlösa zappandet med fjärrkontrollen i handen är numera ersatt av en framåtlutad målmedeten mediekonsumition på datorn, mobilen eller surfplattan där program efter program aktivt väljs ut efter personliga preferenser. Utbudet är oändligt och vart reklamen ska in i digital form är oklart – även den kan ju väljas (bort).

I strömmande form ser därtill TV-serien alltid den som tittar; data flödar alltid åt båda håll samtidigt. Mer än hälften av intäkterna hos Netflix kommer numera från algoritmbaserade rekommendationer hämtade ur den data som användare genererar. Mediet väljer innehåll åt åskådaren. Netflix vet inte bara vad deras 33 miljoner användare gillar att titta på; det vet också hur det strömmande TV-tittandet sker. Att mäta medievanor ner på detaljnivå kommer framöver att bli vardagsmat – och är det redan i vissa sammanhang. Att sådana dataströmmar kommer att återverka på TV-utbudet är ingen vild gissning. Återverkan är dock (som fildelning) reciprok; den rör sig åt båda håll samtidigt, i synnerhet när nya produktions-, distributions- och konsumtionsbeteenden konfigurerat om berättandes själva förutsättningar. Å den ena sidan finns här stora möjligheter att skräddarsy format som passar publiken (och annonsörer), å den andra sidan kan data, sociala medieflöden och statistik lätt vilseleda och frysa konventioner. Detaljerad data kan då något paradoxalt bli till en sorts dramaturgisk bromskloss. Det vill säga, baserat på tidigare datamönster görs TV-serier som bolag tror – eller snarare vet – att folk vill se. Nya digitala TV-tjänster riskerar då att konservera dramaturgi och begränsa narrativa strategier. Det är inte att vara spekulativ. Trots sitt innovativa format baserar sig trots allt (eller snarar på grund av) Netflix House of Cards på en tjugo år gammal BBC-serie.

Public service har bekymmer

Jesper Falkheimer sätter i dagens SvD fingret på en alltmer bekymmersam situation, nämligen relationen mellan public service och tidningsbranschen – Sanktionerade medier ger obalans. Bråket mellan SR och TU tidigare den här veckan här just större implikationer än många tror. För den är precis som Falkheimer skriver ett tecken (bland många) på en betydligt mer omfattande medial förändring: “Att medielandskapet förändras är en ständig sanning. Det var lika sant på 1920-talet som det är idag. Men det är svårt att bortse från att vi lever i en brytningstid för medierna. Maktbalansen mellan public service och privatägd dagspress som etablerats under 1900-talet är hotad och konsekvensen blir ändrade villkor för det offentliga samtalet. Det politiska stödet för public service är massivt. Men få politiker förstår att dagspressens kris handlar om mer än enskilda tidningsföretag.” Med all sanolikhet (och förhoppningsvis) kommer debatten att fortsätta på SvD.

Om teletotal på humanioradagar

Imorgon ska jag föreläsa på humanioradagarna i Uppsala, rubrik: Teletotal. Om kampen mellan Apple, Google & Facebook. Är inte helt klar med mitt föredrag än, men tanken är att prata om detta:

Till synes enkla begrepp som öppet och slutet framstår som allt viktigare dialektiska drivkrafterna för internets och den digitala domänens utveckling. Ett fåtal amerikanska företag dikterar idag villkoren för denna, och kanhända lever vi redan den datalogiska (mar)drömmen om teletotal (Hannes Alfvén). Med ett slags rudimentär hegeliansk logik står det öppna Google (tes) mot det slutna Apple (anti-tes) – och frågan är vilken social mediesyntes (Facebook?) som blir resultatet. Användarmassans Google är lika beroende av ett öppet som reklamfinansierat nät, därav animositeten mot Facebooks socio-slutna vänuniversum. Apple säljer i sin tur lika bedårande som slutna apparater, men delar av affärsidén baseras samtidigt på ett öppet utvecklingsverktyg för externproducerade medier och programkod – som Apple skaffat sig en närmast diktatorisk kontroll över.