Idag har jag publicerat en kommentar i SvD apropå den så kallade Prismaffären där det avslöjats att National Security Agency samarbetat med ett antal amerikanska teknik- och webbföretag. Artikeln, En datalogisk ond cirkel har slutits ger en kort historik över det som inträffat. En något längre version av texten lyder så här:
Precis samtidigt som Prismaffären briserade och det avslöjades att National Security Agency samarbetet med ett antal amerikanska teknik- och webbföretag, lanserade ett av dem, Apple, en helt ny produktlinje och ett kommande mobilt operativsystem, iOS7. En tillfällighet kanhända. Ändå finns här flera kopplingar som delvis kastar ett nytt ljus på människors nätbeteende och allas vårt förhållande till datorer och mobila kloner. En sorts datalogisk ond cirkel verkar nämligen att ha slutits. Hårddraget är datorn en produkt av kalla kriget. Dess militära potential att beräkna och övervaka var anledningen till att USA under efterkrigstiden satsade miljarder dollar i ett militär-industriellt komplex med numeriska förtecken. Övervakning var här ingen anomali – snarare default. Efterkrigstidens kulturella föreställningar om det framväxande datorsamhället är därför knappast speciellt insmickrande. I tidens science fiction vimlar det exempelvis av pessimistiska datadystopier, från George Orwell till Philip K. Dick eller Hannes Alféns satir, Sagan om den stora datamaskinen (1966) – som vet allt om alla och där människorna till slut frivilligt lämnar ifrån sig förmågan att tänka till datorna. Mest känd är förstås den lika elaka som suggestiva superdatorn HAL i boken och filmen 2001. Trots en bokstavskombination som gjorde att den alltid skulle ligga ett steg före IBM, löper ju HAL amok och tar kål på hela rymdskeppets besättning.
1984 lanserade Apple sin första Macdator – detta i en berömd reklamfilm där en kvinna på orwellskt manér slungade en slägga på den allerstädes närvarande storebror IBM som dominerat datamarknaden. Den kongeniala slutklämmen – ”And you’ll see why 1984 won’t be like ”1984” – aviserade att Apple med sina nya hemmadatorer skulle revolutionera datoranvändningen. Storebror skulle inte längre se dig, och såtillvida är det synnerligen ironiskt att just Apple samarbetat inom Prismprogrammet. Åttiotalet framstår som en period då synen på datorer förskjuts. Som Fred Turner påpekat i boken, From counterculture to cyberculture är en av datorhistoriens mest fascinerande omställningar hur föreställningen om den lika gigantiska som avhumaniserade mainframe-maskinen – symboliserad av ”Big Blue” (IBM) med kalla-krigs-teknokrater redo att när som helst trycka på domedagsknappen – gradvis ersätts av idén om att personliga, små Mac och PC-datorer är demokratins och det fria informationsutbytets stora hopp. Den datorisering av samhället som tidigare betraktats som ett hot hade alltså ett kvartssekel senare ersatts av närmast utopiska föreställningar där det inte längre verkade finnas någon gräns för vad de personliga små datorerna och deras mjukvara kunde åstadkomma. Det är föreställningar som accentueras närmast exponentiellt av internets och webbens publika framväxt under nittiotalet.
Men nu har alltså denna data- och cyberoptimism fått sig en rejäl knäck. Människor förändrar visserligen inte sina data- och nätbeteenden i första taget, men genom Prismaffärens mediala uppmärksamhet kommer nog ånyo föreställningar om det dystopiska datasamhället att växa fram. Medvetenheten ökar att kod faktiskt aldrig är (och har varit) något som man kan lita på.
Den debatt och diskussion som blossat upp apropå amerikanska NSA och deras Prism-program i samarbete med flera nätjättar har ånyo rest frågor om nätsamhällets mörka sidor. Samtidigt är det av vikt att komma ihåg att frågorna inte är nya; tvärtom har de under hela efterkrigstiden alltid funnits en rädsla för vad datorerna och samhällets datorisering möjligen för med sig. SR Minnen plockade till exempel framfusigt fram ett program på detta tema häromdagen, Vi lever i ett övervakningssamhälle från 1976.
Ett annat historiserande exempel återfinns i den bok som jag och Per Strömbäck gav ut för en tid sedan, Myten om internet, där Anders R. Olsson skrev en utmärkt artikel på samma tema, “Vem är storebror? Myten om Integriteten”. I inledningen av texten slog han bland annat fast: “Har man, som undertecknad, följt debatter och lagstiftning om personlig integritet sedan slutet av 1970-talet framstår mönstret tydligt. En lång rad reformer med ”personlig integritet” som nyckelord har resulterat i 1) att statens (den offentliga maktens) informationsövertag gentemot medborgarna har stärkts, och 2) att medborgarnas informationsfrihet har beskurits. Med informationsfrihet menas rätten att göra allt som överhuvudtaget kan göras med information: samla in den, lagra den, bearbeta, omdisponera, analysera, sprida.” Anders R. Olsson gick bort kort efter det att denna artikel publicerats, men jag tror att han gärna såg att den lästes i ljuset av de senaste dagarnas händelser. Artikeln kan därför laddas ned här.
Idag har jag publicerat en recension av Chris Andersons bok, Makers i SvD. Jag är ganska så kritisk; recensionen inleds så här: “Barnkammaren var länge något av teknik- och mediehistoriens skräphög. Där samlades mekaniska apparater och optiska leksaker som fenakistoskop och trollyktor vilka tidigare var attraktiva storsäljare på marknaden men som därefter tappade i värde och förpassades. Det var då. Numera är det som om historien ändrat riktning, för det är i lekrummet som framtiden verkar byggas. Utgångspunkten för ”Makers” är att Chris Anderson försökte få sina barn intresserade av att bygga robotar med legobitar, produkter lanserade under namnet Lego Mindstorm. De ledsnade snabbt, men inte Anderson. I stället inspirerades han och startade företaget 3D Robotics som i dag tillverkar enkla, luftburna drönare för privat bruk. Affärerna blomstrar. Anderson är i dag rentav den främsta talespersonen för den så kallade maker movement, en sorts sammansmältning av ny digital teknik och traditionellt hantverk där folk konstruerar produkter, inte sällan med hjälp av 3D-skrivare vilka av flytande plast printar reella objekt.
Recensionen kan laddas ned här.
Imorgon är jag opponent på Anna-Maria Hällgrens konstvetenskapliga avhandling, Skåda all världens uselhet: Visuell pedagogik och reformism i det sena 1800-talets populärkultur. Alla disputationer är alltid öppna för vem som helst, och information om evenemanget finns här. I sedvanlig stil hoppas jag på ett givande samtal; jag kommer väl förbered – det har varit en spännande bok att läsa.
Det är något förvånande men begreppet kvalitet är nuförtiden alltmer omtalat. Det skrivs spaltmeter om kvalitetskultur, om informationskvalitet, om mediekvalitet, och inte minst om kvalitetsjournalistik. Under det analoga 1900-talet betydde kvalitet en sak, i en ny digital tid innebär det uppenbarligen något annat. Frågan är bara vad? För som vanligt när det gäller detta sliriga begrepp är det inte alldeles enkelt att vare sig definiera vad kvalitet är, eller svara på hur ett mer kvalitativ kultur- eller medieutbud ska produceras, distribueras och konsumeras. För att nu inte tala om hur man digitalt ska ta betalt för det. Nedanstående utgör ett första axplock ur min kommande bok där ett kapitel just kommer att handla om begreppet kvalitet – och hur det ställs på huvudet i en digital tid:
Man kan fråga sig varför kvalitet är så omskrivet för närvarande; vad är det som gör att detta smaknormerande men notoriskt undanglidande begrepp åtminstone delvis hamnat i fokus för mediediskussionen på senare tid? Kvalitativa budskap riskerar att drunkna i webbens informations-tsunami, heter det ibland. Den hotande kommersialiseringen av medierna spökar därtill ideligen, vilken lömskt vill dra ner kvalitetsnivåerna. Överflöd och kommersialisering är ständiga fiender som all kvalitet har att kämpa mot.
Traditionella medier (som ofta betraktar sig som långt mer kvalitativa än nya webbaserade medier) lever numera i symbios med webbens snabba nyhetsflöde och det ideliga delandet på sociala medier. De senare driver upp webbtrafiken, men de har sällan på egen hand förmågan att sätta mer betydande avtryck i offentligheten. Ändå finns det för närvarande en påtaglig oro i mediebranschen att lika rörliga som snabba medier online håller på att ta över. Överflödet gör att traditionella medier hamnat på efterkälken, åtminstone enligt detta synsätt. Det är till och med en rädsla som ibland bearbetas i fiktionens form; i teve-serien House of Cards (2013) är det exempelvis sajten Slugline som målas ut som nyhetsdrivande och granskande – och inte den klassiska pressen. Vilket nu möjligen inte är så förvånande eftersom det är webbportalen Netflix som producerat serien.
På en mindre strukturell nivå är kvalitetsbegreppet dessutom ständigt aktuellt i den digitala domänen, detta eftersom det blivit allt svårare att bestämma vad som är sant eller inte. Det gäller naturligtvis också kvalitetsbegreppet per se. Enligt Wikipedia avser begreppet ”kvalitet” värdet av egenskaper som objekt, ett subjekt eller olika aktiviteter har. Begreppet sägs åsyfta ”det inre värdet” av en produkt, en tjänst, ett verk etcetera. Kvalitet kan också ”utvärderas, mätas och systematiskt förbättras genom kvalitetssäkring.” Det senare är precis det som inträffat på Wikipedia; tittar man på begreppsdiskussionens versionshistorik ser man nämligen hur olika synsätt och tolkningar av kvalitetsbegreppet växlat över tid. I en av de första versionerna av Wikipedia-artikel hävdades det exempelvis att kvalitet var ”ett värde eller unikhet som ett subjekt eller objekt har i tid och rum, vare sig det gäller konstnärliga verk, produkter (vara, tjänst, person eller kapital)” – men nu är definitionen alltså en annan.
Artikeln om kvalitet på Wikipedia utgör ett närmast övertydligt exempel på hur granskande av informationsutbudet på internet i allt högre grad innebär att vikta källor i olika kvalitetsnivåer. Det är bland annat en viktig uppgift för skolan framöver; webbens utbud är fantastiskt – men måste alltid läsas och betraktas med en kvalitativ och källkritisk blick. Samtidigt innebär mängden information och ett närmast oöverblickbart innehållsutbud att det som traditionellt betraktats som kvalitativt högtstående – om så av konstnärliga, kulturella eller ekonomiska skäl – blivit alltmer relativt. Hur kvalitativa omdömen delges och uppfattas idag beror därför både på vem som formulerar dem – och vem som läser, lyssnar eller ser på dem. I en digital kontext har kvalitetsbegreppet alltså relativiserats, för att inte säga underminerats – men samtidigt också väsentligt uppgraderats. På webben finns förstås mängder av sajter, bloggar och nättidskrifter där en synnerligen kvalitativ diskussion förs mellan användare med betydande kunskaper. Den offentlighet som tidigare satt inne med formuleringsprivilegiet när det gällde kvalitet är därför numera på reträtt. Omvänt kan man argumentera för att det just är därför som den offentliga kvalitetsdiskussion skjutit fart inom den traditionella mediesektorn. Det sker dels av ett nyfiket intresse – men också av en rädsla för att tappa initiativet. I en tid av relativt minskat offentligt genomslag och bristande uppmärksamhet, och i allt starkare konkurrens med kakafonin av röster på webben, är det såtillvida fullt begripligt att kvalitetsdiskussionen tagit fart.
I den bok jag skriver på är ett av de inledande kapitlen tänkt att handla om nätevangelism – detta som ett digitalt koncept som med fördel kan användas som karakteristika för såväl digtala förespråkare (förstås), men även motståndare i form av allehanda nätskeptiker. Hursom, här är ett första utkast:
Vint Cerf är tveklöst en av de allra viktigaste personerna i internets historia. Inte sällan omtalas han som ”one of the fathers of the Internet”, bland annat på Wikipedia. Cerf uppträder lika regelbundet på konferenser om internets framtid som han bekymrat skriver om hur nätet riskerar att censureras av illvilliga regimer. En varmare förespråkare för internet kan man nästan inte tänka sig. Allt sedan 2005 arbetar Cerf för Google i rollen som ”Chief Internet Evangelist”. Det är faktiskt just så han presenteras av Google. Som officiell nätevangelist är Cerf ansvarig för att identifiera nya tekniklösningar och applikationer på nätet. I realiteten är han dock en sorts publik frontfigur som skapar trovärdighet och en betydande goodwill för Google.
Cerfs berömmelse vilar främst på det faktum att han redan 1974 var huvudförfattare till det förslag som, i korthet, lade grunden för hur data och information bör slussas på internet, detta genom etableringen av en distinkt arkitektur för datakommunikation över nätverk uppdelad i olika lager. I förslaget, ”Specification of Internet Transmission Control Program”, skisserade Cerf (och andra) konturerna till ett slags universellt kommunikationsprogram, TCP (Transmission Control Program). Det är fortfarande standard, numera under beteckningen TCP/IP. Egentligen är det en samling av flera olika kommunikationsprotokoll, men sammanfattningsvis (och förenklat) handlar det om att alla datorer runt om i världen tilldelas ett specifikt nummer, detta för att underlätta kommunikation och att rätt datapaket skickas till rätt maskin. Cerfs förslag hade nummer 675 inom ramen för det så kallade Request for Comments (RFC). Även om namnet kan förefalla underligt så är dessa bokstavliga förfrågningar om kommentarer de kanske allra viktigaste dokumenten kring hur internet växte fram som universellt nätverk. Serien med RFC-protokoll, vilka administreras av den så kallade Network Working Group och där alla dokument numera finns tillgängliga på webben – www är som bekant ett av många kommunikationsprotokoll på internet – påbörjades redan 1969. I teknikkretsar har de idag närmast legendstatus. De utgör ett slags nätevangelismens urkund, allt i form av en uppsättning av förslag, förutsättningar och kravspecifikationer för hur det tidigare forskningsnätverket Arpanet (som byggdes upp under sextiotalet av det amerikanska försvarets utvecklingsavdelning DARPA) bäst kunde omvandlas till ett fungerande intra-nätverk med olika slags syften, även om det i realiteten till en början mest användes för e-post.
RFC-protokollen har behandlat de mesta som har med internet att göra. RFC 114 från 1971 försökte till exempel underlätta delning av filer genom etableringen av ett File Transfer Protocol (FTP). Serien fortsätter än idag, och sättet som RFC-protokollen implementeras har alltid följt ett snarlikt mönster: först skrivs ett förslag som sedan tillämpas i mer eller mindre modifierad form. Därefter följer analys och ett slags observation huruvida protokollet används eller inte – varefter en feed-back-fas tar över där de möjligen förändras och anpassas. I boken The New Digital Age (2013) har Eric Schmidt och Jared Cohen hävdat att internet är en av mänsklighetens stora uppfinningar som vi paradoxalt nog inte förstår oss på. Det är kanske riktigt – om någon borde Googles förre VD veta hur det ligger till. RFC-protokollen ger emellertid en teknikhistorisk inblick i det sätt som nätet de facto växte fram. Med utgångspunkt i dem är det därför faktiskt möjligt att förstå internet – åtminstone i en ursprunglig och mer teknisk och infrastrukturell bemärkelse. De flesta skulle visserligen invända att nätet idag är så mycket mer än bara teknik. Internets socio-kulturella och ekonomiska implikationer väger nästan alltid tyngre än tekniska kravspecifikationer när exempelvis journalister eller akademiker försöker förstå och beskriva nätets natur. Med programmerarens blick uppenbaras somligt, men det mesta förblir dolt. Ändå är det tekniken som utgör fundament och drivkraft – utan den finns ingenting, en insikt vilken förespråkare för teknikdeterministiska synsätt ofta påpekar. Av det följer också att nästan all teknik alltid är påfallande historielös; till sin natur är den snarare framåtblickande. Den samtida nätdiskussionen utgör inte något undantag; följaktligen blickar den ytterst sällan bakåt. Just RFC-protokollen är därför vare sig speciellt omtalade eller omskrivna, såvida det inte handlar om den mer putslustiga uppsättning skämtprotokoll som i regel författats till den första april, till exempel protokoll 2324 om hur kaffebryggare bör kontrolleras och styras över internet.
Den digitala utvecklingen gör inte halt och den kommer nog heller inte att avstanna, det menar åtminstone Schmidt och Cohen i sin bok. För nätevangelister som dem utgör denna skinande digitala framtid rentav en sorts himmelrike. Det framstår som lika hoppingivande som någonsin den maskinära moderniteten under det förra seklet – och även där var tekniken förstås motor. Skillnaden är att samtidens sökmotorer inte behöver något annat bränsle än information. Därför hackar de nästan aldrig, och just Google har strängt taget inte någon större användning för det som varit. Historien kan med fördel reduceras till ett gigantiskt index, och det är därför inte speciellt förvånande att teknologisk amnesi är det mest utmärkande draget för dagens nätdebatt. RFC-protokollen tillhör knappast de mest välciterade källorna online, om det nu ens är bekanta. För en nätevangelist som Cerf torde det framstå som lätt bekymmersamt, för att inte säga nedslående givet hans tidigare insatser.
Vint Cerfs samtid roll som Chief Internet Evangelist är emellertid intressant på många fler sätt; begreppet nätevangelist kan nämligen tas som intäkt för att skissera olika förhålningssätt till internet och den digitala kulturen. För det är många som numera känner sig kallade att lägga ut texten om digitaliseringens möjligheter och tillkortakommanden (inklusive jag själv). Tanken med det här kapitlet, som är strukturerat kring begreppet nätevangelism, är därför att som inledning till den här boken resonera kring olika synsätt på internet och den digitala kulturen, samt de idéer som ligger bakom sådana perspektiv – inte minst mediehistoriskt. För flera av tidens tankar som de exempelvis kommer i uttryck i några av de senaste årens mest omskrivna nätböcker, har i realiteten decennier på nacken, exempelvis frågan huruvida det är tekniken som driver samhällsutvecklingen – en idé som många nätevanglister bekänner sig till – eller om det förhåller sig tvärtom. En nätevangelist som Kevin Kelly, grundare av Wired – en tidskrift som kanske inte är allra mest känd för sin kritiska och problematiserande attityd gentemot ny teknik – har rentav hävdat att den digitala teknologin idag närmast förefaller ha en egen vilja. Kellys senaste teknikdeterminstiska traktat i ämnet heter följaktligen What Technology Wants (2010). Där ses teknikutvecklingen som en ofrånkomlig och förutbestämd process. Med hjälp av en sådan teknikdeterministisk lins betraktar nätevangelismen inte sällan tekniken som en högre makt. Nätevangelismen framstår då som närmast fundamentalistisk i sin tro och påminner starkt om nyliberalers okuvliga tilltro till Marknadens kraft att lösa alla samhällsproblem.
En annan av nätevangelismens många paradoxer är att den ofta lyfter fram IT som en närmast historielös skapelse, eller omvänt – och som en logisk följd av detta argument – att nätet och den digitala framtiden kommer att vara för evigt. Det är i denna omvända bemärkelse som det ofta blir IT-politiskt intressant och därtill ekonomiskt profitabelt för de evangelister som verkligen förmår lägga ut texten. För de allra mest troende nätevangelisterna har IT-historen nämligen tagit slut; internet som vi känner det idag kommer helt sonika att vara för evigt (om än lite bättre och uppdaterat). Det är just i dessa sammanhang som nätet framstår som religion – och nätevangelismen gör skäl för sitt namn. Men internet är inte religion, vilket ibland verkar vara svårsmält för somliga. Det är snarare en högst temporär teknologi – även nätet som kommunikationsform kommer att förändras, utmanövreras och till sist försvinna. Det är den enda sanning som informationteknologins historia lär oss. Det är ett påtagligt faktum om man så bara för ett ögonblick riktar blicken mot hur exempelvis webben utvecklats de senaste decenniet, förslagsvis genom en applikation som Wayback Machine (genom vilken man kan se ögonblicksbilder av gårdagens webb.) Få saker i vårt samhälle framstår faktiskt som så föråldrade och snabbt daterade som gammal digital teknik, webbsidor inkluderade.
Sedan en tid tillbaka arbetar jag med en bok som kommer på Volante förlag till hösten. Arbetsnamn är fortfarande Digitaliseringsboken, detta i väntan på att den stora titel-snilleblixten ska slå ned. Jag har haft det rättså svårt att specificera exakt vad det hela handlar om, men boken tar nu i alla fall sin utgångspunkt i ett antal begrepp (närmare bestämt nio stycken) som antingen är illustrativa för att förstå internet (och den samtida nätdiskussionen) eller (möjligen) ställts på huvudet av digitalseringen som samhällsomdanande kraft. Dessa termer är rättså olika till sin karaktär som till exempel: nätevangelism, överflöd, kvalitet, delande eller lagring – men det är begrepp med en betydande kapacitet för att förklara den samtida digitala kulturen och de återkommer med jämna mellanrum i den pågående diskussionen om nätets natur (som exempelvis idag i Sam Sundbergs elaka krönika Kalkonvarning för Googles visionärer). Min ambition är att utnyttja dessa begrepp för att diskutera digitaliseringen som en sorts process, både i samtida bemärkelse liksom mediehistoriskt. Internet har nu trots allt mer än ett halvsekel på nacken. Perspektiven i boken växlar följaktligen, och tanken är att försöka belysa en hel del samtida fenomen med ett tydligt informationshistoriskt synsätt. I slutet av maj månad är förhoppningen att mer information om boken ska vara tillgänglig här samt på Volantes hemsida – kanske då till och med en titel.
Idag har Tobias Brandel i SvD skrivit två utmärkta artiklar om fildelningen som blir alltmer strömmande, Svensk illegal streaming växer snabbt liksom Stora faran: att Svensson hänger på. Kongenialt med sitt ämne (men knappast med den intentionen) är de numera delvis bara tillgängliga bakom betalvägg. Hursom, å den ena sidan är det idag helt uppenbart att det finns somliga som de facto tjänar pengar på fildelningen (vilket inte alltid var klart under The Pirate Bay-rättegången), å den andra sidan är de legala alternativen alltjämt för klena. Utbud reglerar efterfrågan och piratströmmar är långt mer populära än lugna och kommersiellt kvalimiga vattnen hos Netflix et al. För som Brandel skriver: “Trots de senaste månadernas kampanjer för lagliga streamingtjänster lever de inte upp till konsumenternas önskemål. Varför ligger bara två av sex säsonger av ”Mad Men” på Netflix? Varför är textningen på HBO Nordic så tafflig? Varför finns senaste Tarantinorullen ”Django Unchained” inte på SF Anytime? Så länge sådana frågetecken kvarstår kommer pirattittarnas samvete inte att vara riktigt lika dåligt som det kanske borde vara.” Mellan fildelandets fulaste stigma, det vill säga det ovedersägliga faktum att någon tjänar reklampengar på material de inte har någon rätt till, och (främst) filmbranschens oförmåga att släppa etablerade affärsmodeller med hierarkiska visningsfönster, utspelas för närvarande möjligen en sorts principiell slutkamp i de tio år långa fildelningskriget.
Inom det forskningsfält jag själv är verksam – mediestudier i vid bemärkelse – händer för närvarande det mest spännande initiativen i olika former av digitala medieprojekt. Det är inte speciellt konstigt givet medieutvecklingen; till och med filminstitutet inser numera att de måste digitalisera sitt arkiv. Digital humaniora är ett ofta använt paraplybegrepp för olika former av humanistisk forskning med digitala förtecken. Frågan är emellertid hur forskningsfält som exempelvis mediestudier och digital humaniora egentligen relaterar till varandra? Det finns naturligtvis flera beröringspunkter men än så länge är de i mycket separerade; få medievetare skulle idag se sig som digitala humanister (även om jag själv står och väger i frågan).
I ämnet har Jason Rhody nyligen skrivit en intressant bloggpost, The Boolean Logic of the Digital Humanities. Där påpekar han boolesk logik möjligen kan komma till undsättning: “boolean logic is a relatively straight-forward series of choices (AND, OR, NOT) that can generate complex results; it’s also a method that can control fields and establish taxonomies. … Instead of focusing only on defining [Digital Humanities], as though we can come to a single result from a complex Boolean query, I’d like to suggest that we also consider the practice of DH as a recurring process of refining. Boolean logic presumes winnowing and filtering, but as any scholar who has spent a few hours in the library knows, it also presumes iteration. The value in Boolean logic is that it allows us to start with some basic principles and come to very different results of equal value.” Digital humaniora blir här alltså till ett slags processliknande praktik med vars hjälp man exempelvis kan bedriva mediestudier. Det förefaller som ett produktivt sätt att se på saken. Den egna ämnesidentiteten behöver inte överges – men kan samtidigt tilldelas drivkraft genom en ny uppsättning digitala verktyg och instrument.
Idag har jag publicerat en kommentar i SvD apropå nylanseringen av SVTs Öppet arkiv. Artikeln, Öppet arkiv återger
televisionen ett minne resonerar kort om hur medier på webben alltmer stöps i en sorts arkivarisk form. Jag har tidigare skrivit om detta, bland annat i artikeln “Televisionen som arkiv – om webb-tv” i boken Svensk Television – en mediehistoria (2008). Den artikeln kan laddas ned här.