Morozov mot Johnson

Jag läste nyligen Steven Johnsons, Future Perfect, och är nu strax klar med Evgeny Morozovs nya bok, To Save Everything, Click Here: The Folly of Technological Solutionism, som jag också är i färd med att recensera för SvD. Just mellan dessa två har New Repuplic publicerat ett meningsutbyte med hög läsvärdhet, dels Why Social Movements Should Ignore Social Media, dels replikskiftet, Up for Debate: Can Social Media Solve Real-World Problems?. I ena ringhörnen står här den digitale kättaren, sluggern och anti-cyberutopikern Morozov; mot honom den kolloborative internetcentristen och “peer-progrevisten” Johnson, två poler som för närvarande sammanfattar helt olika synsätt på internet egentligen är – och innebär.

Utkast till artikel om hack i publikationsmaskineriet

En första version av min artikel, “Publikationshack”, är nu färdigskriven. Texten kan laddas ned här. Den kommer (så småningom) att ingå i Matts Lindströms och Adam Wickberg Månssons antologi om universitetet som en sorts medieform, en bok som utkommer i serien Mediehistoriskt arkiv under våren 2013.

Publiceringshack

Till boken med titeln, Universitetet som medium, vilken Matts Lindström och Adam Wickberg Månsson håller på att sammanställa nu under våren 2013, skriver jag på en artikel om de vetenskapliga publikationskulturernas förändring under de senaste tio åren. Tanken är bland annat att ta fasta på den sorts digitala dubbelhet som präglar publikationsmönstren online. Akademiker vill ju gärna fritt sprida sina alster eftersom de i regel inte är beroende av försäljningsinkomster (till skillnad från till exempel frilansande journalister eller kulturarbetare), vilket är en lika begriplig som en emellanåt diskutabel inställning.

Men som bekant finns inga fria luncher, och i slutändan är det alltid någon som måste betala. Öppen access framstår idag (möjligen) som vägen framåt, men även open access (OA) förutsätter en fungerande förlagsekonomi. Det finns naturligtvis fortsatt ett behov av att förpacka forskningsresultat, vilket förlag av tradition varit allra bäst på. Med all sannolikhet bör det dock göras på nya sätt givet nätets distributiva potential. Men det är alltjämt en öppen fråga hur det akademiska publikationslandskapet kommer att förändras, och inte minst vilken form det kan tänkas anta givet nätets roll som global default. Det vetenskapliga samtalet är naturligtvis inte opåverkat av webb 2.0, och digitala publikationskulturers mediala omdaning av all forskningskommunikation framstår därför som en betydande fråga att undersöka.

Artikeln menar sig för närvarande handla om följande:

Publikationskulturer ser förstås högst olika ut i skiftande vetenskapskontexter. Inte minst utskiljer sig humanvetenskaperna eftersom det här föreligger betydande likheter med medie- och kultursektorn generellt – och då även med den digitala (kris)situation som uppstått där. Dessa digitalt brandskattade branscher präglas ju numera knappast av att de önskar ge bort innehåll gratis; snarare ägnas idag en febril aktivitet åt att försöka implementera och tillämpa nya digitala betalmodeller. Tvärt emot denna utveckling står alltså den vetenskapliga OA-trenden, samt förstås mer eller mindre (il)legal akademisk fildelning av (kanhända) främst humanvetenskapliga böcker som är eftertraktade, en aktivitet som i vissa forskarkretsar är vanligare än man tror. Generellt värnar humanister (speciellt om de tillhör de mer etablerade) gärna om den traditionella förlagsmodellen där deras böcker och bokkapitel publiceras på renommerade förlag som sköter bokproduktion, distribution och marknadsföring. Samtidigt är i princip alla akademiker oberoende av försäljningsintäkter, och tar sig därför inte sällan friheten att illegalt fildela både original-PDF:er eller inskannade böcker på olika mer eller mindre öppna nätverk. Precis som när det gäller all annan fildelning räcker det med att en enda person laddar upp en bok för att, säg, hundratusen andra användare ska få access till den. I det följande är det värt att hålla denna slags dubbla humanistiska logik i huvudet, även om den förefaller ge stöd åt två diametralt olika synsätt: det vill säga, att värna upphovsrätten och att komplett strunta i den.

Situationen är med andra ord komplex, och den här artikeln kommer försöka att problemtisera såväl open access (framför allt utifrån ett humanistiskt perspektiv) liksom akademisk fildelning – samt möjligheten att hacka de traditionella publikationsmodellerna. I termens urspungliga betydelse innebar ju ett hack att göra en ändring i ett system som åstadkom en möjlig lösning. Ambitionen är dock inte att på ett heltäckande sätt diskutera frågan, och då framför allt inte det stadigt växande bibliometriska forskningsfältet. Vetenskapliga publikationssätt hänger idag ofta tätt samman med olika former för att mäta och värdera vetenskaplig kunskap genom bibliometriska indikatorer. Följer man beskrivningen på Vetenskapsrådets hemsida sägs bibliometri ofta användas för ”att mäta vetenskaplig produktivitet (antal publikationer) och för att uppskatta publikationernas genomslag. Det sistnämnda sker genom beräkningar av hur publikationerna citeras, det vill säga uppmärksammas av andra forskare.” I korthet, bygger bibliometriska metoder på kvantitativa studier av den vetenskapliga litteraturens sammansättning och förändring – det vill säga, man räknar. Denna teknokratiska styrning av forskningen har med rätta kritiserats av flertalet ämnesrepresentanter inom humaniora; när krav på matematisk mätbarhet blivit viktigare än att producera ny kunskap är forskningsoptiken kanhända inte så välkalibrerad som vore önskvärt. Samtidigt är dessa frågor naturligtvis av stor betydelse eftersom de tenderar att reglera hur forskningsfinansiering struktureras; den bibliometriska forskningslitteraturen är också redan närmast oöverskådlig.

I den (kommande artikeln) har jag dock valt att inte fokusera på specifik mätning och värdering av akademiska publikationer. Snarare är tanken att ta fasta på ett antal iakttagelser, inte sällan utifrån mer personliga erfarenheter, vilka på ett mer generellt plan antyder hur omvälvande de (human)vetenskapliga publikationskulturernas förändring faktiskt är och varit under det senaste decenniet. Fokus ligger i det följande alltså på humanvetenskapliga publiceringspraktiker, ett område som genomgått och alltjämt står inför stora förändringar i det att publikationer av monografier och bokkaptel (som denna text) ofta skriver in sig i publikationskulturer som ställer andra krav än strikt (och matematiskt mätbart) vetenskapligt artikelförfattande. C. P. Snows klassiker, De två kulturerna är trots ett halvsekel på nacken – samt otaliga försök att överbrygga vetenskapsklyftan mellan natur- och humanvetenskaper – fortfarande hyperaktuell. Forskningens digitalt förändrade förutsättningar förefaller faktiskt bara ställvis slagit broar mellan dessa vetenskapskulturer – exempelvis när det gäller ett forskningsfält som digital humaniora – men publikationskulturen tillhör inte ett av de områden som förenar. Snarare har framför allt den bibliometriska trenden gjort att humanvetenskaperna alltmer kommit att ifrågasätta de vetenskapsideal som för närvarande styr akademi och universitetssektor.

Forskning och ABM-sektorn

Jag är för närvarande tjänstledig från mitt arbete på KB; skriver på ett bokmanus. Under tiden är min kollega Jonas Nordin tf för mig. Idag har han publicerat en utmärkt blogpost på RJ:s hemsida, Nödvändigt med forskning i ABM-sektorn. Texten tar sin utgångspunkt i erfarenheter från de satsningar som RJ och Vitterhetsakademin gjorde för några år sedan för att stärka kunskapsläget på ett antal minnesinstitutioner, något jag själv talat mig varm för och arbetat med i många sammanhang. “ABM-sektorn ingår naturligt i det som brukar kallas forskningens infrastruktur, men det är inte alla institutioner som ser forskning på de egna samlingarna som en självklar del av verksamheten”, skriver Nordin. “Det brukar heta att man skall tillhandahålla verktygen som underlättar för forskningen (utveckling), men man skall inte själv aktivt producera ny kunskap (forskning). Det finns många argument mot en sådan syn.” Det främsta är just att FoU i de flesta sammanhang är samma sak; det är med andra ord genom forskningsrelaterade aktiviteter – från EU-projekt till utarbetandet av slagkraftiga ansökningar – som en verksamhet de facto utvecklas.

Library of Congress Twitterarkiv

Häromdagen publicerade Library of Congress ett vitpapper, Update on the Twitter Archive At the Library of Congress om det pågående samarbete med att lagra alla tweets som skickas. Det rör sig givetvis om ett gigantiskt socialt mediematerial med än fler potentiella forskningsingångar. I en första fas har det amerikanska nationalbiblioteket ägnat sig åt “to acquire and preserve the [Twitter] archive; to establish a secure, sustainable process for receiving and preserving a daily, ongoing stream of tweets through the present day; and to create a structure for organizing the entire archive by date.” Nu förefaller man försöka att optimera det sätt som materialet kan användas på. Här slås det mycket riktigt fast att: “It is clear that technology to allow for scholarship access to large data sets is lagging behind technology for creating and distributing such data. Even the private sector has not yet implemented cost-effective commercial solutions because of the complexity and resource requirements of such a task.”

Jag skulle vilja hävda att just detta är minnessektorns stora utmaning de kommande åren; det vill säga, att gradvis strukturera om verksamheten från att underlätta studiet av enskilda dokument (artiklar, böcker, filmer, program) mot digitaliserade informationsflöden som forskare med ny teknik kommer att vilja behandla på helt andra sätt än tidigare – inte minst uppslags- och hypotesmässigt (i mer eller mindre laborativ bemärkelse). I Sverige går implementeringen av e-plikten dock inte i denna riktning; tillgängliggörandet av den information som samlas in är dessvärre inte prioriterad. En minst sagt trög juridisk process bakbinder här KB. Emellertid finns undantag; själv arbetade jag i höstas exempelvis fram en större ansökan för KBs räkning till Wallenbergstiftelsen (KAW) kring en uppgradering av webbinsamlingen kring Kulturarw3 som just satte användandet av det insamlade webbmaterialet i fokus. Besked om medel väntas till våren; ansökan är väl ingen statshemlighet och är någon intresserad kan den laddas ned här.

ISOC-SE och Göteborgs filmfestival

Den här veckan medverkar jag i två, högst olikartade aktiviteter. På tisdag blir det diskussion på ISOC-SE (The Sweden Chapter of the Internet Society) – “en svensk ideell allmännyttig förening som verkar för ett demokratiskt, sunt, lättanvänt och säkert Internet för alla utan onödiga regleringar” – kring vad som egentligen menas med ett fritt och öppet internet. Och på torsdag blir det (med allra högsta sannolikhet) ett helt annorlunda samtal på Göteborgs filmfestival om film och hembygd inom ramen för seminarieserien Cinemix. Tanken är bland annat att med utgångspunkt i filmarkivens samlingar – och i samarbete med Landsarkivet i Göteborg – diskutera frågor vad en hembygd egentligen är för något? ”Är det samma sak som hemma? Vem känner sig hemma i hembygden och vem känner sig inte hemma där? I ett samhälle där allt fler osynliga murar byggs, vad betyder det väl inrutade område som brukar kallas för hem­bygd, och är alla välkomna i hembygden?”

Länkande och värde

Sam Sundberg publicerade idag (som alltid) en utmärkt artikel om den pågående diskussionen kring länkandets vara, Länkkrig värt att ta på allvar. Sundbergs resonemang är snarlikt det vi skrivit om i Myten om internet, det vill säga hur Google (och telekomsektorn) profiterar på innehållsleverantörers produkter utan att ge speciellt mycket tillbaka. “Mycket av materialet som länkas tillhör tidningar som låtit Google hållas i förhoppningen att tjänsterna är bra för användarna, bra för Google och bra för tidningarna”, skriver Sundberg. “Men det har blivit plågsamt uppenbart att samtidigt som Google slussar folk till tidningssajterna så glufsar de i sig oproportionerliga delar av annonskakan, en livsviktig intäktskälla för tidningarna. Och när en så stor del av kakan hamnar hos Google hjälper det inte att sökmotorn skickar folk till tidningssajterna … Har Google spelat schyst i konkurrensen om annonspengarna?”

Frågan är synnerligen komplex. För som vi skrev i Mytboken så sitter ju mediebolagen “i knät på både telekomsektorn och den stora sökgiganten på nätet. Google är förstås helt nödvändig för att driva webbtrafik – en beroendesituation som ingen riktigt vet hur man ska ta sig ur.” Alla länkar driver förstås trafik, men omvänt minskar de också värdet på information. Stewart Brands gamla maxim angav ju att information å den ena sidan vill vara fri, å den andra sidan exklusiv och dyr. Det distributiva länkandet står alltså i direkt relation till en sorts värdeminskning i den digitala kopierbarhetens tecken.

Text om överflöd

En första version av den artikel jag arbetat med en tid till boken, Information som problem är nu klar. Det är en lång text, nästan femtio sidor, om än med gles satsyta och fulformaterad som en sorts bok för ökad läsbarhet. Artikeln handlar om informationsöverflöd – och kongenialt med sitt ämne innehåller den förstås en uppsjö av exempel och iakttagelser. Artikeln kan laddas ned här.

Om KB och digitala pliktleveranser

Programmet Medierna i P1 sände idag ett tämligen kritiskt inslag om KB och den elektroniska pliktleveranslagstiftning som gradvis håller på att implementeras, Digitalt kulturarv går förlorat. Definitionen i lagförslaget på vad som enligt lag ska levereras är ”en avgränsad enhet av elektroniskt material med text, ljud eller bild som har ett på förhand bestämt innehåll som är avsett att presenteras vid varje användning”. Så ser förstås bara marginella delar av den digitala domänen ut – och lagen är också sällsynt uddlös. Som en händelse handlar flera artiklar (bland annat min egen) i den bok jag för närvarande slutredigerar, Information som problem, om just dessa frågor. I inslaget i Medierna påpekas att det digitala materal som enligt lag ska samlas in är högst selektivt; bättre vore därför att lagstifta kring den webbinsamling, Kulturarw3, som KB ägnat sig åt sedan 1997. Det har också alltid varit min egen hållning i frågan. I höstas skrev jag till exempel en större ansökan för KBs räkning om extra medel till denna verksamhet, som alltså inte är lagstyrd – men som borde ha blivit det istället för den mycket selektiva e-plikt som i skrivande stund dränerar KB på resurser.

Information overload

Den bok jag och mina kollegor arbetat med under hösten, Information som problem, börjar nu så smått bli klar. Vi räknar med manusleverans till bokmakare efter helgerna. Min egen artikel – eller snarare essä – börjar också bli hyfsat färdig. Den handlar om och resonerar kring informationsöverflöd i vid bemärkelse – både nuförtiden och i det förflutna. Texten börjar så här:

Det finns en utbredd uppfattning att vi numera lever i en tid av informationsöverflöd. Den sägs inte sällan vara utan motsvarighet i historien. Modern informationsteknologi har gjort att vi inte längre har möjligheten att med våra sinnen ta in och bearbeta all den information som omger oss; utbudet är alltför omfattande, det finns mer information tillgänglig än någonsin, bruset är konstant. ”Aldrig förr”, hävdar till exempel Framtidskommissionens huvudsekretare, ”har informationsöverskottet varit lika omfattande som nu.” Men, påpekas det lätt förnumstigt: ”att det finns mer information tillgänglig än någonsin är inte liktydigt med att det finns mer sann och relevant information tillgänglig. Det är inte bara mängden sann och relevant information som har ökat, utan också desinformation.” Boven i dramat sägs här ofta vara den pågående revolutionen av medielandskapet och de nya digitala mediernas genomslag. Lägg därtill maskinärt producerad spam, ett ubikvitärt nät och alltmer mobil hårdvara – där mer än hälften av den svenska befolkningen dagligen använder internet i mobiltelefonen – så framträder bilden av en ny sorts samhällelig informationstäthet. Enligt webbplatsen internetstatistik.se ökade exempelvis den mobila datatrafiken ”med 73 procent under det första halvåret 2012 jämfört med första halvåret 2011”; den totala datatrafiken uppvisar också en brant stigande kurva under de senaste åren. 350 år efter den svenska pliktexemplarslagens införande 1661 lär det skapas en miljon TB online, ett överflöd av mänsklig och maskinell ”publicerad” information, vilken bland annat ställer ett nationalbibliotek som KB inför närmast ohanterliga svårigheter (smärtsamt uppenbart i den e-pliktlag som gradvis håller på att implementeras).

Som ett slags disruptiv kraft har digitaliseringen av samhälle, ekonomi och kultur under de senaste tjugo åren genererat en informativt explosiv redundans, ett veritabel information overload – åtminstone enligt detta synsätt. Olika stigande siffror eller brant ökande procentmått får ofta illustrera vår unikt föränderliga tid. De säger inte alltid så mycket i sak – och de blir snabbt obsoleta – men visar (inte sällan grafiskt) hur informationslandskapet snabbt ändrar karaktär. Rådande föreställningar om ett slags digitalt imperativ är här högst påtagliga. Samhällsdiskursen där analogt betyder gammalt och digitalt skinande ny och modern har nog få missat. Den omger oss ständigt och drivs främst av starka IT-marknadskrafter som på årsbasis vill få oss att byta hårdvara. Men den förändrar också hela branscher och är om inte annat uppenbar i politikers sätt att tala om det nya informationssamhället, där ju Sverige är tänkt att ”bli bäst i världen på att använda digitaliseringens möjligheter”.3 Diskursen kring det digtala imperativet är alltså allt annat än neutral, och den ger förstås även effekter i andra led. Möjligheten att mycket snabbt lagra och indexera allt har exempelvis inte sällan givit upphov till missförståndet att ett informationssamhälle också är ett kunskapssamhälle. Men inträdet i det ena behöver ju inte med nödvändighet innebära en rörelse in i det andra. Samtidigt ger den digitala utvecklingen inte några sken av att avstanna. Tvärtom gäller den kommersiellt drivna devisen om allt snabbare och mer, från 4G till iPhone5 – Moores berömda lag kommer att gälla ännu en tid.4 Men saker och ting blir naturligtvis inte automatiskt bättre, resurssnåla och effektiva bara för att de är digitala. Som en sorts motkraft finns idag exempelvis flera tecken på ett slags digital devalvering – där just information i överflöd tappar i värde. Fri access och kopierbarhet står här i bjärt kontrast till den exklusivitet som de flesta marknadsmekanismer är beroende av. En av samtidens stora frågor rör just vilka samhällssektorer som egentligen är digitalt immuna, och om det är önskvärt att fler borde bli det. I värdetermer innebär dock ökad information inte med nödvändighet en förlust. Den samtida dataexplosionen är inte bara en närmast outsinlig resurs ur vilken information (eller desinformation) kan extraheras. Som bekant är binära ettor och nollor också vår tids nya hårdvaluta som vi alla friskt spenderar (mer eller mindre medvetet) när vi surfar på webben. Transaktionskostnaderna är ringa och binär data är aldrig speciellt dyr att producera. I en digital kontext är mängder av data snarare den biprodukt som alla slags aktiviteter genererar, oavsett om vi önskar det eller inte. Därav just överflödet. På webben och i sociala medier alstras numera ofantliga mängder användargenererad information vilka företag världen över tävlar om att slå reella mynt av. Google gör det för närvarande allra bäst.

En av de mest centrala (och bökiga) frågeställningarna när man idag diskuterar digitaliseringens möjligheter och problem handlar om hur denna tilltagande mängd data och information egentligen ska hanteras – och begripas. I en tid när digital information snart kommer att beräknas i yottabytes (1000000000000000000000000 bytes) finns goda skäl att fundera över hur den bör konceptualiseras och analyseras, men också hur dagens situation kan historiseras, kontextualiseras och på så vis relativeras. För dagens situation är inte ny. Och inte heller de föreställningar som existerar kring den. En medieprofet som Marshall McLuhan menade exempelvis att 1960-talet, ”the new electric Age of Information” präglades av ungefär samma slags informationsöverflöd som idag. Företag som IBM, AT&T och General Electric hade då, enligt McLuhan, precis börjat inse att vad de egentligen sysslade med var ett slags kopiös informationshantering, de var alla bolag inom ”the business of moving information”. Samtidigt hade McLuhan några år tidigare i Gutenberg-galaxen: den typografiska människans uppkomst något enigmatiskt hävdat att redan före ”typographic man” – det vill säga kring år 1500 – så innebar den kvantitativa ökningen av information under medeltiden ett slags tilltagande visuell organisering av kunskap, exempelvis genom uppkomsten av det (enligt honom) informationstäta perspektivet; Gutenberg och Alberti var som bekant nästan samtida. Det finns dock en hel del som talar för att vi idag lever i en informationsmässig brytningstid – framför allt i kvantitativ bemärkelse. Att samtiden är digitalt revolutionerande må vara en uttjatad floskel. Men om man som vi i den här boken skriver, funderar och resonerar kring begrepp som information, bibliotek och arkiv, data, vetande och kunskap, ja, då framstår vår digitala samtid faktiskt som annorlunda – även om det också finns likheter med tidigare epoker (vilket just varit en av utgångspunkterna för bokens upplägg.) För att åter apostrofera McLuhan så menade han att under den mediala brytningstid han upplevde för femtio år sedan så var endast det elektriska ljuset ”ren information”; glödlampans ljus var rentav ett medium utan budskap. Skenet av denna rena information har under de senaste decennierna spritt sig väsentligt. Det kan inte ens de mest inbitna belackarna av det digitala informationssamhället bestrida. I form av bits på det globala nätverket är det på många sätt som om information numera befriats från de traditionellt materiella artefakter – från arkivens källdokument till bibliotekens böcker – som tidigare band den vid sig. Datorernas bitar (binary digits) är ju också den ursprungliga tekniska mätenheten för information, och under skannern, i digitaliseringens ljus, omstöps alla dokument till information. Det ställer förstås också nya krav på den humanistiske uttolkaren av dem. Alan Liu påpekade redan för ett drygt decennium sedan, med en blinkning till Kafka, att han i början av 2000-talet upplevde att han gick till sängs som litteratur- och kulturkritiker – och vaknade nästa dag ”metamorphosed into a data processor”.

Olika slags förvandlingsprocesser är också ämne för den här artikeln, närmare bestämt att resonera kring problemkomplexet om information som överflöd – nu och då. På flera sätt är det alltför enkelt att föreställa sig att samtidens digitala informationsöverflöd utgör ett slags undantag; ett strukturellt brott där vår tid skiljer sig från tidigare epoker. Det är sant utifrån vissa perspektiv, men en problematisk utsaga från andra synsätt. Huruvida digitaliseringen som samhällsomvälvande kraft utgör ett (informations)teknologiskt brott – eller präglas av kontinuiteter nedsänkta i det analoga 1900-talet är en omtvistad fråga. Somligt ter sig likadant, annat är radikalt annorlunda. Det mediala och informationsmässiga likheterna mellan det massmediala modernitetsskiftet 1900 och det digitala millenieskiftet hundra år senare utgör till exempel en given kontinuitet; det är sekelskiften som inte bara av kronologiskt tidsmässiga skäl utgör referenspunkter till varandra, låt gå att mediehistoriens brist på precision ofta står i kontrast till händelsehistoriens specika årtal. Medie- och informationslandskapen förändras hursom vid båda dessa sekelskiften i grunden. Det mediala nedskrivningssystemen växlar – om det gäller även epokskiftet kring 1800 om man nu följer Kittler – i hjärtat av den västerländska kulturen finns alltså inte ett subjekt, utan snarare skiftande teknologier för lagring och bearbetninig av information.