I en tid när regeringen nu (äntligen) satsar pengar på kulturarvssektorn – om än med vissa beting – hakar fackkförbundet DIK (dokumentation, information & kultur) på med en ny skrift, Digital agenda för Sverige– för öppen kunskap och information. Ordförande för DIK, Karin Linder, har på ett föredömligt sätt hårdprofilerat digitala frågor, och skriften lyfter fram sex framtida, strategiska områden: öppna kulturarvet, potentiell mångmiljardmarknad, analog/digital, skolbibliotek, biblioteksansvar och EU:s digitala agenda. Inledning låter aningen utopisk – men hoppas kan man ju:
“År 2020 har de digitala klyftorna övervunnits. Biblioteken är spjutspetsar i det livslånga lärandet. Alla elever har tillgång till ett skolbibliotek som utvecklar ungas informationskompetens. Bibliotekariers och lärares gemensamma kunskap vägleder eleverna till kompetenta medborgare i kunskapssamhället. Kulturen spelar en grundläggande roll i det demokratiska samhället. Kulturarvet är tillgängligt bland annat genom mobila enheter som tablets och smartphones. Minnesinstitutionerna har skapat och förvaltar en informationsallmänning på internet. Denna allmänning är integrerad med EU:s gemensamma kulturportal som möjliggör för alla att på ett enkelt och effektivt sätt få tillgång till Europas samlade kunskap.”
Om mindre än två veckor är det dags för bok- och biblioteksmässan i Göteborg. Jag skall dels vara med i ett seminarium (och ett kort forskartorgsevenemang) på torsdagen den 22/9 kring Boken och biblioteket (samarrangerat av Riksbankens jubileumsfond och Ink förlag), som är relaterat till lanseringen av Rasmus Fleischers nya bok, Boken och biblioteket (som jag också för närvarande också håller på att skriva en artikel om för SvD). Under fredagen 23/9 är det så dags för ett mer KB-relaterat seminarium kring kulturarvsportalen Europeana, Ett arv bevaras bit för bit, där jag kommer att moderera en diskussion med utgångspunkt i nedanstående beskrivning:
Europeana, en EU-finansierad webbportal med bidrag från tusentals kulturinstitutioner, har 12 miljoner digitala manuskript, kartor, fotografier och tv-program tillgängliga online. Nyligen uppmanades medlemsstaterna att göra ännu fler verk tillgängliga både för forskare och allmänheten. Är det viktigt att digitalisera vårt kulturarv? Vilka utmaningar står svenska kulturarvsförvaltare inför, och hur kan kulturarvet förvandla Europa till en avancerad informationsekonomi? Medverkande: Christer Nylander, riksdagsledamot (FP) och vice ordförande i riksdagens kulturutskott, Louise Edwards, administrativ chef för The European Library, Jill Cousins, arbetande styrelsemedlem, Europeana och Karin Linder, ordförande för DIK.
The other day I submitted a first draft of an article entitled, “Against Search—Towards A New Computational Logic of Media Accessibility”, to be published within the fortcoming Blackwell Companion to New Media Dynamics, edited by John Hartley, Jean Burgess and Axel Bruns. The article tries to map out, explain and understand, as well as situate and critically examine new search modalities within a larger framework of information retrieval in general, and alternative forms of media archival accessibility in particular. In short, I argue that new forms of different computational logics should be deployed in order to facilitate access to deep data as well quantitative surface data in both web n.0 media collections and at more traditional digital archives and libraries currently being coded online. I look forward to the editors comments – the article begins like this:
Let’s start off with one of the most compelling questions of our time: what does it mean to be human in the digital age? Well, one overwhelming challenge facing us all is having digital access to more information, data and knowledge than any previous generation of humankind. A burden perhaps—at least for some. But for the majority of us, a blessing. The often invoked libertarian information-wants-to-be-free paradigm not only insists on free flow of data. All these bits and bytes in the digital domain has to be organized and found, which needless to say is the underlying rationale for the most successful web behemoth of all. Suffice to say, we all live with an increased screen attention (of various sizes), and giving computers (and their mobile clones) textual and haptical commands has also become a ubiquous normality. Access to whatever we want literally lies at our fingertips; information is there somewhere waiting—and the question are always where to look. So, you search.
Ever since Google introduced its white and clean search box interface in the late 1990s—Internet Archive crawled the site for the first time in mid November 1998—the blank frame has been waiting for input. During the last decade this peculiar type of white box has become the new search default, especially within the information retrieval sector par excellence at archives, libraries and museums. “Search the Collections”, is the standard phrase awaiting every online user, implying a more or less vague notion that one already needs to know what one came for. Users are, of course, experienced since surfing the web basically means searching it. Subsequently, the notion of ‘search’ is key for the digital domain in general, and the web in particular. Understanding Google, Steven Levy notes, is trying to “grasp our technological destiny.” From a more scholarly perspective, ‘Search Studies’ is on the brink of developing into an academic field; ‘search’ is, after all, the primary human-computer interaction mode. Mining search patterns and optimizing the engine is what Google and other search companies does on a daily basis, and through online ‘search’ events IRL, like the spread of flues, can increasingly be anticipated. Search per se has in many ways somewhat paradoxically become the answer to questions asked.
To diagnose the cultural logic of online search is, naturally, a vast topic—ranging from the omnipresent potential of Google analytics to the critique of the ‘googlization of everything’ and unfiltered initiatives like Scroogle. Being coded and technical by nature ‘search’ remains highly complicated, with constant upgraded algorithms exploiting the link structure of the web. Since studying tech infrastructures is a blind spot for media studies, complexities are particularly striking from this perspective. Accessibility to various media content in an age characterized by dynamics and volatility is, however, regulated by notions of search, and therefore it remains essential to analyze and grasp how and why ‘search’ has become so important. During the last decade the notion of search has also been challenged by new and alternative computational modes of accessibility, which is yet another argument why ‘search’ needs to be taken seriously (and, admittedly, few would argue otherwise). Tags, folksonomies, or social tagging are, for example, new transformative web based practices and methods to annotate and categorize information and media content in an effort to collectively classify, tease out and find data in other ways than simply through the mantra, ‘search the collections’. Online browsing is, of course, a widely used option, as well as simply ‘clicking’. On YouTube—the quintessential new digital ‘archive’—one textual search is often enough, and then tags and linked videos leads the user into a streaming vortex of differentiated media. Context of content is often fleeting and arbitrary; odd juxtapositions norm rather than exception, and material regularly detached from its place of origin. Clicking rather than searching, thus, becomes an epistemic way of locating and perceiving media material, often in unintended ways. Usage resembles that of walking around in (weird) open library stacks, even if the much appraised digital ‘openness’ on the net in general, and on web 2.0 platforms in particular, always remains modulated on a protocological basis. A web browser is, after all, a translator of code and an interpreter of digital data that profoundly shapes user experiences. Then again, from a strict computer-science perspective, user generated and participatory platforms like YouTube are nothing but databases. Still, in any given cultural context, surfing onto a platform and watching a video at, say, YouTube obviously entails more than that. From a media studies perspective it is therefore debatable whether we ‘watch databases’ only (Lovink), or claims that there is ‘no content, only data and other data’ (Galloway & Thacker), has much relevance in regards to YouTube, or for that matter other cultural heritage or social media sites.
Nevertheless, given the sheer size of contemporary online media collections—from the vast information repositories of data at Wikileaks or The Pirate Bay, to billions of UGC on YouTube and Flickr, or for that matter the 20 million digitized heritage objects at the Library of Congress—simply having a look what’s inside the digital ‘archive’ is no longer possible. However, the contemporary ‘flood of information’ is, by no means, new. On the contrary, libraries and archives have during the last century repeatedly complained over way too many books and documents. The major difference, today, is that in digitized form such material can be analyzed collectively as major cultural sets rather than on a singular basis only. Singularity works for analyzing the particular. But the general is arguably more interesting, and often of greater importance. Hence, massively linked data has nowadays the potential to reveal new human patterns that hitherto remained invisible. The notion of a particular ‘search’, then, is not the answer to the more or less infinite digital archive.
I den debatt som pågått i GP om digitalisering av kulturarvet, och i vilken jag deltagit, har det ibland hävdats att marknadens lösningar inte är att lita på. Bevarandet och tillgängliggörandet av det svenska kulturarvet kan och får inte säljas ut till Yahoo, Google etcetera. Det är uppfattning som man inte sällan stöter på i olika kulturarvsammanhang; för att garantera bevarande, tillgänglighet och beständighet måste tekniska system byggas internt, och helst från grunden. Då går det långsamt – och i längden blir det otroligt dyrt. Kulturarvsmyndigheter i Sverige lägger idag stora summor och mycket resurser på att bygga tekniska lösningar enligt denna tankemodell.
Marknaden sitter naturligtvis inte inne med alla svar, men den digitala domänen är inte “kommersiell” på samma sätt som tidigare; Googles strategi är ju som bekant att locka användare genom gratiserbjudanden – något som även den offentliga sektorn borde kunna dra nytta av. I USA finns just antydningar till en sådan diskussion; nyligen publicerade exempelvis Vivek Kundra, tidigare i Obama-adminstrationen och nu på Harvard Berkman Center for Internet and Society, ett ledarstick i New York Times där han påpekade att “the United States cannot afford to be left behind in the cloud computing revolution.” Det låter kanske pompöst, men fortsättning är lika polemisk som den förankard i ett slags nytt personligt dataumgänge:
“Cloud computing is often far more secure than traditional computing, because companies like Google and Amazon can attract and retain cyber-security personnel of a higher quality than many governmental agencies. And government employees are so accustomed to using cloud services like Dropbox and Gmail in their personal lives that, even if their agencies don’t formally permit cloud computing, they use it for work purposes anyway, creating a “shadow I.T.” that leads to a more vulnerable organization than would a properly overseen cloud computing system.”
Molnet är givetvis inte lösningen på digitaliseringen av kulturarvet. Men att ignorera och blunda för de tekniska system som redan existerar, och som ofta kan tas i bruk för liten eller ingen kostnad alls, är faktiskt att backa in i framtiden.
Idag har Ester Pollack och Sigurd Allern publicerat en slutreplik i debatten om näthat i SvD, Publicisterna måste ta sitt ansvar på allvar. Mitt eget och Jonas Anderssons inlägg kommenteras genom att inte kommenteras: “Jonas Andersson och Pelle Snickars kommenterar (6/8) inte det publicistiska ansvaret eller etiken i sitt svarsinlägg till oss, utan nöjer sig med nätideologernas fasta mantra om det vidunderliga i att ”alla kan komma till tals” i en värld där redaktöransvar framställs som ”övervakning”. Förra veckan blev jag kallad nätevangelist i GP och nu är jag nätideolog – det är inte helt enkelt att föra en resonerande diskussion kring vad det innebär att vara människa i en digital tid.
Beträffande själva sakfrågan, nämligen den kring “anonymitet” online finns heller inga enkla svar. Att förbjuda osignerade kommentarer förefaller nu vara mediebranschens svar på den aktuella frågan, allt medan nätaktivister snarare progagerar för allehanda anonymiseringstjänster för att stävja den personliga datainflationen online: konkreta tips kan man exempelvis få i den aktuella tyska boken Die Datenfresser och sajten kring boken. Diskussionen är med andra ord minst sagt polariserad – och lär så förbli.
Idag har jag publicerat en text i GP, “Lindgrens kritik träffar fel”, detta apropå Håkan Lindgrens artikel, Kulturarv – så länge Yahoo vill? som publicerades för en tid sedan. Artikeln handlar framför allt om framtida digitala strategier för att tillgängliggöra kulturarvet – och börjar så här:
Är det så klokt att lägga ut arkiv-, biblioteks och museisektorns digitala kulturarvssatsningar på kommersiella företag, frågade Håkan Lindgren (GP 10/8). ABM-sektorns kulturarv riskerar ju att kommersialiseras och minnesinstitutionerna förlora kontrollen över ”sitt” material. Ska Yahoo (som äger Flickr) verkligen få tjäna pengar på reklambanners bredvid, säg, Strindbergs gamla celestografier? Borde inte hans himmelska bilder få vila i frid, snarare än att laddas upp i molnet där de – hemska tanke – kunde (åter)sättas i kulturell cirkulation? Det mest beständiga arkivet är ju det som aldrig används.
Läs hela artikeln här.
Vad är medieforskningens egentliga syfte, och vem är den till för? Ska man som forskare fortsätta att skriva böcker – men vad är egentligen en bok nuförtiden? Bokens gränser är ju minst sagt otydliga, något som jag för övrigt skall vara med och diskutera på bokmässan om någon månad (i ett arrangemang av RJ och Ink Förlag i samband med Rasmus Fleishers nya Boken och biblioteket.) Det vetenskapliga samtalet är ju inte opåverkat av webb 2.0., men vem lyssnar eller läser idag medievetare – när, hur och på vilket sätt? Och hur bör man som medieforskare egentligen tänka kring nya publiceringsformer?
Själv har jag som medieforskare under några år drivit bokserien Mediehistoriskt arkiv, där vetenskapliga resultat förpackats för att tilltala både en kultursideläsande allmänhet liksom akademiskt specialintresserade. Medialt har det varit en tämligen framgångsrik strategi, dessutom har ett redaktionsråd bevakat den vetenskapliga kvaliteten. De senaste böckerna har också parallellpublicerats i elektronisk form med fri cc-licens. Ändå har dessa publikationer utförts inom bokens bokstavliga ramar. Men är det en framtida strategi? Nätet håller tveklöst på att underminera monografin som genre, men hur skall medieforskningen framöver förpackas och distribueras?
Ibland hävdas det att medievetenskapen måste vara kritisk, ofta med en allt blekare teoripalett hämtat från Frankfurtskolans standardkolorit. Själv vill jag hävda att medievetenskapliga studier i långt högre utsträckning är i behov av att tänka som, eller i linje med mediebranschen (snarare än mot den), liksom med de digitala medieformer som ibland kallas för ‘nya’. Att kontinuerligt följa vad som exempelvis skrivs på New York Times teknologisidor ger ofta mer analytiskt insikt (och intellektuellt bränsle) än ganska förutsägbar akademisk kritik av till exempel public service förmodade kommersialisering. Idag hittar man ofta de skarpaste analyserna av medielandskapets förändring inom branschen själv (publicerat på någon av webbens otaliga fora), snarare än i monografier eller tidskrifter som legat till sig på de traditionella akademiska förlagens skrivbord.
Framtida publiceringsformer framstår såtillvida som ett lika angeläget som metamedialt vetenskapsområde att undersöka. Precis som nätbaserad forskning, från Richard Rogers ”digitala metoder” över Lev Manovichs ”cultural analytics” till Franco Morettis kvantitativa ”distant reading”, numera arbetar och tänker med nätet och dess tekno-mediala specificitet, bör man nog som medievetare ställa sig fråga vad man är bra till i den digitala tidsåldern, samt hur man ska nå ut med sina resultat – analogt, digitalt eller båda? När exempelvis det arkiv man som forskare arbetar med finns tillgängligt online, varför skulle man då inte använda detta forskningsmaterial i den egna framställningen? I den webbok, Kulturarvet som data, som jag för närvarande slutför, är just den här typen av frågeställningar centrala.
P1 Medierna gjorde för en tid sedan ett inslag om de två nya dygnet-runt-kanaler för nyheter som lanseras i SR och TV4 under hösten 2011. Journalisten Nils Eriksson har gjort ett reportage – där jag uttalar mig om bland annat de klassiska medieformernas rivalitet visavi webben, inte minst i termer av uppmärksamhet och avsaknad av tablåbegränsning. Programmet återfinns här.
Är internet en ond kommunikationsform? Naturligtvis inte – men kring denna föreställning resonerar jag och Jonas Andersson idag en debattreplik i SvD, Övervakning leder inte framåt, dels apropå nätbacklashen efter händelserna i Norge i allmänhet, och dels apropå Sigurd Allerns och Ester Pollacks artikel, Ansvaret har förskingrats (SvD 1/8) i synnerhet. Ingressen anger tämligen väl vad det hela handlar om: “På internet florerar både det kreativa och det destruktiva, ofta i skydd av anonymitet. Alla kan komma till tals, och det är det som utgör nätets demokratiska värde, menar Jonas Andersson och Pelle Snickars.” Vi hoppas på en fortsatt livlig debatt.
I det senaste numret av tidskriften Biblis (nr. 54) har jag publicerat en artikel om ”iPad, boken och biblioteket”. Tanken var att skriva något mer personligt om min egen erfarenhet av att arbeta, läsa, se och lyssna med hjälp av denna nya läsplatta. Artikeln börjar så här:
På min iPad har jag ett program som heter GoodReader. Namnet förpliktigar möjligen, men man läser faktiskt lika effektivt som behagligt med denna lilla, gröna e-boksapp. Den är busenkel att hantera, ganska snygg och många menar att den är främst i sitt slag. GoodReader erbjuder en mängd e-textuella möjligheter, men framför allt tillåter den att samla och spara digitala böcker, texter och pdf:er som man hittar på nätet, liksom förstås egna utkast och textfragment. Använder man GoodReader under en tid har man ganska snart samlat ihop till ett litet nätt, prototypiskt e-bibliotek. Allt i form av böcker som data.
Artikeln kan laddas ned i sin helhet som pdf här.