If Content is King, Context is its Crown

One of the major projects at the Resaearch Department that I am heading (at the National Library of Sweden) is EUscreen – a beta version of this televisual heritage portal is up and running at euscreen.eu. One of the subtask attached to this project is establishing an academic journal, all likely in association with Critical Studies in Television. I have promised to write a piece for the very first issue to appear next year, and the other day I submitted a first draft of an article entitled “If Content is King, Context is its Crown”. The quote in the title is taken from Eric Schmidt’s recent MacTaggart lecture in Edinburgh, and, if the future of television is located online, Google is naturally bound to have an interest. In short, the article tries to reflect on new tele-computational structures, modes and search modalities in relation to digital media collections online (as euscreen.eu), and the ways that ‘context of data’ might differ and alternate at major media sites as, for example, YouTube. The article starts as follows:

Some people truly believe that “the Internet is fundamental to the future of TV”. Be that as it may; given the convergence of televisual and net based interactivity, similar software and hardware screens—or even program formats for that matter—such a claim could, naturally, be regarded as merely stating the obvious. But if delivered by Eric Schmidt, former CEO at Google, it somehow makes a difference. As a television industry outsider, in late August 2011 Schmidt presented “a hard-hitting MacTaggart address to TV broadcasters in Edinburgh”, according to the contextual description accompanying the video of the filmed event on YouTube. As the first non-broadcaster to deliver the MacTaggart lecture in 35 years, Schmidt’s talk on Google’s ‘small tube business’ has been widely debated, and is, indeed, interesting on many levels. Centered on viewers ability to mix web and television content on TV screens via a Google Chrome browser (on a PC, Android smart phone or tablet), it can arguably be perceived as one of the more intriguing speeches in recent years on upgraded forms of television and computational mode(l)s to come.

If the default value of ‘digital TV’ has shifted towards online, executives within the industry—like in other media sectors—are, nevertheless, still trying hard to think about, and try to come up with viable commercial and public service strategies for ‘old media’. The stakes are high, and as a web tech insider, Schmidt’s take is, of course, different, literally suggesting new ways of looking. So, even if seen as “a CompSci guy in the world of telly”, as one commentator put it on YouTube, his talk is nevertheless illustrative for a shift of perspective, accentuating a web centric view of the televisual landscape, notably with various forms of catch-up and on-demand TV services like the hugely popular BBC iPlayer. From a Google perspective with its clear cut mission (and commercial strategy) to attract as many users as possible, Schmidt was crystal clear in his talk about the company’s absolute commitment to its Google TV launch during 2012, as well as a strait forward acceptance that TV “is clearly winning the competition for attention”. Despite the hype in recent years around new media in general and the video vortex online in particular, global viewing patterns for traditional forms of television still outnumber web usage. All digerati knows this; lack of attending eyeballs remains a problematic, not the least financially since online advertisement is akin to follow the decreased formula of trading ‘analog dollar into digital dimes’. In the UK alone, for example, adults spend more time watching television in four days then they do using the web in a month. However, according to Schmidt, “you ignore the Internet at your peril. The Internet is fundamental to the future of Television for one simple reason: because it’s what people want. Technologically, the Internet is a platform for things that traditional TV cannot support. It makes TV more personal, more participative, more pertinent.”

Biblioteken & rävsaxen

Idag har jag publicerat en understreckare i SvD apropå bokens och bibliotekens förändrade situation. “I dag öppnar Bok- och biblioteksmässan, ­samtidigt som såväl böckernas framtid som bibliotekens roll är otydligare än någonsin. Litteraturens digitalisering är på ­samma gång en demokratisk utopi och ett hot mot hela branschen”, kan man läsa i ingressen. Själva artikeln, Biblioteken sitter fast i en rävsax inleds annars så här:

En dag som denna, då bok- och biblioteksmässan öppnar i Göteborg, kan man möjligen ägna en stilla tanke åt vad detta evenemang handlar om, och på vilken grund det egentligen vilar. Med sin sjöjungfruläsande logga baserar sig bokmässan på två samhällskulturella fundament, boken och biblioteket, vilka förändrats, ja rentav eroderat under senare år och numera är på digital drift i okända vatten. Möjligen är jungfrun en siren som lockar, eller kanhända en binär Skylla invid den digitala malströmmens Karybdis? Hur det än förhåller sig med saken, behöver man inte vara lika slug som Odysseus för att inse att såväl ”boken” som ”biblioteket” inte längre är vad de en gång var. Det är dock långt ifrån någon enkel fråga att greppa förändringen av dessa institutionella (kommunikations)former, givet en lika snabb som oförutsägbar medial utveckling. Boken, denna urgamla medieform, har på få år genomgått en remarkabel förändring med lika flytande som upplösta gränser mellan bok och numerisk icke-bok – om så i strömmande skepnad eller robotförfattad av en algoritm. I Googles tidsålder har biblioteket förstås också stöpts om till ett slags distribuerad informationsnod, även om de fysiska platserna (än så länge) finns kvar.

Öppna arkiven

Skyddstiderna för arkivmaterial har nu återigen förlängts – denna gång beträffande musik. Trots att abm-sektorn i åratal påpekat den minst sagt problematiska situation som uppstår när kulturarvet låses in, så lyssnar politiker (i synnerhet inom EU) till helt andra aktörer. Det är beklämmande. Likt en skiva med hack gäller dock maximen att fortsatt propagera för behovet av att öppna arkiven. Under tiden kan man exempelvis roa sig med att titta på den utmärkta filmen, Knowledge Is – a short film about opening up access to archives, i vilken man bland annat kan lära sig att BBC skulle behöva 685 års arbetstid för att klarera rättigheterna till sitt arkiv för webbanvändning.

DIKs digitala agenda

I en tid när regeringen nu (äntligen) satsar pengar på kulturarvssektorn – om än med vissa beting – hakar fackkförbundet DIK (dokumentation, information & kultur) på med en ny skrift, Digital agenda för Sverige– för öppen kunskap och information. Ordförande för DIK, Karin Linder, har på ett föredömligt sätt hårdprofilerat digitala frågor, och skriften lyfter fram sex framtida, strategiska områden: öppna kulturarvet, potentiell mångmiljardmarknad, analog/digital, skolbibliotek, biblioteksansvar och EU:s digitala agenda. Inledning låter aningen utopisk – men hoppas kan man ju:

“År 2020 har de digitala klyftorna övervunnits. Biblioteken är spjutspetsar i det livslånga lärandet. Alla elever har tillgång till ett skolbibliotek som utvecklar ungas informationskompetens. Bibliotekariers och lärares gemensamma kunskap vägleder eleverna till kompetenta medborgare i kunskapssamhället. Kulturen spelar en grundläggande roll i det demokratiska samhället. Kulturarvet är tillgängligt bland annat genom mobila enheter som tablets och smartphones. Minnesinstitutionerna har skapat och förvaltar en informationsallmänning på internet. Denna allmänning är integrerad med EU:s gemensamma kulturportal som möjliggör för alla att på ett enkelt och effektivt sätt få tillgång till Europas samlade kunskap.”

Inför bokmässan

Om mindre än två veckor är det dags för bok- och biblioteksmässan i Göteborg. Jag skall dels vara med i ett seminarium (och ett kort forskartorgsevenemang) på torsdagen den 22/9 kring Boken och biblioteket (samarrangerat av Riksbankens jubileumsfond och Ink förlag), som är relaterat till lanseringen av Rasmus Fleischers nya bok, Boken och biblioteket (som jag också för närvarande också håller på att skriva en artikel om för SvD). Under fredagen 23/9 är det så dags för ett mer KB-relaterat seminarium kring kulturarvsportalen Europeana, Ett arv bevaras bit för bit, där jag kommer att moderera en diskussion med utgångspunkt i nedanstående beskrivning:

Europeana, en EU-finansierad webbportal med bidrag från tusentals kulturinstitutioner, har 12 miljoner digitala manuskript, kartor, fotografier och tv-program tillgängliga online. Nyligen uppmanades medlemsstaterna att göra ännu fler verk tillgängliga både för forskare och allmänheten. Är det viktigt att digitalisera vårt kulturarv? Vilka utmaningar står svenska kulturarvsförvaltare inför, och hur kan kulturarvet förvandla Europa till en avancerad informationsekonomi? Medverkande: Christer Nylander, riksdagsledamot (FP) och vice ordförande i riksdagens kulturutskott, Louise Edwards, administrativ chef för The European Library, Jill Cousins, arbetande styrelsemedlem, Europeana och Karin Linder, ordförande för DIK.

Against Search

The other day I submitted a first draft of an article entitled, “Against Search—Towards A New Computational Logic of Media Accessibility”, to be published within the fortcoming Blackwell Companion to New Media Dynamics, edited by John Hartley, Jean Burgess and Axel Bruns. The article tries to map out, explain and understand, as well as situate and critically examine new search modalities within a larger framework of information retrieval in general, and alternative forms of media archival accessibility in particular. In short, I argue that new forms of different computational logics should be deployed in order to facilitate access to deep data as well quantitative surface data in both web n.0 media collections and at more traditional digital archives and libraries currently being coded online. I look forward to the editors comments – the article begins like this:

Let’s start off with one of the most compelling questions of our time: what does it mean to be human in the digital age? Well, one overwhelming challenge facing us all is having digital access to more information, data and knowledge than any previous generation of humankind. A burden perhaps—at least for some. But for the majority of us, a blessing. The often invoked libertarian information-wants-to-be-free paradigm not only insists on free flow of data. All these bits and bytes in the digital domain has to be organized and found, which needless to say is the underlying rationale for the most successful web behemoth of all. Suffice to say, we all live with an increased screen attention (of various sizes), and giving computers (and their mobile clones) textual and haptical commands has also become a ubiquous normality. Access to whatever we want literally lies at our fingertips; information is there somewhere waiting—and the question are always where to look. So, you search.

Ever since Google introduced its white and clean search box interface in the late 1990s—Internet Archive crawled the site for the first time in mid November 1998—the blank frame has been waiting for input. During the last decade this peculiar type of white box has become the new search default, especially within the information retrieval sector par excellence at archives, libraries and museums. “Search the Collections”, is the standard phrase awaiting every online user, implying a more or less vague notion that one already needs to know what one came for. Users are, of course, experienced since surfing the web basically means searching it. Subsequently, the notion of ‘search’ is key for the digital domain in general, and the web in particular. Understanding Google, Steven Levy notes, is trying to “grasp our technological destiny.” From a more scholarly perspective, ‘Search Studies’ is on the brink of developing into an academic field; ‘search’ is, after all, the primary human-computer interaction mode. Mining search patterns and optimizing the engine is what Google and other search companies does on a daily basis, and through online ‘search’ events IRL, like the spread of flues, can increasingly be anticipated. Search per se has in many ways somewhat paradoxically become the answer to questions asked.

To diagnose the cultural logic of online search is, naturally, a vast topic—ranging from the omnipresent potential of Google analytics to the critique of the ‘googlization of everything’ and unfiltered initiatives like Scroogle. Being coded and technical by nature ‘search’ remains highly complicated, with constant upgraded algorithms exploiting the link structure of the web. Since studying tech infrastructures is a blind spot for media studies, complexities are particularly striking from this perspective. Accessibility to various media content in an age characterized by dynamics and volatility is, however, regulated by notions of search, and therefore it remains essential to analyze and grasp how and why ‘search’ has become so important. During the last decade the notion of search has also been challenged by new and alternative computational modes of accessibility, which is yet another argument why ‘search’ needs to be taken seriously (and, admittedly, few would argue otherwise). Tags, folksonomies, or social tagging are, for example, new transformative web based practices and methods to annotate and categorize information and media content in an effort to collectively classify, tease out and find data in other ways than simply through the mantra, ‘search the collections’. Online browsing is, of course, a widely used option, as well as simply ‘clicking’. On YouTube—the quintessential new digital ‘archive’—one textual search is often enough, and then tags and linked videos leads the user into a streaming vortex of differentiated media. Context of content is often fleeting and arbitrary; odd juxtapositions norm rather than exception, and material regularly detached from its place of origin. Clicking rather than searching, thus, becomes an epistemic way of locating and perceiving media material, often in unintended ways. Usage resembles that of walking around in (weird) open library stacks, even if the much appraised digital ‘openness’ on the net in general, and on web 2.0 platforms in particular, always remains modulated on a protocological basis. A web browser is, after all, a translator of code and an interpreter of digital data that profoundly shapes user experiences. Then again, from a strict computer-science perspective, user generated and participatory platforms like YouTube are nothing but databases. Still, in any given cultural context, surfing onto a platform and watching a video at, say, YouTube obviously entails more than that. From a media studies perspective it is therefore debatable whether we ‘watch databases’ only (Lovink), or claims that there is ‘no content, only data and other data’ (Galloway & Thacker), has much relevance in regards to YouTube, or for that matter other cultural heritage or social media sites.

Nevertheless, given the sheer size of contemporary online media collections—from the vast information repositories of data at Wikileaks or The Pirate Bay, to billions of UGC on YouTube and Flickr, or for that matter the 20 million digitized heritage objects at the Library of Congress—simply having a look what’s inside the digital ‘archive’ is no longer possible. However, the contemporary ‘flood of information’ is, by no means, new. On the contrary, libraries and archives have during the last century repeatedly complained over way too many books and documents. The major difference, today, is that in digitized form such material can be analyzed collectively as major cultural sets rather than on a singular basis only. Singularity works for analyzing the particular. But the general is arguably more interesting, and often of greater importance. Hence, massively linked data has nowadays the potential to reveal new human patterns that hitherto remained invisible. The notion of a particular ‘search’, then, is not the answer to the more or less infinite digital archive.

Cloud First

I den debatt som pågått i GP om digitalisering av kulturarvet, och i vilken jag deltagit, har det ibland hävdats att marknadens lösningar inte är att lita på. Bevarandet och tillgängliggörandet av det svenska kulturarvet kan och får inte säljas ut till Yahoo, Google etcetera. Det är uppfattning som man inte sällan stöter på i olika kulturarvsammanhang; för att garantera bevarande, tillgänglighet och beständighet måste tekniska system byggas internt, och helst från grunden. Då går det långsamt – och i längden blir det otroligt dyrt. Kulturarvsmyndigheter i Sverige lägger idag stora summor och mycket resurser på att bygga tekniska lösningar enligt denna tankemodell.

Marknaden sitter naturligtvis inte inne med alla svar, men den digitala domänen är inte “kommersiell” på samma sätt som tidigare; Googles strategi är ju som bekant att locka användare genom gratiserbjudanden – något som även den offentliga sektorn borde kunna dra nytta av. I USA finns just antydningar till en sådan diskussion; nyligen publicerade exempelvis Vivek Kundra, tidigare i Obama-adminstrationen och nu på Harvard Berkman Center for Internet and Society, ett ledarstick i New York Times där han påpekade att “the United States cannot afford to be left behind in the cloud computing revolution.” Det låter kanske pompöst, men fortsättning är lika polemisk som den förankard i ett slags nytt personligt dataumgänge:

“Cloud computing is often far more secure than traditional computing, because companies like Google and Amazon can attract and retain cyber-security personnel of a higher quality than many governmental agencies. And government employees are so accustomed to using cloud services like Dropbox and Gmail in their personal lives that, even if their agencies don’t formally permit cloud computing, they use it for work purposes anyway, creating a “shadow I.T.” that leads to a more vulnerable organization than would a properly overseen cloud computing system.”

Molnet är givetvis inte lösningen på digitaliseringen av kulturarvet. Men att ignorera och blunda för de tekniska system som redan existerar, och som ofta kan tas i bruk för liten eller ingen kostnad alls, är faktiskt att backa in i framtiden.

Slutreplik i nätdebatten i SvD

Idag har Ester Pollack och Sigurd Allern publicerat en slutreplik i debatten om näthat i SvD, Publicisterna måste ta sitt ansvar på allvar. Mitt eget och Jonas Anderssons inlägg kommenteras genom att inte kommenteras: “Jonas Andersson och Pelle Snickars kommenterar (6/8) inte det publicistiska ansvaret eller etiken i sitt svarsinlägg till oss, utan nöjer sig med nätideologernas fasta mantra om det vidunderliga i att ”alla kan komma till tals” i en värld där redaktöransvar framställs som ”övervakning”. Förra veckan blev jag kallad nätevangelist i GP och nu är jag nätideolog – det är inte helt enkelt att föra en resonerande diskussion kring vad det innebär att vara människa i en digital tid.

Beträffande själva sakfrågan, nämligen den kring “anonymitet” online finns heller inga enkla svar. Att förbjuda osignerade kommentarer förefaller nu vara mediebranschens svar på den aktuella frågan, allt medan nätaktivister snarare progagerar för allehanda anonymiseringstjänster för att stävja den personliga datainflationen online: konkreta tips kan man exempelvis få i den aktuella tyska boken Die Datenfresser och sajten kring boken. Diskussionen är med andra ord minst sagt polariserad – och lär så förbli.

Debattinlägg i GP om digitaliseringen av kulturarvet

Idag har jag publicerat en text i GP, “Lindgrens kritik träffar fel”, detta apropå Håkan Lindgrens artikel, Kulturarv – så länge Yahoo vill? som publicerades för en tid sedan. Artikeln handlar framför allt om framtida digitala strategier för att tillgängliggöra kulturarvet – och börjar så här:

Är det så klokt att lägga ut arkiv-, biblioteks och museisektorns digitala kulturarvssatsningar på kommersiella företag, frågade Håkan Lindgren (GP 10/8). ABM-sektorns kulturarv riskerar ju att kommersialiseras och minnesinstitutionerna förlora kontrollen över ”sitt” material. Ska Yahoo (som äger Flickr) verkligen få tjäna pengar på reklambanners bredvid, säg, Strindbergs gamla celestografier? Borde inte hans himmelska bilder få vila i frid, snarare än att laddas upp i molnet där de – hemska tanke – kunde (åter)sättas i kulturell cirkulation? Det mest beständiga arkivet är ju det som aldrig används.

Läs hela artikeln här.

Något om publiceringsformer & medieforskningens syfte

Vad är medieforskningens egentliga syfte, och vem är den till för? Ska man som forskare fortsätta att skriva böcker – men vad är egentligen en bok nuförtiden? Bokens gränser är ju minst sagt otydliga, något som jag för övrigt skall vara med och diskutera på bokmässan om någon månad (i ett arrangemang av RJ och Ink Förlag i samband med Rasmus Fleishers nya Boken och biblioteket.) Det vetenskapliga samtalet är ju inte opåverkat av webb 2.0., men vem lyssnar eller läser idag medievetare – när, hur och på vilket sätt? Och hur bör man som medieforskare egentligen tänka kring nya publiceringsformer?

Själv har jag som medieforskare under några år drivit bokserien Mediehistoriskt arkiv, där vetenskapliga resultat förpackats för att tilltala både en kultursideläsande allmänhet liksom akademiskt specialintresserade. Medialt har det varit en tämligen framgångsrik strategi, dessutom har ett redaktionsråd bevakat den vetenskapliga kvaliteten. De senaste böckerna har också parallellpublicerats i elektronisk form med fri cc-licens. Ändå har dessa publikationer utförts inom bokens bokstavliga ramar. Men är det en framtida strategi? Nätet håller tveklöst på att underminera monografin som genre, men hur skall medieforskningen framöver förpackas och distribueras?

Ibland hävdas det att medievetenskapen måste vara kritisk, ofta med en allt blekare teoripalett hämtat från Frankfurtskolans standardkolorit. Själv vill jag hävda att medievetenskapliga studier i långt högre utsträckning är i behov av att tänka som, eller i linje med mediebranschen (snarare än mot den), liksom med de digitala medieformer som ibland kallas för ‘nya’. Att kontinuerligt följa vad som exempelvis skrivs på New York Times teknologisidor ger ofta mer analytiskt insikt (och intellektuellt bränsle) än ganska förutsägbar akademisk kritik av till exempel public service förmodade kommersialisering. Idag hittar man ofta de skarpaste analyserna av medielandskapets förändring inom branschen själv (publicerat på någon av webbens otaliga fora), snarare än i monografier eller tidskrifter som legat till sig på de traditionella akademiska förlagens skrivbord.

Framtida publiceringsformer framstår såtillvida som ett lika angeläget som metamedialt vetenskapsområde att undersöka. Precis som nätbaserad forskning, från Richard Rogers ”digitala metoder” över Lev Manovichs ”cultural analytics” till Franco Morettis kvantitativa ”distant reading”, numera arbetar och tänker med nätet och dess tekno-mediala specificitet, bör man nog som medievetare ställa sig fråga vad man är bra till i den digitala tidsåldern, samt hur man ska nå ut med sina resultat – analogt, digitalt eller båda? När exempelvis det arkiv man som forskare arbetar med finns tillgängligt online, varför skulle man då inte använda detta forskningsmaterial i den egna framställningen? I den webbok, Kulturarvet som data, som jag för närvarande slutför, är just den här typen av frågeställningar centrala.