Idag har jag publicerat en kommentar i SvD apropå, It i människans tjänst – en digital agenda för Sverige. Artikeln inleds så här:
Om nu kommunikation är ”en nödvändighet i ett modernt demokratiskt samhälle”, ja då bör Sverige verka för ett öppet ”och robust internet”. I alla fall om man ska tro it-minister Anna-Karin Hatt och den digitala agenda som presenterades förra veckan. Fyra strategiska it-områden ska prioriteras: förenklad access, e-tjänster, infrastruktur och samhällsutveckling. Agendan tar full sats och griper om det mesta – från förbättrad e-handel och nationell eHälsa, till it som pedagogiskt verktyg. Men det är faktiskt påfallande ofta välgenomtänkt och snyggt resonerat, till exempel om nätneutralitet och behovet ”mjuk infrastruktur”.
Läs vidare och ladda ned kommentaren här.
Kommentarerna kring Steve Jobs död har varit många – och det med rätta. En riktig visionär, och det sedan länge. Redan i en Apple-film från tidig 1980-tal – dubbad till svenska 1982 – påtalade Jobs att Apple tillverkat den ”första folkvagnsdatorn”, och det i en mycket märklig reklamfilm som man kan hitta i KBs digra mediearkiv. Ludvig Hertzberg, Svenskans streckredaktör, uppmärksammade för övrigt också Jobs bortgång genom att länka till ett par artiklar om Apple som SvD publicerat (några av dem skrivna av mig).
Nicholas Carr är en av de skarpaste analytikerna av den samtida digitala utvecklingen. För en tid sedan publicerade han två inlägg på sin blogg om bokmediets framtid, detta apropå lanseringen av Kindles nya palett av läsplattor. I den ena posten, The remains of the book, diskuterar Carr bokens och e-bokens skilda gränser, det vill säga den roll som pärm och skärm egentligen spelar för användande och läsande. “The idea of edges, of separateness, is antithetical to the web”, skriver han, “which as a hypermedium dissolves all boundaries, renders implicit connections explicit. Indeed, much of the power and usefulness of the web as a technology derives from the way it destroys all forms of containment and turns everything it subsumes into a part of a greater, ever shifting, amorphous whole. … An electronic book is therefore a contradiction in terms. To move the words of a book onto the screen of a networked computer is to engineer a collision between two contradictory technological, and aesthetic, forces. Something’s got to give. Either the web gains edges, or the book loses them.”
Själv har jag nyligen accepterat att skriva en artikel i en kommande SOU-antologi – redigerad av Ulla Carlsson på Nordicom och kopplad till den pågående Litteraturutredningen – där jag just tänker mig ta an den här typen av frågeställningar, men framför allt diskutera boken som det medium den alltid varit (då liksom nu).
Beräkningar gör gällande att under 2011 – 350 år efter den svenska pliktexemplarslagens införande – så kommer det skapas 2 000 exabytes data på internet, det vill säga 10 (upphöjt i 18) bytes – eller en miljon terrabytes. Det är ofantliga mängder information. Att samla in, lagra och tillgängligöra sådan information har sedan århundraden varit KB:s uppgift. Det är en lika angelägen uppgift som den är mödosam. Webbens överflöd av information ställer ett nationalbibliotek inför närmast bibliska svårigheter, problem som kommer att accentueras när den leveransplikt för elektroniska dokument (som är på gång) implementeras.
Men situationen är inte ny. Information har alltid varit ett problem och den pliktlag som infördes i Sveriges 1661 var just en kontrollmekanism från kronans sida. Lagen var en censuråtgärd – inte något kulturarvsinstrument. Det primära syftet var att kontrollera det tryckta ordet; avsikten att berika de offentliga samlingarna i bästa fall sekundär. Bevarandeaspekten tycks heller inte ha beaktats i någon större utsträckning. En stor del av det tryck som levererades från rikets boktryckare gallrades, även om den så kallade “fullständighetsprincipen” omhuldades – vilken efter hand blev till rättesnöre. Allt tryck bevarades, åtminstone i teorin.
Pliktlagen 1661 har därför många gånger framhållits som startpunkten för KB:s historia. Det är dock en sanning med modifikation, och lagen i sig är heller på intet sätt unik. Med den sällade sig Sverige snarare till en mängd andra länder som infört liknande bestämmelser något tidigare eller senare. Det är alltså inte KB som institution som firar 350 år under 2011 – utan en gammal pliktlag. Den förtjänar dock uppmärksamhet i sin egen rätt, inte minst då en ny e-plikt är på gång. Beträffande webben är det omöjligt att samla in allt, och e-plikten kommer därför innebära en ovillkorlig brytpunkt. Men man kan också se pliktexemplarslagens utvidgande 1978 till att omfatta audiovisuella medier som ett brott, eller för den delen betrakta pliktlagen 1661 som en slutpunkt – snarare än som ett startår.
Den 18/11 anordnar KB konferensen Information som problem – en konferens om KB och pliktleveranser under 350 år. Mer info om evenemanget återfinns här.
I have previously done some writing on WikiLeaks, a review for instance of Daniel Domscheit-Berg’s experience of this ‘organization’, and recently I submitted a first draft of an article – in an upcoming book on WikiLekas, edited by Christian Christensen (and hopefully published next year by Peter Lang), which tries to situate WikiLeaks within a broader archival discourse on data distribution. What type of ‘archive’ (or database) is WikiLeaks, and how does the site challenge traditional archives and libraries through new forms of massive information and data retrieval, as well as user oriented exploration? If (more or less) public data can be found online by anyone at all times, what are the implications for, and the contemporary role of archives and libraries (understood in a broad sense)? Naturally, the controversial nature of the leaked information from WikiLeaks is truly ‘hot data’, which is hardly the case at most heritage institutions. Still, the way the site’s massive amounts of freely distributed documents have entered the cultural circulation of the digital domain in general, as well as more media specific and web 2.0 areas in particular, does hint at various emerging archival models, where free access to hitherto locked material can generate innumerrous forms of new knowledge (of the past and sometimes even the future)—which, after all, is the purpose of most memory institutions. Hence, the importance of WikiLeaks as sort of a new archival modality. The article takes of using the Wayback Machine:
The Wayback Machine is truly an incredible piece of crawler software. Through its three dimensional index, basically anything that has appeared online in the last couple of years can be made visible again. This particular search engine, in fact, serves as a correction to the general newness and ‘flatness’ of digital culture—even if some would indeed argue that the web means the end of forgetting. All likely, we are only beginning to grasp what it means that so much of what we say, think and write in print and pixel is in the end transformed into permanent (and publicly distributed) digital files—whether leaked or not. Then again, all code is deep, and the Wayback Machine is, arguably, one of the more sophisticated digital methods to extract and visualize the specific historicity of the web medium. Essentially, the Wayback Machine (run by the Internet Archive) stores screen shots of various GUIs. This means that the web cannot be surfed through its interface, rather specific URLs are always needed. Still, some 150 billion web pages have been crawled since 1996. In fact, archived versions of web pages across time and space appear through the Wayback Machine’s digital time capsule almost akin to magic.
On January 17, 2007, the Wayback Machine’s software crawler captured wikileaks.org for the first time. The crawler’s act of harvesting and documenting the web, hence, meta stored a developing site for “untraceable mass document leaking”—all in the form of an “anonymous global avenue for disseminating documents”, to quote the archived image of the site. The initial WikiLeaks captures in the beginning of 2007, and there were additional sweeps stored during the following months, vividly illustrates how WikiLeaks gradually developed into a site of almost unprecedented global media attention. The WikiLeaks logo, with it’s blue-green hourglass, was, for example, graphically present right from the start, with subsequent headings to the right as ‘news’, ‘FAQ’, ‘support’, ‘press’ and ‘links’—the latter directing users to various network services for anonymous data publication as i2P.net or Tor. Interestingly, links to the initial press coverage is kept (and can still be accessed). Apparently, one of the first online article’s to mention what the site was all about stated: “a new internet initiative called WikiLeaks seeks to promote good government and democratization by enabling anonymous disclosure and publication of confidential government records.”
Looking and clicking at, reading and thinking about the first stored captures of wikileaks.org through the Wayback Machine, one cannot help but notice how the site initially wanted to become a new Wikipedia. In short, WikiLeaks strived to ‘wikify’ leaking by way of incorporating advanced cryptographic technologies for anonymity and untraceability, all in the form of a wiki. Massive amounts of documents were to be combined with “the transparency and simplicity of a wiki interface”, at least according to initial FAQs. To users, WikiLeaks will “look very much like Wikipedia. Anybody can post to it, anybody can edit it. No technical knowledge is required. Leakers can post documents anonymously and untraceably.” Furthermore, it was argued that all users can “publicly discuss documents and analyze their credibility and veracity.” As a consequence, users of the site would have the ability to openly “discuss interpretations and context and collaboratively formulate collective publications.”
As is well known, WikiLeaks did not become what it promised back in January 2007. Rather—to quote the site it wanted to resemble—WikiLeaks was “originally launched as a user-editable wiki (hence its name), but has progressively moved towards a more traditional publication model and no longer accepts either user comments or edits.” What did not change, however, is the fact that WikiLeaks was (and is) a distinct archival phenomenon, more or less aptly described as a database of scanned documents, forming a giant information repository. It comes as no surprise that web captures of the site in February 2008—a little more than a year after WikiLeaks was launched—claimed a database of more than 1,2 million documents.
Till våren 2012 gör jag en doktorandkurs på KTH (Skolan för datavetenskap och kommunikation) under rubriken “Kritisk medieteori”. Informationen om kursen finns nu utlagd på KTHs hemsida – och är man intresserad får man gärna höra av sig till mig. Enligt kursbeskrivningen kommer det hela att handla om följande:
Vad är ett medium? En till synes enkel fråga – dock utan entydiga svar. Om medierna i dag konvergerar i digitala gränssnitt gäller detta knappast 1900-talets mediala teoribildning. Den är snarare lika häpnadsväckande brokig som full av sylvassa uppslag; och därtill ständigt pådriven av introduktionen av nya mediala kommunikationsformer. Tanken med doktorandkursen Kritisk medieteori är att syna olika medieteorier och deras förmåga att förklara exempelvis medial utveckling. Kursen syftar till att beskriva och utforska ett vidsträckt panorama över skilda föreställningar och idéer kring medier – från skrift, press, foto och film över grammofon, radio och television till dagens digitala medielandskap. Ett särskilt fokus kommer att riktas mot kritisk medieteori, ett annat mot teoretiska föreställningar kring det ”digitala”. Kursen kommer i ett antal diskussionsbaserade föreläsningar och seminarier att resonera omkring grundläggande medieteoretiska frågeställningar som: Vad är ett medium? Vad innebär kommunikation? Hur förhåller sig kommunikation till medium? Kursen kommer också genom olika medieteoretiska konstellationer – som till exempel: Kracauer-Benjamin-Adorno/Horkheimer, Williams-Barthes-Debord, Foucault-Baudrillard-Kittler, Virilio-Flusser-Manovich eller Shannon-Innis-McLuhan – utforska medieteoretiska brott och kontinuiteter. Kursens mål är att ge doktoranderna såväl en god överblick som djupgående insikter i en vital och skiftande medial teoribildning.
Är det kanske så att datorskärmens tomma sökruta skrämmer oss alltmer? Har ett slags informationssökningens kris så sakteliga infunnit sig i ett allt tunnare gränssnitt mellan diverse databaser? Google arbetar naturligtvis på att ständigt förbättra sin sökmotor. Följer man Eric Schmidt, är just ”search – one of the great intellectual challenges of our time. Last year we tested over twenty thousand improvements to search and launched roughly 500.” Men det räcker inte; information overload förefaller likafullt vara ett faktum. Å den ena sidan existerar på nätet sedan en tid en trend där olika curators väljer material åt oss. I Holland har exempelvis Upload Cinema – specifikt urvalda webbvideos visade på biograf – blivit populärt. Webbens styrka (och svaghet) är det oändliga utbudet Ändå är det något av en paradox att först i analog form på bio så hittar publiken de videos man vill se. Å den andra sidan är algoritmiska rekommendationer allt mer centrala som urvalsmekanismer för det mediematerial vi ägnar oss åt. Nyligen påtalade tidigare nämnde Schmidt i ett anförande om televisionens framtid, detta apropå Googles satsningar in i TV-branschen, att 60 procent av alla kundval på den amerikanska filmuthyrningssajten Netflix utgår från automatiserade tips. Smart kod genererar enorma inkomster. Visserligen är den beroende av, och utgår ifrån mänskligt urval – och möjligen bör man därför också räkna in en tredje slags rekommendationsekonomi i denna ‘sökningens kris’, nämligen den kring sociala nätverk. Det är förstås ingen nyhet att ‘vänners’ urval och sociala rekommendationer blir en allt viktigare mekanism för hur material synliggörs på webben. Vars stora bristvara – som bekant – är uppmärksamhet.
One of the major projects at the Resaearch Department that I am heading (at the National Library of Sweden) is EUscreen – a beta version of this televisual heritage portal is up and running at euscreen.eu. One of the subtask attached to this project is establishing an academic journal, all likely in association with Critical Studies in Television. I have promised to write a piece for the very first issue to appear next year, and the other day I submitted a first draft of an article entitled “If Content is King, Context is its Crown”. The quote in the title is taken from Eric Schmidt’s recent MacTaggart lecture in Edinburgh, and, if the future of television is located online, Google is naturally bound to have an interest. In short, the article tries to reflect on new tele-computational structures, modes and search modalities in relation to digital media collections online (as euscreen.eu), and the ways that ‘context of data’ might differ and alternate at major media sites as, for example, YouTube. The article starts as follows:
Some people truly believe that “the Internet is fundamental to the future of TV”. Be that as it may; given the convergence of televisual and net based interactivity, similar software and hardware screens—or even program formats for that matter—such a claim could, naturally, be regarded as merely stating the obvious. But if delivered by Eric Schmidt, former CEO at Google, it somehow makes a difference. As a television industry outsider, in late August 2011 Schmidt presented “a hard-hitting MacTaggart address to TV broadcasters in Edinburgh”, according to the contextual description accompanying the video of the filmed event on YouTube. As the first non-broadcaster to deliver the MacTaggart lecture in 35 years, Schmidt’s talk on Google’s ‘small tube business’ has been widely debated, and is, indeed, interesting on many levels. Centered on viewers ability to mix web and television content on TV screens via a Google Chrome browser (on a PC, Android smart phone or tablet), it can arguably be perceived as one of the more intriguing speeches in recent years on upgraded forms of television and computational mode(l)s to come.
If the default value of ‘digital TV’ has shifted towards online, executives within the industry—like in other media sectors—are, nevertheless, still trying hard to think about, and try to come up with viable commercial and public service strategies for ‘old media’. The stakes are high, and as a web tech insider, Schmidt’s take is, of course, different, literally suggesting new ways of looking. So, even if seen as “a CompSci guy in the world of telly”, as one commentator put it on YouTube, his talk is nevertheless illustrative for a shift of perspective, accentuating a web centric view of the televisual landscape, notably with various forms of catch-up and on-demand TV services like the hugely popular BBC iPlayer. From a Google perspective with its clear cut mission (and commercial strategy) to attract as many users as possible, Schmidt was crystal clear in his talk about the company’s absolute commitment to its Google TV launch during 2012, as well as a strait forward acceptance that TV “is clearly winning the competition for attention”. Despite the hype in recent years around new media in general and the video vortex online in particular, global viewing patterns for traditional forms of television still outnumber web usage. All digerati knows this; lack of attending eyeballs remains a problematic, not the least financially since online advertisement is akin to follow the decreased formula of trading ‘analog dollar into digital dimes’. In the UK alone, for example, adults spend more time watching television in four days then they do using the web in a month. However, according to Schmidt, “you ignore the Internet at your peril. The Internet is fundamental to the future of Television for one simple reason: because it’s what people want. Technologically, the Internet is a platform for things that traditional TV cannot support. It makes TV more personal, more participative, more pertinent.”
Idag har jag publicerat en understreckare i SvD apropå bokens och bibliotekens förändrade situation. “I dag öppnar Bok- och biblioteksmässan, samtidigt som såväl böckernas framtid som bibliotekens roll är otydligare än någonsin. Litteraturens digitalisering är på samma gång en demokratisk utopi och ett hot mot hela branschen”, kan man läsa i ingressen. Själva artikeln, Biblioteken sitter fast i en rävsax inleds annars så här:
En dag som denna, då bok- och biblioteksmässan öppnar i Göteborg, kan man möjligen ägna en stilla tanke åt vad detta evenemang handlar om, och på vilken grund det egentligen vilar. Med sin sjöjungfruläsande logga baserar sig bokmässan på två samhällskulturella fundament, boken och biblioteket, vilka förändrats, ja rentav eroderat under senare år och numera är på digital drift i okända vatten. Möjligen är jungfrun en siren som lockar, eller kanhända en binär Skylla invid den digitala malströmmens Karybdis? Hur det än förhåller sig med saken, behöver man inte vara lika slug som Odysseus för att inse att såväl ”boken” som ”biblioteket” inte längre är vad de en gång var. Det är dock långt ifrån någon enkel fråga att greppa förändringen av dessa institutionella (kommunikations)former, givet en lika snabb som oförutsägbar medial utveckling. Boken, denna urgamla medieform, har på få år genomgått en remarkabel förändring med lika flytande som upplösta gränser mellan bok och numerisk icke-bok – om så i strömmande skepnad eller robotförfattad av en algoritm. I Googles tidsålder har biblioteket förstås också stöpts om till ett slags distribuerad informationsnod, även om de fysiska platserna (än så länge) finns kvar.
Skyddstiderna för arkivmaterial har nu återigen förlängts – denna gång beträffande musik. Trots att abm-sektorn i åratal påpekat den minst sagt problematiska situation som uppstår när kulturarvet låses in, så lyssnar politiker (i synnerhet inom EU) till helt andra aktörer. Det är beklämmande. Likt en skiva med hack gäller dock maximen att fortsatt propagera för behovet av att öppna arkiven. Under tiden kan man exempelvis roa sig med att titta på den utmärkta filmen, Knowledge Is – a short film about opening up access to archives, i vilken man bland annat kan lära sig att BBC skulle behöva 685 års arbetstid för att klarera rättigheterna till sitt arkiv för webbanvändning.