Boken som medium

Nyligen skickade jag in en artikel till en kommande antologi från Nordicom, kopplad till den pågående litteraturutredningen. Min text handlar om boken som medium – och tar sin utgångspunkt i lanseringen av Kindle Fire. Artikeln börjar som nedan och kommer i sin helhet att publiceras under nästa år.

I slutet av september 2011 presenterade Amazon ett ny slags e-platta, Kindle Fire. Till skillnad från företagets tidigare läsplattor, som (nästan) enbart handlat om läsning på skärm, var det nu dags för en Kindle som behärskade hela det samtidsmediala spektrat. Under ledning av Amazons VD Jeff Bezos var själva lanseringen av Kindle Fire visserligen en ganska platt historia – åtminstone att döma av videoinspelningen på YouTube. Bezos är ingen estradör, och en föga karismatisk företagsledare med än mindre publikreaktioner gör inte någon succé, eller som en kommentator på YouTube uttryckte det: ”good product, bad introduction”. Amazon kan nu trösta sig med att deras amerikanska tv-reklam för Kindle Fire varit desto snyggare. Ett (översatt) Voltaire-citat med orden ”fire” och ”kindle” iscensätts i ett snabbt mediehistoriskt montage, där Gutenbergs lösa typer tonas över i den nya (lilla) skärmens gränssnitt – allt under ledning av en berättarröst som framhäver apparatens multimediala karaktär: ”a Kindle for movies, music, web, games and reading.”

För Amazon var tiden alltså mogen för ytterligare ett steg i utvecklingen av läsplattan som koncept, denna gång i en distinkt medial riktning. Det kan tyckas uppenbart, inte minst givet framgångarna med Apples iPad. Men som termen läsplatta antyder har denna tekniska utveckling varit långt ifrån självklar, och speciellt inte för Amazon. Kindle har ju på många sätt varit den läsplatta som drivit utvecklingen av e-böcker. Miljontals apparater har sålts i USA och det är denna e-läsare (snarare än någon annan) som gjort bokläsande på skärm till en bred, masspublik företeelse. När Kindle introducerades under slutet av 2007 var den också tänkt som ett slags slutgiltigt substitut för boken, även om den givetvis haft sina förelöpare. Alan Kays Dynabook från sent 1960-tal brukar ofta lyftas fram som den första e-läsaren. Enligt Bezos hade den ursprungliga Kindle en aura av ”bookishness”, framför allt formatmässigt och marknadsfördes i konsekvens med detta som en apparat för ‘bokälskare’. Å den ena sidan insåg Amazon tidigt att förenklad konsumtion av e-böcker potentiellt kunde innebära stora intäkter, därav en gratis 3G-uppkoppling till amazon.com för att underlätta spontana bokinköp. Å den andra sidan fick Kindle den teknologiska effekt att andra företag (både i USA och internationellt) påbörjade produktion av läsplattor.

Hårdvarutillverkare av olika slags datorkloner är nuförtiden lika skickliga på producera begär efter nya apparater som den tekniska utvecklingen är rasande snabb. Knappast någon höjer längre på ögonbrynen när man byter dator eller läsplatta vartannat år, ett beteende som vore helt otänkbart beträffande exempelvis tv-apparat. Att skapa en avsättningsmarknad för ständigt nya och uppgraderade (men samtidigt ganska lika) versioner av datorer, mobiler och läsplattor är IT-industrins tveklöst största framgång det senaste decenniet. Det har förstås lett till att olika aktörer konkurrerar om ett lika nytt som lukrativt konsumtionsbeteende, och som många framhållit är Kindle Fire en direkt utmanare till Apples iPad. Amazon är inte direkt kända för att vara öppna med försäljningsstatistik, men det ryktas om en kvarts miljon förhandsbeställda exemplar av Kindle Fire – siffror som väl matchar Apple.

Rivaliteten mellan Amazon och Apple har många dimensioner, och från ett bokperspektiv har den förra haft ett klart övertag. Amazon säljer varje år böcker för miljarder dollar och euro, och den ursprungliga Kindle var stilenligt tänkt som en produkt för strikt e-läsande. Ingen mail, inget surfande, inga distraktioner – enbart bokläsande från en svart-vit bokliknande skärm. Förlags- och mediebranschen var (och är nog alltjämt) inte helt övertygade om detta koncept, och som kontrast lanserades Apples surfplatta iPad under våren 2010 som en multimedial apparat med i princip samma funktionaliteter som en vanlig dator, låt gå att den främst kommit att användas som ett slags medial konsumtionsmaskin. iPad har förstås varit en formidabel framgång; med miljontals sålda surfplattor har Apple skapat en helt ny tablet-marknad som man helt dominerar. Apple har emellertid haft synnerligen svårt att konkurrera med Amazon beträffande just bokläsande, även om iPad (och iPhone) förstås också används för detta ändamål. Apples bokaffär iBooks har exempelvis varit långt ifrån succéer som iTunes eller App Store, och till skillnad från Amazon har man spritt såväl mjuk- som hårdvara i olika försäljningskanaler. På amazon.com hittar man (nästan) allt, men företaget säljer främst böcker och den ursprungliga Kindle-läsaren har alltså hittat ett marknadssegment för den läsande bokkonsumenten som Apple inte (än) förmått rucka på.

Nätet om 100 år

Programmet för Internetdagarna i november börjar nu ta form, och själv deltar jag i en panel betitlad, Vem kan läsa våra tankar om 100 år?. Tanken med panelen är att diskutera webbarkivering i vid bemärkelse, och själv tänker jag mig fokusera denna problematik ur ett forskningsperspektiv. Mitt eget miniabstract utlovar följande: “Som medial kommunikationsform är Internet inte bara en källa till ofantliga mängder data, det utgör också ett slags katalysator för ny vetenskaplig metod och forskningspraktik. Sökmotorer är exempelvis epistemologiska maskiner i den meningen att de samlar in, indexerar, lagrar – och slutligen organiserar webbens data. Med Wayback Machine eller Kulturarw3 kan man alls inte surfa i efterhand, men väl bedriva forskning – men med vissa restriktioner.”

Okreativt skrivande

Lawrence Lessig har i något sammanhang hävdat att det är lika vanligt att andas som att kopiera när man sitter framför datorn. Denna insikt verkar Kenneth Goldsmith tagit ad notam. Han undervisar nämligen en kurs, “Uncreative Writing”, på University of Pennsylvania i vilken, “students are penalized for showing any shred of originality and creativity. Instead they are rewarded for plagiarism, identity theft, repurposing papers, patchwriting, sampling, plundering, and stealing. Not surprisingly, they thrive.” Goldsmith berättar om denna kurs i en artikel, It’s Not Plagiarism. In the Digital Age, It’s ‘Repurposing’ i The Chronicle of Higher Education (och han har också nyligen publicerat boken, Uncreative Writing: Managing Language in the Digital Age). Det är lika intressant läsning som artikeln inbjuder till självkritisk rannsakning. I en tid när copy-and-paste är ett slags ledmetafor för olika slags publiceringsformat (framför allt online) kan man verkligen fråga sig vad som är original/originellt – och vad som enbart är plagiat. Som exempelvis i denna bloggpost.

Kommentar i SvD om digital agenda

Idag har jag publicerat en kommentar i SvD apropå, It i människans tjänst – en digital agenda för Sverige. Artikeln inleds så här:

Om nu kommunikation är ”en nödvändighet i ett modernt demokratiskt samhälle”, ja då bör Sverige verka för ett öppet ”och robust internet”. I alla fall om man ska tro it-minister Anna-Karin Hatt och den digitala agenda som presenterades förra veckan. Fyra strategiska it-områden ska prioriteras: förenklad access, e-tjänster, infrastruktur och samhällsutveckling. Agendan tar full sats och griper om det mesta – från förbättrad e-handel och nationell eHälsa, till it som pedagogiskt verktyg. Men det är faktiskt påfallande ofta välgenomtänkt och snyggt resonerat, till exempel om nätneutralitet och behovet ”mjuk infrastruktur”.

Läs vidare och ladda ned kommentaren här.

Steve Jobs bortgång

Kommentarerna kring Steve Jobs död har varit många – och det med rätta. En riktig visionär, och det sedan länge. Redan i en Apple-film från tidig 1980-tal – dubbad till svenska 1982 – påtalade Jobs att Apple tillverkat den ”första folkvagnsdatorn”, och det i en mycket märklig reklamfilm som man kan hitta i KBs digra mediearkiv. Ludvig Hertzberg, Svenskans streckredaktör, uppmärksammade för övrigt också Jobs bortgång genom att länka till ett par artiklar om Apple som SvD publicerat (några av dem skrivna av mig).

Vad är en bok?

Nicholas Carr är en av de skarpaste analytikerna av den samtida digitala utvecklingen. För en tid sedan publicerade han två inlägg på sin blogg om bokmediets framtid, detta apropå lanseringen av Kindles nya palett av läsplattor. I den ena posten, The remains of the book, diskuterar Carr bokens och e-bokens skilda gränser, det vill säga den roll som pärm och skärm egentligen spelar för användande och läsande. “The idea of edges, of separateness, is antithetical to the web”, skriver han, “which as a hypermedium dissolves all boundaries, renders implicit connections explicit. Indeed, much of the power and usefulness of the web as a technology derives from the way it destroys all forms of containment and turns everything it subsumes into a part of a greater, ever shifting, amorphous whole. … An electronic book is therefore a contradiction in terms. To move the words of a book onto the screen of a networked computer is to engineer a collision between two contradictory technological, and aesthetic, forces. Something’s got to give. Either the web gains edges, or the book loses them.”

Själv har jag nyligen accepterat att skriva en artikel i en kommande SOU-antologi – redigerad av Ulla Carlsson på Nordicom och kopplad till den pågående Litteraturutredningen – där jag just tänker mig ta an den här typen av frågeställningar, men framför allt diskutera boken som det medium den alltid varit (då liksom nu).

Information som problem – om en kommande konferens på KB

Beräkningar gör gällande att under 2011 – 350 år efter den svenska pliktexemplarslagens införande – så kommer det skapas 2 000 exabytes data på internet, det vill säga 10 (upphöjt i 18) bytes – eller en miljon terrabytes. Det är ofantliga mängder information. Att samla in, lagra och tillgängligöra sådan information har sedan århundraden varit KB:s uppgift. Det är en lika angelägen uppgift som den är mödosam. Webbens överflöd av information ställer ett nationalbibliotek inför närmast bibliska svårigheter, problem som kommer att accentueras när den leveransplikt för elektroniska dokument (som är på gång) implementeras.

Men situationen är inte ny. Information har alltid varit ett problem och den pliktlag som infördes i Sveriges 1661 var just en kontrollmekanism från kronans sida. Lagen var en censuråtgärd – inte något kulturarvsinstrument. Det primära syftet var att kontrollera det tryckta ordet; avsikten att berika de offentliga samlingarna i bästa fall sekundär. Bevarandeaspekten tycks heller inte ha beaktats i någon större utsträckning. En stor del av det tryck som levererades från rikets boktryckare gallrades, även om den så kallade “fullständighetsprincipen” omhuldades – vilken efter hand blev till rättesnöre. Allt tryck bevarades, åtminstone i teorin.

Pliktlagen 1661 har därför många gånger framhållits som startpunkten för KB:s historia. Det är dock en sanning med modifikation, och lagen i sig är heller på intet sätt unik. Med den sällade sig Sverige snarare till en mängd andra länder som infört liknande bestämmelser något tidigare eller senare. Det är alltså inte KB som institution som firar 350 år under 2011 – utan en gammal pliktlag. Den förtjänar dock uppmärksamhet i sin egen rätt, inte minst då en ny e-plikt är på gång. Beträffande webben är det omöjligt att samla in allt, och e-plikten kommer därför innebära en ovillkorlig brytpunkt. Men man kan också se pliktexemplarslagens utvidgande 1978 till att omfatta audiovisuella medier som ett brott, eller för den delen betrakta pliktlagen 1661 som en slutpunkt – snarare än som ett startår.

Den 18/11 anordnar KB konferensen Information som problem – en konferens om KB och pliktleveranser under 350 år. Mer info om evenemanget återfinns här.

Himalaya of Data

I have previously done some writing on WikiLeaks, a review for instance of Daniel Domscheit-Berg’s experience of this ‘organization’, and recently I submitted a first draft of an article – in an upcoming book on WikiLekas, edited by Christian Christensen (and hopefully published next year by Peter Lang), which tries to situate WikiLeaks within a broader archival discourse on data distribution. What type of ‘archive’ (or database) is WikiLeaks, and how does the site challenge traditional archives and libraries through new forms of massive information and data retrieval, as well as user oriented exploration? If (more or less) public data can be found online by anyone at all times, what are the implications for, and the contemporary role of archives and libraries (understood in a broad sense)? Naturally, the controversial nature of the leaked information from WikiLeaks is truly ‘hot data’, which is hardly the case at most heritage institutions. Still, the way the site’s massive amounts of freely distributed documents have entered the cultural circulation of the digital domain in general, as well as more media specific and web 2.0 areas in particular, does hint at various emerging archival models, where free access to hitherto locked material can generate innumerrous forms of new knowledge (of the past and sometimes even the future)—which, after all, is the purpose of most memory institutions. Hence, the importance of WikiLeaks as sort of a new archival modality. The article takes of using the Wayback Machine:

The Wayback Machine is truly an incredible piece of crawler software. Through its three dimensional index, basically anything that has appeared online in the last couple of years can be made visible again. This particular search engine, in fact, serves as a correction to the general newness and ‘flatness’ of digital culture—even if some would indeed argue that the web means the end of forgetting. All likely, we are only beginning to grasp what it means that so much of what we say, think and write in print and pixel is in the end transformed into permanent (and publicly distributed) digital files—whether leaked or not. Then again, all code is deep, and the Wayback Machine is, arguably, one of the more sophisticated digital methods to extract and visualize the specific historicity of the web medium. Essentially, the Wayback Machine (run by the Internet Archive) stores screen shots of various GUIs. This means that the web cannot be surfed through its interface, rather specific URLs are always needed. Still, some 150 billion web pages have been crawled since 1996. In fact, archived versions of web pages across time and space appear through the Wayback Machine’s digital time capsule almost akin to magic.

On January 17, 2007, the Wayback Machine’s software crawler captured wikileaks.org for the first time. The crawler’s act of harvesting and documenting the web, hence, meta stored a developing site for “untraceable mass document leaking”—all in the form of an “anonymous global avenue for disseminating documents”, to quote the archived image of the site. The initial WikiLeaks captures in the beginning of 2007, and there were additional sweeps stored during the following months, vividly illustrates how WikiLeaks gradually developed into a site of almost unprecedented global media attention. The WikiLeaks logo, with it’s blue-green hourglass, was, for example, graphically present right from the start, with subsequent headings to the right as ‘news’, ‘FAQ’, ‘support’, ‘press’ and ‘links’—the latter directing users to various network services for anonymous data publication as i2P.net or Tor. Interestingly, links to the initial press coverage is kept (and can still be accessed). Apparently, one of the first online article’s to mention what the site was all about stated: “a new internet initiative called WikiLeaks seeks to promote good government and democratization by enabling anonymous disclosure and publication of confidential government records.”

Looking and clicking at, reading and thinking about the first stored captures of wikileaks.org through the Wayback Machine, one cannot help but notice how the site initially wanted to become a new Wikipedia. In short, WikiLeaks strived to ‘wikify’ leaking by way of incorporating advanced cryptographic technologies for anonymity and untraceability, all in the form of a wiki. Massive amounts of documents were to be combined with “the transparency and simplicity of a wiki interface”, at least according to initial FAQs. To users, WikiLeaks will “look very much like Wikipedia. Anybody can post to it, anybody can edit it. No technical knowledge is required. Leakers can post documents anonymously and untraceably.” Furthermore, it was argued that all users can “publicly discuss documents and analyze their credibility and veracity.” As a consequence, users of the site would have the ability to openly “discuss interpretations and context and collaboratively formulate collective publications.”

As is well known, WikiLeaks did not become what it promised back in January 2007. Rather—to quote the site it wanted to resemble—WikiLeaks was “originally launched as a user-editable wiki (hence its name), but has progressively moved towards a more traditional publication model and no longer accepts either user comments or edits.” What did not change, however, is the fact that WikiLeaks was (and is) a distinct archival phenomenon, more or less aptly described as a database of scanned documents, forming a giant information repository. It comes as no surprise that web captures of the site in February 2008—a little more than a year after WikiLeaks was launched—claimed a database of more than 1,2 million documents.

Kritisk medieteori på KTH

Till våren 2012 gör jag en doktorandkurs på KTH (Skolan för datavetenskap och kommunikation) under rubriken “Kritisk medieteori”. Informationen om kursen finns nu utlagd på KTHs hemsida – och är man intresserad får man gärna höra av sig till mig. Enligt kursbeskrivningen kommer det hela att handla om följande:

Vad är ett medium? En till synes enkel fråga – dock utan entydiga svar. Om medierna i dag konvergerar i digitala gränssnitt gäller detta knappast 1900-talets mediala teoribildning. Den är snarare lika häpnadsväckande brokig som full av sylvassa uppslag; och därtill ständigt pådriven av introduktionen av nya mediala kommunikationsformer. Tanken med doktorandkursen Kritisk medieteori är att syna olika medieteorier och deras förmåga att förklara exempelvis medial utveckling. Kursen syftar till att beskriva och utforska ett vidsträckt panorama över skilda föreställningar och idéer kring medier – från skrift, press, foto och film över grammofon, radio och television till dagens digitala medielandskap. Ett särskilt fokus kommer att riktas mot kritisk medieteori, ett annat mot teoretiska föreställningar kring det ”digitala”. Kursen kommer i ett antal diskussionsbaserade föreläsningar och seminarier att resonera omkring grundläggande medieteoretiska frågeställningar som: Vad är ett medium? Vad innebär kommunikation? Hur förhåller sig kommunikation till medium? Kursen kommer också genom olika medieteoretiska konstellationer – som till exempel: Kracauer-Benjamin-Adorno/Horkheimer, Williams-Barthes-Debord, Foucault-Baudrillard-Kittler, Virilio-Flusser-Manovich eller Shannon-Innis-McLuhan – utforska medieteoretiska brott och kontinuiteter. Kursens mål är att ge doktoranderna såväl en god överblick som djupgående insikter i en vital och skiftande medial teoribildning.

Sökningens kris

Är det kanske så att datorskärmens tomma sökruta skrämmer oss alltmer? Har ett slags informationssökningens kris så sakteliga infunnit sig i ett allt tunnare gränssnitt mellan diverse databaser? Google arbetar naturligtvis på att ständigt förbättra sin sökmotor. Följer man Eric Schmidt, är just ”search – one of the great intellectual challenges of our time. Last year we tested over twenty thousand improvements to search and launched roughly 500.” Men det räcker inte; information overload förefaller likafullt vara ett faktum. Å den ena sidan existerar på nätet sedan en tid en trend där olika curators väljer material åt oss. I Holland har exempelvis Upload Cinema – specifikt urvalda webbvideos visade på biograf – blivit populärt. Webbens styrka (och svaghet) är det oändliga utbudet Ändå är det något av en paradox att först i analog form på bio så hittar publiken de videos man vill se. Å den andra sidan är algoritmiska rekommendationer allt mer centrala som urvalsmekanismer för det mediematerial vi ägnar oss åt. Nyligen påtalade tidigare nämnde Schmidt i ett anförande om televisionens framtid, detta apropå Googles satsningar in i TV-branschen, att 60 procent av alla kundval på den amerikanska filmuthyrningssajten Netflix utgår från automatiserade tips. Smart kod genererar enorma inkomster. Visserligen är den beroende av, och utgår ifrån mänskligt urval – och möjligen bör man därför också räkna in en tredje slags rekommendationsekonomi i denna ‘sökningens kris’, nämligen den kring sociala nätverk. Det är förstås ingen nyhet att ‘vänners’ urval och sociala rekommendationer blir en allt viktigare mekanism för hur material synliggörs på webben. Vars stora bristvara – som bekant – är uppmärksamhet.