Metamodeling—3D-(re)designing Polhem’s Laboratorium mechanicum

The other day I got a book chapter accepted for a forthcoming joint German and English book publication – with the working title, The Virtue of Models 2.0. The book is part of work being executed within the German digital humanities working group, Digitale Rekonstruktion, and the title of my chapter is tentatively: ”Metamodeling—3D-(re)designing Polhem’s Laboratorium mechanicum.” In many ways, the text will be a kind of first output of the project, Digitala Modeller, that I am heading. What I envision (or at least have promised) to write is the following:

Christopher Polhem (1661-1751) was a Swedish scientist and pre-industrial inventor—sometimes described as “the Father of Swedish Technology” (Lindroth 1951; Johnson 1963, Lindgren 2011). His so called, Laboratorium mechanicum (or the Royal Model Chamber) was a collection of several hundred educational models of wood of contemporary equipment, machines and building structures, water gates, hoistings and locks, invented (mostly) by himself. Basically, the Laboratorium mechanicum was a facility for training Swedish engineers, as well as a laboratory for testing and exhibiting Polhem’s models and designs. It was set up by him in the late 1690s, became a Swedish state-funded institution for information and dissemination of technology and architecture in 1756, and was during the 19th century used at the KTH Royal Institute of Technology in Stockholm.

Around 1930 Polhem’s model collection was transferred to the Swedish National Museum of Science and Technology. Ever since it has served—and been frequently exhibited—as a kind of meta-museological artifact, since Polhem’s designs proved to be pedagogical museological objects avant la lettre. Within the new interdisciplinary research project, “Digital Models. Techno-historical collections, digital humanities & narratives of industrialisation” (funded by approximately one million euro by the Royal Swedish Academy of Letters, History and Antiquities, between 2016-19) parts of this collection will be 3D scanned and 3D reconstructed by different software. In short, the project set up is part of the trend were heritage institutions are exploring how 3D technologies can broaden access to their collections (Urban 2016; Ioannides 2014). More specifically we are interested in Polhem’s so called “mechanical alphabet”. Initially, it consisted of 80 wooden models of basic machine elements like the lever, the wheel and the screw. Since a writer naturally had to know the alphabet in order to create words and sentences, Polhem argued that a contemporary mechanicus had to grasp his mechanical alphabet to be able to construct and understand machines.

3D modelling the mechanical alphabet, however, can be done in various ways. Within our research group, we have for example started co-operating with the animator Rolf Lindberg; on YouTube he has uploaded a number of videos of Polhem’s models (Lindberg 2016). Lindberg, however, did not 3D scan these mechanical models—he computer-animated them. Hence, from a museological perspective, rather than 3D scanning heritage items, it seems easier, and perhaps also more pedagogical and visually enticing to simulate them—that is, building and constructing a brand new virtual object. The original item collected in the museum then becomes a model (rather than vice versa). One of the objectives of the London Charter on computer-based visualisation of heritage promotes “intellectual and technical rigour in digital heritage visualisation”—yet, is a 3D scan (in our case) more rigour than a simulation? (London Charter 2009). Furthermore, in the case of Polhem’s models, the theme of (digital) reconstruction also has a profound historical dimension, since he sincerely believed (as a pre-industrial inventor) that physical models were always superior to drawings and abstract representations. Then again, metamodeling as a scholarly and museological practice might not agree that the same hold true for digital representations—or?

Kommande reportage om digital humaniora i Respons

Under den senaste veckan har jag skrivit på ett reportage om digital humaniora för tidskriften Respons; texten bör väl publiceras under hösten. Tanken var att skissa fram ett slags lägesrapport av detta forskningsfält, med utgångspunkt i den stora DH-konferens som hölls förra veckan i Krakow. Men min rapport börjar med en klassisk svensk sjuttiotalsroman!

Det framstår som något av en ironi att den närmast oöverträffade nidbilden av den digitale humanisten uppträder redan före detta forskningsfälts egentliga existens. ”Jag har kodat båda böckerna nu, med optisk läsning”, heter det nämligen i Lars Gustafssons Tennisspelarna från 1977. Det är dataoperatören Chris som i en betongbunker, långt under jorden i Fort Worth, Texas, sitter och matar in bland annat Strindbergs Inferno i ”computorn”. Han är uttråkad av att spana efter ”små vita prickar” på den ”självlysande kartan över Södra luftförsvarsområdet”:


Det tog hela natten och jag är öm i fingrarna av allt bläddrandet. Nu på morgonen håller maskinen på att gödelnumrera alltihop.
– Förlåt, vad menar du med gödelnumrera?
– Va? Jaså. Vet du inte det? Man numrerar alla bokstäver i alfabetet, alla skiljetecken och skaffar ett särskilt nummer för ordmellanrum. Sen tar du produkten av det för varje sats. Och sen tar du primtalen och höjer dem till dom där produkterna så att dom blir potenser av primtalen. Eftersom varje heltal är entydigt bestämt av sina primfaktorer har du märkt varje sats på det sättet, så att den aldrig mera kan komma bort. Sen är det bara att multiplicera satsernas gödeltal med varandra, så får du bokens gödeltal.
– Det måste bli rätt stora tal?
– Det blir det …
– Kul. Och vad kommer ut?
– Jag har ingen aning. Jo, det blir en tredje bok förstås. Den tredje boken om Inferno.


Gustafsson var här spot on – och det avant la lettre. Många uppfattar fortfarande forskning inom digital humaniora ungefär på det här sättet. Digital humaniora (ofta förkortat som DH) handlar nu visserligen mycket sällan om ”böckers gödeltal” – men räknas görs det så det förslår. Det var fallet under sjuttiotalet, då under namnet ”humanities computing” (vilket Gustafsson säkerligen kom i kontakt med under sin tid i USA), och så är även fallet idag. Utan att darra på manschetten proklamerade exempelvis litteraturvetaren Andrew Piper nyligen att, ”there will be numbers” – vilket också var titeln på hans programmatiska inledningstext till den nystartade tidskriften, Journal of Cultural Analytics.

Presenting at DH16 in Kraków

This week, the major digital humanities conference in Kraków takes place; apparently some 900 digital humanist will partake. The program looks really interesting – it can be found here – and I will do a presentation on Thursday entitled, “SpotiBot–Turing testing Spotify”. Basically, my take will be based on an article (written by me and Humlab developer, Roger Mähler), that was submitted to the journal Digital Humanities Quaterly a month ago (or so). Slides and the PDF of the lecture (as it stands at the moment) can be downloaded here: snickars_slides_DH16 and snickars_talk_DH16. I do look forward to the conference.

Oscar II och medierna

För en kommande bok om kungar och utställningar håller jag på och skriver en text om Oscar II och medier – i relation till Stockholmsutställningen 1897. För nästa tio år sedan gjorde vi en bok om denna utställning, därtill har jag ägnat mig en del åt prins Wilhelms mediala kvarlåtenskap – så ämnet kan jag. Oscar II är högintressant eftersom han var kung i en medial brytningstid. För närvarande ser anslaget till artikeln ut på följande sätt:

En av de mer märkliga memoarerna i svensk politisk historia publicerades hela 53 år efter det att författaren gått bort: Mina memoarer av Oscar II. Norstedts förlag gav ut tre volymer 1960, men i sin officiösa framställning framstår de idag som ganska så träiga. Visserligen omtalades Oscar II under sin livstid ”som Europas lärdaste monark”. Han kunde tveklöst uttrycka sig pregnant i skrift, var beläst i historiska och litterära ämnen och hade en levande associationsförmåga. Likafullt menar Svenskt biografiskt lexikon att kungens memoarer knappast gjorde ”honom till en stor monark i eftervärldens ögon.”

Nej, det speciella med Mina memoarer är att Oscar II skrev dem i anslutning till händelser han just genomlevt. Memoarerna framstår som ett slags fotografiska utsnitt, ögonblicksbilder eller journalistiska impressioner, där kungen reflekterade över det som nyss inträffat. ”Konung Oscar stod mitt uppe i sin gärning i händelsernas centrum, då han etappvis utarbetade sina memoarer”, påtalade just utgivaren Nils F. Holm i sitt ”Företal”. Texter och fragment var därför i allmänhet ”nedskrivna helt kort tid efter de relaterade händelserna.” Att det tog mer än ett halvt sekel innan memoarerna publicerades berodde på kungens egna instruktioner; de skulle förvaras i ”igenlödda blecklådor”, och allra tidigast göras tillgängliga för forskning efter 1950. Av den anledningen är Oscar II:s memoarer också stundtals lätt förvirrande. Aktuell tidskontext lämnades ofta därhän, bakgrunden till olika skeenden togs liksom för given. Utgivaren Holm såg sig därför tvungen att inför varje kapitel ge ”en kort sammanfattning av den politiska situationen och det händelseförlopp kapitlet redovisar.”

Det gäller även de sätt som Oscar II beskriver den Allmänna konst- och industriutställningen på Djurgården i Stockholm sommaren 1897. I sina reminiscenser från utställningen – nedtecknade redan den första december samma år – menade kungen att det inte var nödvändigt att skriva något mer utförligt om själva utställningen. ”Tidningarna för denna sommar äro fulla av beskrivningar om alla detaljer, och jag kan hänvisa till dem”. Passagen är typisk för hans memoarer. Men förmodligen tog Oscar II också stöd i de klippböcker från utställningen som hovet sammanställt. Urklippen från Stockholmsutställningens första månad är många; de fyller mängder av sidor i en av klippböckerna i Oscar II efterlämnade personarkiv.

Det framstår därför som symptomatiskt att kungen i sina memoarer bara ville yttra sig om en enda sak i samband med Stockholmsutställningen 1897: dagspressen. ”Endast om en kongress, journalistkongressen, vill jag yttra ett par ord. Liksom alla andra ville pressen ock hava sina möten”, skrev kungen. Han påtalade att han först ställt sig tvekande inför ”ett värdskap”, eftersom det kunde ”giva anledning till ’intervjuer-fantasier’ [med] obehagliga följder.” Men kungen hade samtidigt deltagit i det diplomatiska spel som föregick utnämningen av Stockholm som plats för den internationella journalistkongressen. ”All tvekan försvann”, skriver han, ”vid tanken på den ovedersägliga nytta som mitt fosterland kunde skörda av ett besök av världens mest framstående tidningsmän.” Kungen lät sig med andra ord användas – ja, rentav utnytjas av presskåren – vilken i sin tur givetvis använde sig av honom och den rojalistiska strålglans som förknippades med. ”Jag ångrade mig ej heller”, skrev Oscar II i sina memoarer, ”ty både Sverige och jag själv med måste sägas hava skördat fördelar av journalistkongressen. … Världspressen genljöd länge och väl av lovord, mycket smickrande och glädjande att lyssna till för svenska öron.”

Som presshistorikern Patrik Lundell framhållit framstår Stockholmsutställningen 1897 som en tidpunkt ”då för första gången pressen, kungamakten och kapitalet på allvar drack varandra till, till ömsesidig båtnad.” Den symbios som där framträdde mellan medier och kungamakt – med utställningen som ett slags gränssnitt – framstår både som profetiskt framåtblickande, men också som nostalgiskt tillbakablickande. Framåtblickande i den bemärkelse som vi idag alla känner till, nämligen kopplingen mellan medier, monarki och kändiskultur vilken numera hör den traditionella kungabilden till, filtrerad och populariserad som denna blivit genom 1900-talets massmedier.

Men också tillbakablickande i den bemärkelsen att Oscar II framstår som den siste svenske monark som krampaktigt höll fast vid forna tiders kungaideal. Han var kung inte bara i en medial brytningstid. Han var också den siste svenske monark som kröntes, och främhärdade därför envist med ceremonier och tillställningar, uppvaktningar och supéer vilka alla bidrog skulle bidra till att understryka kungens värdighet och ryktbarhet. Här kunde han dra nytta av tidens medier. Alltsedan 1809 års regeringsform, där riksdagen fick kraftigt utökade maktbefogenheter (men där kungen behöll den verkställande makten), bevittnade Oscar II under sin långa levnad – mellan 1829 till 1907 – hur kungens personliga makt minskade i takt med regeringens och riksdagens allt starkare ställning. Mina memoarer framstår på flera sätt som en svanesång över denna förändring.

Men Oscar II var inte ensam att förtvivla; den rojalistiska kursändringen inte heller bara en svensk företeelse. I sin magistrala bok om 1800-talet, The Transformation of the World, beskriver Jürgen Osterhammel hur den konstitutionella monarki, där kungen (eller drottningen) blev till en statschef med strikt begränsade befogenheter, var kännetecknade för de flesta kungahus i världen under 1800-talet. Osterhammel påpekar emellertid att kungahusens realpolitiska förfallshistoria inte sällan gav upphov till en sorts rekyleffekt på det mer symboliskt-politiska planet – och då ofta i symbios med den framväxande mediemoderniteten. Den tyska kejsaren Wilhelm II – vars regenttid (1888-1918) ställvis sammanfaller med Oscar II – brukar av forskningen idag ofta framhållas som en sannskyldig ”Medienkaiser”. Samma typ av mediala symbios som framträder i Oscar II:s beskrivning av journalistkongressen 1897, känneteckande Wilhelm II:s relation till samtidens medieformer överlag. Mediekejsaren Wilhelm använde sig av, ”och blev i sin tur utnyttjad av, dagspressen, fotografiet och filmen”, skriver Osterhammel. På så vis framstår han som Tysklands ”första (och sista) kungliga mediestjärna genom sina frekvent offentliga framträdande.”

Noisy Media Theory

I am currently writing an article with my colleague Johan Jarlbrink, where we are trying to make (at least) some sense of a small selection of the ten million newspaper pages that have so far been digitised by the National Library of Sweden. Working with the resulting XML-files from Aftonbladet between 1830 and 1862, these contain extreme amounts of noise: millions of misinterpreted words generated by OCR, and millions of texts chopped off randomly by the auto-segmentation tool. Noisy media theory hence seems applicable – and below is a draft from the more theoretical parts in our forthcoming article:

In classic information theory, the signal is usually defined as useful information and noise as a disturbance. Noise has generally been understood as distorting the signal, making it unintelligible and/or impossible to understand. Eliminating noise was, in short, paramount within information theory—but, it also lead to the fact that noise per se became an analytical category. Information theory was, in short, always interested in noise. As is well known, Claude Shannon’s article, “A Mathematical Theory of Communication” (1948)—which envisioned a new way to enhance the general theory of communication—basically concentrated on noise. Already in his first paragraph, Shannon stated that he wanted “to include a number of new factors, in particular the effect of noise in the channel”, where the fundamental problem of communication, to his mind, was that of “reproducing at one point either exactly or approximately a message selected at another point”. As a consequence, Shannon’s article featured frequent discussions of both “noiseless systems” as well as channels “with noise”. As is evident, contemporary digitisation activities display a number of resemblences and affinities to these remarks and arguments.

As has often been remarked, Shannon was not interested in messages with “meaning”. All semantic aspects of communication were deemed “irrelevant to the engineering problem”—but noise was not. In part two of his article, Shannon for example wrote about a “discrete channel with noise”, where the signal was “perturbed by noise during transmission”. This meant that the received signal was “not necessarily the same as that sent out by the transmitter.” Furthermore, if a channel was too noisy it was not “in general possible to reconstruct the original message or the transmitted signal with certainty”. There were, however, “ways of transmitting the information which are optimal in combating noise” (Shannon 1948).

Classical information theory became popular when Shannon and his co-author, Warren Weaver, published their book, The Mathematical Theory of Communication in 1949. The same year, Weaver had published an article analysing the ways in which a “human communication theory might be developed out of Shannon’s mathematical theorems” (Rogers & Valente 1993, 39). In it Weaver stated that “information must not be confused with meaning”, but more importantly (for our article), he wrote a longer passage on “the general characteristics of noise”. How does noise “affect the accuracy of the message finally received at the destination? How can one minimise the undesirable effects of noise, and to what extent can they be eliminated?”, Weaver asked. If noise was introduced into a system—like a digitisation process—then the “received message contains certain distortions, certain errors, certain extraneous material, that would certainly lead one to say that the received message exhibits, because of the effects of the noise, an increased uncertainty.” Yet, as Weaver paradoxically stated, if uncertainty is increased, then information is also increased—”as though the noise were beneficial!” This type of uncertainty which arose because of errors or “because of the influence of noise”, Weaver however described as an “undesirable uncertainty” (Weaver 1949).

Within classical information theory, noise could in other words also be described as beneficial. In general, however, noise was a dysfunctional factor; the task was combating noise. Consequently, Shannon and Weaver’s mechanistic model of communication mostly dealt with the signal-to-noise ratio within various technical systems. Obviously, their model was indifferent to the nature of the medium. It has, however, since been argued that the arrival of a new medium always changes the relation (or ratio) between noise and information. Digitisation processes are no exception. Within German media theory, noise has for example often been used as a productive analytical category. Friedrich Kittler’s recurrent claim that technical media records not only meaning, but always also noise derives (to some extent) from Shannon. It should hence not come as a surprise that Kittler was the one who translated and introduced Shannon in Germany—with a book ingeniously entitled, Ein/Aus (Kittler 2000).

Then again, critiquing the ways classical information theory morphed into cultural studies and content based readings within media studies, Wolfgang Ernst has polemically asked if, indeed, it makes sense at all “for media studies to apply the information theory of Claude Shannon and Warren Weaver to the analysis of TV series?” From a distinct media archaeological perspective, Ernst has claimed that the only message of television is its signal—“no semantics” (Ernst 2013, 103, 105). The archaeology of media searches the “depths of hardware for the laws of what can become a program”, Ernst has furthermore stated. In doing so, media archaeology concentrates on the “non discursive elements” of the past: “not on speakers but rather on the agency of the machine” (Ernst, 2013, 45). What looks like “hardware-fetishism”, Ernst once stubbornly postulated in his inaugural lecture in 2003, is only “media archaeological concreteness” (Ernst 2003).

Emphasis on media specificity is hence always to be found within this German media theoretical tradition, and perhaps foremost so within the more digitally inclined media archaeology which often tries to look under the hood of contemporary technology. In this sense, media archaeology is part of a gradually shifting emphasis towards media specific readings of the computational base and the mathematical structures underlying actual hardware and software, a transition with analogies to Shannon that also resonates with an increased interest in technically rigorous ways of understanding both software and the operations of material technologies. Analysing accidents, errors and deviations has, for example, been one strategy to approach systems and technologies that are hard to grasp as long as they function properly. As Jussi Parikka has written (in his English introduction to Ernst writings), “more than once, Ernst asks the question ‘Message or noise?’”—a question that, according to Parikka, is “about finding what in the semantically noisy is actually still analytically useful when investigated with the cold gaze of media archaeology” (Parikka 2013). Another German media theorist, Sibylle Krämer, has even stated that various forms of analyses under the hood is the only way to make the functions of media technologies visible: “only noise, dysfunction and disturbance make the medium itself noticeable” (Krämer 2015, 31).

One does not, however, have to accept these media theoreticians definitive claims, to make noise beneficial in an analysis of the digitisation technologies that transform printed texts to digital files. Misinterpretations produced by the OCR makes explicit what graphical elements the software interprets as important and ‘meaningful’, and errors in the auto-segmentation show what the tool is programed to recognise as a ‘text’. No more, no less. Our perspectives and analyses in the following are thus more profane and empirical—yet, still informed by the noisy media theories described above.

Data och Goliat – ur en kommande recension

Jag precis skrivit klart en recension av Bruce Schneiers långa bok, Data och Goliat. Dold datainsamling och makten över världen. Min recension är lika lång som kritisk – och innehåller bland annat följande: “Den stora poängen med Schneiers bok är att den väver samman kommersiell och statlig datainsamling och övervakning. På flera sätt är boken ett slags post-Snowden-studie. Inte bara avslöjade Edward Snowden att Prism var ett globalt dataövervakningsprogram som amerikanska National Security Agency (NSA) ägnat sig åt under många år; det visade sig också att flera nätjättar i Silicon Valley samarbetat med amerikanska staten och lämnat ut användaruppgifter – samt till och med planterat in så kallad fulkod i produkter och applikationer. På ett förtjänstfullt sätt drar Schneier ihop statlig myndighetsövervakning och olika kommersiella affärsmodeller kring datainsamling och visar på återkommande likheter och mönster. … Ändå läser jag hans bok med stigande irritation. Boken är pladdrig; den staplar exempel på hög och upprepar sig; den handlar bara om USA; Schneier skryter om sina tidigare böcker (en har sålt i hela 180 000 exemplar i ”två utgåvor”); Schneier använder få (om ens några) andra referenser än sina egna iakttagelser. Att boken inte har någon litteraturlista kommer inte direkt som någon överraskning. En författare som påtalar att han ”varenda minut under skrivprocessen arbetar med hela boken samtidigt”, tar man liksom inte på allvar. Det är kort sagt något som skaver rejält under läsningen. Jag googlar författaren och inser att han själv, personligen, arbetar inom det affärsområde, ”säkerhet och teknik”, som boken handlar om. På företaget Resilient systems hemsida framgår att Bruce Schneier är deras ”Chief Technology Officer”, samt att han omtalats som a “security guru” av The Economist. Bolagets mål är uppenbarligen att sälja säkerhetslösningar: ”to empower organizations to thrive in the face of cyberattacks or business crisis.” Det finns med andra ord ett kommersiellt egenintresse hos Schneier att skriva fram en sorts rädsla för övervakning, cyberattacker och allmänt digitalt krismedvetande.”

Texten är skriven för Respons – och kommer i ettdera nummer framöver.

Fine-tuning Turing

I have finally been able to get some time to start working with a long due article, together with system developer Roger Mähler at HUMlab. The working title is, “Turing Testing Spotify”, and basically we will describe some of the different experiments we have conducted within our Spotify-project, as well as saying a few words in general about working analytically with audio sources. Even if audiovisual material today amounts to a steadily increasing body of data to work with and research, such media modalities are still relatively poorly represented in the field of the digital humanities. The purpose of the article is hence to provide some findings from our ongoing audio (and music) research project, and – via a meta commentary around Alan Turing – at the moment the piece starts like this:

In mid May 1951, Alan Turing gave one of his few talks on BBC’s Third Programme. The recorded lecture was entitled, “Can Digital Computers Think?”—and by the time of the broadcast, basically a year had passed since the publication of Turing’s (now) famous Mind-article: “Computing Machinery and Intelligence” [Turing 1950]. The BBC program—stored on acetate phonograph discs prior to transmission—was approximately 20 minutes long, and basically followed arguments Turing had proposed earlier. Computers of his day, in short, could not really think and therefore not be called brains, he argued. But, digital computers had the potential to think and hence in the future be regarded as brains. “I think it is probable for instance that at the end of the century it will be possible to programme a machine to answer questions in such a way that it will be extremely difficult to guess whether the answers are being given by a man or by the machine. I am imagining something like a viva-voce examination, but with the questions and answers all typewritten in order that we need not consider such irrelevant matters as the faithfulness with which the human voice can be imitated.” [Turing 1951]

The irony is that Alan Turing’s own voice is lost to history; there are no known preserved recordings of him. The phonograph discs from 1951 are all gone—but the written manuscript of his BBC lecture can be found at the collection of Turing papers held in the Archive Centre at King’s College in Cambridge—partly avalable online [Turing Digital Archive]. The BBC also made a broadcast transcript, taken from the recording shortly after it was transmissioned. As Alan Jones has made clear, Turing’s radio lecture was part of a series the BBC had commissioned under the title “Automatic Calculating Machines”. In five broadcasts, an equal number of British pioneers of computing spoke about their work. The fact that these talks were given by the engineers themselves, rather than by journalists or commentators, was “typical of the approach used on the Third Programme”. Naturally, it is also “what makes them particularly interesting as historical sources” [Jones 2004].

Then again, Jones was only able to examines surviving texts of these broadcasts. Consequently, there is no way to scrutinze or explore Turing’s oral way of presenting his arguments; his intonation, pitch, modulation etcetera—in short, analyzing the way Turing spoke through for example speech recognition. Perhaps, he was simply presenting his ideas in a normal way, yet according to the renowned Turing biographer Andrew Hodges, the producer at BBC had his doubts about Turing’s “talents as a media star”—and particularly so regarding his “hesitant voice” [Alan Turing Internet Scrapbook]. The point to be made is that, audiovisual sources from the past have by and large been used by historians to a way lesser degree than text. Sometimes—as the case of Turing—archival neglect is the reason, but more often academic research traditions stipulate what kind of source material to use. In many ways, however, the same goes within the digital humanities. Even if audiovisual material today amounts to a steadily increasing body of data to work with and reserach, it is still relatively poorly represented in the field of DH.

Projektsajt för Digitala modeller

Nu på måndag (25/4) startar det nya projektsamarbetet mellan Tekniska museet och HUMlab vid mitt universitet i Umeå: “Digitala modeller. Teknikhistoriens samlingar, digital humaniora & industrialismens berättelser”. Vår projektsaft finns nu ute online i en betaversion – http://digitalamodeller.se/. Vi kommer givetvis successivt att fylla på med material; det är ett långt projekt – som inte kommer att sluta förrän sista december 2019. Stay tuned med andra ord.

Inledningsutkast till om artikel om bokmediets omvandling

Det forsknings- och samtalsprojekt som jag och litteraturvetaren Alexandra Borg drivit i ett par år, “Kod(ex). Bokmediets omvandling”, håller vi nu på att bearbeta i endera artikelform. Tanken är dels att redovisa några teman och frågeställningar vi ägnat åt oss i ett antal workshops, dels att sammanfatta en del av diskussionen om och kring bokbranschens digitala omställning. Ett första utkast (av inledningen) till vår artikel ser ut som följer:

En enkel sökning på termen ”e-bok” i Retrievers artikelsök ger en antydan om hur elektroniska böcker diskuterats i Sverige under de senaste 20 åren. Under 1990-talet figurerar exempelvis bara ett par enstaka artiklar. “Tänk dig att du kan bära med dig alla böcker du önskar utan att de tillsammans väger mer än ett kilo”, hette det exmpelvis i en artikel i Göteborgs-Posten 1999. ”Det blir möjligt när e-böckerna slår igenom.” Bokbranschen menade dock att de elektroniska böckerna mest föreföll lämpade för instruktions- och läroböcker. E-böcker skulle alls inte fungera ”för de böcker man läser som förströelse. De läsarna är oerhört konservativa”, hävdade en förlagschef. Samtidigt var andra, framför allt IT-experter, måna om att lyfta fram e-boken som det nya mediet som framgent skulle ta bokläsarna med storm. ”För sex-sju år sedan var det nästan lite Klondykestämning kring e-boken”, påtalade till exempel E-libs dåvarande VD i en artikel några år senare, 2007 – med den träffande rubriken: ”E-boken går framåt i sin egen takt.” Men, fortsatte hon, “de förväntningarna har inte uppfyllts.” Om e-boken tidigare betraktades som förlagsbranschens framtidshopp, hade den under 00-talet blivit flankerad av både CD-boken och MP3-boken. Boken höll helt enkelt på att bli en digital medieform bland andra – och frågan som många förläggare började ställa sig när den digitala omvandlingen av bokbranschen tog fart, vad en bok egentligen var för något?

Åren efter 2010 förändrade sig den nationella diskursen om e-böcker gradvis igen. Nu var frågan (ånyo) inte om e-boken skulle ta över – utan när det skulle ske. Under 2012 såldes exempelvis mer än 130 000 e-böcker, mer än dubbelt så många som året innan. ”Den nya trenden ökar lavinartat”, hette det bland annat i ett stort julreportage i Aftonbladet där olika läsplattor även betygsattes (ingen fick mer än tre plus). ”Försäljningen av e-böcker ökar hela tiden: i USA står försäljningen för 50 procent i vissa genrer och jag är helt övertygad om att vi kommer hamna där i Sverige också”, menade bland annat VD för Svensk Bokhandel. Hypen av e-boken under dessa år – mellan främst 2011 till 2013 om man följer det brant stigande antalet artiklar i Retriever – gav givetvis också upphov till en rad rekyleffekter. Somliga förläggare var exempelvis offentligt aktiva motståndare till e-böcker (Svante Weyler), regeringen oroade sig för att datorerna hotade läsandet (Litteraturutredningen 2013), och den amerikanske författaren Jonathan Franzen liknade till och med Amazons VD, Jeff Bezos vid Antikrist. Inför bokmässan i Göteborg 2013 prydde han DN Kulturs omslag, och frågade sig om apokalypsen skulle komma med de stora nätbokhandlarna.

Mottagandet av e-boken har under de senaste 15 åren med andra ord rört sig från en fascinerad avvaktande hållning mot ett entusiastiskt hyllande (med vissa undantag), för att under de senaste två åren plana ut i ett mer nyktert konstateranade att den analoga och fysiska boken gör rejält motstånd, och fortsatt säljer bra. Faktum är nämligen att vi numera ägnar oss åt, läser och lyssnar på böcker alltmer – men på högst olika sätt. För första gången på åratal har förlagens försäljningskurvor börjat peka uppåt; under de första månaderna av 2016 har det totala antalet sålda böcker ökat med mer än fem procent. Adderar man ljudbokens uppgång med geniala plattformar som Storytell – där förlagens intäkter för ljudböcker ökade med 95 procent mellan 2013 till 2014 – inser man snabbt att den digitala omvandlingen av bokbranschen, för vilken e-boken kommit att bli mer eller mindre synonym, är allt annat än enkel att överblicka.

Försöka duger dock, och under två års tid har vi författare drivit ett forsknings- och samtalsprojekt (med stöd av Riksbankens jubileumsfond) som just handlat om bokmediets omvandling. Vi har i ett antal workshops samlat ett trettiotal företrädare från bokbranschen och akademin, där de senare kommit från en mängd olika vetenskapsdiscipliner. I den här artikeln vill vi redovisa några av de teman och frågeställningar som vi diskuterat (löst sammanfogade under rubrikerna ”produktion”, ”distribution” och ”konsumtion”). Utgångspunkten för vårt projekt har varit att den samtida boken – i olika elektroniska format – bör betraktas som en ny medieform. Vi har därefter diskuterat vilka implikationer det fått för såväl bokproduktion (i både analog och digital bemärkelse), distribution av böcker som data (liksom i fysisk form genom nätbokhandlare), liksom konsumtion av böcker (i olika modaliteter) på skiftande plattformar. En konsekvens av bokbranschens digitalisering är att andra än litteraturvetare börjat att på allvar intressera sig för bokmediet – en annan är att litteraturvetare blivit varsamma att böcker numera faktiskt är en medieform bland många andra.

Det kanske viktigaste resultatet av vårt samtalsprojekt är emellertid att även om e-boken inte blev den frälsare (eller förgörare) som förläggare eller experter förutspådde, och som är uppenbart om man klickar sig igenom de tusentals artiklar i ämnet som Retriever listar, så har den verkat på en helt annan nivå. E-boken har nämligen fått oss forskare, liksom givetvis bokbranschen, att utforska bokens mediespecificitet – i såväl digital som analog skepnad. Genom e-boken har det exempelvis blivit uppenbart att även pappersboken har ett gränssnitt; genom att frångå det klassiska kodexformatet kan, i korthet, andra uttrycksformer utforskas. Därtill är de digitalt kodade, mediemodala skillnaderna mellan bok, musik, foto och video faktiskt inte längre speciellt stora, vilket bland annat inneburit att det inte längre bara är förlagsbranschen som sätter dagordningen för bokens framtid, utan lika mycket globalt mäktiga teknikföretag.