Folkbibliotek och digitalisering

Idag på Umeå universitet höll jag en föreläsning för biblioteksstudenter på momentet “Bibliotekets historia och samhällsroller”. “Folkbibliotek och digitalisering” kallade jag det hela, och tanken var att ge en bred idébaserad introduktion till hur biblioteket som idé och funktion förändras i och med digitaliseringen av informationslandskapet. Slides från föreläsningen kan laddas ned här: snickars_bib_infovetenskap_2018.

datalab.kb.se – A Report for the National Library of Sweden

About a year ago I was asked if I had an interest to examine, survey and evaluate in what ways a library lab might – or could be – established at the National Library of Sweden. As a media studies professor at Umeå University, I have for a number of years worked and done research at the digital humanities center Humlab. I accepted the offer and from January 2018 I have been working (part time) during nine months with my report (and ways to prepare the ground for making my recommendations a reality). Funding for my work was made available by Riksbankens jubileumsfond and the National Library of Sweden. Lars Björk (at the National Library) has functioned as my co-worker. The report is entitled datalab.kb.se — it is a term Björk and I suggest for naming an eventual datalab at the Swedish KB, where the digital and Swedish connotation are obvious (including a necessary distinction and contrast to the Danish and Dutch KB Lab). The report can be downloaded here: datalab.kb.se.

Towards a first draft of my report on the library lab – datalab.kb.se

My work with writing a report for the National Library of Sweden on the establishment of library lab is progressing fine. The text should be finished in a few weeks time, and presently the first pages – in a first draft – reads as follows:


Introduction
The Annual Report from the British Library usually offers insights into the many domains and whereabouts of national libraries—not the least in terms of future directions. In the latest report (from 2017/18) it is, for example, stated that the British Library “Digital Scholarship team” continues to “undertake innovative research with digital collections and open up new datasets for use by researchers.” One way to facilitate digital scholarship is to start a lab, and the British Library set up a library lab environment already in 2013. Ever since the British Library Labs has been inviting researchers, developers and artists “from around the world” to undertake “creative endeavours” using the library’s digitally curated collections, content and data. Following the latest Annual Report, the Library Labs team has now “facilitated the use of over 180 terabytes of data including 97 freely available datasets at data.bl.uk. One example is the In the Spotlight project which makes digitised entertainment playbills from the 1730s to the 1950s available as a single dataset.”

Digital scholarship, curated data, single datasets, invited developers and programmers—these are all present buzzwords and novel categories within the library domain. Before computational expertise were necessary and primarily required for internal workflow within IT departments—now such skills and competencies are increasingly turning into a prerequisite for doing actual research in a gradually altered library infrastructure that is increasingly turning digital. This infrastructural and scholarly transformation can appear as swift and sudden. Yet, digitisation activities within the ALM-sector (archives, libraries and museums) has been a harbinger of novel times to come—both in terms of scholarly perspectives and library practices.
National libraries have been digitising their collections for decades—in Sweden digitisation work started already in the late 1990s. For a number of years, collections were digitised primarily for preservational purposes, but after the millenium—due to the rise of the Web and initiatives as Google Books—digital access to library collections steadily became more important. Permission to use library collections were, however, often hindered by copyright legislation, and digital access was foremost given to older (textual) collections prior to the 20th century.

Digitisation work performed at the National Library of Sweden has in general been similar to other European countries. The library has digitised a major amount of its audiovisual collections, various selected works from the print collections, and a large amount of newspapers. The latter has been a prioritised category since newspapers are an important research material for many users. Born digital collections have also grown through web archiving activities (Kulturarw3) and audiovisual deposits, and even more so since 2015 when (some) electronic materials became subject to legal deposit. Regarding the digital trajectory that the National Library has undertaken during the last 15 years, preservation was most important at first, then digitisation for access was increasingly advocated. There are, however, also good reasons to question the distinction between digitising for access and digitising for preservation. Some scholars have even argued that the split “is artificial and misleading” since access to collections are usually “a given” and an outcome of all digital transformation—even if usage is fully realised only through functioning electronic networks and the legal frameworks that manage permissions.

Nevertheless, during recent years digital scholarship within the ALM-sector has expanded the focus of digitisation activities towards different forms of investigations and explorations. Thus, there has been a scholarly driven progression within the institutional heritage domain from preservation to access—to analyses. Today all forms of digital heritage are computationable—hence, how to enhance and increase the research potential of this material? If humanities and social science scholars traditionally were interested in the collections that archives and libraries had to offer deep down in their stacks and vaults, such archival driven humanities research has thus turned into data driven research due to the digitisation of heritage. And more data is better data (as Google would have it).

The long-term magnitude of this ongoing transformation is striking—both for scholars and libraries. Within the library sector the gradual alteration effects the very foundation and principles of what libraries are—and should be at a time when ‘the digital’ is slowly becoming default. Today, governmental decrees for national libraries (and similar statutes för university libraries) usually stipulate that libraries are to provide a beneficial infrastructure for research. During centuries great book and manuscript collections at university libraries and national libraries played a pivotal role for the humanities and social sciences. They were envisioned as a key infrastructures for scholarship. National libraries and deposit laws are, in fact, illustrative examples of how traditional knowledge structures were enacted through concrete and primarily humanistic infrastructures. They have essentially remained the same over centuries, but have during the last decade—due to repeated digitisation efforts—begun to alter.
As digital copies of heritage start to become a preservational focus for the ALM-sector, novel ways of giving access and sustaining digital scholarship are the flip coin of the same digital development. In short, mass digitisation combined with new media, technology and distribution networks has transformed the possibilities for libraries and their users. Emerging scholarly disciplines—from data science and data journalism to the digital humanities—all take advantage of new computing tools and infrastructure, and provide different models for creating new forms of access to and analyses of library collections. Especially within digital humanities scholarship the systematic intertwining of research questions, digital materials, and tools have stressed the need to reformulate what an apt library and research infrastructure for the humanities (and social sciences) should pertain. Digitisation has in essence begun to transform the epistemic foundation of the library. The knowledge than can be deduced from collections in digital form is different—and foremost one of scale. So called distant reading of major textual corpora have even been envisioned as a new “condition of knowledge”.


About the Report
About a year ago I was asked if I had an interest to examine, survey and evaluate in what ways a lab might—or could be—established at the National Library of Sweden. As a media studies professor at Umeå University (a chair directed towards the digital humanities) I have for a number of years worked and done research at the digital humanities center Humlab. I accepted the offer and applied for the position—a PM for a “pilot study” on a data lab at the National Library was drafted by library personnel Lars Björk and Peter Krantz, and additional funding was made available by Riksbankens jubileumsfond.

Together with professor Patrik Svensson (Umeå University / UCLA), I had at the same time (during autumn 2017) organised a conference on data driven humanities research at KTH, partly aimed at guiding (and hopefully influencing) preparatory work at the Swedish Research Council and its future funding for research project grants around “digitisation and accessibility of cultural heritage collections” (a call that went public in May 2018). Together with Svensson (and a distinguished group of Swedish humanist) I have also been active in raising awareness (or lobbying) for the need of strengthening and developing new forms of humanistic infrastructures. The idea to investigate how a lab at the National Library could be initiated was thus consistent with a number of similar research activities and ideas, including work at funding agencies—a call committed to quantitative and qualitative methods has also been in preparation at Riksbankens jubileumsfond.

From January 2018 I have been working (part time) during nine months with this report— including ways to prepare the ground for making my recommendations a reality. Lars Björk has functioned as my co-worker. During winter, spring and summer 2018 we visited a number of scholarly environments, university libraries and research groups in Sweden with an interest in using a lab at the National Library. We have thus talked to many Swedish scholars and librarians with an interest in the matter; we established both a reference group and a steering committee for our work; we made a study trip to the British Library Labs and the Dutch KB Lab; we sent out a survey regarding available digital collections within the ALM-sector in Sweden (Appendix A), and we presented and discussed our work within the “Group for digitisation and digital access” (with me as chair and Björk as secretary), a group that is part of the “Forum for national library collaboration and development”. I have also made a number of presentations of our lab ideas at Swedish universities, at the management board of the National Archives, at the Research board of the National Library, and at national and international conferences. Furthermore I organised a workshop on digital scholarship at the National Library (in April 2018) with some 25 scholars and librarians (funded by Riksbankens jubileumsfond). Our preparatory work, conversations and scholarly visits have been thorough.

This report is entitled datalab.kb.se—it is a term Björk and I suggest for naming an eventual lab, where the digital and Swedish connotation are obvious (including a necessary distinction and contrast to the Danish and Dutch KB Lab). The report is divided into three subsequent sections—“Library Labs” and “Digital Scholarship” (with some subsections)—as well as a final part on “Recommendations”. The first part sketches and maps the international terrain of current library labs, with a focus on different lab environments at national libraries. The second section puts novel forms of computational scholarship at the center of attention, with a particular emphasis on methods and (necessary) curation of datasets. In the final section on recommendations I suggest how a lab at the National Library could be organised, focusing both on actual tasks and workflow, as well as job descriptions and required skill sets.


Library Labs
Digitally inclined research within the humanities and social sciences have during the last decade started to influence both national and university libraries to take advantage of the scholarly possibilities that arise when documents as data are sharable and networked, linkable and traceable, reusable and processable. The development and set up of library labs is one concrete result. The primary function of library labs are to deliver digital collections as data (or datasets) to researchers and other interested users. Following the literal meaning of the term laboratory—“a room or building equipped for scientific experiments”—library labs are usually devoted to experimentation with provided datasets. “British Library Labs – experiment with our collections”, as the slogan goes. Library labs can hence be envisioned as a scholarly, artistic or creative industries playground. The British Library Labs is an endeavor that supports and “inspires the public use of the British Library’s digital collections and data in exciting and innovative ways.” In a similar manner the Dutch KB Lab wants to be experimental; “we try out new techniques and tinker with tools to make our content as accessible as we can. Warning, that means stuff can be broken.”

However, since library labs are becoming more and more common, the focus on experimentation can also become misleading. Providing datasets and working with these in different ways is today hardly cutting edge. Hence library labs can also increasingly be perceived as a core service that national libraries provide, with the lab (or its services) becoming an integrated part of a developed digital infrastructure. Such perspectives were advocated at a recent conference at the British Library, Building Library Labs in mid September 2018. It brought some 40 libraries and partner institutions from North America, Europe, Asia and Africa—with no less than ten national libraries present. “Around the world, leading national, state, university and public libraries are creating ‘digital lab type environments’”, the conference program stated. The aim is to develop novel forms of library usage, where library labs ensure that “digitised and born digital collections / data can be opened up and re­used for creative, innovative and inspiring projects by everyone such as digital researchers, artists, entrepreneurs and educators.”

The issue of library labs is hence timely. Presentations and discussions in London evolved around issues as labs services and spaces, technical infrastructures, the values of a library lab, planning a lab and establishing it, as well as various funding models for labs. Usage, research and different presentations of ongoing projects were also on the agenda. One result of the conference was a supportive network, another a forthcoming global report on library labs. Most libraries and institutions present did also take part in a library lab survey. The results are in no way conclusive, but rather give a tentative impression of how major libraries presently deal with lab issues (Appendix B). One thing to note was that library labs started to emerge between 2013 and 2015, and that this first wave of initiatives is now reinforced by a more general trend (following the survey some 20 libraries are about to launch a lab in 2019 or 2020). Most of the existing library labs are furthermore aimed to serve academic research followed by internal staff, the general public or creative industries. The most common tasks according to the survey were “facilitating access to data & digital collections at scale” and “creating new datasets & digital collections”, followed by “providing training in digital methods & tools” and “public engagement”. Half of the library labs provided access to restricted digital collections (through various contracts), and (only) half of them offered a physical space in the library—thus for many library labs focus is mostly put on web based presence. The Austrian National Library lab, ÖNB-LAB, for example (to be launched in November 2018) will foremost devote its activities to a homepage with datasets and tools, including code and tutorials provided through Gitlab.

At present there is, in short, a considerable international interest in library lab issues (and the prime reason why this report is written in English). Even if library labs are usually established with the purpose to enhance and amplify digital usage of digitised (or born digital) collections and datasets they differ in approach, scope and orientation. The library lab at the Yale University Library, for example, has a distinct digital humanities agenda, all in order to help “scholars in their own engagement with digital tools and methods in the pursuit of humanistic questions.” Therefore a brief description of some different types of library labs can serve as a smorgasbord of how labs can be designed, organised and accustomed.

Cornelia Vismann om akternas mediehistoria

I det mediehhistoriska manus som jag (tillsammans med Johan Jarlbrink och Patrik Lundell) nu i dagarna lägger sista handen vid ingår ett tjugotal utvikningar kring centrala mediehistoriska frågeställningar. Vi har valt att använda oss av tongivande forskare för att kort beskriva olika positioner visavi mediehistorien – dessa så kallade “klassikerrutor” får inte vara längre än 500 ord har vi föresatt oss. En av dem som vi inkluderat är den tyska medie- och rättshistorikern Cornelia Vismann – hennes avhandling Akten från år 2000 översattes för en tid sedan till svenska – och texten om henne ser i nuläget ut så här:

På 530-talet i det östromerska riket förordnade kejsar Justinianus I en kodifiering av de lagar som styrt Romarriket. Traderade lagsamlingar (som Tolv tavlornas lag), domar och rättsfall hade under århundraden nedtecknats på separata papyrus- och pergamenttrullar. Nu skulle de sammanställas i en enhetlig form. En codex blev resultatet, det vill säga en bok (inbunden i pärmar) i vilken (ett urval) lösa skrivark sattes samman. Justinianus lagsamling har den kallats, eller Corpus juris civilis. Den romerska rätten tog form som en bok – på vilken all lagstiftning i västvärlden sedan vilar.

Men vad innebär det att medie- och rättshistorien sammanfaller i lagboken? Spelar det roll hur och på vilket sätt som lagar och domar skrivs, och senare administreras som akter i svällande arkiv? Sådana frågor är ämne för den tyska rätts- och mediehistorikern Cornelia Vismanns studie, Akten – Medientechnik und Recht från år 2000 (på svenska Lagen och arkivet. Akternas mediehistoria). Det speciella med den är att Vismann inte intresserar sig för vad som står i akterna eller hur lagstiftningen utvecklats. Hon fokuserar istället på de praktiska och administrativa sätt som akter tillkommit. Hennes bok handlar om hur lagen görs – för akter är processgenererande; som arkivariska handlingar är akter både dokument och aktivitet.

Genom att studera ”nedskrivningens medietekniska villkor” och akternas förhållande till rättssystemet försöker Vismann förstå dess utveckling. Med sitt historiska perspektiv blir Vismanns bok samtidigt till en mediehistoria om Västeuropas administrativa förvaltning under tvåtusen år. Den sträcker sig från det romerska centralarkivet Aerarium med sina papyrusrullar och dess övergång i det kejserliga kansliet Tabularium (78 f.Kr.) – med tillägget: quod non est in actis non est in mundo – ”det som inte förekommer i akterna finns inte i världen”. Kanslirutinernas materialitet skärskådas under medeltiden, från förvaring i aktskåp och protestantiska ämbetsmannaideal till skrivbiträden och uppgifter för kopister (vilka inte behövde förstå de juridiska underlag de kopierade, snarare tvärtom). Vismann redogör vidare för skrivakter i kanslier och registraturer under den tidigmoderna tiden, där ett manierat skrivsätt alltmer övergavs till förmån för en språkekonomi där akterna alltid skulle (be)skrivas enligt samma kriterier. Under 1800-talet undersöks den preussiska förvaltningens aktproduktion, vilken växte så fort att proveniensprincipen etablerades (där arkivbildares handlingar bevarades som en organisk helhet). Väl framme i 1900-talet handlar det mer om pärmar och hålslag, om karbonpapper och dokumentsystem. Vismann påpekar också hur akterna nu, trots att de uppfattats som ”omfattande nedskrivningsapparater” fick konkurrens av audiovisuella medier. För tidens kanslister blev det smärtsamt uppenbart hur ”inexakta” akternas var jämfört med ”recording-machines” vilka angav en ny ”standard för exakt registrering.”

Om samtidens digitala aktproduktion skriver Vismann inte mycket, men att hennes studie publicerades vid millennieskiftet är talande. När akterna datoriserats och omvandlas till ”mappar” i digitala gränssnitt kunde hon nämligen få korn på deras mediehistoria. Hennes intressen kan förefalla vardagliga – men anspråken är betydande. För när fokus flyttas från innehåll till form, från det partikulära juridiska fallet till det generella lagstiftningsmaskineriet som medial verksamhet, ja då blir det möjligt för Vismann att frilägga ”akternas delaktighet i utvecklingen av sanningsformer, statsbegrepp och subjektföreställningar i Västerlandets historia.”

1 & 0 – kort om den ultimata maskinen

1952 arbetade den unge matematikern Marvin Minsky på Bell Labs i New York under ett par veckor. Tillsammans med Claude Shannon försökte han där att hitta på en rad olika maskiner och apparater som hade med informationshantering att göra. Efter andra världskrigets slut hade Bell Labs utvecklats till ett av världens mest innovativa tekniska laboratorier; strax före att Minsky kom dit hade tre Bell-ingenjörer exempelvis uppfunnit transistorn, en komponent som var viktig för den japanska elektronikbranschens framväxt. Marvin Minsky skulle sedermera göra en enastående karriär som datavetare och bli en av pionjärerna inom forskningsområdet kring artificiell intelligens (AI); redan i slutet av 1950-talet startade han ett Artificial Intelligence Laboratory på MIT i Boston. Men på Bell-laboratoriet arbetade han tillsammans med Shannon ännu i skärningspunkten mellan elektronik, mekanik och matematik. En av de apparater som Minsky hittade på (och som Shannon sedan konkret byggde samman) har kallats för den ”ultimata maskinen”. Den bestod av en mindre trälåda och en liten spak med två lägen, på och av. När man slog på den öppnades en lucka, en mekanisk arm åkte ut – som petade till spaken och slog av apparaten, varefter luckan stängdes. Den ultimata maskinen var alltså en apparat som hade ett enda syfte: att slå av sig själv. Minskys och Shannons apparat har ibland betraktats som ett sorts fundament för det digitala informationssamhället; den ultimata maskinens lekfulla 1 och 0 framstår som en sorts grundidé för all slags datoriserad information. Dels illustrerade och visade den praktiskt på en mediehistorisk kontinuitet mellan mekaniska (analoga) och elektroniska (digitala) medier, dels antydde den på ett mer konceptuellt plan dataålderns framväxt, vilket förstås accentuerades genom Shannons revolutionerande informationsteori och Minskys senare AI-arbete.

Spotify och skivbolag

För en tid sedan gjorde Sveriges Radio P1 Kulturnytt och journalisten Morris Wikström ett inslag om Spotify och bolagets relation till skivbolagsbranschen. Jag är intervjuad i inslaget, där det bland annat påpekas att Spotify bekräftat att man nu sluter avtal direkt med somliga artister, men att bolaget inte vill utmana skivbolagen. Hårda förhandlingar med skivbolagen och artisterna har alltid varit en del av Spotifys tillvaro, och numera finns det flera argument till varför Spotify skulle vilja bli mer självständiga i förhållande till skivbolagen. Hör inslaget här: Spotify köper licenser direkt av artister.

Mediehistorier om Japan och dess elektronikindustri

Arbetet med bokmanus till min, Johan Jarlbrinks och Patrik Lundells mediehistoriska översiktsbok är nu inne i slutfasen. Vid ett inplanerat manusmöte i Berlin i slutet av augusti ska vi försöka att få till ett genomarbetat manus. Jag ägnade några svettiga julidagar åt att skriva ihop ett sista kapitel om digitala medier. Det måste förvisso revideras, men på det stora hela ligger texten nog fast. I ett försök att inte bara skriva västvärldens mediehistoria ingår även ett stycka om elektronikbranschens framväxt i Japan under 1960- och 70-talen, inklusive en kort fallstudie kring den mobila bandspelaren Sony Walkman. I manusform ser partiet ut som följer:

Om mediehistorien länge var västorienterad, så förflyttades dess geografiskt fokus under 1960- och 1970-talen österut, detta i takt med att japansk elektronik kom att dominera marknaden. Efter andra världskriget (åter)uppstod en rad medieföretag i Japan med inriktning på konsumentorienterad mikroelektronik, ibland kallat för hemelektronik. De flesta av dessa bolag hade startats före kriget, men genom export av alltmer avancerade, mediala industriprodukter kom japanska bolag att bli världsledande. Exemplen kan lätt mångfaldigas: Sharp (grundat 1912) med fokus på radio- och tv-apparater, Hitatchi (grundat 1910) som producerade stordatorer och elektronikkomponenter, Fuji-koncernen (grundat 1923) med inriktning på elektrisk utrustning och television, kameratillverkaren Nikon (grundat 1917), Casio med sina miniräknare och klockor (grundat 1946), JVC (Japan Victor Company) med tillverkning av ljud-, video- och konsumentelektronik (grundat 1927) – på 1950-talet uppköpt av Matsushita, senare mer bekant som Panasonic – för att inte tala om spelbolaget Nintendo (grundat 1889), som först tillverkade spelkort men senare alltmer inriktade sig på tv- och dataspel.

Främst bland de japanska medieföretagen var dock Sony, grundat 1946 och idag ett av världens största multinationella teknik-konglomerat. Genom att få tillstånd att använda amerikansk transistorteknologi började Sony tidigt att producera transistorradio-apparater som blev mycket populära. 1955 lanserade bolaget sin första transistorradio, några år senare den allra första transistor-tv:n. Framgångsrecept byggde på tekniska innovationer, hög produktkvalitet och avancerad design. Sony blev snabbt marknadsledande, även om somliga försök – som med videoformatet Betamax (lanserat 1975) – blev misslyckande. Det formatet konkurrerades nämligen ut av VHS (Video Home System, producerat av företaget JVC) under det så kallade videotape format war som rasade till mitten av 1980-talet. Ibland hävdas att Betamax tekniskt var ett bättre format (exempelvis beträffande bildkvalité), men att JVC var skickligare på att marknadsföra sitt VHS-format. Sedermera kom VHS att dominera den privata videomarknaden tills introduktionen av lagringsformatet DVD i slutet av 1990-talet.

Medan andra företag producerade allt större apparater satsade Sony på mobilitet och precisionsteknologi. Under det sena 1970-talet ledde det till lanseringen av Sony Walkman, en liten bärbara kassettbandspelare som både kom att förändra musiklyssnandet och bli närmast synonym med en helt ny typ av mediebruk. Sony Walkman blev en försäljningssuccé, och under de kommande åren skulle den sälja i nästan 190 miljoner exemplar världen över (i en rad olika versioner). Mediehistorien kring Sony Walkman är emellertid en smula udda, för av marknadsföringsskäl kallades apparaten för olika saker i olika länder. I Japan gick den under namnet ”Walkman”, i USA (till en början) för ”Soundabout”, i Storbritannien för ”Stowaway”, i andra länder för ”Disco Jogger” – och i Sverige för (det lätt obegripliga) ”Freestyle”. Svenska Språknämnden ansåg att den rätta benämningen borde vara ”bärspelare”, men beteckningen ”freestyle” hade då redan fått fäste i svenskt språkbruk och förblev intakt. Framöver kom freestyle därför att på svenska bli en generell benämning på portabla bandspelare.

Att Sony Walkman blev liktydigt med en viss typ av mobil medieanvändning antyder den popularitet som denna lilla apparat genererade. Under hela 1980-talet var ”walkman” i anglo-sachsiska länder synonymt med en portabel kassettbandspelare, på samma sätt som andra framgångsrika medieprodukter blivit generiska för andra typer av medieanvändning. Att göra fotostat-kopior i USA kallas till exempel för ”xeroxing” (efter företaget Xerox som började sälja kopieringsmaskiner under 1960-talet), och att använda en ”diktafon”, det vill säga en kontorsmaskin för in- och avspelning av diktamen, var från början egentligen namnet på ett av telefonpionjären Bells många företag. I mediehistorien är det inte ovanligt med den här typen av generiska beteckningar, samtidigt antyder de också det sätt som vissa medier blev starkt normerande – på gott och ont, för inte sällan har teknikföretag haft svårt att uppgradera produkter med ett sådant generiskt genomslag. I slutet av 1990-talet blev mobiltelefonen BlackBerry i USA till exempel mer eller mindre liktydigt med mobil e-posthantering, bara för att mindre än tio år senare tappa hela denna marknad till Apple och Samsung. Samma sak gällde för mobiltelefoniföretaget Nokia i Indien: eftersom Nokia-mobiler helt dominerade marknaden där, var ”Nokia” ordet som användes för mobiltelefon (och hur det sedan gick för den finska mobilgiganten är allom bekant). Främst är det emellertid en radda Apple-produkter som på detta sätt blivit stilbildande och smittat av sig som generella beteckningar på en medieform. En iPod var ju efter millennieskiftet i princip liktydigt med mobilt och personfierat lyssnande, liksom en viss typ av radio, poddradio (eller podcasting).

Eftersom Sony så småningom utvecklades till en multinationell elektronikkoncern är bolaget också ett bra exempel på de sätt som hårdvarutillverkare och innehållsproducenter under 1980-talet började närma sig varandra. Horisontell integration blev nu ett framgångskoncept för flera teknik- och mediebolag, och ett sätt att bygga upp företag till att omfatta likartade funktioner från olika värdekedjor. Under 1980-talet började Sony exempelvis att köpa in sig i både musik- och filmbranschen genom införlivandet av amerikanska CBS Records (1987) och filmbolaget Columbia Pictures (1989). 1994 diversifierade man verksamheten ytterligare genom att ta sig an marknaden för datorspel då spelkonsolen PlayStation introducerades – som snabbt tog stora andelar av marknaden från tidigare etablerade aktörer som Nintendo.

Även tv- och dataspelens utveckling kan i mycket hänföras till den japanska elektronikmarknades dominans. Dataspelens mediehistoria är dessutom intressant som en form av kombination mellan publik och privat underhållning. Spel- och underhållningsföretag Nintendo tillverkade exempelvis både programvaruprodukter för publika och offentliga spelarkader liksom för hemmabruk, därtill med en tradition av att låta speltitlar, figurer och karaktärer återkomma – från rörmokaren Mario till apan Donkey Kong – allt i syfte att skapa ett igenkännbart speluniversium.

Ett japanskt dataspel som ofta brukar lyftas fram i mediehistorien som speciellt stilbildande, och som både utgjorde en produktionsteknisk och publik framgång, var Space Invaders. Det lanserades som arkadspel 1978, och detta tvådimensionella och svartvita spel gick ut på att skjuta dalande rymdvarelser med hjälp av en laserkanon som rörde sig i sidled längst ned på skärmen. Genom en spelmekanik som svarade på spelarens agerande (genom att rymdvarelser anpassade sig till hur spelaren styrde sin kanon) blev spelet en formidabel succé i japanska arkadhallar. Enbart under det första året installerades fler än 100 000 spelmaskiner med Space Invaders i Japan. Det har till och med hävdats att tillsammans med tennisspelet Pong – lanserat några år tidigare av spelföretaget Atari – så banade Space Invaders väg för den senare tv- och dataspelsindustrins publika genombrott under de kommande decennierna.

Sammanfattningsvis finns flera mediehistoriska anledningar till att japanska elektronikföretag blev så framgångsrika mellan 1960 och 1990: introduktionen av helt ny teknik och ledarstil (i en av kriget sönderslagen infrastruktur), entreprenörskap och innovationsdriven industri med stark politisk uppbackning, fokus på internationella marknader. Likheterna med den likaledes framgångsrika japanska bilindustrin är också stora. I efterhand kan man konstatera att den japanska elektronikbranschen producerade fantastisk precisionsteknologi, vilken framför allt var elektrisk och mekanisk – som Sony Walkman. Just den apparaten (liksom många andra) innehöll dock ingen mjukvara alls. När mediekulturen kring millennieskiftet blev alltmer digital, med en snabb övergång till helt elektroniska (och digitala) medieapparater, ja då skulle den japanska elektronikindustrin få problem med att bibehålla sin popularitet och dominans.

Recension av Enhörningen i Respons

I det senaste numret av tidskriften Respons har Mats Benner, professor i forskningspolitik vid Lunds universitet, skrivit en längre recension av min och Rasmus Fleischers Spotifybok. Benner är överlag positiv och placerar in boken i en större forskningskontext kring företagshistoria, med fokus på den svenska så kallade snilleindustrin. Det är ett intressant spår, som jag själv inte funderat så mycket över, men givetvis finns det likheter mellan Spotify och exempelvis AGA eller Alfa Laval. Recensionen är ännu inte fritt tillgänglig på Respons sajt, men jag tar mig friheten att länka upp en ful-PDF för den intresserade: enhörningen_respons.

Om digitala medier till mediehistoriebok

En sista arbetsvecka före semestern (nåja) ägnas åt kapitel sex i min, Johan Jarlbrinks och Patrik Lundells kommande mediehistoriebok, Från Big Bang till Big Data (arbetstitel), som behandlar digitala medier. Jag har ju skrivit en hel del i detta ämne tidigare, så det handlar mest om att försöka begränsa sig. Hursom, i skrivande stund ser anslaget till kapitlet ut på följande sätt:

Den moderna mediehistorien mellan 1850 och 1950 kan med fördel betraktas som apparatdriven – åtminstone om man sätter själva medietekniken i förgrunden framför medieanvändning. Under denna lika långa som intensiva period uppfanns en mängd små och stora maskiner för att trycka och sprida information, fotografera och spela in ljud och bilder. De flesta av periodens medie-apparater var först mekaniska och kemiska, sedan alltmer elektriska. Somliga av dem användes för både in- och uppspelning, och dessutom för lagring. Betraktade som apparater byggde både radio och television vidare på telefonins som telegrafins möjligheter till kommunikation över avstånd. Så småningom förenklades de (främst som konsumtionsprodukter) för att mest lyssna med och titta på.

Från dagens digitala horisont kan alla dessa apparater, dåtidens så kallade analoga medier, te sig lätt antikvariska. Åtminstone äldre, analoga medier är ofta begripliga och enkla att få kläm på; termen ”analog” kommer från grekiskans analogos ”över­ens­­stäm­mande med” eller ”lik­­formig”. En fonograf kunde visserligen spela in, bevara och återge ljud genom att rista ett spår av varierande djup i en roterande fonografrulle, men själva grundmekaniken var inte svår att fatta. Vår poäng är att om man tänker på och betraktar medier som en sorts apparater, ja då är det enklare att skilja analoga och digitala medier från varandra. Ett sätt att hålla isär analoga och digitala medier är att fokusera på de sätt som analoga inspelningar påverkar själva mediet som lagrar information. Ljud­spåret på en fonografrulle, till exempel, motsvarande för­änd­ringar i själva musiken: ett djupt och brett spår innebar att ett starkt och högt ljud spelats in. Detsamma gällde filmen – små fotografiska bilder (påverkade av ljus) med lätt variation monterade efter varandra på en celluloidremsa – vilka när de rasslade genom en projektor skapade illusionen av rörelse eftersom ögat inte hann med att uppfatta bilderna var och en. Dåtidens tekniska beskrivningar av sådana apparater uppehöll sig därför gärna vid hur de egentligen fungerade. Fonograf, ”en apparat, medelst hvilken vokal- och instrumentaltoner kunna så att säga magasineras och därefter åter framkallas.”; ”Kinematografiens princip är baserad på ögats tröghet, d.v.s. dess oförmåga att kunna särskilja hastigt på hvarandra följande ljusintryck”, som Nordisk familjebok påpekade 1908 och 1911.

Med analoga medier menar man i dagligt tal numera ofta 1900-talets massmedier som tv, radio och tidningar. Det är en missvisande beskrivning, men termen ”analog” har likväl kommit att betyda och stå för något som befinner sig i motsats till ”digital”. Om man jämför analoga medier – vilka alltså först i efterhand kommit att kallas så – med samtidens digitala medier, är det vid en första anblick inte speciellt svårt att betrakta dem som tekniskt överlägsna. Att mediehistorien rört sig framåt är liksom svårt att bestrida; en iPad framstår som ett mer avancerat teknologiskt medium än en fonograf. Med en iPad i händerna är det inte heller så enkelt att urskilja på vilket sätt som analoga medier är besläktade med digitala, även det är fallet.

Det här kapitlet handlar om digitala medier – men också om de sätt som de hänger samman med 1900-talets massmedier. Redan Marshall McLuhan argumenterade på 1960-talet för att alla medier byggs av andra medier; ”inget medium har någon mening eller existens för sig, utan endast i ständigt samspel med andra media.” Analoga och digitala medier samexisterar därför även idag. Kapitlet fokuserar bland annat på medier som (mer eller mindre synliga) infrastrukturer, på nätverk (som internet) liksom hård- och mjukvara, samt på helt samtida medier som av olika anledningar kommit att kallas för ”sociala” och ”strömmande”. En återkommande tankefigur i kapitlet är de sätt som datorn utvecklats från beräkningsapparat till ett multimedium. Datorn (i en rad olika former) utgör därför kapitlets mest centrala medieform. Datorer var från början beräkningsinstrument och som mekaniskt-numeriska maskiner har de funnits länge; redan kring 1960 var datorer centrala beräkningsmaskiner i många av västvärldens välfärdssamhällen. Men då användes de (nästan) inte till allt (som idag). Utifrån samtidens perspektiv framstår datorer och de nätverk de tillsammans utgör som de kanske mest komplicerade apparater som människan någonsin konstruerat.

Betraktar man medier som ett slags apparater är relationerna mellan analoga och digitala medier påtagliga. Åtminstone på ett principiellt plan, eftersom vår tids digitala medier bokstavligen är sammankopplade med en äldre apparatdriven mediehistoria. Ingen mediehistorisk översikt undgår att påminna om informationsteoretikern Claude Shannons magisteruppsats, ”A Symbolic Analysis of Relay and Switching Circuits” (1937), i vilken han med fokus på olika elektriska reläer (i exempelvis telefonväxlar) kombinerade boolesk algebra och dess beteckningar i två tillstånd – hög och låg, eller 1 och 0 – med elektronisk logik. I korthet, visade Shannon att det var möjligt att använda arrangemang av reläer för att lösa booleska problem. Alltsedan dess ligger utnyttjandet av elektriska strömbrytares binära egenskaper för att utföra logiska funktioner (på och av) till grund för det mesta inom elektronisk datadesign. Shannons studentuppsats brukar därför omtalas som den kanske viktigaste och mest berömda under hela 1900-talet.

Att det binära talsystemets 1 och 0 utgör ett slags grundval för både datorer och digitala medier känner de flesta till. Analog elektronik arbetar med kontinuerliga signaler, men det gör inte digital teknik. Digital elektronik använder istället så kallade diskreta spänningsnivåer, oftast i just binär form, det vill säga tydligt separerade värden i form av 1 och 0. Sådana värden kallas diskreta eftersom de är strikt åtskilda från varandra. Information i analog form har alltid en sorts mellanlägen – som djupet i ett inristat spår i en fonografrulle – medan digital information sparas som hela tal med en bestämd noggrannhet. Att termen digital idag mest associeras med datorer betyder dock inte att digitala system med nödvändighet måste vara elektroniska eller binära. Tvärtom finns det gott om dem i mediehistorien. 1800-talets viktigaste kodsystem för överföring, Morsealfabetet, är digitalt (med sex separata variabler), liksom dåtidens optiska telegrafer som (ibland) använde tio fällbara järnluckor, variabler med vilka man kunde skapa upp till 1024 olika kombinationer. Faktum är att alla matematiska strukturer som inte är kontinuerliga betecknas som diskreta, och de skiljer sig alltid från kontinuerliga, analoga värden. Data i form av numeriska diskreta tillstånd är därför digitala. Eftersom de baserar sig på separerade värden så kan digital information kopieras med närmast identiskt resultat.


Medier som infrastrukturer
1952 arbetade den unge matematikern Marvin Minsky på Bell Labs i New York under ett par veckor. Tillsammans med Shannon försökte han där att hitta på en rad olika maskiner och apparater som hade med informationshantering att göra. Efter andra världskrigets slut hade Bell Labs utvecklats till ett av världens mest innovativa laboratorier; strax före att Minsky kom dit hade tre Bell-ingenjörer exempelvis uppfunnit transistorn, en liten halvledande komponent, vilken från 1950-talet blev till en central byggsten i all modern elektronik. Det handlar alltså om samma tekniska laboratorium som vi skrev om i bokens första kapitel, där radiofysiker lite mer än tio år senare skulle registrerade bakgrundsstrålning från Big Bang och lyssna på universums uppkomst.

Minsky hade då börjat sin enastående karriär som datavetare där han så småningom skulle bli en av pionjärerna inom forskningsområdet artificiell intelligens (AI); redan i slutet av 1950-talet startade han ett Artificial Intelligence Laboratory på M.I.T i Boston. Men på Bell-laboratoriet arbetade han tillsammans med Shannon ännu i skärningspunkten mellan elektronik, mekanik och matematik. En av de apparater som Minsky hittade på – och som Shannon konkret byggde samman – har kallats för den ”ultimata maskinen”. Den bestod av en trälåda och en spak med två lägen, på och av. När man slog på den öppnades en lucka, en mekanisk arm åkte ut – som slog av apparaten, varefter luckan stängdes. Den ultimata maskinen var alltså en apparat som hade som enda syfte att slå av sig själv. Det intressanta med Minskys och Shannons apparat är att den ofta utpekats som ett slags fundament för det digitala informationssamhället; den ultimata maskinens lekfulla 1 och 0 utgör helt enkelt grund för all slags datoriserad information.