Jaarboek voor Nederlandse Boekgeschiedenis. Jaargang 14
(2007)– [tijdschrift] Jaarboek voor Nederlandse Boekgeschiedenis– Auteursrechtelijk beschermd
[pagina 73]
| |
Saskia C.J. de Vries
| |
[pagina 74]
| |
Een korte geschiedenis van het academische boekIn de geschiedenis van de wetenschappelijke monografie spelen universitaire persen bij uitstek een belangrijke rol. Universitaire persen bestaan al vele honderden jaren. De oudste is de wereldberoemde Oxford University Press die in 1632 door de Universiteit van Oxford werd opgericht. Universitaire persen zijn in de regel op not for profit-basis gestoeld: ze werden in het leven geroepen om te zorgen dat de wetenschappelijke informatie die aan academische instellingen wordt geproduceerd zo doeltreffend mogelijk wordt verspreid, ongeacht de opbrengsten of het tekort daaraan - wat tot voor zeer kort resulteerde in een hoog wetenschappelijk fonds van voornamelijk boeken. Een van de allerbelangrijkste kenmerken van een ‘echte’ universitaire pers is het belang dat gehecht wordt aan een goed reviewingsysteem via wetenschappelijke redactieraden, waardoor het fonds kwalitatief hoogwaardig is en blijft. Deze redactieraden bepalen voor elke publicatie die wordt uitgegeven of de wetenschappelijke kwaliteit ervan voldoende is. Pas als die garantie gegeven is, wordt bij een universitaire pers gekeken of de uitgave ook financieel mogelijk te maken is. In veel gevallen betreft het zeer specialistische informatie, waar maar een kleine markt voor bestaat, zodat er dus moet worden gezocht naar subsidiëring van de uitgave. Aangezien universitaire persen dus niet in het leven zijn geroepen vanuit een winstoogmerk, maar gezien moeten worden als een service aan de academische gemeenschap voor het verspreiden van haar wetenschappelijke onderzoeksresultaten, ligt het voor de hand dat juist zij, veelal in samenwerking met de universitaire bibliotheken en met steun van de eigen instellingen, op zoek gaan naar nieuwe en kostenefficiënte mogelijkheden van verspreiding van informatie via nieuwe digitale technieken. Zoeken uitgevers met winstoogmerk uiteraard ook naar nieuwe kostenefficiënte mogelijkheden van verspreiding van informatie via nieuwe digitale technieken, daarbij blijft de winstgevendheid uitgangspunt. Voor universitaire persen is de verspreiding van wetenschappelijke informatie doel op zich, en de nieuwe digitale technieken vormen een belangrijk instrument om dit te bereiken. In 2005 verscheen voor het eerst een grondige studie over de geschiedenis van het academische boek in boekvorm: Books in the digital age. The transformation of academic and higher education publishing in Britain and the United States van de Engelse socioloog John B. Thompson.Ga naar voetnoot2 Thompson, hoogleraar aan de universiteit van Cambridge, en een van de oprichters van uitgeverij Polity Press, analyseert daarin de Angelsaksische boekenindustrie sinds 1980. In die turbulente periode kwam het academische boek in toenemende mate onder druk te staan en kwam het elektronisch uitgeven op. Zoals de ondertitel van zijn boek aangeeft, richt Thompson zich in het bijzonder op wetenschappelijke boeken: zowel de publicaties voor vakgenoten (de monografie), als educatieve boeken voor het hoger onderwijs (studieboeken). De bloeiperiode van academische boeken ligt in de jaren daarvoor, vanaf de Tweede Wereldoorlog. De oorzaak van die bloei ligt voor de hand. Het was een gouden tijdperk voor het hoger onderwijs in het Westen, en vooral in de Verenigde Staten. Door de naoorlogse babyboom en de sterke economische groei | |
[pagina 75]
| |
vervijfvoudigde tussen 1945 en 1975 het aantal undergraduates. Het aantal graduates nam zelfs met een factor negen toe. En in de periode 1960-1970 werden meer mensen aangesteld aan universiteiten dan in de drie eeuwen daarvoor bij elkaar.Ga naar voetnoot3 Maar ook de Koude Oorlog droeg bij tot het succes van het academische boek. Sinds de Tweede Wereldoorlog had de Amerikaanse overheid in een poging bij te blijven in de technologische wedloop met de Sovjet-Unie de gewoonte haar onderzoeksprojecten rechtstreeks uit te besteden aan wetenschappelijke instellingen. Omdat de Amerikaanse academische markt veruit de grootste markt voor wetenschappelijke publicaties is, betekende dit ook een ongekende bloeiperiode voor wetenschappelijke uitgevers. Maar vanaf ongeveer 1975 begonnen de oplagen van academische boeken een gestage neergang te vertonen. Los van veranderende omstandigheden aan universiteiten kan die neergang voor een groot deel worden verklaard door een verschuiving in de richting van wetenschappelijke tijdschriften. Vooral in de harde, economische en sociale wetenschappen werden tijdschriften steeds belangrijker voor het verspreiden van kennis. Bovendien nam door de toenemende specialisatie in de wetenschap hun aantal enorm toe. Er zijn op dit moment meer dan vijftienduizend internationale wetenschappelijke tijdschriften en nog altijd komen er jaarlijks twee- tot driehonderd nieuwe titels bij. Het belangrijkste aspect van deze verschuiving vormen de financiële consequenties. Tussen 1970 en 1997 werden wetenschappelijke tijdschriften maar liefst dertig keer zo duur (een jaarlijkse stijging van dertien procent).Ga naar voetnoot4 Onthullend is hierbij het verschil in prijsontwikkeling tussen commerciële en niet-commerciële tijdschriften. Als de prijs per pagina wordt vergeleken van commerciële en niet-commerciële toptijdschriften in tien verschillende wetenschapsgebieden, blijken de commerciële tijdschriften inmiddels zes maal zo duur te zijn. In 1985 was dit nog een factor drie.Ga naar voetnoot5 De budgetten van wetenschappelijke bibliotheken hielden geen gelijke tred met deze stijgende prijzen. Geconfronteerd met de keuze tussen het opzeggen van lopende abonnementen en het aanschaffen van minder nieuwe boeken, besteedden bibliotheken een steeds groter deel van hun budget aan tijdschriftabonnementen. En omdat wetenschappelijke bibliotheken de belangrijkste afnemers zijn van academische boeken was dit duidelijk te merken in de verkoopcijfers. Lag in de jaren zeventig de oplage van de gebonden editie van een monografie doorgaans tussen twee- en drieduizend exemplaren, tegenwoordig is een oplage van vijfhonderd boeken of zelfs minder heel gebruikelijk. Robert Darnton beschrijft dit proces in zijn baanbrekende artikel ‘The new age of the book’ in The New York Review of Books in 1999. Als voorbeeld geeft hij de uitgave van The papers of Benjamin Franklin. Van het eerste deel, verschenen in 1959, werden 8407 exemplaren verkocht, vooral aan bibliotheken; van deel 33, uit 1998, nog maar 753 exemplaren.Ga naar voetnoot6 Uitgevers probeerden het tij op verschillende manieren te keren. Ze werden bijvoorbeeld selectiever in de keuze van uit te geven manuscripten. Sommige commercië- | |
[pagina 76]
| |
le uitgevers trokken zich zelfs helemaal terug uit het academische boekengenre. Ook gingen ze boeken steeds meer en steeds eerder in een paperbackeditie uitbrengen. Maar de winstmarges voor paperbacks zijn veel lager en de risico's veel groter, omdat de winkels onverkochte boeken terugsturen naar de uitgevers. Diversificatie van het fonds was een andere strategie, bijvoorbeeld door ook studieboeken voor het hoger onderwijs uit te geven. In dit segment moesten de academische uitgevers concurreren met de gevestigde, steeds grotere en steeds meer internationaal opererende educatieve uitgevers als Pearson en Thomson. Universitaire persen, die zich zoals gezegd ten doel stellen hoogwaardig wetenschappelijk werk uit te geven, hadden meer last van de veranderende marktomstandigheden dan de commerciële uitgevers. En de Amerikaanse universitaire persen hadden meer te lijden dan hun Engelse evenknieën in Oxford en Cambridge, omdat ze minder gediversifieerd zijn. Bovendien zijn ze hoofdzakelijk op de Amerikaanse markt actief, geven ze minder tijdschriften uit die kunnen meeliften op de prijsstijgingen en publiceren ze meer voor de sociale en geesteswetenschappen, waar de onderzoeksbudgetten lager zijn en waar minder wordt verdiend dan bijvoorbeeld in de natuurwetenschappen. Interessant is ook dat de universitaire persen van Oxford en Cambridge niet alleen vele malen groter zijn dan de Amerikaanse universitaire persen (Oxford University Press is dertien maal zo groot als zijn grootste rivaal in de vs) en veel minder afhankelijk van hun wetenschappelijke fonds, ze konden bovendien profiteren van hun sterke positie op de wereldwijde markt van het Engelse taalonderwijs, die juist een enorme groei doormaakte. | |
De driehoek auteur-uitgever-bibliotheekCommerciële uitgevers van vooral wetenschappelijke tijdschriften mogen zich dan wel beter staande hebben weten te houden dan de universitaire persen (met uitzondering van die van Oxford en Cambridge), maar de prijsstijgingen die zij daartoe jaar in jaar uit doorvoerden werden hen niet in dank afgenomen. Belangrijk te vermelden in dit verband is het feit dat in veruit de meeste wetenschappelijke publicaties de inhoud die een wetenschappelijke uitgever publiceert door een wetenschapper in dienst van een academische instelling wordt geschreven, dus in feite geheel gefinancierd wordt door de instelling. Dat de wetenschappelijke auteur daarna geacht wordt niet alleen zijn werk zelf om niet af te staan, maar bovendien ook het volledige auteursrecht daarop, begon de wetenschappelijke wereld ernstig tegen de borst te stuiten. Die weerzin werd nog versterkt als daarna de bibliotheek van dezelfde instelling enorme bedragen aan de uitgever moest betalen voor het beschikbaar stellen van nog steeds diezelfde informatie van de auteur/wetenschapper die binnen dienstverband was ontwikkeld. En dat sommige uitgevers hun auteurs daarenboven nog lieten betalen voor het recht om hun eigen onderzoeksresultaten aan hun eigen studenten te verstrekken, kon op den duur niet anders dan tot irritatie leiden. Vandaar dan ook dat er inmiddels overal ter wereld uitgebreide discussies gevoerd | |
[pagina 77]
| |
worden over een nieuw universitair auteursrechtbeleid, waarbij wetenschappelijke auteurs en hun universiteiten worden aangespoord om bij het verlenen van publicatierechten, en dan vooral de rechten voor elektronische publicaties, uiterst terughoudend te zijn. Er gaan steeds meer stemmen op die ervoor pleiten het beschikbaar stellen van wetenschappelijke informatie als een not-for-profit business te beschouwen, een activiteit die weliswaar professioneel en zakelijk verantwoord wordt ondernomen, maar die niet tot winst(maximalisatie) hoeft te leiden: het gaat immers grotendeels om de verspreiding van met publieke middelen ontwikkelde kennisproducten. In het kielzog van deze discussie zijn academici op veel plaatsen gaan samenwerken om wetenschappelijke literatuur vrij toegankelijk te maken. Wat deze initiatieven met elkaar gemeen hebben, is dat het internet - en elektronisch uitgeven - in hun ogen de mogelijkheid biedt de volledige tekst en gegevens van elk gepubliceerd artikel kosteloos beschikbaar te stellen voor iedereen, waar ook ter wereld. | |
Open AccessDeze nieuwe kijk op de verspreiding van wetenschappelijke kennis staat inmiddels bekend als Open Access. Uitgangspunt hierbij is dat de kosten van publicatie afgedekt worden vanuit de wetenschappelijke gemeenschap en dat de informatie daarna vrij toegankelijk is. Dus in plaats van dat de afnemer betaalt (‘subscription based’), betaalt de schrijver of diens onderzoeksinstituut de uitgever om zijn artikel gepubliceerd te krijgen. Dit model wordt ‘author pay’ genoemd. Het uitgeefmodel dat werkt met author pay is dus zeker ook niet gratis, aangezien de auteur of de instelling waar hij werkt de kosten voor uitgave draagt; wel wordt daarmee de informatie vrij toegankelijk gemaakt voor een doelgroep naar keuze. Digitale publicaties zijn bovendien in zoverre goedkoper te produceren, dat de kosten van papier, drukken en distributie wegvallen. Zonder digitalisering kan er geen sprake zijn van Open Access doordat de kosten van fysieke productie blijven bestaan. Er zijn inmiddels vele initiatieven tot Open Access-ontsluiting ontstaan, zowel binnen als buiten de academische gemeenschap, in not for profit- en for profit-omgevingen. Een aantal voorbeelden kan dit illustreren. BioMed CentralGa naar voetnoot7 werd in 2002 officieel geïntroduceerd, en was daarmee een van de allereerste modellen van Open Access. Inmiddels publiceert BioMed Central jaarlijks tussen de zes- en zevenduizend artikelen op het gebied van de biologie en medische wetenschappen, verdeeld over meer dan 150 tijdschriften. Uitzonderingen daargelaten wordt per artikel ongeveer €1200 in rekening gebracht aan de auteur. Voor dit geld organiseert deze uitgever het gehele publicatieproces, inclusief het ‘peer review proces’. Auteurs van artikelen die niet geplaatst worden - circa 50% van de artikelen wordt afgewezen - zijn geen betaling verschuldigd. BioMed Central verwacht met dit inkomstenmodel binnen twee jaar ten minste te bereiken dat het resultaat breakeven is. | |
[pagina 78]
| |
Enkele maanden na BioMed Central is de Public Library of Science (PLoS)Ga naar voetnoot8 opgericht. PLoS begon als een belangenclub ten behoeve van vrije toegang voor wetenschappelijke informatie. Toen belangenbehartiging niet veel uitrichtte, gooide PLoS het roer om en werd zelf uitgever. Deze uitgeverij hanteert een model dat vergelijkbaar is met dat van BioMed Central, met als verschil dat PloS een non-profitorganisatie is die vooral in het begin is geholpen door een grote gift, maar die nu ook van het author pay-model Open Access moet leven. Daarnaast wil PLoS concurreren met toppublicaties in de wetenschappelijke markt. Inmiddels zijn er twee grote financiers van wetenschappelijk onderzoek - het National Institute of HealthGa naar voetnoot9 in de vs en de Wellcome TrustGa naar voetnoot10 in Engeland - die overwegen om alleen nog maar onderzoek te ondersteunen waarvan de uitkomst in een voor iedereen toegankelijke database wordt geplaatst. De Open Access-beweging lijkt in het kielzog van de al eerder gestarte en succesvolle digitalisering van tijdschriften een vliegende start te hebben kunnen maken. | |
Het digitaliseren van boekenIn tegenstelling tot de digitalisering van wetenschappelijke tijdschriften, is de digitalisering van wetenschappelijke boeken veel minder snel op gang gekomen. Boeken kenmerken zich door hun omvang en lineaire karakter, ze hebben een verhalende opzet of bevatten een uitvoerige argumentatie, waardoor lezers er langere tijd mee bezig zijn en er andere eisen aan stellen. Lezers hechten aan een goede leesbaarheid, willen in het boek bladeren, het meenemen en overal kunnen gebruiken. Ondanks alle speculaties over het tegendeel blijken computers het tot dusverre af te leggen tegen de buitengewoon effectieve leesmachine die het boek al eeuwen is. Toch lijken elektronische boeken of ‘e-books’ in een behoefte te voorzien. Niet zozeer als individuele titels, maar als een collectie, bestemd voor wetenschappelijke instellingen. E-books worden niet zozeer gelezen als wel ‘gebruikt’: als hulpmiddel bij onderzoek, bijvoorbeeld om eenvoudig relevante literatuur te kunnen vinden en bronnen te controleren. Succesvolle initiatieven op dat vlak gaan uit van een samenhangend corpus van elektronische boeken, met enerzijds voldoende schaalgrootte en anderzijds een duidelijke focus en selectiviteit. Voorbeelden van dit soort collecties zijn Colombia International Affairs OnlineGa naar voetnoot11 (een in 1997 opgezette verzameling over internationale politiek waarin vooral veel grijze literatuur is bijeengebracht) en Oxford Scholarship OnlineGa naar voetnoot12 (een selectie van de beste oudere en recent gepubliceerde boeken van Oxford University Press in vier wetenschapsgebieden namelijk Economie en Financiën, Filosofie, Politieke Wetenschappen en Religie, opgezet in 2003) dat oup zelf aanbiedt als een ‘must have online resource’. | |
[pagina 79]
| |
De monografie leent zich niet goed voor een rechtstreekse vertaling naar een op zichzelf staande digitale variant. Maar ligt het niet veel meer voor de hand dat via het internet een eigen vorm ontstaat, die profiteert van de specifieke mogelijkheden van de digitale media, zoals de historicus Robert Darnton al in 1999 in enige invloedrijke artikelen betoogde?Ga naar voetnoot13 Als historicus die een kwarteeuw onderzoek deed naar het boek ten tijde van de Franse Verlichting, en als redacteur en adviseur van Amerikaanse universitaire persen, was Darnton zich pijnlijk bewust van de beperkingen van de monografie. Hij beschrijft het dilemma van de historicus die jarenlang archiefonderzoek doet en daarbij, misschien wel als enige, een enorme rijkdom aan materiaal onder ogen krijgt, waarvan maar een fractie zich leent voor opname of behandeling in het uiteindelijke boek. Na afloop van het onderzoek blijft hij zitten met vele kaartenbakken vol informatie en met vele ideeën voor nieuwe projecten, die zich niet lenen voor een boek omdat te weinig mensen erin geïnteresseerd zullen zijn, en die overigens ook zo veel tijd zouden vergen dat hij aan niets anders meer zou toekomen. Darnton introduceert wat hij het ‘piramidemodel’ noemt, een gelaagde presentatie van verschillende soorten informatie. In de top van de piramide bevindt zich het afge- | |
[pagina 80]
| |
ronde, beknopte en goed leesbare resultaat van het onderzoek, dat via het internet kan worden geraadpleegd, als boek kan worden uitgegeven, of als pod-uitgave kan worden geprint. Maar als de lezer in de digitale uitgave iets aantreft wat hem speciaal interesseert, kan hij naar een diepere laag klikken, waar zich bijvoorbeeld een essay bevindt, of een nadere toelichting. Zo kan de lezer steeds dieper in het digitale werk afdalen en bijvoorbeeld documenten raadplegen, bibliografieën, historiografieën of wat de onderzoeker ook zou kunnen aandragen om zijn onderwerp zo volledig mogelijk uit te diepen. Lezers zullen zich het onderwerp eigen kunnen maken op een manier die meer lijkt op een bezoek aan een bibliotheek of een archief dan op het lezen van een boek. Daarnaast introduceert Darnton nog heel andere lagen in zijn model, waarin discussies tussen gebruikers mogelijk zijn of die speciaal voor onderwijsdoeleinden dienen. Darnton hoopt met deze benadering twee vliegen in één klap te slaan: wetenschappers worden verlost van de beperkingen van de monografie en krijgen de mogelijkheid hun materiaal op nieuwe manieren te presenteren en beschikbaar te stellen; uitgevers kunnen behalve boeken ook nieuwe digitale werken (online zowel als offline) in de markt zetten, om zo hun omzet uit wetenschappelijke publicaties op peil te houden. Darnton heeft zelf de daad bij het woord gevoegd en werkt sindsdien aan een elektronisch boek over uitgeverij en boekhandel in Frankrijk in de achttiende eeuw. Een recent voorbeeld in Nederland van een vergelijkbare opzet is de websiteGa naar voetnoot14 die Frits van Oostrom begin 2006 lanceerde bij het verschijnen van zijn boek Stemmen op Schrift waarop allerlei achtergrondmateriaal te vinden is, zoals recensies, aantekeningen (op trefwoord doorzoekbaar), aanvullingen (gedachten die na het inleveren van het manuscript zijn opgekomen), verschillende versies van het manuscript in redactie, en lezingen die hij hield naar aanleiding van zijn boek. Er zijn diverse wetenschappers die al langer en nog veel uitgebreider experimenteren met de mogelijkheden van de digitale media. Zo is het project Valley of the ShadowGa naar voetnoot15 van de historicus Edward Ayers een digitale collectie van duizenden bronnen (zoals kaarten, brieven, kranten, foto's en kerkelijke, gemeentelijke en militaire archivalia) waarin men de ervaringen van een Noordelijke en een Zuidelijke gemeenschap in de Amerikaanse Burgeroorlog kan volgen. The Rossetti ArchiveGa naar voetnoot16 van de letterkundige Jerome McGann brengt het complete oeuvre van de Engelse dichter en schilder Dante Gabriel Rossetti in multimediale vorm bijeen en probeert dit met digitale hulpmiddelen in al zijn aspecten te analyseren. Darntons hoop dat uitgevers met zulke multimediale producten nieuwe inkomsten kunnen genereren, is nog niet uitgekomen. Voorlopig blijft het bij experimenten, die veelal totstandkomen met subsidies - in de Verenigde Staten bijvoorbeeld van de Mellon Foundation, die aan de basis van diverse digitale projecten staat - en die over het algemeen buiten de normale uitgeefkanalen plaatsvinden. | |
[pagina 81]
| |
Google en andere zoekmachinesDe uitgeefwereld is inmiddels, eerst zonder het goed te beseffen, betrokken geraakt in een fascinerend gevecht om de macht op het internet. Google, Yahoo! en msn (van Microsoft) strijden om de hegemonie op het gebied van zoeken. Want zoeken is de sleuteltechnologie voor internet, en dus een groeimarkt voor advertenties. Google, op dit moment de grootste, snelste en eenvoudigste zoekmachine, bewijst het. Met omzetcijfers die jaarlijks meer dan verdubbelen, heeft Google de omzet van een erkend e-commerce-succes als eBay overtroffen en is het inmiddels het grootste mediaconcern ter wereld, met een winst in 2005 van 6,14 miljard dollar, inmiddels zelfs groter dan Time Warner. De beursgang in augustus 2004 was het eerste succesvoorbeeld sinds de dotcomcrisis, en de aandelen zijn sinds de introductie meer dan vertienvoudigd in waarde. Natuurlijk is het de vraag of die waardering reëel is, maar om die in perspectief te plaatsen: op dit moment is de marktwaarde van Google 114 miljard dollar, terwijl bijvoorbeeld een van de grootste uitgeefconcerns ter wereld, Reed Elsevier, een marktwaarde heeft van ‘slechts’ 11 miljard dollar. Met ruim 300 miljoen raadplegingen per dag had Google medio 2006 een aandeel van 42% van alle zoekvragen op het internet. Nummer 2 was Yahoo!, met circa 27%, gevolgd door msn met ongeveer 19%. Hoewel Google de laatste jaren uitloopt op de concurrentie, is de strijd nog niet beslist. msn en Yahoo! kunnen het zoeken nog sterk verbeteren door ook informatie op de pc toe te voegen en door gebruik te maken van de kennis van persoonlijke voorkeuren van gebruikers. Uitgevers en bibliotheken schreeuwden een jaar geleden moord en brand toen Google zijn boekenzoeker onder de naam Google Print begon. Google maakte bekend oude boeken uit bibliotheken te zullen scannen zonder eerst toestemming te vragen aan de uitgevers. Net zoals Google ook tijdelijke kopietjes (caches) maakt van miljarden webpagina's. De boeken in Google Print werden wel volledig doorzoekbaar gemaakt, maar er waren alleen korte passages online te lezen, de snippets view. De boekenwereld was meteen in rep en roer. Waar haalde Google het lef vandaan hun boeken zomaar op het internet te zetten? Maar tijdens de bijeenkomst over Google Book Search die het Nederlands Uitgeversverbond (nuv) in het voorjaar van 2006 in Amsterdam organiseerde, kwam van de tientallen aanwezige Nederlandse uitgevers weinig kritiek. De vrees van het jaar daarvoor, dat boeken die nog onder een auteursrecht vielen ongeoorloofd zouden worden opgeslagen en daarmee volledig te lezen zouden zijn via Google was in ieder geval niet terecht. Nu blijkt dat Google Book Search voldoende effectieve beveiligingen heeft ingebouwd tegen misbruik is het wantrouwen afgenomen. Al honderden uitgevers ter wereld zijn intussen verleid om mee te werken aan het Google Publisher Programma, waaronder in Nederland bijvoorbeeld de uitgeverijen Kluwer, Brill, Amsterdam University Press, Boom Uitgevers en 010 Publishers. Google Book Search bestaat uit twee afzonderlijke projecten. In het Library-project scant Google allereerst boeken van bibliotheken, met name werken uit het publieke domein. Bij het Library-project wordt het hele boek getoond als er geen auteursrecht meer op rust, vooral bij heel oude boeken. Ook staan er geen advertenties bij de boe- | |
[pagina 82]
| |
kenpagina's. Ten tweede scant Google in het Publisher-project binnen Book Search boeken voor uitgevers die, zoals Amsterdam University Press, een samenwerking met Google Book Search zijn aangegaan. In het Publisher-gedeelte kan een uitgever bepalen of hij wil verdienen aan advertenties bij de boekenpagina's. Voor de uitgevers toont Google links naar hun eigen sites of die van webwinkels waar het boek online is te bestellen, wat moet zorgen voor meer verkoop van boeken. De gedachte is dat je als uitgever veel meer boeken kunt verkopen aan nieuwe lezers, dat wil zeggen aan mensen die niet op zoek waren naar een bepaald boek, maar er toevallig via Google op stuiten. Overigens leert de ervaring dat de GoogleAds bij de boekenpagina's vooralsnog niet zo veel opleveren, maar de treffers op boeken via Google des te meer. Deze toename in de verkoop is goed nieuws voor de overlevingskansen van de monografie. Daarbij doet Google (waar nodig) het scanwerk voor uitgevers en wordt bij elke pagina van het boek die wordt weergegeven een link geplaatst naar de site van de uitgever of een andere webwinkel waar het desbetreffende boek online is te bestellen. Oftewel: uitgevers hebben er met Google Book Search een gratis marketingkanaal bij gekregen. Overigens digitaliseert Google niet om er rechtstreeks geld aan te verdienen, ze doen dat om hun zoekresultaten beter te maken. Dat verbetert de gebruikerservaring van internetters die op Google zoeken en daar verdient Google uiteindelijk aan. Men beschikt over veel geld voor dit soort strategische programma's die de kwaliteit van de zoekmachine kunnen verbeteren. Ook lijkt Google zeer gebeten op het ophelderen van de ontstane commotie rond het auteursrecht en hamert er keer op keer op dat van de gescande boeken waarop auteursrecht berust en waarvoor geen toestemming is verleend slechts drie kleine stukjes worden getoond. Bovendien is van boeken die Google wél van uitgevers mag aanbieden standaard slechts maximaal 20% van de pagina's opvraagbaar en sowieso maar vier bladzijdes achter elkaar per zoekactie. Google verschaft de uitgever daarnaast desgewenst nog diverse gegevens die op zich ook al heel interessant zijn: het aantal page views per boek, het aantal keren dat er is doorgeklikt (clickthroughs) naar de uitgever en online boekhandel (niet nader uitgesplitst overigens), het aantal clickthroughs naar advertenties en de inkomsten uit advertenties. Al deze gegevens kunnen per boek en per periode worden opgeroepen; bovendien worden de clickthrough-percentages gegeven. Angst voor misbruik probeert Google uiteraard de kop in te drukken. De gemiddelde gebruiker van Google Book Search ziet 1,2 pagina per boek. Dus hij klikt hooguit nog één bladzijde verder. Dat geeft een indicatie over wat gebruikers van Google doen met boeken. Overigens kunnen gebruikers niets opslaan van wat men ziet, en het zelfs niet uitprinten, want dan krijgt men een witte pagina. Google Book Search blijft altijd gratis voor uitgevers, zweert Google. Men redeneert dat men niet over bijvoorbeeld twee jaar ineens geld aan uitgevers kan gaan vragen, want dan zal een grote groep afhaken en dan moet Google die boeken weer uit het systeem halen. | |
[pagina 83]
| |
Wat levert Google Book Search de uitgevers op?Het succes van Google Book Search valt of staat met de medewerking van de uitgevers. De grootste vraag voor uitgevers op dit moment is wat Google Book Search hun oplevert. De eerste ervaringen van uitgevers als Amsterdam University Press, Brill en Kluwer lijken positief. Brill liet medio 2006 weten de miljoen page visits al voorbij te zijn met de 3500 boeken die op Google Book Search staan. Het gaat bij Brill vooral om oude werken, die weinig meer verkopen. Dat is uiteindelijk natuurlijk alleen maar goed voor de boeken en hun auteurs. Het aardige is dat sommige boeken ineens honderden malen populairder worden dankzij een gebeurtenis in de actualiteit, zoals eind 2004 de tsunami. Heel weinigen wisten wat dat exact was, zochten via Google en kwamen dan ook uit op boeken over dit fenomeen. Inmiddels vragen wetenschappelijke auteurs zelf of hun boeken bij Google aangemeld kunnen worden, aangezien ze als gebruiker ook ervaring hebben met Google Book Search. In de wetenschappelijke wereld schrijven auteurs niet primair om veel geld te verdienen, maar men zoekt de uitgever die een zo groot mogelijke verspreiding kan regelen. En aangezien op de universiteitscampus iedereen tegenwoordig achter de computer zit, studenten voornamelijk googelen, en de wetenschappelijke bibliotheken steeds minder fysieke bezoekers hebben, zullen uitgeverijen daar op moeten inspelen. Google Book Search kan hen daarbij helpen. Overigens, mocht een auteur protesteren tegen aanleveren van zijn titels aan Google Book Search, dan kan de uitgever de boeken binnen 48 uur laten verwijderen. Het verkopen van online toegang tot boeken door Google zelf is de volgende stap. Google begon ook medio 2006 met een experiment waarbij uitgevers die met Google samenwerken toegang tot boeken tegen betaling kunnen aanbieden. De uitgevers kunnen zelf de prijs bepalen. Internetters betalen via het experimentele betalingssysteem van Google. In eerste instantie zijn de boeken waarvoor is betaald alleen online te lezen. Betalende internetters kunnen niet kopiëren, opslaan of printen. Hiermee komt Google tegemoet aan de eisen van uitgevers. | |
Reacties uit de boekhandel- en bibliotheekwereldHet mogelijke verval van schakels in traditionele handelsketens als gevolg van de activiteiten van Google en Amazon (ook wel ‘Googlezon’ genoemd) boezemt uitgevers en boekhandelaren soms vrees in. Google bagatelliseert ook dit: ‘Nog steeds wordt 85 procent van de boeken in de winkel gekocht. Kennelijk hebben mensen daar toch een prettig gevoel bij. Ze willen toch papier voelen en ruiken. Niemand is geïnteresseerd om hele boeken te lezen op elektronische apparaten. De rijkheid van het lezen vanaf papier kun je nooit kopiëren,’ aldus Google.Ga naar voetnoot17 Ook de bibliotheken staan ambivalent tegenover Google. Aan de ene kant neemt de aandacht voor boeken toe, doordat meer mensen met boeken in contact komen via de zoekmachine. Aan de andere kant kunnen bibliotheken steeds minder fungeren als dé | |
[pagina 84]
| |
plaats om informatie te vinden als Google meer aanbiedt dan zij. Een monopolie zit er overigens nog niet in. Behalve Google doen ook Yahoo! en Microsoft digitaliseringsprojecten van boeken. Al deze boekzoekdiensten kunnen uiteindelijk het lees- en koopgedrag beïnvloeden. Net zoals Apple met zijn iTunes Music Store vooral losse tracks verkoopt, zullen internetters straks boeken in sommige genres, vooral non-fictie en informatie, niet meer in hun geheel willen kopen of downloaden. Zij willen alleen een hoofdstuk over het onderwerp waarin ze geïnteresseerd zijn en waar ze via Google op terechtkwamen. Google heeft inmiddels laten doorschemeren dat het verkopen van delen van boeken prima zou kunnen. Amazon heeft al bekendgemaakt fragmenten te koop aan te bieden en de grote Amerikaanse uitgever Random House wil zelfs bedragen gaan rekenen per pagina bij de onlineverkoop. Google Book Search kan dus niet anders beschouwd worden dan als goed nieuws voor het boek als zodanig, in digitale maar ook - via een omweggetje - in gedrukte vorm, dat via het internet weer een prominente plek krijgt. Het is goed nieuws voor in het bijzonder non-fictie-uitgeverijen, die in Google een sterke partner vinden voor de marketing van hun titels. Google Print is ook tot op heden een interessanter programma dan het vergelijkbare ‘Search inside this book’ van Amazon. Bij Amazon komen mensen die al op zoek zijn naar een boek, bij Google komen mensen die op zoek zijn naar informatie. Amazon brengt boeken bij mensen door hen te helpen kiezen en kopen; Google brengt mensen naar boeken. Voor bibliotheken moet Google Print zoals gezegd enigszins verwarrend zijn. Wat is er mooier dan een veel geraadpleegde onlinedienst die toegang biedt tot een rijke collectie boeken? Maar wat blijft er vervolgens over van de taak van de bibliotheek, om een collectie op te bouwen, te beheren en beschikbaar te stellen aan het publiek? In maart 2006 vond een symposium plaats rond dit thema onder de titel ‘Scholarship and libraries in transition: A dialogue about the impacts of mass digitization projects’ dat erop gericht was het publieke debat over massadigitalisering uit te tillen boven het bestaande, vooral door de tegenstanders aangejaagde debat over auteursrecht alleen. Het woord ‘Google’ was overigens opvallend afwezig in de titel van het symposium, en de bijeenkomst werd daarmee een heel brede discussie waarbij de vele genuanceerde mogelijkheden en problemen in overweging werden genomen die door digitalisering kunnen ontstaan voor de verschillende spelers in het veld. De discussie was daarmee dus niet alleen interessant voor de uitgeefwereld en bibliotheken, maar ook voor onderzoekers en de politiek in het algemeen.Ga naar voetnoot18 De deelname van gerenommeerde bibliotheken aan Google Print bewijst dat deze bereid zijn over hun eigen schaduw heen te springen. Het is goed mogelijk dat Google Print en ook Google Scholar het leenverkeer stimuleren, in plaats van kannibaliseren. Hoe dan ook moeten bibliotheken op zoek naar een nieuwe rol in het digitale tijdperk. | |
[pagina 85]
| |
Google ScholarDe betekenis van Google Scholar is in dit stadium moeilijk te duiden. Deze dienst van Google biedt de onderzoeker een heel simpele manier van zoeken naar academische literatuur. Vanaf één plaats kunnen verschillende disciplines en bronnen doorzocht worden: ‘peer-reviewed’ papers, proefschriften, samenvattingen en artikelen, en boeken van wetenschappelijke uitgevers, academische genootschappen, preprint repositories, universiteiten en andere wetenschappelijke organisaties. Google Scholar helpt bij het zoeken naar het meest relevante onderzoek binnen de wereld van het academisch onderzoek. Op het eerste gezicht is het goed nieuws dat er een snelle en goed bezochte zoekmachine bijkomt, die gebruikers leidt naar producten van wetenschappelijke uitgeverijen. Maar het is goed mogelijk dat deze dienst op termijn bijdraagt aan een verschuiving van de machtsverhoudingen tussen de grote uitgeverijen en de academische wereld, die zowel leverancier als afnemer van wetenschappelijke informatie is. Dat is niet zozeer omdat Google Scholar concurreert met producten van uitgeverijen - hoewel dat ook het geval is en het ook een beetje zuur is om te zien hoe Google het initiatief naar zich toe trekt met producten die uitgeverijen eerder en wellicht zelfs beter maakten -, maar omdat individuele uitgevers nooit zullen kunnen concurreren met een megadienst als die van Google. Die verschuiving zal vooral het gevolg zijn van het feit dat Google Scholar een groeiende groep wetenschappers en bibliotheken in de kaart speelt die pleit voor openbare toegankelijkheid van wetenschappelijke informatie via het internet: de Open Access-beweging. In toenemende mate wordt wetenschappelijke informatie, ook wanneer die via traditionele publicaties is verschenen, tevens opgeslagen in digitale archieven van wetenschappelijke instellingen. Google Scholar vertegenwoordigt voor deze instellingen een belangrijke nieuwe schakel in het distributiekanaal. Wetenschappers hebben hiermee een nieuwe etalage voor vrij toegankelijke informatie gekregen en zij kunnen hun producten erin uitstallen, zonder dat uitgevers deze eerst moeten verpakken. De vraag is of de verpakking van uitgevers (zoals selectie en groepering van informatie, kwaliteitsbewaking, merkontwikkeling) duurzame toegevoegde waarde biedt. Wie de beurswaarde van Elsevier en Google vergelijkt, zou kunnen concluderen dat de markt hieraan twijfelt. Maar Google dient met deze producten ook een breder belang. Als het Google lukt zijn missie te realiseren, is de waarde die wordt toegevoegd aan het internet als informatiemedium nauwelijks te overschatten. Sinds de razendsnelle opkomst van het web ruim tien jaar geleden groeien er generaties op die zich hoofdzakelijk via het internet informeren. Tot nu toe was de meeste informatie op het internet niet veel ouder dan tien jaar. Alles van vóór 1995 dreigde voor een steeds grotere groep jonge mensen min of meer voorgoed buiten beeld te raken. Google zou daar op een spectaculaire manier verandering in kunnen brengen. Niet alleen krijgt een enorme hoeveelheid bestaande kennis een plaats op het internet, die kennis wordt beter bereikbaar en toegankelijker dan ooit tevoren. | |
[pagina 86]
| |
Commerciële uitgeverijen als Reed Elsevier en Springer hebben inmiddels wel een tegenoffensief ingezet, vooral vanuit de hoek van de tijdschriften. Zo biedt Springer Science-Business Media sinds kort haar auteurs de keuze om ofwel in het oude model (dus gratis voor de auteur, maar tegen (abonnementen) betaling van de klant/lezer) te publiceren, ofwel in het nieuwe Open Access-model en dus tegen betaling door de auteur. Overigens rekent Springer dan ongeveer 3000 dollar per artikel, aanzienlijk meer dan BioMed Central. Inmiddels bemoeit ook de politiek zich ermee. In Groot Brittannië heeft de wetenschap- en technologiecommissie van het Lagerhuis, naar aanleiding van een onderzoek, een aantal voorstellen gedaan ter ondersteuning van Open Access, die negatief zouden uitpakken voor de uitgeverijen van wetenschappelijke informatie. De Britse regering heeft die voorstellen weliswaar naast zich neer gelegd, tot verbazing en teleurstelling van de aanhangers van het Open Access-model, maar vergelijkbare initiatieven staan op stapel in Amerika en in het Europees parlement. | |
Ontwikkelingen in NederlandOok in Nederland krijgen deze ontwikkelingen veel aandacht. Nederlandse universiteiten realiseren zich dat hun verantwoordelijkheid zich niet beperkt tot de productie van kennis, maar ook de vastlegging, archivering, distributie en toegankelijkheid van die kennis in de vorm van wetenschappelijke informatie omvat. De instellingen streven ernaar om, via hetzelfde Open Access-model, zelf de regie te voeren over de gehele distributieketen. Hiertoe is het programma Digital Academic RepositoriesGa naar voetnoot19 opgericht, een initiatief van de gezamenlijke Nederlandse universiteiten om al hun onderzoeksresultaten digitaal toegankelijk te maken. Ook de Koninklijke Bibliotheek, de Koninklijke Nederlandse Akademie van Wetenschappen en de Nederlandse organisatie voor Wetenschappelijk Onderzoek werken aan dit unieke samenwerkingsproject mee. Inmiddels hebben vrijwel alle Nederlandse universiteiten hun eigen repository ingericht, en heeft ook de gezamenlijke lancering van de zogenoemde ‘Keur der Wetenschap’ plaatsgevonden. Daarin zijn ruim 219 vooraanstaande Nederlandse onderzoekers, de top-15 van alle universiteiten met hun wetenschappelijke publicaties voor iedereen zichtbaar. Op dit moment gaat het om circa 45.000 documenten waarvan ongeveer 60% full-text beschikbaar is. Het principe van deze repositories is in wezen heel simpel. Het zijn bij de universiteitsbibliotheken ondergebrachte databanken waarin uiteindelijk alle onderzoek van wetenschappers aan de eigen instelling moet worden opgeslagen. Op dit moment zijn het vooral promovendi die de digitale versie van hun proefschrift in repositories overal in Nederland (en overigens ook in de rest van Europa en de wereld) onderbrengen. Via ‘oogstmachines’ (harvesters), zoals het aan de universiteit van Michigan gevestigde Oaister,Ga naar voetnoot20 kan een bestand dat op de juiste manier in zo'n repository is opgeslagen door | |
[pagina 87]
| |
wetenschappers overal ter wereld worden gevonden en opgeroepen. Op de langere termijn zal alle informatie die in zo'n repository is opgeslagen via veel meer zoekmachines kunnen worden gevonden, ook bijvoorbeeld via Google Search. Betekent dit alles nu dat de rol van de uitgever is uitgespeeld? Zeker niet, omdat de kerntaken van de uitgever, namelijk kwaliteitscontrole (de organisatie van het peer review-proces), redactionele begeleiding, vormgeving, marketing en distributie van wetenschappelijke informatie gewoon blijven bestaan. Vandaar dat bijvoorbeeld Amsterdam University Press in het kielzog van het landelijke dare-project een Printing on Demand-service voor proefschriften heeft ontwikkeld, waardoor het mogelijk is een gedrukte versie te produceren van de digitale documenten in wetenschappelijke repositories. Hierdoor wordt een uitgave op bestelling in de gewenste oplage (veelal een ‘eentje’) geproduceerd in bijvoorbeeld de Verenigde Staten, Canada, Groot Brittannië, Australië, India of Nederland, geheel afhankelijk van waar de klant zijn bestelling plaatst. Met de productie van een fysiek boek als afgeleide van een digitaal bestand neemt het volume aan geproduceerde boeken misschien af, maar de levensvatbaarheid van die productie neemt toe. Ieder boek vindt immers zeker een eindgebruiker. Deze heel pragmatische en eigenlijk nogal voor de hand liggende ontwikkeling van ‘boeken op verzoek’, dus in veel kleinere oplagen, is ook een van de pijlers van het recen- | |
[pagina 88]
| |
te samenwerkingsverband van aup met de onderzoeksgroep voor Internationale Migratie, Integratie en Sociale Cohesie in Europa (Imiscoe).Ga naar voetnoot21 Imiscoe bestaat uit 22 vooraanstaande onderzoeksinstituten in tien Europese landen, die samen een ‘Network of Excellence’ vormen op hun onderzoeksgebied. Imiscoe ontwikkelt een gezamenlijk onderzoeksprogramma om toegankelijke theoretische en empirische kennis te verschaffen die een betrouwbare basis kan vormen voor de politiek. Hiervoor heeft het onderzoeksprogramma voor vijf jaar geld ontvangen van de Europese Unie. Het Network of Excellence vormt de ruggengraat van het project en vereist naast een goede selectie van de participerende instituten en een excellente ontwikkeling van de onderzoeksprogramma's ook een zo efficiënt mogelijke verspreiding van de bevindingen. Dat is waar de samenwerking met aup zich op richt. aup heeft voor de volledige publicatiebehoefte van Imiscoe een model ontwikkeld, waardoor alle informatie die door hen beschikbaar wordt gesteld, digitaal in een repository beschikbaar komt en via Open Access gratis toegankelijk wordt gemaakt. Daarnaast wordt voor een deel van de publicaties een pod-mogelijkheid ingericht, zodat men desgewenst een papieren exemplaar kan bestellen. En uiteraard zullen publicaties waarvoor flinke belangstelling wereldwijd verwacht kan worden, gewoon in een oplage gedrukt en gedistribueerd worden. Door deze getrapte wijze van wetenschappelijke informatieverspreiding, wordt wetenschap naar de overtuiging van aup voor vakgenoten en andere geïnteresseerden makkelijker vindbaar en kostenefficiënter beschikbaar gesteld. Er is niet voor niets een duidelijke parallel te zien met het Darnton-model voor de digitale academische monografie. Een dergelijk samenwerkingsverband genereert op de langere termijn een ‘community-model’ waarin uitgever, onderzoeksgroep en de academische wereld evenveel belang hebben. | |
Nieuwe leesapparatenHet gedrukte boek heeft de eerste digitaliseringsgolven overleefd, maar nieuwe technologische vondsten kunnen hierin verandering brengen. We wachten al meer dan tien jaar op het beloofde leesapparaatje met de tot dusverre onovertroffen eigenschappen van papier: niet alleen in allerlei situaties goed te lezen, maar ook gemakkelijk mee te nemen en eenvoudig op te bergen. Het moment waarop we dat apparaatje kunnen gaan gebruiken, komt snel naderbij. Philips presenteerde onlangs een prototype van oprolbaar elektronisch papier en verwacht al in 2007 de eerste versies te kunnen verkopen. En in 2005 was op de Frankfurter Buchmesse voor het eerst een Japans leesapparaat te bewonderen, een soort iPod op pocketformaat, met verrassend scherpe beeldkwaliteit en prima leesbare teksten. Het apparaatje, de LIBRIé, is van Sony en maakt gebruik van presentatietechnologie van Philips en E-ink. Straks zien we treinreizigers en vakantiegangers met dit apparaatje in handen, in plaats van een mp3-spelertje om hun nek. Of scholieren op de fiets op weg naar school, zonder loodzware rugzakken vol schoolboeken. Clifford Lynch, directeur van de Coalition of Networked Information (die zich specifiek bezighoudt met de mogelijkheden van digitale media voor wetenschappelijke | |
[pagina 89]
| |
Het nieuwere neefje van de LIBRIé, de Sony Reader, maakt eveneens gebruik van E-ink
kennisuitwisseling), schreef in 2001 een uitvoerig artikel over de implicaties van zulke e-books.Ga naar voetnoot22 E-books bestaan uit drie componenten: de drager, de inhoud en het programma waarmee de inhoud wordt gepresenteerd. In het geval van het leesapparaatje vallen de drager en het programma (de hard- en software) waarschijnlijk samen, omdat de producent het apparaatje levert waarop het programma al is geïnstalleerd. In de markt voor computerspelletjes zie je bijvoorbeeld verschillende concurrerende systemen, met elk hun eigen standaard. De spelletjes van de één passen niet op de computers van de ander. Om de zoveel tijd worden vervolgens nieuwe spelcomputers uitgebracht, waarop in het ergste geval ook de oude spelletjes van dezelfde producent niet meer werken. Hiermee worden enkele gevaren duidelijk: je moet er toch niet aan denken dat je gedwongen wordt je persoonlijke bibliotheek te vervangen, dat minder populaire e-books niet meer verkrijgbaar zijn voor de nieuwste leesapparaten, of dat enkele dominante producenten van weliswaar mooie leesapparaten op grond van hun patenten kunnen uitmaken wat het prijsniveau is van e-books. Toch is dit de manier waarop de elektronica-industrie gewend is te werken en wat ons boven het hoofd hangt bij de overgang van het gedrukte naar het elektronische boek. Lynch waarschuwt dat we onze impliciete verwachtingen van boeken - bijvoorbeeld dat we ze kunnen bewaren en lezen wanneer we willen en dat we ze kunnen vinden in een bibliotheek, ook als ze niet meer in de handel zijn, en dat ze de mogelijkheid bieden van bibliografische verwijzingen - niet uit het oog mogen verliezen. Maar tegelijkertijd benadrukt hij dat we ons niet uitsluitend moeten laten leiden door de eigenschappen van het gedrukte boek en ruimte moeten maken voor experimenten met digitale vormen van kennisuitwisseling en onderwijs. | |
[pagina 90]
| |
Ten slotteHet is vandaag de dag nog niet duidelijk waar het met de wetenschappelijke informatievoorziening in bredere zin naartoe gaat. Er zijn er nog te veel onzekere factoren om te weten of nieuwe modellen uitgaande van bijvoorbeeld Open Access kans van slagen hebben en ook weten we niet wat precies de gevolgen voor de wetenschap zullen zijn. Zo blijven er vragen als: wat is een redelijke vergoeding voor de inspanningen van uitgeverijen in een Open Access-omgeving? En: is de wetenschap bereid daarvoor geld vrij te maken? Maar ook: hoe ontwikkelen de zoekfuncties bij Google zich, en wat wordt het antwoord van andere partijen op deze nieuwe ontwikkelingen? Wat betekent dit alles voor de toekomst van de monografie? Het academische boek zal binnen afzienbare tijd niet verdwijnen, maar de digitale media zullen voorlopig maar weinig verlichting kunnen brengen in de moeilijke omstandigheden waarin het verkeert. Met het toenemend belang van internet voor het wetenschappelijk verkeer lijkt het erop dat de gedrukte monografie eerder verder zal marginaliseren. Wel mag verondersteld worden dat het boek via nieuwe technieken als pod op een heel nieuwe manier in leven zal blijven. Zo worden boeken dankzij de zeer geavanceerde zoekmethodes via internet door een veel breder - ook academisch - leespubliek gevonden, waardoor ze misschien niet zozeer in een hogere oplage, maar vooral lánger in de handel zullen worden gehouden, al dan niet via pod-technieken.Ga naar voetnoot23 |
|