Voortgang. Jaargang 3
(1982)– [tijdschrift] Voortgang– Auteursrechtelijk beschermd
[pagina 263]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Informatietheorie in Die Struktur des künstlerischen Textes van J.M. Lotman
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I. Tradities in de westerse informatiethecrie.In de geschiedenis van de westerse informatietheorie kan men twee scholen onderscheiden: de Engelse en de Amerikaanse.Ga naar eind2.) Door te verwijzen naar het werk van Shannon en Goldman (resp. p. 61 en p. 28) geeft Lotman er blijk van bekend te zijn met de Amerikaanse traditie. Kroongetuige in zijn informatietheoretische beschouwingen is de Rus Kolmogorov, lid van de Academie van Wetenschappen, die als mathematicus ook in het westen zeer gezien is. Zie bv. het handboek van Feller. Het werk van Kolmogorov op informatietheoretisch terrein vertoont de meeste overeenkomst met de Amerikaanse traditie. Ook op het gebied van de literatuurwetenschap is hij aktief geweest; met name heeft hij statistisch onderzoek op teksten verricht en het verschijnsel ritmiek geanalyseerd. In een noot op p. 49 verwijst Lotman naar dit werk en naar commentaren daarop. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I.1 De Amerikaanse traditie in de informatietheorie.Wiskundigen als Shannon en Hartley hebben pionierswerk verricht bij de theorievorming rond de overdracht van berichten. De vraag waar zij zich voor stelden was of er via een mathematische benadering een vergroting mogelijk is van de efficiency en betrouwbaarheid van die overdracht. Het ligt voor de hand dat men voor de overdracht van een bericht zo weinig mogelijk energie gebruikt als men daarvoor een code ontwerpt waarbij voor frequent voorkomende letters en lettercombinaties signalen gekozen worden die weinig energie kosten en voor zeldzame letters, of combinaties daarvan, delen van de code reserveert die veel energie kosten. Wanneer Morse zijn code zó ontworpen zou hebben dat voor de letter q een enkele streep nodig was en voor de e, de meest voorkomende letter, een heleboel punten en strepen, was zijn code geen succes geweest. Belangrijk zijn dus de zeldzaamheid van de elementen in het bericht en de voorspelbaarheid van hun combinaties. Wat het laatste betreft: stel, er zijn maar twee elementen in de code. Een tekening die is opgebouwd uit kleine zwarte en witte vierkantjes, alle even groot, is een voorbeeld van een bericht in zo'n twee-elementen-code. Als het totale vlak maar groot genoeg is in vergelijking met de vierkantjes, zijn er op deze manier fijn gedetailleerde tekeningen te maken, die ook nog gemakkelijk, bv. via een telefoonlijn, zijn over te seinen. Men laat een leesapparaat de tekening ‘regel voor regel’ aflezen en telkens wanneer dat apparaat | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 264]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
een zwart vierkantje aantreft een puls in de telefoon geven, en bij een wit vierkantje niet. Als men aan de andere kant van de telefoonlijn een apparaat opstelt dat op dezelfde manier als zijn tegenhanger regel voor regel een blad papier afwerkt en op een puls reageert met het afdrukken van een zwart vierkantje, is een perfekte overdracht van de tekening mogelijk. In verband met het begrip ‘voorspelbaarheid van combinaties’ is het belangrijk dat men zich de verschillen voorstelt tussen een tekening die slechts uit enkele vlakken bestaat en een voorstelling met veel lijnen en veel ingewikkeld gevormde vlakken. De wiskundigen wilden de efficiency van de overdracht vergroten door methoden te ontwerpen om voor de overdracht van een sterk geordend bericht, hier de tekening met weinig vlakken, minder energie te gebruiken dan voor die van een gecompliceerd bericht, hier de grillige tekening. Daartoe voerden zij het begrip ‘overgangskans’ in. In een geordend bericht is de kans dat een element gevolgd wordt door een zelfde element groot; men kan althans een redelijke voorspelling doen voor het volgende element. Die voorspelbaarheid is bij een ongeordend bericht veel kleiner. De kans op een juiste voorspelling als men een of meer voorgaande elementen kent noemde men de overgangskans. Als de overgangskansen binnen een bericht groot zijn, hoeft men minder energie te besteden aan de overdracht ervan, als men in de code een gevoeligheid voor overgangskansen verwerkt heeft. Uit het voorgaande valt af te leiden dat de Amerikaanse traditie zich niet bezig hield met de inhoud van de berichten of met de betekenis ervan voor de ontvanger. Semantiek of pragmatiek werd dus niet bedreven.
De volgende kwesties kregen de aandacht: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
1. Het begrip entropie.Shannon zocht een maat voor de hoeveelheid potentiële informatie van een boodschap. Hij stelde daaraan drie eisen:
Eis 1: Wanneer het totale repertoire van mogelijkheden groot is, moet de keuze voor één daarvan meer informatie leveren dan wanneer het repertoire klein is.
Eis 2: De informatie moet het grootst zijn als alle waarschijnlijkheden even groot zijn. De onzekerheid vóór het moment van de beslissing is dan het grootst.
Voor beide regels geldt dat men wil uitdrukken dat hoe groter de onvoorspelbaarheid van een uitkomst is, er des te meer informatie wordt verkregen bij het optreden ervan. Eis 3: Stel dat een keuzemoment wordt opgedeeld in twee opeenvolgende. Voorbeeld van Shannon: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 265]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Links is er sprake van één keuzemoment, nl. A, met de kans op de drie mogelijkheden B, C en D van respectievelijk 1/2, 1/3 en 1/6. Rechts zijn er twee keuzemomenten, P en R. De kans bij P op Q en op R is in beide gevallen 1/2; de kans bij R op S is 2/3 en die op T is 1/3. De getallen zijn zo gekozen dat de uiteindelijke kansverdeling gelijk is, nl. 1/2, 1/3, 1/6. In de figuur staan deze getallen tussen haakjes. Dan is de eis dat de uiteindelijke informatie links gelijk is aan die van rechts. Dat betekent dat er een formule gevonden moest worden waarbij voor die potentiële informatie, aangeduid met H, geldt:
H (1/2, 1/3, 1/6) = H (1/2, 1/2) + 1/2 H (2/3, 1/3).
De onderstreepte coëfficient 1/2 is een ‘wegende’ factor die wordt toegepast omdat de tweede keus, dus het keuzemoment R, slechts de helft van het aantal keren optreedt (Shannon & Weaver, The mathematical theory of information, p. 249).
N.B. De gedachte van de overgangskansen, zoals die goed te zien zijn in deze figuren, is erg belangrijk bij Shannon. Hij baseert er een taaltheorie op die later door Chomsky is bestreden. Zie verderop in dit hoofdstuk. In de rechterfiguur is de overgangskans P/R gelijk aan 1/2, R/S = 2/3, P/S = 1/3. Voor het Lotmanonderzoek is dit belangrijk, omdat er een sterk verband bestaat tussen de gedachte van de overgangskansen en de terminologie van syntagmatisch vs. paradigmatisch. S en T vormen tezamen een paradigma, Q en R eveneens. Stel dat tenslotte de keus is gemaakt voor PRS, dan vormt dat drietal in zijn geheel een syntagma.
Kort gezegd komt de theorie van Lotman, voor zover die in mathematiserende termen is geformuleerd, erop neer dat in literaire teksten de informatie groter is dan bij ander taalgebruik. ‘Schönheit ist information’, p. 224. Die vergroting van de informatie is onder andere toe te schrijven aan een verkleining van de overgangskansen tussen twee opeenvolgende elementen, omdat dan de voorspelbaarheid van het volgende element kleiner wordt. Dit werk ik uit in hfdst. II van dit artikel.
Aan de drie genoemde eisen voldoet alleen de formule H = -Σpi. log pi. Shannon bewijst dit in een appendix (Shannon & Weaver, a.w., pp. 117-118) en merkt op p. 50 op: Hiermee was er een verband gelegd tussen de statistische mechanica en de informatietheorie, en wel doordat een centrale formule gelijkluidend bleek te zijn. In Van Peursen e.a., Informatie, wordt deze formule op pp. 62-70 op een gemakkelijk te begrijpen manier afgeleid.
In de statistische mechanica berekent men de kans op een bepaalde toestand in zaken als gassen, waarvan men wel de macrotoestand kent via gegevens als volume, druk en temperatuur, maar niet de microtoestand, | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 266]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zoals de snelheid en de richting van elk molecuul apart. Over die microtoestand kan men wel via statistische methoden berekeningen opstellen aangaande ‘the probability of a system being in cell i of its phase space’. Onder andere Boltzmann heeft hier werk verricht.
Nauta in The meaning of information, p. 108: ‘Apparently, entropy is a measure of a specified indifference or uncertainty (lack of information); certain details are essentially random, chaotic or disordered, they cannot be determined; only the AMOUNT of indiffernce-of-detail, the amount of detailed information that is lacking, can be determined.’ | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2. Het begrip redundantie.Onder redundantie verstaat men het kenmerk van elementen in de berichtgeving waardoor zij meer informatie verschaffen dan de minimaal noodzakelijke. Storingen in de overdracht van berichten worden door redundantie ondervangen. Het begrip redundantie is gekoppeld aan dat van overgangskans. Zijn de overgangskansen in een bericht hoog, dan is er veel redundantie in dat bericht. Een hoge overgangskans ontstaat als een element sterk gedetermineerd wordt door de voorgaande. In het voorbeeld van de eenvoudige en de gecompliceerde tekening was de voorspelbaarheid van de kleur, zwart of wit, van een bepaald vierkantje hoog in de tekening die slechts uit enkele vlakken bestond, en daarmee ook de redundantie van dat gegeven.
Het begrip overgangskans, en daarmee dat van redundantie, was, zoals reeds in een N.B. is medegedeeld, bepalend voor de taalfilosofie van Shannon. Hij beschouwde taalboodschappen als zgn. Markoff-ketens. In Markoffketens zijn de elementen niet onafhankelijk van elkaar, maar wordt de keuze van een element bepaald door de voorgaande. Zijn benadering van de natuurlijke taal in Markoffketens verdeelde Shannon in zes fasen (Shannon & Weaver, a.w., pp. 43-44). Bij de eerste vier fasen werkte hij alleen met letters en met de spatie, die als 27e letter werd opgevat. In fase 1 koos hij de letters onafhankelijk van elkaar en met gelijke waarschijnlijkheid. Resultaat XFOML RXKHRJFFJUJ ZLP etc. In fase 2 zijn de letters eveneens onafhankelijk van elkaar, -de tekst wordt dus, evenals in fase 1, nog geen Markoffketen- maar hield hij wel rekening met hun frequentie in de gewone taal. Resultaat: OCRO HLI RGWR NMIELWIS etc. Vervolgens liet hij wèl overgangskansen meefunctioneren. Fase 3, ‘bigram structure as in English’: ON IE ANTSOUTINYS ARE T INCTORE ST BE etc. en fase 4, ‘trigram structure as in English’: IN NO IST LAT WHEY CRATICT FROURE etc. Vervolgens leek het hem niet zinvol om de onderlinge beïnvloeding van nog grotere groepen letters mee te laten spelen, en ging hij over op hele woorden.Ga naar eind3.) In fase 5 koos hij de woorden onafhankelijk van elkaar, maar met inachtneming van hun normale frequenties, analoog dus aan de letters in fase 2. Dat leverde op: REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN DIFFERENT etc. In fase 6 werden de overgangskansen tussen de woorden ingecalculeerd. Resultaat: THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS etc.
In die fase 6 kwamen dus brokstukken tevoorschijn die in werkelijke teksten kunnen voorkomen. ‘Frontal attack on an English writer that the character of this’ is een deel van een denkbare zin. In de passages die op dit citaat volgen is Shannon dan ook erg optimistisch over de mogelijkheid de natuurlijke taal op deze manier te benaderen. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 267]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Op deze conceptie van de natuurlijke taal als een proces van reeksvorming van symbolen met onderlinge beïnvloeding baseert Lotman zijn taalfilosofie. In het begin van hoofdstuk 5 wijst hij erop dat in de taal een syntagmatische en een paradigmatische as zijn te onderscheiden. ‘Das Wesen dieser Differenzierung besteht in dem Hinweis darauf, dass bei der Generation einer wohlgeformten Phrase in einer beliebigen natürlichen Sprache der Sprecher zwei verschiedene Operationen ausführt: a) er verbindet die wörter so, dass sie in semantischer und grammatischer Hinsicht wohlgeformte (grammatikalische) Ketten bilden; b) er wählt aus einer Menge von Elementen eines aus, das im gegebenen Satz verwendet wird.’ (p. 128).
Aan de benadering in zes fasen van de Engelse taal door Shannon is te zien dat Lotman niet alleen staat in deze visie op de natuurlijke taal. Ook recenter leerboeken kiezen als voorbeeld voor Markoffketens de taal. Goldman, wiens Information theory door Lotman op p. 28 genoemd wordt, zegt bv.: ‘/.../ let us consider a language such as English, in which there are symbol frequencies and intersymbol influences’ (a.w., p. 44).
Er zijn echter door Chomsky in zijn Syntactic structures diepgaande bezwaren gemaakt tegen deze taalbenadering. a) Er kunnen op deze manier zinnen of gedeelten daarvan gegenereerd worden die niet acceptabel zijn. Zie de fase 6 van Shannon, die voor hem zo hoopgevend was: er zijn weliswaar gedeelten van de reeks als brokstukken Engels te herkennen, maar de reeks als geheel is syntactisch niet acceptabel. Als men van een grammatica eist dat alle acceptabele zinnen en alleen acceptabele zinnen daarmee voortgebracht kunnen worden (het ‘all-and-only-principe), dan voldoet deze grammatica dus niet aan de ‘only’-eis. b) Er bestaan zinnen van het volgende type: (i) Als Z1, dan Z2. De keuze van het woord ‘dan’ in (i), die van het tweede ‘ofwel’ in (ii) en ‘komt’ in (iii) worden bepaald door respectievelijk ‘Als’, het eerste ‘ofwel’ en het enkelvoudige subject ‘De man’, en dus niet door taalelementen die onmiddllijk voorafgaan aan de eerstgenoemde drie woorden. Dergelijke structuren worden niet verantwoord in een taalbeschouwing waarin men zinnen beschouwt als Markoffketens en dus alleen de verbanden beschouwt tussen zinsdelen die direkt op elkaar volgen. Lotman gelooft wèl dat in de natuurlijke taal de generering en interpretatie lineair verlopen. In een betoog over het functioneren van rijm zegt hij (p. 193): ‘Dabei geschieht etwas, was sich vom gewöhnlichen sprachlichen Prozessder Ubertragung von Bedeutungen grundsätzlich unterscheidet: anstelle der in der Zeit voranschreitenden Kette von Signalen, die dem Zweck einer bestimmten Information dienen, tritt ein komplex konstruiertes Signal räumlicher Natur auf, eine Rückwendung zu bereits Rezipiertem.’ c) Ten derde blijkt de begrijpelijkheid van een zin niet afhankelijk te zijn van de statistische waarschijnlijkheid van de combinatie van elementen Chomsky geeft als voorbeeld de zinnen: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 268]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Men kan gevoeglijk aannemen dat beide ‘zinnen’ nooit zijn uitgesproken in het Engels, en toch kan men feilloos bepalen dat (1) nonsens is, maar wel grammaticaal en (2) niet. Meer zegt Chomsky niet over deze zinnen. Alle, op zich uiterst creatieve pogingen om (1) zinvol te maken, en die het tot het beroemdste voorbeeldzinnetje uit de linguïstiek hebben gemaakt, zijn irrelevant, of ze bevestigen het betoog van Chomsky. Het is interessant dat hij in dit betoog over ‘finite-state-grammars’ -dat zijn grammatica's waarbij men zinnen beschouwt als Markoffketensook het concept van de taalniveaus betrekt, dat zo belangrijk is bij Lotman. Men blijkt niet in één keer, in één ‘level of representation’, het geheel van grammaticaal correcte foneemreeksen te kunnen beschrijven. Daarvoor is taal te gecompliceerd. Opsplitsen van zinnen in meerdere lagen, bv. fonemen, morfemen en woorden, lijkt de zaak te vereenvoudigen. Dan kan men de foneemstruktuur van morfemen bepalen en de morfeemstruktuur van woorden. Een ‘finite-state-grammar’ is echter niet in staat zeker één laag adekwaat te beschrijven als een mogelijk resultaat van een generering van links naar rechts. Zie boven de voorbeeldzinnen i-iii. Anders zou men het idee van een eindig aantal taallagen moeten opgeven. In een noot bij deze passages ziet Chomsky zoveel problemen met het idee van taallagen die als Markoffketens beschouwd worden, dat hij de onderneming van het concipiëren ervan als zinloos beschouwt.
Terug naar de informatietheoretici. Na 1) entropie en 2) redundantie behandel ik nu kort | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
3. Continu vs. discreet.Dit begrippenpaar komt niet voor bij Lotman, maar het is vermeldenswaard doordat het uiterst frekwent optreedt in de informatietheoretische literatuur. Men noemt de elementen van een universum discreet als ze niet scherp zijn te onderscheiden, maar continu in elkaar overvloeien als de kleuren van het spectrum. Omdat continue gegevens zeer lastig zijn te hanteren, deelt men ze op in een adekwaat aantal elementen. Wat een adekwaat aantal is hangt af van de nauwkeurigheidsgraad die men nodig heeft in de informatie die men wil overdragen over een bepaald onderwerp. Een zwart-wit-foto die alleen zwart en wit te zien geeft, en dus geen grijstinten omvat, is een reductie van een werkelijkheid tot het gegeven lichtgekleurd/donkergekleurd. Op zo'n manier reduceert men continue gegevens tot discrete. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
4. Ruis en kanaal.Een geheel ander type treedt op als men de transmissie, het overseinen dus, in beschouwing neemt. Daarbij kan er door invloeden onderweg storing, ruis, optreden. Die is te ondervangen door de redundantie in het bericht op te voeren. Een belangrijk voorbeeld daarvan is herhaling. Als een bericht herhaald wordt bij een uitzending is de kans op verminking kleiner. Ook kan men berekeningen uitvoeren die de benodigde kanaalbreedte betreffen. Die is recht evenredig met de hoeveelheid informatie en om- | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 269]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
gekeerd evenredig met de hoeveelheid beschikbare tijd. Dit is direkt te begrijpen als men een hoeveelheid informatie vergelijkt met een hoeveelheid water die men in een bepaalde tijd door een kanaal van een bepaalde breedte laat stromen. In formules:
I/T = K, oftewel I = K × T, oftewel T = I/K.
T is de hoeveelheid tijd, I de hoeveelheid informatie en K de kanaalbreedte.
In vele titels van hoofdstukken en paragrafen in de publicaties van Shannon en Goldman, beide door Lotman genoemd, zijn probleemvelden die in het voorgaande zijn aangestipt te herkennen:
Shannon & Weaver, The mathematical theory of communication:
Goldman, Information theory:
Er ontstonden twee discussies: A) Wat is de relatie tussen entropie en informatie? Is dit een oppositiepaar of is er een positieve relatie tussen deze begrippen?
B) Wat is de relatie tussen deze mathematische maat voor informatie en een maat voor semantische en pragmatische waarde?
In discussie A was de fysicus Leon Brillouin een belangrijke participant. Hij werkte in de jaren vijftig met het begrip negentropy (= negatieve entropie) als equivalent voor orde en informatie. Voor vindplaatsen zie de bibliografie bij dit artikel. De hoofdargumenten in dezediscussie hadden betrekking op de tweede hoofdwet van de thermodynamica. Volgens die wet neemt de ongeordendheid van een gesloten systeem altijd toe. Voorbeeld: als twee gassoorten zich in een afgesloten vat bevinden en er geen krachten van buitenaf werkzaam zijn, dan zullen de moleculen van die gassen zich vermengen. Als ze vanzelf gescheiden zouden raken | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 270]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
(bv. één gassoort links, de andere rechts) zou dat een ordening betekenen en die ontstaat volgens deze wet niet vanzelf. Met de ideeën van Brillouin omtrent het begrip negentropie heeft men zich, althans in het Westen, niet kunnen verenigen. Twee bewijsplaatsen: - Woodward zegt in zijn artikel ‘Entropy and negentropy’ dat Brillouin met zijn term negentropie als fysicus werkt: hij houdt rekening met de warmte die ontstaat als de electrische pulsen die de informatie dragen door filters gaan. Daarmee redt hij de tweede hoofdwet van de thermodynamica en wel omdat die warmte extra beweging in de moleculen veroorzaakt en dus wanorde brengt. Die wanorde weegt op tegen de orde van de informatie-dragende electrische pulsen. Woodward zegt daarop dat communicatie-ingenieurs zich niet interesseren voor die weglekkende warmte, maar alleen voor de electrische vorm van de signalen. Daarom is het niet nodig voor de communicatietheorie een term te introduceren voor negatieve entropie. ‘The expression H, which we call the entropy of a set of probabilities, is identical in form and in sign with the expression for entropy in physics.’ (p. 3). - Nauta wil in The meaning of information de term negentropie alleen toepassen op het gebied van de biologische evolutie, omdat de tweede hoofdwet van de thermodynamica op dat gebied volgens hem niet werkzaam is. Wat hiervan zij, deze discussie is niet van belang voor de literatuurwetenschap. Ik haal hem hier aleen aan om te laten zien dat Lotman niet de enige is die de termen entropie en informatie als oppositiepaar beschouwt, althans op verschillende plaatsen. Zie hiervoor hfdst. II van dit artikel.
B. Deze tweede discussie is wel interessant voor degenen die zich met taalverschijnselen bezighouden, nl. wat voor informatie dan wel wordt bedoeld in de informatietheorie en wat de relatie is tussen dit kwantitatieve informatiebegrip en de hoeveelheid semantische inhoud van een boodschap. Een overzicht van die discussie is te vinden in Bar-Hillels ‘Examination of information theory’, i.h.b. de delen I en II. Bar-Hillel wijst daar op een ‘classical paper’ van R.V.L. Hartley: ‘Transmission of information’, dat een volle twintig jaar eerder was verschenen dan Shannons publicaties op dit gebied. Hartley lanceerde daar het idee dat een maat waarmee men verschillende systemen kan vergelijken in hun vermogen informatie over te dragen, afhankelijk is van de kansverdelingen, de ‘frequency relations’ die in het geding zijn bij communicatie d.m.v. electrische signalen. Dit concept van informatie heeft geen relatie met psychologische of semantische aspecten van de boodschap, maar alleen met de relatieve frequentie van een bepaalde boodschap temidden van alle boodschappen van dezelfde lengte (a.w., pp. 283-284). Hartley ging er stilzwijgend van uit, zo vervolgt Bar-Hillel, dat alle boodschappen even waarschijnlijk zijn. Met andere woorden: hij stelde alleen de eerste eis van Shannon (zie boven). Shannon ging berekenen wat er gebeurt als niet alle boodschappen even waarschijnlijk zijn.
Het gebruik van de term ‘measure of information’ in deze discussie heeft voortdurend aanleiding gegeven tot misverstanden. Bar-Hillel:
‘This christening turned out to be a continuous source of misunderstandings, the more so since it sounds so plausible that ‘when we speak of the capacity of a system to transmit transformation we imply some sort of quantitative measure of information’ (Hartley, a.w., p. 536). However, it is psychologically almost impossible not to make the shift from the one sense of information, for which the argument is indeed plausible, i.e. in- | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 271]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
formation = signal sequence, to the other sense, information = what is expressed by the signal sequence, for which the argument loses all its persuasiveness. And this shift is the less avoidable since it is hardly good English to talk about ‘measure of signal sequences’ or ‘amount of signal’. Therefore, we see over and over again that, in spite of the official disavowel of the interpretation of ‘information’ as ‘what is conveyed by a signal sequence’, ‘amount of information’, officially meant to be a measure of the rarity of kinds of transmissions of signal sequences, acquires also, and sometimes predominantly, the connotation of a measure (of the rarity or improbability) of the kinds of facts (events, states) designated by these signal sequences. And since this last concept is certainly a highly interesting one -we shall have to say more about it later-, it turned out to be humanly impossible not to believe that one has got some hold of this important and doubtless rather difficult concept on the basis of such a simple procedure as, say, counting frequences of letter occurences in English. Frankly, I am not sure that this confusion is only a result of an unfortunate terminology. To a certain degree, at least, it seems that the confusion was rather the cause of the misleading terminology. This can be seen in Hartley's paper itself. At one point, he points out the important connection between his measure of information and certain processes of selection. The larger the set of signals from which the sender chooses the specific signal he is going to transmit, the more complex the process of selection. ‘At each selection there are eliminated all of the other symbols which might have been chosen /emphasis mine/. As the selections proceed, more and more possible sequences are eliminated, and we say that the information becomes more precise. For example, in the sentence, “Apples are red”, the first word eliminates other kinds of fruit /emphasis mine/ and all other objects in general. The second directs attention to some property or condition of apples, and the third eliminates other possible colors’ (Hartley, a.w., p. 536). Notice again how slight, almost imperceptible transformations lead from truisms to interesting conclusions, which are, however, wholly unjustified and simply false. By selecting a certain symbol one ‘eliminates’ (i.e. does not select) all other possible symbols - how true! By proceeding with the selections, other symbol sequences are eliminated - how obvious! But now comes the crucial shift from the elimination of other symbols to the elimination of ‘other kinds of fruit’. Hartley must have succumbed to the illusion, not uncommon among linguistically unsophisticated scientists and even among the sophisticated ones in unguarded moments, that by not using a certain word, say ‘apples’, at a certain moment one is not dealing with the entity or entities denoted by this word at this very same moment. The fallacy in this reasoning, if it has to be pointed out at all, is obvious from the simple fact that by using ‘apples’ at a certain moment one is not using any other word or phrase for appes at this moment and is, consequently, not dealing with apples at this moment. /..../
It is quite customary to compare statements, in ordinary language, with respect to the information they convey. It makes full sense to say, for instance, that a report ‘The enemy attacked at dawn’ conveys less information than ‘The enemy attacked in batallion strength at 5:30 A.M.’, and it is also perfectly clear that the second statement is more precise than the first. It is therefore sensible to ask whether one could not refine the comparative evaluation into a quantitative one and tell how much more | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 272]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
information is conveyed by the second report over that conveyed by the first one. Communication engineers, on the other hand, will be interested in the comparative rarity of reports of this kind expected to come from a certain source and would therefore like to have a quantitative measure of these rarities. But it must be perfectly clear that there is no logical connection whatsoever between these two measures, i.e. the amount of (semantic) information conveyed by a statement +) and the measure of rarity of kinds of symbol sequences, even if these symbol sequences are typographically identical with this statement. The event of transmission of a certain statement +) and the event expressed by this statement are, in general, entirely different events, and the logical probabilities assigned to these events, relative to certain evidences, will be as different as will be the frequencies with which events of these kinds will occur relative to certain reference classes. I admit that the temptation to identify these measures is great and almost irresistible when the ‘information’ terminology is used. But the identification is still a mistake, and the fact that this mistake was made by many competent thinkers only increases its seriousness and the necessity of a complete clarification of the situation. Notice that the concept of semantic information has intrinsically nothing to do with communication. If an explication for this concept can be found, then the proposition that all apples are red will carry a certain amount of information entirely independently of whether a statement of this effect is ever transmitted. The event may be, of course, that of transmitting a statement, but even then its semantic information would be independent of whether a statement saying that a certain statement has been transmitted is transmitted. Events of transmission of statements expressing events are of special interest for theoreticians interested in semantic information only as potential (and actual) sources of confusion. +) Or of the proposition (event) expressed by this statement. Ordinary usage is highly ambiguous with respect to the logical type of the entities that ‘convey information’. Nor is it of prime logical importance whether these entities are regarded, for a systematic explication of this term, to be propositions or statements. The corresponding question with regard to logical probability has been treated at lengtby Carnap in his Logical foundations of probability (par. 52). He also discussed the problems connected with the proposition-event terminology: o.c., pp. 34-35. Verderop in zijn artikel (pp. 288-290) bespreekt Bar-Hillel hoe verschillende auteurs (Shannon, Weaver, Wiener en Cherry) in problemen zijn geraakt omdat ze deze twee begrippen voor informatie niet goed gescheiden hielden. Voorbeeld: ‘Wiener himself, for instance, deliberately treats as synonyms “amount of information” and “amount of meaning”. He says, “The amount of meaning can be measured. It turns out that the less probable a message is, the more meaning it carries, which is entirely reasonable from the standpoint of common sense” (Wiener, The human use of human beings, p. 8.) We see here very clearly the fusion of improbability of (the event of transmission of) a message with the improbability of the event expressed by the message. Wiener's statement is reasonable only in the second interpretation, which is, however, as said before, independent of any communication process. The term “message”, on the other hand, indicates | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 273]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
that the first interpretation is (also) considered. For this interpretation, however, the argument is far from reasonable and no connection whatsoever with any meaning of “meaning” is in sight.’ (a.w., p. 288).
Voor Nauta zijn deze kwesties een belangrijke aanleiding geweest om The meaning of information te schrijven. Hij wilde af van een ongedifferentieerd informatiebegrip, omdat dat, zoals we hebben gezien, aanleiding geeft tot de grootste misverstanden. Daarom verdeelt hij het begrip informatie in drie subcategorieën, en wel drie: de ‘pre-linguistic’, de ‘linguistic’ en de ‘post-linguistic information’. De benadering van Hartley, Shannon en hun navolgers betroffen een pre-linguïstische benadering. Bij deze zuiver technische, ‘zero-semiotic’ probleemstelling gebruikt men het woord informatie slechts metaforisch, ‘as a figure of speech’ (p. 227). Het begrip informatie in werkelijke zin gebruikt Nauta slechts als een ‘interpreter’ d.m.v. signalen en tekens kennis krijgt over de hem omringende wereld. Informatie in de logische zin en bij wetenschappelijke analyses, zoals die in de volgende paragraaf besproken zal worden, valt onder de noemer van de post-linguïstische informatie. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I.2 De Engelse traditie in de informatietheorie.In tegenstelling tot de Amerikaanse heeft men in de Engelse traditie de semantische en pragmatische aspecten van mededelingen wèl in beschouwing genomen. De benadering van het begrip informatie door Fisher was strikt kwantitatiefGa naar eind4.). Hij ontwierp statistische methoden om de betrouwbaarheid van metingen te berekenen door te analyseren welke conclusies men kan trekken als men een object een aantal malen met een bepaalde meetmethode onderzoekt en die metingen verschillende uitkomsten te zien geven. In zo'n geval is het mogelijk dat a) de meetmethode geen 100% zekerheid geeft, b) de werkelijkheid een variantie vertoont. Meestal doen de complicaties a en b zich gecombineerd voor. Fisher heeft statistische methoden ontwikkeld om het aantal metingen vast te stellen die noodzakelijk zijn als men een bepaalde precisie wenst.
MacKayGa naar eind5.) heeft zijn werk op dat van Fisher gebaseerd en het systeem dusdanig uitgebreid dat het eveneens toepasbaar is op mededelingen in de natuurlijke taal en de normale perceptie. Nauta voert tegen deze analyses het bezwaar aan dat ze te weinig onderscheid maken tussen de wetenschappelijke en de natuurlijke perceptie en aldus inconsistent worden (The meaning of information, par. 4.3.3, pp. 207-214).
Popper en Carnap hebben inzake de zgn. semantische informatie de informatiewaaarde van uitspraken geanalyseerd. Die is recht evenredig met het bereik en de precisie ervan: een uitspraak over zoogdieren bevat meer informatie dan een mededeling over runderen; ‘'s morgens’ geeft als tijdsaanduiding minder informatie dan ‘tien uur’. Deze inzichten kunnen uitgedrukt worden in termen van waarschijnlijkheid:
‘The basic idea /.../ may be said to be one particular way of explicating the general idea that information equals elimination of uncertainty. In order to measure this uncertainty, a distinction is made between the different logical possibilities that we can express in a language. The more of them a statement s admits of, the more probable it is in some ‘purely logical’ sense of probability. The more of them a statement s excludes, the less uncertainty does it leave, and the more informative will it therefore be. The probability p(s) and information inf(s) of a statement s | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 274]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
are thus inversely related (Hintikka, ‘The varieties of information and scientific explanation’ (1968), p. 312, geciteerd door Nauta, a.w., p. 219). Wanneer hier wordt gewerkt met een zuiver logische benadering van de begrippen waarschijnlijkheid en informatie, houdt dit in dat noch de werkelijkheidswaarde van een uitspraak, noch de waarschijnlijke juistheid ervan voor een persoon, ter zake doet. Zuiver formeel gezien heeft de uitspraak dat iets een donkere kleur heeft een grotere waarschijnlijkheid dan de mededeling dat iets donkerrood van kleur is. De potentiële precisie van de laatste uitspraak is groter, en dus de informatiewaarde ervan in logische zin.
Bar-Hillel spreekt hier van een idealisering, een ‘ideal model of pragmatic information’: ‘The semantic information carried by a sentence with respect to a certain class of sentences may well be regarded as the ‘ideal’ pragmatic information which the sentence would carry for an ‘ideal’ receiver whose only empirical knowledge is formulated in exactly this class of sentences /...//i.e./ a receiver with a perfect memory who ‘knows’ all of logic and /.../ together with any class of empirical sentences, all of their logical consequences (Bar-Hillel, Language and information, (1964), p. 223 seq., geciteerd door Nauta, a.w., p. 219-220).
Wanneer men de kennis en het waardesysteem van de ontvanger van de informatie wèl in rekening brengt, ziet men af van deze idealisering en analyseert men de pragmatische informatie. Die omvat drie delen: kennis van een bepaalde stand van zaken, een waardebepaling van een gewenste stand van zaken en een beschrijving van de manieren om die toestand te bereiken; hoeveel kosten die, en wat is de meest efficiënte handelwijze. (Nauta, a.w. p. 220). | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
II. Lotman en de informatietheorie.Lotman geeft er blijk van kennis genomen te hebben van de informatietheoretische terminologie door begrippen als entropie en ruis te hanteren, maar van de Kritiek van Bar-Hillel en Chomsky, en de differentiatie van het informatiebegrip zoals die in de voorgaande paragrafen is uiteengezet, is niets te vinden in Die Struktur des künstlerischen Textes, noch in het later verschenen Die Analyse des poetischen Textes. Minstens zo ernstig vind ik dat er bij nadere beschouwing ook inconsequenties te constateren blijken te zijn in zijn toepassingen van deze terminologie. Hij begint zijn informatietheoretische betoog door in par. 1.4 de conclusie van Kolmogorov aan te halen dat de totale entropie H van de natuurlijke taal uit twee grootheden bestaat, h1, het vermogen van een taalboodschap betekenis te dragen en h2, het vermogen tot synonymie, dus de mogelijkheid dat verschillende taaluitingen dezelfde inhoud dragen. Oftewel: H = h1 + h2. Eerst moet deze formule een interpretatie krijgen; dan kunnen we later zien hoe Lotman de benadering van Kolmogorov nuanceert en aangeeft waarom in literaire teksten de totale entropie H groter is dan in berichten in de natuurlijke taal. Stel, een taal heeft een lexicon met de betekenisinhouden I-V. Een aantal van die betekenisinhouden kan maar op één manier worden uitgedrukt, voor andere bestaan er synoniemen. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 275]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Dit kan worden voorgesteld met de volgende figuur:
De inhouden I en II kunnen alleen met respectievelijk de taaluitingen a en b uitgedrukt worden. Voor de inhouden III-V bestaan synoniemen: c en d vormen een synoniemenpaar, e en f eveneens, terwijl inhoud V door g, h, i en j aangeduid kan worden.
Met het voorgaande als uitgangspunt was de mathematicus Boxma in staat de algemene formule H = h1 + h2 af te leiden, waarbij de aantallen van het voorbeeld dus geen rol spelen. H is de gezamenlijke hoeveelheid selectieve informatie die men krijgt uit een element van de groep a-j. Het differentiërend vermogen van de taal wordt gerepresenteerd door h1. Bij het voorbeeld bevat h1 het vermogen de groepen I-V van elkaar te onderscheiden, dwz. dat h1 de hoeveelheid informatie aangeeft die vervat is in het gegeven van welke groep een element deel uitmaakt. Met een uit de taal gekozen voorbeeld: stel dat men de woorden nochtans en desalniettemin als synoniemen beschouwt, en een betekenisverschil ziet tussen deze twee woorden enerzijds en het woord toch anderzijds. Dan onderscheidt men met h1 de groep nochtans/desalniettemin van de eenling toch. h2 betreft de mogelijkheid van synonymie. Met h2 wordt dus de informatie gegeven die vervat is in het gegeven wèlk element van een synoniemengroep in het geding is, gegeven die synoniemengroep. In het voorbeeld dus bv. of er sprake is van c of d in groep III. Voor het bewijs van Boxma verwijs ik naar mijn doctoraalscriptieGa naar eind6.). De stelling dat H = h1 + h2 blijkt dus gebaseerd te zijn op het bestaan van synoniemen. Lotman erkent zelf dat die in de taal, het primair modellerend systeem in zijn terminologie, zelden of nooit voorkomen: ‘Dabei muss berücksichtigt werden, dass bedeutend häufiger als die semantische Äquivalenz, mit der im Grunde nur der Ubersetzer zu tun hat, kaum aber jemand, der semantische Transformationen in den Grenzen einer Sprache durchführt, semantische Äquivalenz auf einer bestimmten Ebene begegnet.’ (p. 79). Veel belangrijker voor de opbouw van zijn theorie zijn de synoniemen in de secundair modellerende systemen, de typisch artistieke patronen. Dat blijkt al direct als hij de grootheid h2 introduceert als het vermogen tot synonymie in de taal: ‘Dabei bildet h2 die Quelle der poetischen Information. Die Sprachen mit h2 = 0, künstliche Sprachen der Wissenschaft beispielsweise, die prinzipiell die Möglichkeit der Synonymie ausschliessen, können für die Poesie nicht als Material dienen.’ (p. 50). Wat Lotman onder synoniemen in secundair modellerende systemen verstaat, blijkt uit het volgende: ‘Das fundamentale Moment künstlerischer Synonymie ist die unvollständige Äquivalenz.’ (p. 210). Door een equivalente plaats in het patroon van | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 276]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
een secundair modellerend systeem worden twee of meer tekstelementen tot strukturele synoniemen. Op deze basisgedachte is het gehele hoofdstuk 6 opgebouwd. Zie bv. par 6.2.3. ‘Rhythmische Wiederholungen’: door procédés waarbij een herhaling een fundamentele functie heeft, zoals metrum en rijm, ontstaat een strukturele, secundaire synonymie. ‘Wir können den Schluss ziehen, dass im poetischen Text eine bestimmte sekundäre “Synonymie” entsteht: Wörter erweisen sich ledighaft kraft ihrer Isometrie als äquivalent. /.../ So schaft die rhythmische Struktur des Textes eine bestimmte sekundäre Synonymie, und diese Synonymie konstruiert nicht mit anderen Mitteln dieselbe Welt wie die Prosa, sondern sie erschaft eine eigene Welt.’ N.B.: vergelijk Lotmans idee dat een code een wereldbeeld veronderstelt. Zie noot 2 van mijn artikel ‘Semiotiek in Die Struktur des künstlerischen Textes van J.M. Lotman’. Met observaties die in dit stramien passen staat het boek vol. Zie bv. de analyse van het gedicht ‘Als ik kon.... van Marina Cvetaeva, hfdst. II in het zojuist genoemde artikel. Typerend is ook een gedeelte van een analyse van een ander gedicht van deze dichteres op p. 264:
Alle vier Verse der ersten Strophe sind deutlich parallel konstruiert - sowohl durch die gleichartige Intonation als auch durch den syntaktischen und semantischen Parallelismus. Der erste Vers:
Die hier erwähnten “Tränen” haben für den Leser zunächst ausser der allgemeinlexikalischen noch keine andere Semantik. Im Text des Gedichtes ist diese allgemeinlexikalische Bedeutung jedoch nur ein Pronomen, eine Ersetzung, ein Hinweis auf diejenige spezifische sekundäre Bedeutung, die durch die semantische Struktur des Textes aufgebaut wird. “Gnev” /Zorn/ und “ljubov” /Liebe/ sind in ihrer allgemeinen lexikalischen Bedeutung Antonyme, hier aber sind sie strukturell gleichgestelt (syntaktisch und intonationsmässig). /.../ Das synchrone funktionieren der Antithese auf der Ebene der allgemeinsprachlichen Semantik und der Synonymie auf der Ebene der poetischen Struktur aktiviert sowohl diejenigen Merkmale, die diese beiden Wörter zu einem Archisem vereinigen, als auch diejenigen, die sich als polar entgegenstellen’. ‘Gnev’ /= toorn/ en ‘ljubov’ /= liefde/ hebben ‘sterke hartstocht’ als gemeenschappelijke faktor, als ‘archiseem’, betoogt Lotman. De rest van de eerste twee regels ondergaat hiervan de invloed: ‘In Verbindung mit dieser semantischen Gruppe wird “plač” /= klacht/ nicht mehr als Ausdruck einer passiven Emotion - als Trauer oder Schwäche - aufgefasst. Es ist nicht der Aktivität gegenübergestellt. So entsteht zwischen dem ersten Vers mit seiner noch ganz allgemeinen Bedeutung des Wortes “Tränen” und dem zweitem Vers unwillkürlich eine semantische Spannung, deren Komplexität durch die Korrelativität mit den beiden letzten Versen erhöht wird.’ De primaire semantiek blijft dus meefunctioneren. De kern van de theorie van Lotman is dat door secundair modellerende systemen er tussen de daarbij betrokken elementen, woorden bv., zowel een relatie van synonymie als van niet-synonymie ontstaat. Dit geschiedt dmv. iconische relaties; zie het genoemde artikel. Waar het hier om gaat is dat erdus geen echte synoniemen bestaan in de secundair modellerende systemen, want anders kan de genoemde | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 277]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
typisch artistieke spanning tussen de primaire en de secundaire semantiek niet ontstaan. Maar H = h1 + h2 berust op echte synoniemen! Als men in de figuur met de kolommen I-V zou willen uitdrukken dat er relaties bestaan van tegelijk synonymie en niet-synonymie, zou een element dus tegelijkertijd in verschillende kolommen een plaats moeten krijgen. Dat kan eenvoudig niet. Maar misschien lukt dat wel via de nuanceringen die Lotman wil aanbrengen in de berekeningen van Kolmogorov. Enkele bladzijden (pp. 51-57) besteedt hij aan mogelijke verschillen tussen de literaire code van de auteur en die van de lezer, waardoor ook de entropie van die codes kan verschillen. Tenslotte telt hij alles bij elkaar op en komt tot de conclusie dat de totale entropie in taalkunstwerken groter is dan in gewoon taalgebruik. Normaliter is H gelijk aan h1 + h2, bij literatuur komen daar h1′ en h2′ bij. Dit beredeneert hij met specifiek-artistieke ‘verhuizingen’ van h2 naar h1 en omgekeerd. Door een verplaatsing vanuit h2 ontstaat h1′: uit het reservoir van synoniemen ontstaat een nieuw betekenis-onderscheidend vermogen. Parallel hiermee beschrijft Lotman h2′ als het resultaat van een verplaatsing vanuit h1: woorden die eerst geen enkel verband met elkaar leken te hebben krijgen een aspect van (strukturele) synonymie. In vier situaties beschrijft hij vervolgens hoe men zich deze verplaatsingen in de literaire communicatie moet voorstellen (pp. 54-56). Zeer belangwekkend, maar géén oplossing voor het gestelde probleem: het uitgangspunt blijft dat woorden -of andere taalelementen- tegelijkertijd synoniem en niet-synoniem kunnen zijn. De verwijzing naar de berekeningen van Kolmogorov krijgen dus ook in de nuanceringen van Lotman geen bestaansrecht. Bovendien mag zo'n verplaatsing natuurlijk niet evenveel van de ene categorie (h1 of h2) wegnemen als er bij de andere bij komt, want dan neemt de totale entropie niet toe. Het element moet dus tegelijkertijd verplaatst worden èn blijven staan! Ook langs deze weg is dus te beredeneren dat een element in twee van de kolommen I-V tegelijk een plaats moet krijgen, en dat kan mathematisch ècht niet. Analoog aan het betoog dat de totale entropie van een tekst vergroot kan worden door verschillen in de auteurs- en de lezerscode, is de gedachte dat verschillende ‘lagen’ van de literaire tekst een verschillende entropie kunnen hebben, waardoor het totaal aan entropie groter wordt. Door een gelijkheid in klank, een parallelpositie in een syntaktische constructie etc. krijgen woorden met een verschillende betekenislading een aspect van gelijkheid. Ook hier dus een ‘Gleich- und Gegenüberstellung’ zoals Lotman het regelmatig formuleert: zie de index in de Suhrkamp-uitgave, en dus ook hier weer de niet te verdedigen plaats voor de elementen in verschillende kolommen tegelijk.
Nu hebben we dus al bij elkaar: A. Een ernstige misinterpretatie van het begrip entropie. Dat wordt vanuit de oorspronkelijke, zuiver technische context van Hartley en Shannon overgebracht naar een gebied waar semantiek een centrale factor is. B. Een onverdedigbaar beroep op de berekeningen van Kolmogorov.
We zullen zien hoe het met C. gaat, de relatie tussen entropie en informatie. Informatie is een centraal begrip bij Lotman. In de eerste paragraaf van het boek staat: ‘Die poetische Sprache stellt eine Struktur von grosser Komplexität dar. Sie ist im verhältnis zur natürlichen Sprache beträchtlich erschwert und dadurch komplexer. Und wenn der Informationsumfang, | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 278]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
der in der poetischen Rede (ob in Versen oder in Prosa abgefasst, ist in diesem Fall ohne Belang) und in der gewöhnlichen Rede enthalten ist, gleich wäre, verlöre die künstlerische Rede ihre Existenzberechtigung und stürbe zweifellos aus.’ (p. 24). Een veel geciteerde passage luidt: ‘Eine absolut zufällige, weder für den Produzenten noch für den Hörer strukturierte, Anhäufung von Lauten kann keine Information tragen, aber sie hat dann auch keine ‘Musikalität’. Schönheit ist Information. (p. 224). Lotman ziet het zelf als een paradox dat de patroonvorming in de secundair modellerende systemen niet tot een grotere voorspelbaarheid van de elementen leidt (p. 118). Aan die paradox ontkomt hij op twee manieren:
1. Door op te merken dat de literatuur tot verrassende, strukturele synoniemen kan maken wat in de taal ver van elkaar verwijderd is. Zie bv. de opmerkingen over de volgende versregels van Alexander Blok: Tvoj óčerk strástnyj, óčerk dýmnyj
Skvoz' súmrak lóži plýl ko mné,
I ténor pél na scéne gímny
Bezúmnym skrípkam i vesné /.../
/Deine leidenschafliche Kontur, deine rauchige Kontur
Schwamm durch die Dämmerung der Loge zu mir.
Und der Tenor sang auf der Bühne Hymnen
Irrsinnigen Geigen und dem Frühling /.../
‘Dýmnyj’ /rauchig/ und ‘gímny’ /Hymnen/ sind, wenn wir den vorliegenden Text als normale Information lesen und die poetische Struktur ignorieren, derart unterschiedliche Begriffe, dass es ausgeschlossen ist, sie in Korrelation zu bringen. Auch grammatische und syntaktische Textstruktur bieten keine Grundlage für eine vergleichende Gegenüberstellung. Betrachten wir den Text jedoch als ein Gedicht, so werden wir sehen, dass ‘dýmnyjgímny’ durch den zweieinigen Begriff ‘Reim’ verbunden sind. Diese Zweieinigkeit ist so geartet, dass sie sowohl die Identifikation als auch die Gegenüberstellung der sie konstituierenden Begriffe einschliesst. Dabei wird die Identifikation zur Bedingung der Gegenüberstellung. Der Reim lässt sich in der für Kunst überhaupt äusserst wichtigen Formel fassen: ‘dies und gleichzeitig nicht dies’. (pp. 193-194).
2. Door op te merken dat op verschillende niveaus van de tekst verschillende secundair modellerende systemen functioneren: ‘Der Text gliedert sich in Untertexte (die phonologische Ebene, die grammatische Ebene usw.), von denen jeder als selbständig organisiert betrachtet werden kann. Die strukturellen Relationen zwischen den Ebenen werden dann zu einem bestimmten Charakteristikum des Textes in seiner Gesamtheit’ (pp. 90-91). Met betrekking tot deze meervoudige strukturering in taalkunstwerken staat op p. 119: ‘Damit die Gesamtstruktur des Textes die Informations-haltigkeit bewahrt, muss sie ständig aus dem Zustand des Automatismus herausgeführt werden, der für nichtkünstlerische Strukturen charakteristisch ist. Gleichzeitig ist jedoch auch die entgegengesetzte Tendenz wirksam: nur Elemente, die in bestimmte vorhersagbar Sequenzen gestellt sind, können die Funktion kommunikativer Systeme wahrnehmen. In der Struktur des künstlerischen Textes also gleichzeitig zwei entgegengesetzte Mechanismen: der eine ist bestrebt, alle Elemente des Textes einem System unterzuordnen, sie in eine automatisierte Grammatik zu verwandlen, ohne | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 279]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
die der Kommunikationsakt unmöglich ist, der andere tendiert dazu, diese Automatisierung zu zerstören und die Struktur selbst zum Träger des Informations zu machen. /In een noot bij deze passage wijst Lotman op het pionierswerk in deze kwestie van de Russische Formalisten Sklovskij en Tynjanov. TvL/ Dabei erhält der das Systemhafte zerstörende Mechanismus im künstlerischen Text eine besondere Gestalt. Das dem jeweiligen künstlerischen System als “individuell”, “systemextern”, gegenübergestellte Faktum ist in Wirklichkeit durchaus systemhaft, gehört aber einer anderen Struktur an.’ (p. 119).
Als verschillende strukturen tegelijkertijd functioneren, is de voorspelbaarheid van de elementen op elk moment klein: ‘Während wir also im üblichen nichtkünstlerischen Text mit der Dynamik der Nachricht innerhalb ein und derselben Sprache zu tun haben, spricht man im künstlerischen Text in mehreren Sprachen zu uns, wobei die lauteste Stimme ständig wechseltGa naar eind7.). Und eben die Abfolge und Korrelativität dieser Sprachen konstituiert das einheitliche System derjenigen künstlerischen Information die der Text trägt. Indem es auf einer bestimmten Ebene eine einheitliche Struktur bildet, verfügt dieses System über eine bestimmte Nichtvorhersagbarkeit der Überschneidungen, und dies gewährleistet ihm eine sich nicht vermindernde Informativität. Gerade deshalb, weil, je komplexer der Text und jede seiner Ebenen organisiert sind, die Schnittpunkte der einzelnen Substrukturen umso unerwarteter sind; je grösser die Anzahl der Strukturen ist, denen sich ein gegebenes Element einfügt, es umso “zufälliger” erscheinen wird - deshalb also ergibt sich ein bestimmtes Parodoxon, das nur dem künstlerischen Text eignet: eine Erhöhung der Strukturiertheit führt zur Verminderung der Vorhersagbarkeit.’ (pp. 416-417).
In par. 1.4 is de conclusie dat de entropie van een taalkunstwerk bijzonder groot is, omdat bij de normale h1 en h2 de specifiek-artistieke h1′ en h2′ zijn gevoegd, in de voorgaande citaten geeft Lotman aan waarom de informatie bij taalkunstwerken is vergroot. Dus, zou men zeggen, vormt entropie en informatie voor hem geen oppositiepaar, maar zijn het recht evenredige grootheden. Wat moeten we echter denken van de volgende formuleringen: ‘Dort, wo die Elemente nicht durch wechselseitigen Bezug organisiert sind und das Auftreten jedes beliebigen Elementes von gleicher Wahrscheinlichkeit ist, das heisst, dort, wo es keine Struktur gibt und an ihrer Stelle eine amorphe entropische Masse vorliegt, ist Information nicht möglich.’ (p. 445). (onderstreping van mij, TvL) ‘Die informationstheorie ist umfassender als die Semiotik - sie erforscht nicht nur ein Sonderfall wie die Verwendung sozialer Zeichen in einem bestimmten Kollektiv, sondern alle fälle der Ubertragung und Speicherung von Informationen, wobei sie Information als Organisationsgrösse begreift - im Gegensatz zur Entropie.’ (idem, p. 98)?? ‘Doch folgt aus dem eben Gesagten nicht nur die Unterscheidung zwischen intellektuellem und sinnlichem Genuss, sondern auch ihre prinzipielle Einheit vom Standpunkt der Antinomie: Information - Entropie.’ (idem, p. 99). Wat er verder op die bladzijden 98 en 99 voor onbegrijpelijks en volslagen onjuists staat over momentaan zintuigelijk genot en duratief cerebraal genot, en over de spijsvertering als een proces van informatie-verwerking, zal ik uit piëteit maar niet citeren. Op zich vind ik Lotmans opmerkingen over de specifieke informatie van het taalkunstwerk zeer belangwekkend (zie het besluit van mijn semiotiek-artikel) maar van de koppeling van de begrippen entropie en informatie klopt | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 280]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
niets: die is inconsistent en berust op een diepgaand misverstand rond het begrip entropie. De theorievorming rond het bijzondere gehalte aan informatie in taalkunstwerken vormt de ruggegraat van het boek; men lette op de de paginanummers van de citaten. Theoretisch zijn ze goed doorwerkt, ze bevatten ook een overvloed aan belangwekkende observaties van primaire teksten en mogen daarom niet vanwege een dubieuze band met het begrip entropie genegeerd wordenGa naar eind8.). Daarentegen speelt noch entropie, noch een notering als H = h1 + h2 na par. 1.4 een rol van enige betekenis in het boek. Laten we deze ‘amorphe Masse’ maar vergeten.
Evenals voor het gehalte aan informatie in literaire teksten is het begrip ‘meervoudige strukturering’ belangrijk bij het concept ‘redundantie’ in Lotmans theorie. ‘Als allgemeinsprachliche Struktur bietet der Text eine zum Ende hin ständig zunehmende Redundanz. Die strukturelle Vorhersagbarkeit steigt stark an, proportional der Bewegung vom Anfang zum Ende des Segmentes im allgemeinsprachlichen Text. Genauso ist auch, für sich selbst genommen, die poetische Konstruktion aufgebaut. Sind die beiden Strukturen aber im realen Text ineinandergefügt, so erlaubt dies, eine Reihe der im allgemeinsprachlichen Text obligatorischen Beziehungen aufzuheben. Die poetische Konstruktion tilgt die Redundanz der sprachlichen.’ (pp. 147-148). Met wat goede wil kan men tot de interpretatie komen dat door de specifiek-artistieke meervoudige strukturering de overgangskansen tussen de elementen verkleind worden en dus ook de redundantie ervan. De andere keren dat de term redundantie valt, bv. p. 382 en p. 389, is er echter geen verband te onderkennen met het begrip overgangskans en gaat redundantie eenvoudig ‘voorspelbaarheid’ betekenen. Zie bv. p. 434, waar de esthetiek der identiteitGa naar eind9.) besproken wordt. ‘Die Improvisation erzeugt die für diese Arten von Kunst notwendige Entropie. Wenn wir es nur mit strengen Regelsystemen zu tun hätten, stellte jedes neue Werk nur die exakte Kopie des vorangegangenen dar, die Redundanz erdrückte die Entropie und das Kunstwerk verlöre seinen Informationswert.’ Let wel: opeens zijn entropie en redundantie weer recht evenredig met elkaar!
De begrippen ruis en kanaal worden wel eens toegepast in Die Struktur des künstlerischen Textes, maar weinig frequent en zonder direkt verband met de theorievorming.
In dit hoofdstuk over Lotman en de informatietheorie hoeven dan alleen nog de opmerkingen van Chomsky besproken te worden. Zijn fundamentele kritiek op het denkbeeld dat teksten zijn opgebouwd als Markoffketens, hoeft niet direkt een veroordeling in te houden op de denkbeelden van Lotman. De theorieën van Chomsky en Lotman zijn reeds van nature slecht vergelijkbaar. Chomsky heeft een theorie van de ‘competence’ geformuleerd: hoe kunnen met een klein, in ieder geval eindig, aantal principes een oneindig aantal zinnen gegenereerd worden en hoe kan dmv. transformaties de verwantschap tussen bepaalde zinnen beschreven worden. Lotman heeft daarentegen de specifieke eigenschappen van artistieke teksten willen beschrijven, en dus een theorie over een bepaald soort ‘performance’. Ik meen echter dat de grondslagen van de gedachten van Lotman niet afhankelijk zijn van de verouderde terminologie van syntagmatisch vs. paradigmatisch en daarmee ook van het denkbeeld dat zinnen gegenereerd worden als Markoffketens: veel is al opgelost met de term ‘patroonvorming in de oppervlaktestruktuur’. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 281]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
III. De toepasbaarheid van de informatietheorie in infiteratuurwetenschap.Met betrekking tot het zuiver transmissionele informatiebegrip van Hartley en Shannon kan een rigoureus ‘niet-toepasbaar’ worden uitgesproken. De in par. I.1 van dit artikel uitvoerig geciteerde beschouwingen van Bar-Hillel laten er geen enkele twijfel over bestaan dat de literatuurwetenschap, die per definitie uitsluitend semantische en pragmatische probleemstellingen kent, niets uitstaande heeft met een zuiver technisch informatiebegrip.
Minder gemakkelijk kunnen we ons afmaken van de semantische en pragmatische informatie zoals die in par. I.2 onder het hoofd van ‘De Engelse traditie in de informatietheorie’ is besproken. Welke betekenis deze denkbeelden hebben voor de literatuurwetenschap is een dissertatie waard; wel kunnen hier enkele fundamentele problemen worden afgebakend.
Wanneer we deze eisen leggen naast de praktijk van de literatuurwetenschap tekenen de volgende probleemvelden zich af:
Deze kwesties worden in de hand gewerkt, zo niet veroorzaakt door het feit dat de literatuur als object grote weerstand biedt tegen een benadering waarbij aan de methodologische eisen wordt voldaan die een meting van de semantische en pragmatische informatie mogelijk maken:
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 282]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hierbij moet het volgende aangetekend worden: 1) In elk van de componenten is een historisch aspect te onderkennen: geschiedenis van de taal, algemene geschiedenis en die van de literaire conventies. Bij de componenten ii en iii zijn zowel de (literair)historische context van het ontstaan van de tekst als die van de receptie door het publiek -eigentijds of later- belangrijk bij het analyseren van de literaire communicatie. Kennis van de oorspronkelijke context wordt traditioneel als norm gehanteerd om interpretaties te beoordelen, maar een populariteit van een tekst, bv. op politieke gronden, bij een later publiek, dat de oorspronkelijke contekst niet kent, kan niet verklaard worden als men zich bepaalt tot het reconstrueren van de betekenis van een tekst in zijn eigen tijd. 2) Er vindt tussen de componenten een interactie plaats. Zonder i is kennis van ii en iii niet mogelijk; de invloed van ii op i is aangegeven; door iii accepteert men met name bij poëzie zeer veel afwijkende taalconstructies. Door de verbanden tussen ii en iii te onderzoeken kan men de interactie tussen literatuur en maatschappij historisch analyseren. Door de gecompliceerdheid van het interpretatieproces is lezersgedrag mistens zo moeilijk te onderzoeken als dat het geval is bij teksten. Vooral omdat het begrip literatuur sterk norm-beladen is -canonvorming is typerend voor de literaire communicatie- moet men erop bedacht zijn dat de ondervraagde lezers antwoorden geven die niet met hun eigen beleving overeenkomen, maar met hetgeen ze als norm ervaren.
De problemen bij het vaststellen van de exacte semantische en pragmatische informatie die in literatuurwetenschappelijke uitspraken vervat is, zijn dus fundamenteel. Voor de literatuurwetenschap is er dus nog veel te doen, en van de resultaten kunnen we van te voren zeggen dat we uiteindelijk alleen maar zullen kunnen vaststellen wat er in de literatuur niet exact meetbaar is, en waarom niet. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 283]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Bibliografie.Dit artikel vormt een commentaar op
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
[pagina 284]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|