| |
| |
| |
Boekbeoordelingen
Staphorsius, G. (1994). Leesbaarheid en leesvaardigheid. De ontwikkeling van een domeingericht meetinstrument. (Proefschrift Universiteit Twente). Arnhem: Cito. ISBN 90-8017952-3 Prijs: f 42,50 (321 pp.)
Verschillen in leesvaardigheid tussen leerlingen in het basisonderwijs zijn erg groot. Uit empirisch onderzoek is bekend dat de verschillen in leesvaardigheid tussen leerlingen binnen één klas zelfs groter zijn dan de verschillen in gemiddelde leesvaardigheid in opeenvolgende klassen. Een onderwijzer van bijvoorbeeld de vierde klas (groep 6) kan in zijn leesonderwijs dus geconfronteerd worden met leerlingen die lezen op het niveau van groep 4, maar ook met leerlingen die een leesvaardigheid behalen die vergelijkbaar is met het gemiddelde in groep 8. Aangezien het succes van het onderwijs in het algemeen en dat van het leesonderwijs in het bijzonder sterk afhankelijk is van de mate waarin men er in slaagt aan leerlingen qua moeilijkheid passende teksten aan te bieden, zou het bijzonder nuttig zijn wanneer men in het basisonderwijs de beschikking zou hebben over een instrument waarmee men de leesvaardigheid van leerlingen zou kunnen meten èn, tegelijkertijd, de leesbaarheid van teksten zou kunnen voorspellen. De ontwikkeling van een dergelijk instrumentarium, waarin zowel de leesvaardigheid (van leerlingen) als de leesbaarheid (van teksten) op één schaal kan worden afgebeeld, is het doel van de serie empirische onderzoeken waarover Staphorsius in zijn lijvige dissertatie rapporteert.
Het onderzoek van Staphorsius valt in feite in twee fasen uiteen: in de eerste fase wordt een leesbaarheidsformule ontwikkeld waarmee de (relatieve) leesbaarheid van kinderboeken (non-fictie) die bestemd zijn voor leerlingen uit het basisonderwijs (in leeftijd variërend van zeven tot en met twaalf jaar), zo optimaal mogelijk kan worden voorspeld. Van dit leesbaarheidsonderzoek wordt in de eerste zes hoofdstukken van de dissertatie verslag gedaan. In de tweede fase van het onderzoek, waarover in de resterende hoofdstukken wordt gerapporteerd (zeven t/m negen), wordt getracht een absolute, domeingerichte interpretatie te verbinden aan de uitkomsten van de eerder ontwikkelde leesbaarheidsformule. Wil men die leesbaarheidsuitkomsten in absolute zin kunnen interpreteren, dan zal immers duidelijk moeten zijn voor welke (sub)populatie lezers een tekst die volgens de ontwikkelde formule een bepaalde - relatieve - leesbaarheid bezit, begrijpelijk is, en voor welke populatie juist niet. In een domeingerichte interpretatie is die tekst begrijpelijk voor lezers die beschikken over een leesvaardigheid die tenminste overeenkomt met de, door de formule geprediceerde, leesbaarheid. Zowel de mate van leesbaarheid van een tekst als de mate van leesvaardigheid worden in deze tweedle fase van Staphorsius’ onderzoek gekwantificeerd en symbolisch tot uitdrukking gebracht met behulp van getalswaarden die gelokaliseerd kunnen worden op dezelfde onderliggende schaal. Concreet: een tekst met een leesbaarheidsindex van bijvoorbeeld 80 is niet alleen moeilijker dan een met index 60 (relatieve interpretatie), maar is ook slechts te begrijpen (althans met een relatief grote kans op succes) voor lezers die beschikken over een leesbaarheid die minimaal 80 bedraagt (absolute interpretatie). Omgekeerd, een leerling van wie bekend is dat hij over een leesvaardigheidsindex van 80 beschikt, kan men qua moeilijkheidsgraad passende teksten voorleggen voorzover de leesbaarheid daarvan (zoals bepaald met behulp van de leesbaarheidsformule) ten hoogste 80 bedraagt.
Na de Inleiding (hoofdstuk 1), waarin het doel van het uitgevoerde empirisch onderzoek wordt geschetst en waarin de concrete methodische gang van zaken exemplarisch uiteengezet wordt aan de hand van het - als prototypisch beschouwde - leesbaarheidsonderzoek van Vogel en Washbume (1928), wordt in hoofdstuk 2 een overzicht gegeven van recent empirisch onderzoek naar het leesproces. De theoretische pretenties van dit overzicht, waarin voornamelijk wordt ingegaan op het herkennen van woorden, de syntactische en thematische verwerking van zinnen en de verwerking van | |
| |
grotere tekstgehelen, zijn bescheiden (‘Het is niet meer en minder dan een kapstok voor gegevens over en een leidraad voor vragen aan het leesproces’ p. 4): gezocht wordt naar resultaten van onderzoek naar leesprocessen die een verklaring zouden kunnen bieden voor de voorspellende waarde van prediktoren in de leesbaarheidsformules die de afgelopen 60-70 jaar ontwikkeld zijn (die prediktoren komen overigens in het gros van de gevallen neer op operationalisaties van enerzijds ‘woordmoeilijkheid’, anderzijds ‘zinsmoeilijkheid’). Verder wordt de vakliteratuur doorgenomen om prediktoren op het spoor te komen die voor de voorspelling van de leesbaarheid van teksten veelbelovend lijken, maar in het uitgevoerde leesbaarheidsonderzoek tot nu toe nog niet zijn betrokken, en tevens om de in het onderzoek gehanteerde operationalisatie van leesbaarheid vanuit het leesproces te motiveren (die leesbaarheid wordt door Staphorsius gemeten met behulp van de cloze-procedure, een in de jaren vijftig door Taylor ontwikkelde techniek om de leesbaarheid van een tekst te bepalen, en wel door elk vijfde woord in een tekst te deleren en door proefpersonen op de open plaatsen de weggelaten woorden te laten invullen; de assumptie achter deze techniek is, dat hoe minder weggelaten woorden in een tekst door een groep lezers kunnen worden ingevuld, hoe lastiger de betreffende tekst voor die groep is).
In hoofdstuk 3 wordt een kritisch overzicht gegeven van het leesbaarheidsonderzoek van de afgelopen zes decennia. Leesbaarheidsonderzoekers blijken de leesbaarheid van teksten op heel diverse wijzen geoperationaliseerd te hebben: via scores op leestoetsen, oordelen van deskundigen, scores op cloze-toetsen, uitkomsten van bestaande leesbaarheidsformules of, recent, via het aantal seconden leestijd per propositie (Kintsch en Vipond 1979). Over de prediktoren (i.c. de kenmerken in een tekst) die de leesbaarheid - op welke wijze dan ook geoperationaliseerd - moeten voorspellen, blijkt in de regel wat meer overeenstemming: dat blijken voornamelijk prediktoren te zijn die aspecten van ‘lexicale complexiteit’ en van ‘syntactische complexiteit’ meten. Overziet men echter de concrete operationalisaties die verschillende onderzoekers van bijvoorbeeld lexicale complexiteit voorstellen, dan wordt men opnieuw met een zeer divers, weinig konsistent beeld geconfronteerd: nu eens wordt die lexicale complexiteit geoperationaliseerd in termen van woordlengte (gemeten in termen van aantal lettergrepen of aantal woorden), dan in termen van het percentage woorden met een gespecificeerde lengte (bijvoorbeeld éénlettergrepige, twee-, drie-, vier- of vijflettergrepige woorden), dan weer in termen van woord-frekwentie of van de diversiteit in woordenschat (proportie types), enzovoort. Een van de factoren die verantwoordelijk gesteld kan worden voor deze ‘wildgroei’ op het vlak van operationalisatie, is het gebrek aan theorieën over het leesproces, theorieën waaruit ondubbelzinnig kan worden afgeleid welke factoren het begrip van een tekst bemoeilijken. Niettemin staat, aldus Staphorsius, ‘de praktijk van het traditionele leesbaarheidsonderzoek (...) sterk, zeker als het om de selectie van onafhankelijke variabelen gaat. Het draait in dat onderzoek immers om (...) predictie en predictieve validiteit. De vraag naar de begripsvaliditeit is veel nadrukkelijker aan de orde als het om het criterium [i.c. de afhankelijke variabele, de leesbaarheid] gaat.’ (p. 112)
Hoofdstuk 4 is in zijn geheel gewijd aan de meting van dit criterium, i.c. de leesbaarheid van teksten. Beargumenteerd wordt waarom ook in dit leesbaarheidsonderzoek die keuze - zoals zo vaak in het ‘traditionele’ leesbaarheidsonderzoek - op de cloze-procedure valt. In eerste instantie ligt het voor de hand, aldus Staphorsius, de leesbaarheid van teksten te meten via leesvaardigheidstoetsen die begripsvragen bevatten. Maar de te voorziene methodologische problemen die daarbij kunnen optreden (het in de hand houden van de moeilijkheid van de begripsvragen zelf en wel zo, dat verschillen in gemiddelde leesvaardigheidsscores per tekst uitsluitend kunnen worden toegeschreven aan verschillen in leesbaarheid van die teksten, en niet ook aan verschillen in moeilijkheid van de daarbij gestelde vragen) doen Staphorsius besluiten van dit alternatief met | |
| |
‘face validity’ af te zien en toch te opteren voor de cloze-procedure. Hij erkent dat er in de vakliteratuur herhaaldelijk en met klem argumenten naar voren zijn gebracht die tegen de (begrips)validiteit van de cloze-procedure pleiten, maar de veronderstelde nadelen van deze operationalisatie vindt hij niet opwegen tegen de voordelen (alle teksten waarvan de leesbaarheid bepaald moet worden, worden op precies dezelfde wijze ‘verminkt’, met als gevolg dat het leesproces op min of meer overeenkomstige wijze wordt belast; verder is de objectiviteit van de scoring hoog; en tot slot is pretesten (zoals bij begripstoetsen) niet noodzakelijk, zodat de kosten verbonden aan de constructie van een cloze-toets relatief laag zijn). Om de kritiek op de beperkte validiteit van de cloze-procedure te weerleggen, wijst hij onder meer op de hoge tot zeer hoge correlaties tussen cloze-scores en scores op ‘traditionele’ leesvaardigheidstoetsen die in de vakliteratuur gerapporteerd worden, en probeert hij aannemelijk te maken dat de verschillen tussen het verloop van het natuurlijke leesproces en dat van het cloze-reconstructie-proces - verschillen die er wel degelijk zijn - niet van dien aard zijn dat zij een krachtig argument tegen de begripsvaliditeit van de cloze-procedure zouden vormen.
Op welke type teksten nu wordt de te ontwikkelen leesbaarheidsformule geënt? Binnen de populatie ‘non-fictionele teksten voor 7- tot 12-jarige leerlingen’ worden door Staphorsius liefst 288 subpopulaties onderscheiden, variërend in doelgroep (3 doelgroepen: teksten bestemd voor 7-8 jarigen, voor 9- en 10-jarigen en voor 11-12-jarigen), in bron (8 bronnen, waaronder leerpakketten, boeken, jeugdtijdschriften) en in onderwerp (12 onderwerpen, waaronder natuur, kunst, techniek). Aangezien praktische en budgettaire uitvoerbaarheid grenzen stelt aan het aantal voor te leggen (te ‘beclozen’) teksten, wordt besloten van 120 teksten, afkomstig uit de gedefinieerde populatie, de leesbaarheid te bepalen (in feite echter van het dubbele aantal, doordat ten behoeve van de kruisvalidering van de multiple correlatie één steekproef teksten als ‘screenings sample’ en de tweede steekproef als ‘calibration sample’ wordt gehanteerd). In het resterende gedeelte van hoofdstuk 4 wordt de constructie van de cloze-toetsen besproken (i.c. de teksten die aan de leerlingen worden voorgelegd en waarop de cloze-procedure is toegepast). Allerhande varianten blijken hierbij mogelijk te zijn (bijvoorbeeld de afstand tussen de deleties; de scoring van de reconstructies (alleen exact, of ook semantisch passende?); enzovoort). Staphorsius volgt bij de constructie van de cloze-toetsen in de regel de standaardprocedure, met uitzondering van de deletie-afstand: anders dan in het gros van het cloze-procedure-onderzoek waarbij die afstand vijf bedraagt, hanteert hij - gezien de leeftijd van zijn jongste proefpersonen - een afstand van zeven. Van elk van de 240 teksten worden drie verschillende cloze-toetsen geconstrueerd (per tekst drie aselect aangewezen vormen uit de in totaal zeven mogelijke vormen), en elke ‘tekst’ van de in totaal 720 cloze-toetsen wordt aan 36 leerlingen voorgelegd. In totaal nemen 49 scholen aan het leesbaarheidsonderzoek deel: ruim 4000 leerlingen maken onder leiding van twintig geïnstrueerde proefleiders elk twee cloze-toetsen. Uit de resultaten blijkt onder meer dat de drie, aselect geconstrueerde vormen van de cloze-toetsen als parallelle metingen kunnen worden beschouwd, en dat de betrouwbaarheid van de cloze-toetsen bevredigend is (0.88). Uit verder onderzoek naar de begripsvaliditeit blijkt onder meer, dat de oordelen van leerkrachten die de leesbaarheid van 32 (uit het totale bestand aselect getrokken) teksten moeten schatten, convergeren met de uitkomsten van het cloze-onderzoek (r=.90).
In hoofdstuk 5 komt de selectie en de operationalisering van de prediktoren van de leesbaarheid (de onafhankelijke variabelen) aan de orde. 27 prediktoren worden uitgekozen (14 hebben betrekking op lexicale complexiteit, 10 op syntactische complexiteit en 3 op woordsoorten). Deze 27 prediktoren blijken (hoofdstuk 6) gezamenlijk 78 percent van de variantie in het criterium (i.c. de leesbaarheid) te voorspellen (R=.883). In de praktijk is het natuurlijk niet doenlijk om te werken met een leesbaarheidsformule die uit liefst 27 variabelen bestaat | |
| |
- nog even afgezien van het feit dat een aantal variabelen min of meer hetzelfde aspect van leesbaarheid bestrijkt, en dat de bepaling van de numerieke waarde van de ene variabele in een tekst (bijvoorbeeld de gemiddelde zinslengte in woorden) in praktisch opzicht veel gemakkelijker is dan de bepaling van een andere variabele (bijvoorbeeld: voor de bepaling van de waarde van één van de 14 lexicale prediktoren - woordbekendheid gedefinieerd met een voorspelde verwervingsleeftijd van 5 of lager - moet een computerprogramma bij elk woord in een tekst een lijst van circa 13000 woorden controleren). Op basis van onder andere deze overwegingen is uiteindelijk een leesbaarheidsformule ontwikkeld die uit ‘slechts’ vier prediktoren bestaat: woordlengte, woordfrequentie, woord-diversiteit en zinslengte. De eerste drie zijn indicatoren van lexicale complexiteit, de laatste prediktor bestrijkt syntactische complexiteit. De (multiple) correlatie van deze vier variabelen met de leesbaarheid (de cloze-scores) bedraagt .85, een waarde die bij kruisvalidering redelijk stabiel blijkt. Kortom, het resultaat van al deze inspanningen is een redelijk betrouwbare, handzame en praktisch te hanteren leesbaarheidsformule.
Tot zover het leesbaarheidsonderzoek, de eerste fase van het door Staphorsius uitgevoerde empirisch onderzoek waarin de relatieve leesbaarheid van teksten centraal staat. Om verschillen in leesbaarheid in absolute zin - domeingericht - te kunnen interpreteren, d.w.z. om aan te kunnen geven voor welke subpopulatie lezers een bepaalde tekst begrijpelijk is, is een aanvullend criterium nodig waarmee de leesvaardigheid van lezers gemeten kan worden en wel zo, dat de door teksten veronderstelde leesvaardigheid en de bij individuen behorende leesvaardigheid op dezelfde schaal kunnen worden afgebeeld. De ontwikkeling van een dergelijk criterium vormt de tweede fase van Staphorsius’ onderzoek.
Hoofdstuk 7 opent met een kritische bespreking van pogingen van een aantal onderzoekers uit het verleden om dit netelige probleem op te lossen: wanneer heeft een leerling een tekst nu ‘echt’ begrepen? Als hij 90% van de vragen goed beantwoordt (de befaamde vuistregel van Thorndike (1917)), of wellicht 75%? En om welk type vragen gaat het dan precies? Geen van de pogingen tot nu toe is volgens Staphorsius in alle opzichten even geslaagd te noemen en daarom ontwikkelt hij een alternatief, mede gebaseerd op de ‘The Degrees of Reading Power’, een toetsbatterij uit het Pupil Evaluation Program van het basisonderwijs te New York. Bij deze operationalisatie van begrip (c.q. leesvaardigheid) zijn in elke (geconstrueerde) tekst zeven deleties aangebracht. Het punt waar het om draait, is dat de leerling voor het correct invullen van elke open plaats (keuze uit één van vijf alternatieven die elk in syntactisch en semantisch opzicht binnen de zin met open plek passen) de context begrepen moét hebben. De rest van hoofdstuk 7 is gewijd aan de constructie van een dergelijke leesvaardigheidstoets, door Staphorsius tekst-toets genoemd. Ervaren ‘item-schrijvers’, verbonden aan het Cito, construeren aan de hand van een stringent constructievoorschrift 286 zogenaamde teksttoets-opgaven, die geschikt zouden moeten zijn voor de modale leerling van groep 4, 5, 6, 7 en 8, en bovendien voor de zeer goede lezer in groep 8.
Hoofdstuk 8 is onder meer gewijd aan de cruciale vraag, of alle 286 teksttoets-opgaven de leesvaardigheid op dezelfde wijze meten. Immers, alleen onder die conditie is het zinvol de verschillen in moeilijkheid tussen de opgaven (en daarmee verschillen in leesvaardigheid) op één schaal af te beelden. De opgaven worden in groep 4 tot 8 afgenomen in de periode ‘87 tot ‘92, waarbij het aantal leerlingen varieert van 1844 tot 7215. Om na te gaan of de opgaven homogeen zijn, worden deze geschaald in termen van (een variant op) het één-parameter logistisch model (overigens niet het Rasch-model; binnen het gekozen latente-trek model mogen de discriminatie-indices van de opgaven immers verschillen). 276 opgaven blijken aan de specificaties van het gespecificeerde latente trekmodel te voldoen, zodat de ‘gemeten verschillen in gedrag tussen de leerlingen te verklaren zijn door één unidimensionaal concept’ (p. 239). Als een verdere controle op de validi- | |
| |
teit van de teksttoets-opgaven gaat Staphorsius in een apart empirisch onderzoek na, of de leesbaarheid van deze opgaven al dan niet systematisch verschilt van de teksten die gebruikt zijn voor de ontwikkeling van de leesbaarheidsformule. Dat blijkt niet het geval; er zijn dus gegronde redenen om aan te nemen dat de tekst-toets-opgaven (geconstrueerde, ‘niet-natuurlijke’ teksten) representanten vormen van de populatie ‘natuurlijke’ teksten waarvoor de leesbaarheidsformule ontwikkeld is. Anders uitgedrukt: de ontwikkelde leesbaarheidsformule is evenzeer van toepassing op natuurlijke teksten als op de niet-natuurlijke teksten op basis waarvan de leesvaardigheid van leerlingen geschat moet worden.
Kunnen we deze teksttoets-opgaven, die kennelijk appelleren aan dezelfde onderliggende vaardigheid (‘begrip’), nu ook beschouwen als een domeingericht criterium voor leesbaarheid? Dat kan alleen, wanneer duidelijkheid is geschapen over de vraag hoeveel opgaven (van het totale aantal, gesteld bij een tekst) een lezer correct beantwoord moet hebben, wil er (nog) sprake zijn van begrip. Staphorsius gaat hierbij, anders dan het gros van de leesbaarheidsonderzoekers, niet uit van de op intuïtie gebaseerde vuistregel van Thorndike (90% goed), maar ontwikkelt in dit kader een onafhankelijk, empirisch criterium (onder meer gebaseerd op het oordeel van 31 leerkrachten uit het basisonderwijs over de geschiktheid van een tekst voor een bepaalde jaargroep, en gebruik makend van de resultaten van het schalen van de teksttoetsopgaven in termen van het latente trekmodel). De uitkomsten van dit empirisch onderzoek wijzen erop, dat een percentage van 70 een adequaat criterium is voor begrip.
Met deze concrete resultaten kan de tweede fase van het onderzoek afgerond worden: leesbaarheid en leesvaardigheid kunnen nu beide op dezelfde schaal uitgedrukt worden en in absolute zin geïnterpreteerd worden. Immers, van elke tekst (i.c. teksttoets-opgave) is, op basis van de leesbaarheidsformule, de voorspelde gemiddelde cloze-score bekend, maar ook de te mobiliseren vaardigheid (de latente trek) die nodig is voor een score van 70% goed.
Beide indices blijken .94 (!) met elkaar te correleren, zodat men zonder al te veel verlies aan relevante informatie de leesvaardigheid die nodig is om een specifiek aantal teksttoetsopgaven te maken, kan transformeren in een cloze-score die lezers op die teksten in be-‘cloze-te’ vorm zouden behalen. Leesbaarheid en vaardigheid worden vervolgens, na numerieke manipulaties, door Staphorsius afgebeeld op een schaal van o (heel gemakkelijk leesbaar) tot 100 (zeer moeilijk leesbaar).
Nadat in het resterende gedeelte van hoofdstuk 8 empirisch validiteitsonderzoek naar de teksttoets-opgaven is gerapporteerd (met als voornaamste bevinding: de correlaties tussen teksttoets-opgaven en verwante vaardigheden zijn hoog tot zeer hoog), volgt in hoofdstuk 9 de rapportage van een grootschalig normeringsonderzoek onder (onder meer) 7251 leerlingen in het basisonderwijs. Op basis van dit normeringsonderzoek van de teksttoets-opgaven is een gedifferentieerde beschrijving van het niveau en van de ontwikkeling in leesvaardigheid in groep 4 tot en met 8 in het basisonderwijs mogelijk.
| |
Commentaar
Staphorsius heeft ongetwijfeld een monumentaal proefschrift geschreven. Het empirisch project waarvan hij in zijn proefschrift verslag doet, bestrijkt een periode van zo'n tien jaar. De tientallen empirische onderzoeken (waarvan hier in dit kort bestek overigens maar een deel kon worden samengevat), de diversiteit en diepgang daarvan, de constructie van honderden tekstbegripvragen (de teksttoets- opgaven) en van de vele honderden cloze-toetsen met behulp waarvan de leesbaarheid bepaald moet worden, de omvang van de steekproeven (duizenden, en nog eens duizenden leerlingen) - dit zijn ongetwijfeld kwantiteiten waarvan de doorsnee empirisch onderzoeker slechts kan dromen. Het in de eerste 6 hoofdstukken beschreven leesbaarheidsonderzoek is, zeker nationaal bekeken, het meest grootscheepse onderzoek in deze traditie dat ooit is uitgevoerd; qua omvang en reikwijdte slaat het ook in internationaal perspectief bepaald geen gek | |
| |
figuur. Het spreekt voor zich dat een dergelijke onderneming, waarvoor zoveel specifieke en geavanceerde methodologische, psychometrische en statistische kennis vereist is, een onderneming die zo vele onderzoeksinspanningen vergt - en dat over een reeks van jaren - en waarbij zoveel organisatorische, personele en financiële middelen moeten worden aangesproken, onmogelijk met succes door één individu kan worden voltooid. Het in het proefschrift beschreven project betreft dan ook een door het Cito (Centraal Instituut voor Toetsontwikkeling) geëntameerd project: ‘Begrijpend Lezen’. De schaal die in het kader van dit project door Staphorsius ontwikkeld is en waar zowel de leesbaarheid van teksten (geschikt voor groep 4 tot en met 8) als de leesvaardigheid van de leerlingen (specifieker: àlle leerlingen in het basisonderwijs, van groep 4 tot en met 8) kunnen worden uitgedrukt, heet dan ook heel toepasselijk - als een expliciete ode aan de institutionele omgeving waarbinnen het project tot een succesvol einde kon worden gebracht - de CLIB: de Cito LeesIndex voor het Basis- en speciaal onderwijs. Een ander concreet, praktisch resultaat van het project betreffen de zogeheten Clib-toetsen, de domeingerichte tekst-toetsopgaven die in het basisonderwijs gebruikt kunnen worden om de leesvaardigheid van leerlingen vast te stellen. En tot slot heeft het project geresulteerd in een P-Clib, een computerprogramma waarmee de leesbaarheid van teksten snel en efficiënt kan worden bepaald. Met de genoemde praktische hulpmiddelen kan het leesonderwijs op de basisschool op verantwoorde wijze, meer dan tot nu toe, op individuele leest geschoeid worden.
Uit het voorafgaande zal duidelijk zijn geworden, dat men bij dit project bepaald niet te klagen heeft over een gebrek aan praktisch toepasbare resultaten, integendeel. Maar in die ‘praktische kracht’ van dit project ligt, strikt wetenschappelijk bekeken, voor velen tegelijkertijd ook de zwakte ervan besloten: wie in deze dissertatie op zoek gaat naar theoretische ‘hoogstandjes’, bijvoorbeeld naar de ontwikkeling en empirische toetsing van expliciete theorieën over het leesproces of over de leesbaarheid van teksten, of naar toetsbare theoretische modellen van leesvaardigheid zal al snel teleurgesteld raken. Het is echter niet zinvol en evenmin erg constructief om strikt theoretische maatstaven aan te leggen bij de beoordeling van de merites van dit proefschrift, gezien de puur praktische doelstelling ervan (i.c. de ontwikkeling van een instrumentarium dat de leesvaardigheid en leesbaarheid domeingericht bepaalt) en mede gelet op de omstandigheid, dat keer op keer door Staphorsius zelf wordt benadrukt dat hij geen theoretische pretenties heeft.
Sinds het begin van de jaren zeventig draagt het leesbaarheidsonderzoek, als gevolg van de uiterst kritische reacties in de vakpers op het toenmalige leesbaarheidsonderzoek, onmiskenbaar het odium van ‘theoretisch geknoei’ en ‘methodologisch gerommel’ met zich mee. Vanaf die tijd is er geen enkele serieuze wetenschapper meer te vinden die aan deze materie zijn vingers nog wilde branden. Het is zonder meer een verdienste van Staphorsius dat hij het leesbaarheidsonderzoek, door dit zo expliciet te koppelen aan leesvaardigheidsonderzoek, een nieuwe en praktisch relevante wending heeft gegeven. Hij plaatst het leesbaarheidsonderzoek in een lange historische traditie, waarbij hij keer op keer benadrukt dat dit type onderzoek primair een praktisch belang dient (i.c. het voorspellen van de leesbaarheid, en niet zozeer het verklaren van die leesbaarheid), hij wijst er telkens op dat de prediktoren in een leesbaarheidsformule in theoretische zin niet ondubbelzinnig uit theorieën over het leesproces kunnen worden afgeleid, en hij waarschuwt er herhaaldelijk voor dat deze prediktoren dus niet in causale zin geïnterpreteerd mogen worden en dat men er dus beslist geen schrijfadviezen aan mag ontlenen, zoals in het verleden wel vaker gebeurd is. Kortom, hij geeft het ‘traditionele’ leesbaarheidsonderzoek precies de (in theoretische zin bescheiden) plaats die het toekomt, maar hij toont tevens in het tweede deel van zijn dissertatie overtuigend aan op welke wijze dit onderzoek in de door hem uitgestippelde vorm niettemin praktisch relevant kan zijn.
Ook al mag de hele onderneming dan in eerste instantie praktisch gericht zijn, dat neemt | |
| |
niet weg dat ook de wat meer ‘wetenschappelijk geïnteresseerden’ aan hun trekken komen, met name in het tweede deel van dit proefschrift. Anders dan het eerste gedeelte waar de ontwikkeling van de leesbaarheidsformule centraal staat en waar de in dit kader ‘overbekende’ methodologische en statistische paden bewandeld worden, is het tweede gedeelte veel innovatiever. Met dat tweede gedeelte, waarin de empirische ontwikkeling van een absoluut leesbaarheidscriterium centraal staat, wordt het ‘conventionele’ leesbaarheidsonderzoek op een hoger plan getild. Decennia lang immers is het gros van de leesbaarheidsonderzoekers bij de beantwoording van de vraag wanneer een tekst nou precies begrijpelijk is, uitgegaan van op intuïtie gebaseerde, in theoretisch opzicht onbevredigende criteria als dat van Thorndike ((1) 90% van de bij een tekst gestelde begripsvragen goed beantwoord impliceert, dat die tekst geschikt is voor zelfstandige lezing (het leesvaardigheidsniveau wordt dan aangeduid als ‘independent’) (2) bij 75% van de begripsvragen goed ligt de tekst op ‘instructional level’ en bij (3) 50% goed op het zogeheten frustatie-niveau). Staphorsius toont aan hoe betrekkelijk dergelijke criteria zijn, en hij slaagt er vervolgens in met behulp van de latente trektheorie en met behulp van oordelen van leerkrachten een empirisch gefundeerd, onafhankelijk criterium te ontwikkelen - ongetwijfeld een van de sterkste punten uit dit proefschrift.
Er blijft - natuurlijk - ruimte voor enkele kritische kanttekeningen. Een van de minpunten van dit proefschrift betreft de rapportage: deze is niet alleen soms storend vaag en nodeloos ingewikkeld, maar soms ook verre van volledig. Op pagina 108 van het proefschrift bijvoorbeeld wordt een frekwentieverdeling gegeven van ‘gemakkelijk lange woorden in het P335-corpus’. Pas op pagina 131 wordt het voor de lezer eindelijk duidelijk wat dat merkwaardige corpus behelst: P335 staat voor de twee steekproeven teksten waarvan de leesbaarheid bepaald moet worden - en P335 blijkt niet meer te zijn dan een interne administratieve projectcode binnen het project ‘Begrijpend Lezen’. Verder wemelt het in het proefschrift van de afkortingen, niet alleen ter aanduiding van de prediktoren in de leesbaarheidsformule (bijvoorbeeld PMLW; GWLG; PELG; GWZ; enzovoort), maar ook - en met name in het valideringsonderzoek - ter omschrijving van typen tests (BTT; BSR; SET; SYT enzovoort). Het veelvuldig gebruik van zulk soort afkortingen komt de leesbaarheid van dit proefschrift bepaald niet ten goede.
Storender echter is de onvolledigheid in de rapportage van sommige onderzoeksgegevens. Het gaat in deze gevallen zeker niet om enkele marginale gegevens, integendeel, het gaat hier juist om data die relevant zijn voor de centrale problematiek. Een voorbeeld. Bij het kalibreren van de teksttoetsopgaven in termen van het één-parameter model (het Rasch model) blijken veel items niet te passen (waarom dat zo is en op grond van welke statistische toetsen dat dan wel blijkt, wordt niet geëxpliciteerd; dat wordt eenvoudigweg zo gesteld). Staphorsius kiest daarom voor een wat ‘liberaler’ model uit de klasse van latente trekmodellen waarbij het, anders dan in het Rasch model, toegestaan is dat het discriminerend vermogen van items (opgaven) varieert. ‘Verreweg de meeste opgaven [van de in totaal 276 teksttoetsopgaven] passen in het model’ (o.c.240), zo stelt Staphorsius apodictisch. Hoeveel dan wel? Bovendien moet deze stellige bewering voor iedereen met enige ervaring in latente trekmodellen wel erg ongeloofwaardig overkomen: opgaven/items passen immers maar zelden. Evenmin beantwoord wordt de in deze klemmende vraag, welke statistische toetsen gehanteerd zijn, wat de precieze uitkomsten van die toetsingen zijn en voor welk type schendingen van de assumpties van het gehanteerde latente trekmodel die toetsen gevoelig zijn (een tiental jaren geleden was al bekend dat statistische toetsen die bijvoorbeeld gevoelig zijn voor schendingen van de ééndimensionaliteitsassumptie, helemaal niet gevoelig zijn voor andersoortige schendingen). Niettemin is al deze informatie onontbeerlijk en van cruciaal belang om te kunnen beoordelen, of deze 276 opgaven beschouwd kunnen worden als indicatoren van één en dezelfde vaardigheid; als dat namelijk niet het geval is, dus | |
| |
als die opgaven meer dan één dimensie bestrijken, dan moet de poging om verschillen in leesbaarheid en leesvaardigheid op één schaal af te beelden als mislukt worden beschouwd. Het gevolg van deze gebrekkige vorm van rapportage is dat het innovatieve tweede deel van het proefschrift in feite voor kritiek is geïmmuniseerd en - in het verlengde daarvan - dat een kritisch-wetenschappelijke beoordeling van het al dan niet geslaagd zijn van de hele onderneming onmogelijk is. Of Staphorsius er inderdaad in geslaagd is het leesbaarheidsonderzoek op ‘een hoger plan’ te tillen - we weten het nu jammer genoeg niet en kunnen het ook niet weten, tenzij we blind en kritiekloos vertrouwen op zijn geruststellende mededelingen. Als lezer blijf je nu na zo'n 300 pagina's met een enigszins onbevredigd gevoel zitten.
Ondanks al deze kritische kanttekeningen zal het niettemin wel duidelijk zijn, dat iedereen die zich in Nederland of daarbuiten ooit met leesbaarheidsonderzoek bezig wil houden, onmogelijk om dit proefschrift heen kan. Trouwens ook voor diegenen die wetenschappelijke belangstelling hebben in de constructie van toetsen ter meting van leesvaardigheid (via de teksttoets-opgaven) of voor hen die geïnteresseerd zijn in een absoluut leesbaarheidscriterium, heeft dit proefschrift veel te bieden.
Tot slot. Dit project, dat enkel gekarakteriseerd lijkt te kunnen worden in termen van steekwoorden als ‘mega-’ en ‘giga-’, heeft ongetwijfeld veel geld gekost. Op verschillende plaatsen in zijn dissertatie blijkt Staphorsius zich bij de afweging en keuze van alternatieven (bijvoorbeeld bij de steekproeftrekking of bij de operationalisatie van leesbaarheid) te laten leiden door het ‘kostenargument’, een alleszins begrijpelijke argument gezien het grootscheepse karakter van de reeks uitgevoerde empirisch onderzoeken. Minder begrijpelijk is echter waarom dit argument niet wordt doorgetrokken naar het project in zijn totaliteit. Na die hele reeks empirische onderzoeken, het een nog groter dan het ander, vraag je je als lezer af wat nu uiteindelijk de utiliteit van de hele onderneming is: wat zijn precies de baten van dit project in verhouding tot de gemaakte kosten? Is het ten behoeve van de individualisering van het leesonderwijs op de basisschool nou echt zo nodig om elke leerling Clib-toetsen (teksttoets-opgaven) voor te leggen (waarvan overigens de praktische afname bij de leerkrachten als lastig wordt ervaren), en is het nou echt wel nodig om van elke tekst met behulp van het computerprogramma P-Clib de leesbaarheid te bepalen? Waarom zouden we niet domweg leerkrachten in het basisonderwijs vragen om te beoordelen wat het niveau van leesbaarheid van teksten is, en wat het niveau van leesvaardigheid van hun leerlingen? Leveren dergelijke oordelen dan werkelijk zoveel minder betrouwbare, minder gedifferentieerde en minder valide informatie op? Volgens Staphorsius wèl; empirische argumenten voor die fundamentele claim levert hij helaas nergens. Maar ook al zijn we bereid Staphorsius in deze kwestie het voordeel van de twijfel te gunnen en ook al gaan we er dan vanuit dat de oordelen van leerkrachten inferieur zijn aan de scores op de Clib-toetsen, dan nog resteert de klemmende vraag in welke mate die oordelen inferieur zijn en hoe ernstig dat dan wel is, gezien onder andere de ontwikkelingskosten van de Clib-toetsen. Een dergelijke fundamentele kosten-baten analyse van het hele project, een analyse die licht zou werpen op de utiliteit van het project als geheel in verhouding tot bestaande, goedkopere alternatieven (leer-krachten-oordelen bijvoorbeeld) ontbreekt echter. Maar wellicht is een dergelijke analyse ook wel wat teveel gevraagd voor een project, dat uitgevoerd is binnen het institutionele kader van het Cito - een instituut dat haar bestaansrecht in hoofdzaak dankt aan de produktie van objectieve studietoetsen waarmee het rendement van het onderwijs bepaald kan worden. Vanuit dat gezichtspunt heeft Staphorsius met de ontwikkeling van zijn instrumentarium: de Clib-toetsen, de P-Clib en de CLIB zijn institutionele werkgever bepaald geen slechte dienst bewezen.
B. Meuffels
| |
| |
| |
E.T. Feteris, H.Kloosterhuis, H.J.Plug, J.A. Pontier (red.) (1994), Met redenen omkleed, bijdragen aan het Symposium Juridische Argumentatie, 11 juni 1993 Rotterdam, Ars Aequi Libri Nijmegen, ISBN 90-6916-155-9. Prijs: f 35,00 (292 pp.)
Op 11 juni 1993 werd in Rotterdam een symposium gehouden over juridisch argumenteren. Ongeveer een jaar later verschenen de bijdragen in de hier besproken bundel. De redacteuren claimen dat zij een goed beeld geeft van de huidige stand van zaken van het onderzoek naar juridische argumentatie in Nederland en België (p.7). Als dat waar is ziet het voor de Belgen somber uit. Slechts één opstel van de 28 komt uit België: daar wordt dus maar heel weinig nagedacht over juridisch argumenteren. Voor Nederland lijkt de claim echter wel terecht. Wie wil weten hoe het er bij ons op dit moment voor staat met het onderzoek naar juridisch argumenteren krijgt uit deze bundel een redelijk beeld.
Een andere opmerking van de redacteuren komt erop neer dat barricade-gevechten voorbij zijn. Polemiek tussen formalisten en anti-formalisten, tussen retorici en logici -men komt de hierbij horende karikaturen ook in deze bundel verspreid nog wel eens tegen (in zoverre is de redactionele opmerking wishful thinking), maar ze bepalen niet meer de toon. En wellicht creëert de redactionele opmerking ook haar eigen werkelijkheid: de discussie is voor gesloten verklaard, wie zich er nu nog aan bezondigt is ouderwets, thans gaat het om ‘verdieping van de verschillende invalshoeken,... relativering van eerdere stellingnamen en... verbreding van het onderzoek’ (p. 7).
De redacteuren hebben de lezer geholpen door de verschillende opstellen te ordenen onder zes thema's. Na de keynote-speeches (van R. Foqué, E.T. Feteris en P.W. Brouwer) komen aan de orde: Structuren van juridische argumentatie (G.A. den Hartogh, M.M. Henket, A.R.J. Groot, H.R. Westra), Rationele reconstructie van juridische betogen (J.C. Hage, H. Prakken, H. Kloosterhuis, H.J. Plug), Argumentatie en interpretatie (C.E. Smith, W. den Harder, T. van Haaften, J. Th. Degenkamp, R.L.H. IJzerman), De rol van beginselen, redelijkheid en billijkheid (M. van Hoecke, A.M. Hol, H.J.R. Kaptein. J.L.M. Gribnau), Argumentatie en de motivering van rechterlijke beslissingen (A.H. de Wild, P.J. van den Hoven, F. Bruinsma), Argumentatie en retorica (R.A.V. van Haersolte, W.J. Witteveen, E.H.L. Brugmans, H.J.M. Boukema, Th. Holterman). In hun voorwoord vatten de redacteuren de verschillende bijdragen kort samen. Maar een lijn schetsen ze eigenlijk niet: dat zou bij de grote diversiteit ook ondoenlijk zijn. Ze volstaan met het opsommen van een paar thema's die een aantal malen terugkeren.
Vanaf het begin van de jaren tachtig is het bijzondere van het Nederlands onderzoek naar juridisch argumenteren het interdisciplinair karakter geweest. Logici, taalbeheersers en juristen zijn er in geslaagd gezamenlijk één forum te creëren. Dat dacht ik althans voor ik deze bundel las. Maar bij kennisname van de verschillende artikelen blijkt dat wat tegen te vallen. Echte interdisciplinariteit veronderstelt, denk ik, dat vanuit verschillende disciplines één onderzoek verricht wordt. Dat kom ik in de bundel weinig tegen, alhoewel E.T. Feteris een interdisciplinair en coherent onderzoeksprogramma bepleit. De interdisciplinariteit zal verder vooral tot uiting zijn gekomen in de onderlinge discussies.
Vanuit de door mij nog steeds veronderstelde interdisciplinariteit liggen, als ik me beperk tot argumentatietheorie en rechtswetenschap, twee vragen voor de hand: wat heeft het recht argumentatietheorie te bieden? En wat heeft argumentatietheorie het recht te bieden? De onderhavige bundel geeft meer aanleiding tot de tweede vraag: juristen voeren kwantitatief de boventoon. Een groot aantal van hen gebruikt echter bijna uitsluitend juridische (waaronder rechtstheoretische) literatuur en zet interne juridische of rechtstheoretische discussies voort. Moderne argumentatietheorie is in die bijdragen de grote afwezige. Gemeten hiernaar moet het antwoord op de tweede vraag nogal negatief zijn.
| |
| |
Dat wil niet zeggen dat het hier niet gaat om interessante opstellen. P.W. Brouwer bestrijdt bijvoorbeeld een vooral aan Ronald Dworkin opgehangen ‘ineendenken’ van recht en moraal. Het is een mooi opstel geworden, met een heldere en op één uitzondering na correcte weergave van Dworkin. Die ene uitzondering betreft Brouwers weergave van Dworkins ‘right answer thesis’ (de stelling dat er voor ieder juridisch probleem altijd één juist antwoord is): Brouwer verbindt dat met een soort onfeilbaarheidsgeloof van degene die een antwoord geeft in de juistheid daarvan (blz. 43,44). Maar zijn belangrijkste kritiek op Dworkin is hiervan niet afhankelijk: Dworkins constructie van bestaand recht als de moreel gezien best mogelijke interpretatie van ‘pre-interpretatief’ recht onttrekt het bestaande recht aan het zicht. Het bestaande recht verdwijnt in de ijle sferen van een ver boven ons zwevend ideaal, waaruit alleen een niet bestaande Hercules het tevoorschijn kan halen.
Hoe belangrijk deze kritiek ook is, zij is, meen ik, niet overtuigend. Het ‘ontoegankelijke’ van het recht kan enkel als bezwaar aangevoerd worden voor zover het recht in de praktijk wèl toegankelijk zou zijn. Maar dat is het niet, met name niet in moeilijke gevallen. Oftewel: de ijle sferen die Brouwer Dworkin verwijt zijn dagelijkse praktijk van het recht.
Ik kan hier ook wijzen op de interessante bijdrage van G.A. den Hartogh die, voortbouwend op eerder werk, verdedigt dat regeltoepassing in feite neerkomt op extrapolatie van precedenten. Ook bij formele regels, meent Den Hartogh, is de toepassing mede bepaald door wederkerige kennis van de probleemsituatie en zijn de redenen om de (context-onafhankelijke betekenis van de) regel te volgen alleen binnen bepaalde grenzen onafhankelijk van de inhoud van de regel (blz. 55). Dit betekent dat inhoudelijke overwegingen in de concrete omstandigheden mede bepalend zijn voor de (her)interpretatie van de regel: dat ligt, denk ik, zeer dicht bij de ‘ontoegankelijkheid’ die Brouwer als kritiek tegen Dworkin aanvoert.
Andere bijdragen zijn soms kritisch tegenover bepaalde benaderingen van juridisch argumenteren. Een oud discussiepunt is geweest in hoeverre formele logica hiervoor van belang is. Zelf meen ik dat formele logica van zeer groot belang is, maar dan enkel als analyse-instrument. Hage lijkt een andere opvatting toegedaan. Hij meent in ieder geval dat recht een aantal redeneertechnieken kent die niet passen in traditionele logica's, zoals de analogie (p. 91). Hiertegenover bepleit hij daarom een ‘reden-gebaseerde’ logica. Het gaat daarbij steeds om argumenten voor of tegen de stelling dat een bepaalde groep redenen de overhand heeft over een andere (vgl. p. 97). Dat basismechanisme is uiteraard in heel verschillende situaties bruikbaar, maar dan toch vooral omdat het betrekkelijk onbepaald is. Hage zou nog eens duidelijk moeten maken hoe hij de analogie op interessante wijze met behulp van zijn logica zou kunnen analyseren.
Verder komen we op dit punt met de bijdrage van Prakken, die formele logica niet verwerpt maar wil uitbouwen tot een formeel raamwerk voor de beoordeling van argumenten, waarin zowel argumenten pro als contra, die elk op zich logisch geldig zijn, met elkaar vergeleken kunnen worden en vergelijkingscri-teria (zoals lex specialis) formeel geanalyseerd kunnen worden.
Verder komen we wat in het bijzonder de analogie betreft eveneens met de bijdrage van Kloosterhuis, die op overtuigende wijze verschillende stappen voor de beoordeling van analogische argumentatie onderscheidt.
In het kader van de analogie is ook een opmerking van Witteveen interessant, die constateert dat de analogie in de juridische praktijk veel makkelijker aanvaard wordt dan de a contrario redenering en daarvoor ook een verklaring geeft: analogieën scoren hoog omdat zij een voertuig zijn om recht te ontwikkelen, terwijl a contrario redeneringen de mogelijkheid daartoe juist ondermijnen (p. 249). Dit is zo ongeveer de uitsmijter van een artikel waarin Witteveen zich kritisch opstelt tegenover de argumentatieleer van Van Eemeren en Grootendorst. Hij bepleit daartegenover een op de praktijk gerichte retorica en maakt aan de hand van Komrij's polemiek met Teun van Dijk de betekenis van deze | |
| |
retorica tegenover de genoemde argumentatieleer duidelijk: argumentatie is niet altijd gericht op het bereiken van consensus, men hoeft de tegenstander niet altijd maximaal redelijk te interpreteren (p. 245).
In vergelijkbare kritische lijn ligt de bijdrage van Van den Hoven. Die analyseert een uitspraak van het Hof Arnhem (25-4-1984, NJ 1985, 611), die vol drogredenen lijkt te zitten. Hieraan koppelt Van den Hoven in feite twee opmerkingen. De eerste is dat gemeten naar de pragma-dialectische maat zo ongeveer iedere rechterlijke motivering door de mand valt. We moeten de argumentatienormen dus terugschroeven. De meest harde eis die overblijft is dat de rechter moet laten zien dat zijn uitspraak een relatie onderhoudt tot de formele rechtsbronnen en welke relatie dat is (p. 219). Mij lijkt dit, voeg ik tussen, weer wat erg mager: in heel veel gevallen is zowel wat eiser verlangt als wat gedaagde wil ‘niet onverenigbaar’ met ‘de concessies’ van de rechtsgemeenschap (vgl. p. 219). Zouden we dan niet van de rechter mogen verlangen dat hij ook inzichtelijk maakt waarom hij aan een van beide standpunten de voorkeur geeft? Van den Hovens tweede opmerking is dat de analyse van een rechterlijke argumentatie afhankelijk is van kennis van het recht: de geanalyseerde uitspraak bevat minder drogredenen als zij voortbouwt op eerdere uitspraken. Voor de toepassing van welke argumentatienorm dan ook is kennis van het recht noodzakelijk.
Dit lijkt mij zowel volslagen juist als een mooie afsluiting van deze bespreking. Hier komt de interessante interdisciplinariteit naar voren: recht en argumentatietheorie ineen. Voor 1996 wordt een volgend symposium aan-gekondigd: deze bundel laat zien dat we daar al naar mogen uitkijken. We kunnen dan nagaan of de betrokken disciplines elkaar wellicht wat meer genaderd zijn.
A. Soeteman
| |
Viskil, E. (1995): Definiëren. Een bijdrage tot de theorievorming over het opstellen van definities. Proefschrift Universiteit van Amsterdam, Studies in Language and Language Use 12, IFOTT, Amsterdam, ISBN 90-74698-12-3, Prijs: f 35,00, (324 pp.)
Definiëren, de dissertatie van Erik Viskil, is een noodzakelijke voortzetting van een onderwerp dat in de argumentatieleer van Van Eemeren en Grootendorst begrijpelijkerwijs nog wat stiefmoederlijk was behandeld. Tegelijkertijd is het een verdere ontwikkeling van de definitieleer, nu in een functionele richting. Samen met de publikatie van De Groot en Medendorp (1986) betekent het een nieuwe impuls voor een praktische defmitieleer.
Het boek heeft als doel de mogelijkheid te onderzoeken om richtlijnen te ontwerpen die duidelijk maken hoe taalgebruikers bij het opstellen van definities te werk moeten gaan. Het bestaat uit drie delen: een descriptief deel, waarin een aantal problemen van de definitieleer in hun historische context wordt beschreven (hstt. 2-4), een analytisch deel, waarin definiëren vooral als taalhandeling wordt geanalyseerd op zijn waarde voor de bedoelde functionele benadering, welke analyse vervolgens wordt geëvalueerd. Op grond van de analyse wordt een ideaalmodel geconstrueerd, dat wil zeggen: een procedure voor het ontwerpen van definities, aangevuld met een uitvoerige uitwerking (hstt. 5-7). Tenslotte is er het praktische deel, waarin de procedure wordt omgezet in praktische richtlijnen, waarin ook rekening wordt gehouden met de mogelijke afwijkingen tussen een algemene procedure en een incidentele definitietaak (hst. 8). Het overblijvende hoofdstuk is deels een samenvatting van wat er gebeurd is, maar ook van wat er niet gebeurd en toch wenselijk is: de beperkingen en de wenselijkheden. En dit in een omvang die de meest verstokte criticus het zwijgen oplegt (hst. 9).
Zijn descriptief deel begint Viskil met een hoofdstuk over de ‘Achtergronden van de studie van definities’. Met de keuze voor de beschrijving van het streven van een vijftal bewegingen in de eerste helft van deze eeuw | |
| |
naar betere communicatie, om op die manier de wereld te verbeteren en maatschappelijke conflicten te beslechten, schaart hij zich onder degenen die definities zien als een middel om communicatie te verbeteren, een uit filosofisch oogpunt vrij beperkt doel, maar uit sociaal perspectief weer een zeer pretentieus doel. Vandaar dat de verschillende bewegingen niet alle even veel zagen in het nut van het definiëren. Definiëren werd dan wel vaak te eenzijdig gezien als het (definitief!) vastleggen van betekenissen, dat als een bedreiging werd gezien voor de bewegelijkheid van taal en taalgebruik en dus ook weer van de communicatie. De filosofische pretenties van definities zijn in de loop der tijden zeer uiteenlopend geweest: van beschrijvers van de werkelijkheid, naar beschrijvers van ideeën, naar beschrijvers van woordbetekenissen, om het in grove trekken samen te vatten. Hier werden de pretenties steeds minder, vandaar dat de belangstelling voor de definitieleer onder filosofen niet al te groot meer is, met uitzondering dan van de formele definitieleer, die in de ontwikkeling van de formele logica in deze eeuw grote bloeitijden heeft gekend.
De historische beschouwingen voeren tot drie uitgangspunten die voor het hier gestelde doel van belang zijn: (1) ‘Definities moeten niet worden opgevat als uitspraken waarmee kan worden vastgesteld wat woorden in essentie betekenen of wat hun ‘noodzakelijk ware’ betekenis is.’ Taalkundigen zullen niet zo'n last hebben van dergelijke essentialistische opvattingen over definities, maar bij conflicten in argumentatie is het nog altijd een graag gekozen positie. (2) ‘Bij definiëren hoeft niet noodzakelijk gezocht te worden naar één criterium op grond waarvan kan worden bepaald op welke zaken het te definiëren woord van toepassing is.’ Dit is een verwerking van Wittgenstein's theorie van familiegelijkenissen, waarmee meer ruimte voor o.a. stipuleerders wordt gecreëerd. (3) ‘Het geven van een definitie dient te worden voorafgegaan door een begrips- en een betekenisanalyse.’ Hierbij baseert hij zich op een uitspraak van Nuchelmans, die overigens ook geïnterpreteerd kan worden als een argument om alleen de betekenis te analyseren. Daar draait het dan ook op uit, als Viskil aan het einde van het hoofdstuk stelt: ‘Ik ga er in het vervolg van deze studie van uit dat het beschrijven van de intensie of extensie van een woord inhoudt dat tegelijkertijd de (descriptieve) betekenis van het woord beschreven wordt en het begrip dat met dat woord correspondeert.’ Dit laat natuurlijk onverlet dat het - zoals we in het vervolg zullen zien - verstandig is om zowel analyses die vanuit het perspectief van de betekenis als analyses die vanuit het perspectief van het begrip worden gedaan in de procedure voor definiëring moeten worden betrokken. Juist omdat ze met elkaar geïdentificeerd worden, worden ze ook beide in het proces betrokken.
Hoofdstuk 3 (Definities, betekenisanalyse en begripsconstructie) bevat een samenvatting van de definitieleer, zoals die verspreid in de vakliteratuur is te vinden. Viskil maakt daarin een terecht onderscheid tussen definitietypen en definitiedoelen. Dit voorkomt veel misverstanden bij de classificatie van definities en biedt de mogelijkheid om ze voor de op handen functionele benadering straks met elkaar te identificeren en de typen naar doelstelling of functie te onderscheiden. Het overzicht van definieerregels is een bonte kermis van allerlei regels die in de loop van de geschiedenis vaak klakkeloos zijn overgenomen, voor het ene doel misschien wel relevant waren, maar voor het andere niet. Ze zijn vaag in tegenstelling tot de pretenties die met definities zelf worden gekoesterd en bieden mogelijkheden te over tot verbetering, zoals met de dissertatie wordt beoogd. Ook worden in dit hoofdstuk bestaande methoden voor betekenisanalyse binnen lexicologie en semantiek besproken, evenals methoden voor begripsconstructie. Met name de methoden voor betekenisanalyse door middel van componentiele analyse worden wel heel summier behandeld, terwijl ze in de latere procedure toch een wezenlijke functie toebedacht krijgen. De beperking van de verkenning van het semantisch onderzoek tot een dan ook nog erg oppervlakkige benadering van Katz’ werk lijkt me wat te dol. Bovendien lijkt me een verkenning van meer moderne vormen van semantisch | |
| |
onderzoek in de cognitieve wetenschappen en de artificial intelligence zeker ook de moeite waard.
Hoofdstuk 4 (Het functioneel en methodologisch perspectief) bevat de bespreking van de meest uitgebreide verhandeling over definiëren die er deze eeuw is verschenen: Robinson's Definitions (1950) en van De Groot en Medendorp's Term, begrip, theorie (1986), dat meer op begripsanalyse is georiënteerd, maar waarin begrijpelijkerwijs ook uitvoerig aandacht aan definiëren wordt besteed. Robinson's boek heeft wel enige herdrukken beleefd. De invloed van zijn ideeën is echter relatief beperkt gebleven. Viskil ziet Robinson's verdiensten in het feit dat hij definiëren vooral als een activiteit ziet en daaruit voortvloeiend definities op grond van doelstellingen indeelt. De voorkeur voor Robinson bij Viskil lijkt me vooral terug te voeren op het feit dat - achteraf gezien - vanuit het perspectief van de definitie als taalhandeling Robinson een herinterpretatie verdiende. Zelf heeft hij overigens in latere edities nagelaten zijn werk in dat perspectief te plaatsen. De verdiensten van Viskil is het dit werk nu te hebben gedaan.
De Groot en Medendorp delen met de significi uit het begin van deze eeuw (Mannoury, Van Eeden, De Haan) het idee dat begripsanalyse kan leiden tot het opheffen van misverstanden en het vermijden van begripsverwarring. Zij zien het als een noodzakelijke voorwaarde voor het goede verloop van de wetenschappelijke discussie. Dit laatste is ook het belangrijke motief voor hun activiteiten. Ze ontwikkelen met het oog hierop een procedure voor begripsanalyse, die uitmondt in een definitievoorstel dat aan het wetenschappelijke forum dient te worden voorgelegd. Na een uitgebreide kritische bespreking, die een aantal beperkingen van de methode blootlegt, komt Viskil toe aan de verdiensten: ‘De signifische begripsanalyse biedt een kader voor het opstellen van definities die in de bestaande definitieleer niet te vinden valt.’ Dit komt onder meer tot uiting in de relatie die wordt gelegd tussen betekenisen begripsanalyse als aanzet tot de constructie van een definitie. Het feit dat een systematische manier van werken met een aantal concrete werkwijzen wordt gepresenteerd, is een vooruitgang binnen de definitieleer, waarin tot dan toe alleen op grond van een aantal min of meer willekeurige regels werd gewerkt die lang niet altijd terecht of van toepassing waren.
Ook ontdekt Viskil in hun werkwijze een nieuw soort definitie: namelijk een definitie die een combinatie is van lexicale en stipulatieve definitie. ‘Waar zuiver lexicale definities voor bepaalde doelen onbruikbaar zijn en zuiver stipulatieve definities vaak intersubjectief niet aanvaardbaar zijn, kan beter een definitie worden gegeven die een bewering inhoudt over de betekenis die volgens bestaand gebruik aan een term kan worden toegekend en waarmee die betekenis voor het eigen taalgebruik wordt gestipuleerd.’ Hoe het ook zij, waarschijnlijk is dit een heel frequente vorm van definiëren omdat er recht mee wordt gedaan een fundamenteel kenmerk van taalgebruik, het onderhandelingskarakter, op grond waarvan er voortdurend ook over woordbetekenissen wordt onderhandeld en op grond waarvan het vaak moeilijk is over zuiver lexicale of zuiver stipulatieve definities te spreken.
Hoofdstuk 5 (Definiëren als taalhandeling), het eerste analytische hoofdstuk, geeft een overzicht van de opvattingen van definiëren als taalhandeling, een intelligente kritiek en aanvulling op de beschrijving van definiëren door Van Eemeren en Grootendorst (1982, 1985) en een beschrijving van de geslaagdheidsvoorwaarden van vier soorten definiëringshandelingen: stipulatief definiëren, lexicaal definiëren, het op De Groot en Medendorf geïnspireerde stipulatief-lexicaal definiëren, en het reëel definiëren. Deze beschrijving stelt de auteur bovendien in staat tot een nauwkeuriger vergelijking te komen van deze definiëringsactiviteiten. Hier begint het eigenlijke werk van de dissertatie. Immers, hoeveel taalhandelingstheoretici zich ook met definiëren hebben beziggehouden - en er wordt er een hele reeks besproken - een analyse op het niveau van geslaagdheidsvoorwaarden had nog niet plaatsgevonden. Tot nog toe was de analyse blijven steken in min of meer losse beweringen over de klasse van taalhande- | |
| |
lingen waartoe definiëren zou moeten behoren. Nooit was het als hoofdthema van een afzonderlijke analyse behandeld. Dit is nu veranderd. Overigens geeft Viskil ook over de indeling van definiëren als taalhandelingstype een beter beargumenteerde visie. Hij karakteriseert definiëren als taalgebruiksbeweerder en taalgebruiksverklaarder. Natuurlijk roept dit de vraag op of er nog meer taalgebruiksbeweerders en -verklaarders zijn en hoe díe op hun beurt te karakteriseren zijn.
In hoofdstuk 6 (Begrijpelijk en aanvaardbaar definiëren) wordt de weg naar het ideaalmodel voor het opstellen van definities verder ingeslagen met de beschrijving van interne en externe doelen van het definiëren, de eisen aan adequate definities en de consequenties van inadequaat definiëren. De interne doelen worden uiteengezet met een beschrijving van de illocutionaire en perlocutionaire effecten van de vier definiëringsactivititeiten, door Viskil ook communicatieve en interactionele effecten genoemd. (Waartoe die dubbele naamgeving?) De externe doelen worden onderscheiden in communicatieve doelen, zoals het tegengaan van begripsverwarring, interactionele doelen, zoals het bevorderen van de oplossing van een verschil van mening, en epistemische doelen, zoals het oplossen van demarcatieproblemen. De eisen zijn de normale eisen van begrijpelijkheid en aanvaardbaarheid, maar er komt er nog een bij. Een definitie moet ook als zodanig herkenbaar zijn. Dit kan ik me in formele situaties wel voorstellen, maar in informelere situaties, bijvoorbeeld wanneer wordt uitgelegd wat een woord inhoudt lijkt me dit een overdreven eis. Neem de uitdrukking: ‘Serendipiteit, het vermogen om iets te vinden waar men niet naar zoekt, is een door uitvinders soms vurig gewenste, maar ook verwenste eigenschap.’
De volgende observaties zijn nu van belang:
(1) Ook al bedoelt de taalgebruiker hier een definitie te geven met het doel de betekenis van het woord te verduidelijken, voor de toehoorder of lezer is het van geen belang op grond van welke taalhandeling haar of hem die verduidelijking wordt aangeboden. Wat telt is de verklaring zelf. In meer formele situaties daarentegen, bijvoorbeeld in het geval van de definitie van ‘topsporter’, waar het gaat om een subsidieregeling voor de betreffende categorie, daar ontkomt men niet aan een definitie, die ook als zodanig wordt kenbaar gemaakt.
(2) In verklarende teksten, met name die voor een breed publiek, wordt het nadrukkelijk geven van definities, zoveel mogelijk vermeden. Auteurs maken dan gebruik van formuleringen als de bovenstaande. Voor de onwetenden doet de auteur eventueel een definitiebod, zonder het met evenveel woorden aan te geven; voor de wetenden is de definitie onterecht. Hier kan de appositie als versiering of reminder functioneren. In deze situaties wordt de herkenbaarheid als definitie bij voorkeur zoveel mogelijk gereduceerd of valt de auteur terug op polyvalente indicatoren.
(3) In gevallen waarin definities opereren binnen een netwerk van actoren met belangentegenstellingen, kan in discussies een subtiel spel ontstaan over de vormgeving van definities, waarin allerlei formuleringen worden uitgeprobeerd, zonder ze de directe lading van definities te willen geven, maar deelnemers beogen dat uiteindelijk wel. Zo kan ik me binnen de medische wereld een discussie over het begrip ‘huisarts’ voorstellen.
De eis van herkenbaarheid lijkt me dus lang niet altijd noodzakelijk. Pas als misverstanden op dit punt uitgesloten moeten worden, is het nodig.
Dan volgt het ideaalmodel voor het opstellen van een definitie. Hierin onderscheidt Viskil vijf fasen: (1) een doelstellingsfase, waarin de communicatieve context waarin de definitie moet functioneren, moet worden vastgelegd en het definitietype moet worden bepaald; (2) een analysefase, waarin begrip en woordbetekenis moet worden geanalyseerd; (3) een constructiefase, waarin de verschillende componenten van de definitie moeten worden bepaald; (4) een formuleringsfase, waarin de standaardparafrase van de definitie wordt vastgelegd; en ten slotte (5) een verantwoordingsfase, waarin een verantwoording plaatsvindt ten behoeve van het betreffende forum. Viskil ziet zijn model vooral als een heuristisch, een analytisch en een | |
| |
kritisch hulpmiddel bij het ontwerpen van definities.
Hoofdstuk 7 (Het opstellen van een definitie) geeft een uitwerking van de in het ideaalmodel beschreven procedure, waardoor het geheel meer gaat leven. Zo worden bij de formuleringsfase voor elk definitietype de standaardparafrases, die we uit de Amsterdamse argumentatieleer kennen, behandeld. Interessanter voor de praktijk lijken me echter de indicatoren voor de verschillende definitietypen, hoewel het een probleem zal zijn om ondubbelzinnige te vinden. Maar dit probleem is al behandeld.
Uiteindelijk komt Viskil in hoofdstuk 8 tot zijn ‘Richtlijnen voor het opstellen van definities’, die voor algemeen gebruik zijn bedoeld. De richtlijnen worden toegepast op twee voorbeelden: de definitie van ‘serendipiteit’ en van ‘definitie’. De richtlijnen, zeven in getal, betreffen de vijf genoemde fasen uit het ideaalmodel. Er wordt een planningsfase aan toegevoegd en de analysefase wordt opgedeeld in een betekenis- en een begripsanalyse.
Hoofdstuk 9 (Conclusie) bevat deels de samenvatting van het proefschrift, deels een aantal suggesties voor verder onderzoek. Opvallend is de suggestie voor empirische toetsing van het model op de vraag of taalgebruikers met de uit het model afgeleide richtlijnen kunnen werken. Wijst dit op een nieuwe wind in de Amsterdamse school? In of liever uit de richting van de ‘proceduristen’? Ook acht hij empirisch onderzoek nodig naar de vraag hoe taalgebruikers in de praktijk bij het opstellen van definities tewerkgaan. Voor mij mag er nog de suggestie bij hoe je optimaal aan de gestelde begrijpelijkheidseis kunt beantwoorden. Want hierover is nog niet zoveel te vinden, terwijl begrijpelijkheid toch als een eis wordt geïntroduceerd.
Viskil's studie vormt een belangrijke bijdrage aan de studie van definities. Zijn functionele benadering van dit onderwerp vanuit de taalhandelingstheorie is nieuw. Zijn procedure is - vooral voor definiëren in formele situaties - een praktische aanwinst die weliswaar nog toetsing en uitwerking behoeft, maar op zich een prima startpunt is voor situaties, waarin taalgebruikers, individueel of binnen organisaties, met definiëringsproblemen worden geconfronteerd. Voor meer informele situaties lijken de voorschriften me te stringent; minder mag ook.
De gegeven procedure is ook zeker van belang voor definiëringsactiviteiten in de terminologie, zoals die in nationale en internationale terminologiecommissies worden bedreven en waarvoor tot nog toe adequate procedures ontbreken. De Groot en Medendorp mogen vooral het belang van adequaat definiëren voor de wetenschappelijk discussie onderstrepen, het belang voor de technische wetenschappen en de aansluitende industriële toepassing ervan is zeker zo groot. De afwezigheid van de literatuur uit de praktijk van de terminologie en termino-grafie valt te betreuren, misschien niet vanwege de theoretische diepgang, wel om het inzicht in de dagelijkse problemen van beroepsdefinieerders, de doelgroep bij uitstek van de procedure.
Het boek leest prettig en dat is gezien de materie een belangrijke verdienste.
De balans tussen de loop van het hoofdlijn en de vele informatieve en boeiende voetnoten is in een goed evenwicht gehouden. Hoewel het toe te juichen is dat het boek in het Nederlands is geschreven, valt het tegelijkertijd ook te betreuren, dat met neme de ideeën uit het analytische deel hiermee geen ruimere verspreiding hebben gekregen.
De taalbeheersing of communicatiekunde beschikt nu over een basisontwerp van een functionele definitieleer en dat is winst.
J. van der Staak
| |
Bibliografie
Eemeren, F.H. van & Grootendorst, R. (1982). Regels voor redelijke discussies: een bijdrage tot de theoretische analyse van argumentatie ter oplossing van geschillen. Dordrecht: Foris. 1982. |
Eemeren, F.H. van & Grootendorst, R. (1984). Speech Acts in Argumentative Discussions: A Theoretical Model for the |
| |
| |
Analysis of Discussions Directed Towards Solving Conflicts of Opinion. Dordrecht: Foris. |
Groot, A.D. & Medendorp, F.L. (1986). Term, Begrip, Theorie: Inleiding tot de signifische begripsanalyse, Meppel. |
Robinson, R. (1950). Definition Oxford: Clarendon Press. |
| |
W. de Pater en R. Vergauwen (1992). Logica: formeel en informeel. Leuven: Universitaire Pers; Assen/Maastricht: Van Gorcum. ISBN 90 6186 509 3/90 232 2761 1. Prijs: f 54,- (372 pp.)
Logica: formeel en informeel is deels een inleidend, deels een meer specialistisch boek waarin diverse onderwerpen uit de formele en de informele logica (of argumentatieleer) aan bod komen. Door inzichten uit deze twee disciplines bijeen te brengen, trachten de auteurs de relatie tussen beide disciplines te verduidelijken. Waar mogelijk zoeken zij daarbij aansluiting bij inzichten uit de logica, dialectica en retorica van Aristoteles.
Het boek is bestemd voor een breed publiek: volgens de auteurs kunnen de geboden inzichten van belang zijn voor studenten in de logica, filosofen, psychologen en linguïsten (vooral Taalbeheersers). Om het boek bruikbaar te maken als inleidend leerboek, worden bij de meeste hoofdstukken oefeningen gegeven, die (samen met de antwoorden op een selectie van de oefeningen) in een bijlage aan het eind van het boek zijn opgenomen.
Logica: formeel en informeel bestaat uit drie delen. Deel I heeft betrekking op de traditionele logica, Deel II behandelt de symbolische logica en in Deel III worden een aantal kwesties uit de informele logica aangesneden.
In hoofdstuk 1 bespreken de auteurs verschillende klassieke en moderne definities van logica en van de begrippen ‘redenering’ en ‘redeneerschema’. Zij leggen uit wat onder geldigheid verstaan moet worden, gaan in op problemen bij de beoordeling van de geldigheid van redeneringen en bij het reconstrueren van de logische vorm van een redenering.
Als achtergrond bij de reconstructieproblematiek wordt in hoofdstuk 2 ingegaan op de vraag wat een redelijke interpretatie is. Om een definitie en een ethische fundering te geven van het begrip ‘redelijke interpretatie’ nemen de auteurs het samenwerkingsbeginsel van Grice als uitgangspunt. Hoewel dit beginsel zou kunnen worden uitgewerkt tot een ethiek, expliciteert Grice het ethische aan zijn beginsel en maximes niet. Op zoek naar het ethische fundament van de richtlijn dat men een redelijke interpretatie moet geven, bespreken de auteurs het principle of charity en vergelijken dat principe met Arnold Geulincx’ (1624-1669) ethisch onderbouwde hoofdregels voor de interpretatie. Geulincx maakt ook expliciet duidelijk hoe de ‘caritas’ of welwillendheid de interpretatie beïnvloedt. Bij een sterke (in de logica onderlegde) spreker dient de analysator een strikte rechtvaardigheid in acht te nemen, bij een zwakke spreker moet hij milder of welwillender zijn.
In hoofdstuk 3 beschrijven de auteurs de behandeling van drogredenen in de traditionele logica, aangevuld met meer recentelijk onderscheiden drogredenen zoals de ad-argumenten en de drogreden van de strekking. Hun bespreking van de klassieke lijst van drogredenen wordt afgesloten met een definitie: zetten in een discussie, die door hun verleidelijkheid wel succes kunnen hebben, maar niet geoorloofd zijn, omdat ze niet fair zijn tegenover de discussiepartner en/of kunnen afleiden van het doel van de discussie: het bereiken van theoretisch of praktisch inzicht.
De behandeling van de traditionele logica wordt in hoofdstuk 4 afgesloten met de Aristotelische syllogistiek. De syllogistiek kan nog niet echt een symbolische logica worden genoemd omdat er slechts in beperkte mate geformaliseerd wordt. Deze ‘gebrekkige’ formalisering maakt de syllogistiek volgens de auteurs juist een geschikt opstapje naar strenger geformaliseerde systemen. Ook om historische en systematische redenen achten zij het verantwoord hun behandeling van de formele logica te beginnen met het enige formeel-logische systeem dat | |
| |
van de oudheid tot aan de tweede helft van de vorige eeuw beschikbaar was. Ze bespreken onder meer de vier soorten categorische proposities, de figuur en modus van het syllogisme en de regels van het syllogisme.
Het deel dat aan de symbolische logica gewijd is, opent in hoofdstuk 5 met een uiteenzetting over de propositielogica. De auteurs bespreken de voor- en nadelen van formaliseren en verschillende methodes om redeneringen te testen (waarheidstafels, afleiding uit wetten, ontleding in elementaire redeneervormen en waarheidsbomen).
In hoofdstuk 6 wordt na een kort overzicht van verschillende soorten logica's een axiomatisch systeem van de syllogistiek gepresenteerd dat de overgang markeert van de traditionele naar de klassieke (meer geformaliseerde) logica. Hoofdstuk 7 is gewijd aan de predikatenlogica en hoofdstuk 8 aan de klassenlogica. Daarnaast worden er in dit hoofdstuk enkele noties uit de logica van de relaties en uit de modale logica besproken.
Het derde deel van het boek gaat over de informele logica en begint met een hoofdstuk over Aristoteles’ ‘informele logica’, de dialectiek. In dit vak leert men over elk gesteld probleem te redeneren en zichzelf niet tegen te spreken wanneer men een stelling verdedigt. De auteurs geven een zeer gedetailleerde bespreking van een aantal fundamentele noties uit de Topica. Zo gaan ze uitgebreid in op de leer van depraedicabilia, die betrekking heeft op de verschillende manieren waarop het predikaat in uitspraken als 'S is P' aan het subject kan toekomen. Ook Aristoteles’ categorieën (de meest algemene, niet-meerzinnige, onherleidbare termen in noemfunctie) komen aan bod. Verder wordt uitgelegd hoe een dispuut volgens de Topica diende te verlopen en wat de functie en status was van de ‘topoi’ of gemeenplaatsen.
In hoofdstuk 10 wordt ingegaan op de definitieleer, die een sleutelrol vervulde in de Aristotelische dialectiek, omdat een dialectische discussie steeds uitging van een bepaalde definitie, waarna er pogingen tot falsificatie van deze definitie werden ondernomen.
In de Nabeschouwing ‘Is dit allemaal logica’, gaan de auteurs na in hoeverre de besproken onderwerpen tot het terrein van de logica kunnen worden gerekend. Zij maken daarbij onderscheid tussen ‘de logica in ruimere zin’ of ‘methodologie’, waartoe ook de informele logica of argumentatieleer gerekend kan worden, en ‘de logica in strikte zin’, die beperkt is tot de formele logica.
In Logica: formeel en informeel worden een aantal belangrijke onderwerpen uit de formele en de informele logica in het algemeen op een verhelderende manier besproken. Ik denk dat dit boek vooral aan de in de argumentatietheorie ingewijde lezer besteed zal zijn. Het is aardig om kennis te nemen van minder algemeen bekende theorieën als de interpretatietheorie van Geulincx. De uiteenzetting van de topiek van Aristoteles biedt bovendien een uitstekende achtergrond voor wie in moderne dialectische benaderingen geïnteresseerd is. Hoewel de hoofdstukken over drogredenen en de definitieleer weinig nieuwe informatie bevatten, zijn deze hoofdstakken voor studenten Taalbeheersing toch de moeite van het bestuderen waard: ze bieden in kort bestek een overzicht van traditionele en modernere inzichten op deze terreinen.
Voor taalbeheersers die zich speciaal met argumentatietheorie bezighouden, zijn vooral de hoofdstakken van belang waarin de problematiek van de redelijke interpretatie (Hoofdstuk 2) en de Topica van Aristoteles aan bod komen (Hoofdstak 9). Het hoofdstak over drogredenen bevat niet veel nieuws (en is bovendien nogal onvolledig in de behandeling van modernere drogredentheorieën), en de stof uit de hoofdstakken over de formele logica, kan - hoe nuttig ook - al in bestaande logicaboeken gevonden worden. Wat het boek de moeite van het bestuderen waard maakt, zijn naar mijn mening de uiteenzettingen over de Aristotelische traditie. Het streven van de auteurs om ‘uit de traditie elementen naar boven te halen, die voor hedendaagse discussies van belang kunnen zijn’ (p. 207) is verhelderend, levert vaak verrassende inzichten op en maakt het mogelijk om ontwikkelingen in de hedendaagse argumentatietheorie beter te plaatsen.
| |
| |
Anders dan de titel misschien suggereert, biedt het boek zeker geen volledig overzicht van de ontwikkelingen op het terrein van de (moderne) informele logica en argumentatietheorie. Dat blijkt ook niet de bedoeling te zijn van de auteurs, al verwijzen ze wel op verschillende plaatsen naar modernere benaderingen van argumentatie. Met name de pragma-dialectische argumentatietheorie van Van Eemeren en Grootendorst noemen ze vaak als voorbeeld van een moderne dialectiek die een geschikt kader biedt om een nadere precisering te geven van de - ook volgens de auteurs - nogal vage termen in hun eigen definitie van drogredenen. Ze hebben echter ook kritiek op de pragma-dialectiek: ‘Redelijkheid is bij deze auteurs, zoals bij Grice, dus gekoppeld aan efficiëntie om het doel van een gesprek te realiseren. Wil redelijkheid tevens zedelijkheid zijn, dan zal dit (afgezien van het vermijden van geweld) vooral van dat te realiseren doel van het gesprek moeten komen, met name het benaderen van waarheid. Hier lijken onze auteurs wat te impliciet te blijven.’ (p. 57)
Van Eemeren en Grootendorst hebben zich echter wel degelijk over het ethisch fundament van hun theorie uitgesproken: ‘Whoever wants to resolve disputes and judges resolution procedures primarily on instrumental grounds with the main purpose being that joint cooperation achieves an optimally satisfactory result for as many individuals as possible [...] can be characterized as a utilitarian. [...] Bearing in mind Popper's plea on behalf of falsification [...], we consider a ‘negative’ variant of the basic principle of utilitarianism to be more effective here than ‘positive’ utilitarianism: a system of argumentation rules which encourages discussants to pronounce their doubts and to work out how far the disagreements ensuing from such expressions of doubt can be resolved, is preferable to a system of argumentation rules which seeks to ensure agreement.’ (1988:285-286)
Mijns inziens gaan de auteurs hier ook ten onrechte voorbij aan het feit dat Van Eemeren en Grootendorst naast eerste-orde discussieregels ook nog hogere orde condities onderscheiden, die vervuld moeten zijn om aan de voorwaarden van een redelijke discussie te kunnen voldoen (1988: 287-288 en Van Eemeren, Grootendorst, Jackson & Jacobs 1993: 30-34). Het is bij voorbeeld een conditie van de tweede orde dat de discussianten een juiste discussie-houding hebben en over voldoende argumentatieve vaardigheden en kennis van zaken beschikken. Vandaar dat specifieke strategieën voor hoe men met de zwakkere partner om moet gaan in de uiteenzettingen van het ideaalmodel en de eerste-orde discussieregels niet aan de orde zijn.
Erg didactisch van opzet is het boek van De Pater en Vergauwen, dat toch ook een inleidend leerboek pretendeert te zijn, niet. In hun voorwoord geven de auteurs de waarschuwing dat hoofdstuk 4 ‘zeker geen bedlectuur’ is. Helaas is deze kwalificatie voor de meeste hoofdstukken een understatement. Sommige voorbeelden zijn alleen voor theologen te begrijpen. Zo dient het volgende voorbeeld als toelichting van het filosofisch en theologisch belang van misleiding door de grammaticale vorm:
‘Was ‘genade’ geen substantief geweest, dan had men waarschijnlijk niet gesproken van ‘ingestorte genade’ (pijplijnmodel).’ (p. 82)
Sommige oordelen van de auteurs gaan tegen de gewone taalgebruiks-intuïtie in. Zo wordt de zin ‘Sommige pantoffels zijn warm’ als een schematisering gezien van de in het gewone taalgebruik meer gangbaar geachte zin ‘Sommige pantoffels geven warmte’. Ronduit onduidelijk wordt het als bij de introductie van de verschillende functies van taalgebruik meteen al voorbeelden van indirecte taalhandelingen worden gegeven, zonder dat er echt op de problematiek van indirect taalgebruik wordt ingegaan (‘Heb je nog niet door dat hij alleen maar onzeker is?’ als een typisch voorbeeld van bewerend taalgebruik en ‘Een hond is ook maar een mens’ als voorbeeld van directief taalgebruik). Hoewel het boek een aantal overzichtelijke schema's bevat, wordt het - juist bij de behandeling van de leer van de praedicabilia, een onderwerp dat zich bij uitstek voor schematisering lijkt te lenen - volledig aan de lezer overgelaten om de stof in schema te zetten: ‘Men kan | |
| |
dit gemakkelijk voor zichzelf in schema zetten’ (p. 216).
Een probleem dat door de presentatie van het hele boek heen speelt, is dat de auteurs verschillende groepen lezers tegelijk hebben willen aanspreken: vakgenoten en leken. Zij doen dit niet door een onderscheid te maken tussen meer inleidende hoofdstukken en hoofdstukken ‘voor gevorderden’, maar door het perspectief soms van alinea tot alinea te laten wisselen. Zo komt er in een elementaire uiteenzetting over wat nu precies een redenering is opeens de volgende - niet nader toegelichte - passage voor: ‘Dat een min of meer psychologische terminologie (zoals die van Thomas) nog geen psychologistische opvatting hoeft in te sluiten, blijkt bij Immanuel Kant. Aan het begin van zijn Vorrede [...] van zijn Kritik der reinen Vemunft [...] zegt deze nl. enerzijds dat de logica de wetenschap is die de formele regels van elk denken behandelt en bewijst, en anderzijds dat grensoverschrijdingen vanuit de logica naar psychologie en metafysiek geen uitbreiding maar verminking van de logica zijn.’ (p. 16)
A.F. Snoeck Henkemans
| |
Bibliografie
Eemeren, F.H. van & Grootendorst, R. (1988). ‘Rationale for a pragma-dialectical perspective’. Argumentation 2, 271-291. |
Eemeren, F.H. van, Grootendorst, R., Jackson, S. & Jacobs, S. (1993). Reconstructing Argumentative Discourse. Tuscaloosa/London: The University of Alabama Press. |
|
|