Tijdschrift voor Taalbeheersing. Jaargang 11
(1989)– [tijdschrift] Tijdschrift voor Taalbeheersing– Auteursrechtelijk beschermd
[pagina 1]
| ||||||||||||||||||||||||||||||||||
[Nummer 1]Kunstmatige intelligentie en gespreksanalyse: gescheiden of een lat-relatie?
| ||||||||||||||||||||||||||||||||||
1 Wat denken onderzoekers op het gebied van de kunstmatige intelligentie te kunnen hebben aan gespreks-analyse?1.1 Vraag-antwoord-systemen versus cognitieve modellenGedurende de afgelopen twintig jaar hebben onderzoekers op het gebied van de kunstmatige intelligentie diverse pogingen ondernomen om computer-programma's te ontwerpen die kunnen communiceren met de gebruiker (zogenaamde interactieve programma's). Daarbij is op diverse wijzen gebruik gemaakt van inzichten uit de gespreks-analyse. Bij deze pogingen kunnen we, zoals gezegd, twee verschillende invalshoeken onderscheiden: een groep onderzoekers ziet de natuurlijke dialoog als een bron van informatie met behulp waarvan de mens-machine interactie te vervolmaken is. Het zwaartepunt ligt dan bij het ontwerpen van dergelijke dialoogsystemen. Een andere groep onderzoekers lijkt meer uit op een simulatie van menselijk communicatief gedrag. De computerprogramma's dienen in dat geval meer om modellen van menselijk gedrag te toetsen op hun validiteit. In het laatste geval is er sprake van overlap in interesse van AI, cognitieve psychologie, linguïstiek, taalfilosofie en sociolinguïstiek. | ||||||||||||||||||||||||||||||||||
1.1.1 Vraag-Antwoord-SystemenLange tijd hield ‘onderzoek’ naar natuurlijke taal-verwerkende systemen niet veel meer in dan pogingen om zgn. vraag-antwoord-systemen te ontwerpen. (Rosenberg 1980) De achtergrond voor het ontwikkelen van deze programma's is de behoefte om leken in staat te stellen op meer natuurlijke wijze te communiceren met computers. De bruikbaarheid van een grote databank gaat immers gelijk op met het gemak waarmee een gebruiker zich toegang kan verschaffen tot die databank. | ||||||||||||||||||||||||||||||||||
[pagina 2]
| ||||||||||||||||||||||||||||||||||
Bij dit soort systemen is de vraag ‘of het werkt’ belangrijker dan de manier waarop het systeem gerealiseerd is. Er is doorgaans dan ook een gebrek aan belangstelling voor serieuze taalkundige onderwerpen. Ik zal enkele voorbeelden van vraag-antwoord-systemen bespreken. | ||||||||||||||||||||||||||||||||||
Voorbeeld 1: Frage und AntwortEen goed voorbeeld van een zgn. vraag-antwoord-systeem is een in Duitsland (Saarbrücken) ontwikkeld computerprogramma met de toepasselijke naam Frage und Antwort (1988).Ga naar eind2 Dit programma vervult een functie als intermediair tussen een databank en de gebruiker. Normaal gesproken moet men, om bepaalde gegevens uit een databank te verkrijgen, kennis hebben van de commando's van het bijbehorende programma. Om bijvoorbeeld records te selecteren die aan een bepaald criterium voldoen moet er iets ingetypt worden in de trant van LOCATE FOR of FIND. Het programma Frage und Antwordt stelt de gebruiker in staat zijn vraag te stellen in gangbaar Duits (of Nederlands, afhankelijk van de versie van het programma). Vragen van het type ‘Mag ik alle auteurs die een boek gepubliceerd hebben na 1980’ worden moeiteloos door het programma verwerkt. Van een dergelijk programma kunnen we niet zeggen dat het daadwerkelijk taal ‘begrijpt’. Er is hier meer sprake van patroon-herkenning dan van begrijpen. De vragen die de gebruiker intypt worden afgezocht op het voorkomen van bepaalde sleutelwoorden of beter sleutelformuleringen, die vervolgens door het programma worden ‘vertaald’ in commando's van het type LOCATE FOR en FIND. Om die vertaling correct te kunnen uitvoeren hoeft het programma lang niet alle linguïstische problemen op te lossen die bijvoorbeeld bij automatisch vertalen komen kijken. Zo maakt het programma doorgaans geen punt van syntactische fouten in de input van de gebruiker: enkelvoud-meervoud verwisseling of spelfouten (d of dt) passeren net zo gemakkelijk als correcte input. Het feit dat het programma de meeste vragen makkelijk aankan heeft alles te maken met de omstandigheid dat de input redelijk voorspelbaar is. De programmamakers hebben kunnen anticiperen op die input en hun programma op dat beperkte terrein goed voorbereid. Als een willekeurige groep mensen zou proberen te verzinnen op welke manieren LOCATE FOR allemaal te omschrijven is, dan is het zeer waarschijnlijk dat al gauw zo'n 80 à 90 procent van de meest voorkomende formuleringen geproduceerd wordt. Bijvoorbeeld: Geef me de records (of de personen) die... De programmamaker weet welke zoekopdrachten het programma kan uitvoeren en hij/zij kan inschatten wat de meest gebruikelijke alledaagse formuleringen daarvoor zullen zijn. Het zal duidelijk zijn dat men bij het ontwerpen van een dergelijk systeem vooral geïnteresseerd is in de vraag hoe de databank het makkelijkst toegankelijk kan worden gemaakt. Men streeft geen nabootsing van de menselijke geest na.
Toch kun je niet stellen dat men op dit terrein absoluut geen boodschap heeft aan theorieën over de natuurlijke (menselijke) communicatie. Het blijkt namelijk dat gebruikers het over het algemeen zeer frustrerend vinden als een interactief computerprogramma op onduidelijke input ofwel helemaal geen response geeft ofwel domweg de oorspronkelijke vraag | ||||||||||||||||||||||||||||||||||
[pagina 3]
| ||||||||||||||||||||||||||||||||||
herhaalt zonder aan te geven wat er aan het antwoord mankeert. Wat mensen stoort is dat het programma op zo'n moment niet ‘coöperatief’ reageert. In de normale menselijke communicatie geldt het als zeer bruut of autoritair als een spreker zijn vraag letterlijk herhaalt alleen omdat het antwoord hem niet aanstaat.
Een meer coöperatieve en ‘beleefde’ houding van een spreker houdt in dat hij niet alleen maar gefixeerd is op het door hem verwachte en geprefereerde antwoord, maar integendeel ervan uit gaat dat zijn gesprekspartner een adequate en relevante reactie heeft willen geven. Op basis van die aanname kan hij de bedoeling van zijn gesprekspartner reconstrueren en aangeven welke onderdelen van het antwoord misschien nog onduidelijk zijn of zijns inziens ontbreken.
Cruciaal is de vraag in hoeverre een computerprogramma in staat is om verduidelijking te vragen op een gerichte manier (zodat het antwoord vervolgens wel verwerkt kan worden) of, misschien nog beter, zelf via inferenties te achterhalen op welke manier het antwoord wel relevant is om vervolgens zelf weer adequaat te kunnen reageren. In het hiervoor genoemde programma Frage und Antwort (en dat geldt voor een groot aantal soortgelijke programma's) wordt al op een klein aantal punten aan dit soort gebruikerswensen tegemoetgekomen: als het programma in de input een woord tegenkomt dat het niet kent (bijvoorbeeld ‘minimum’) komt het met de boodschap: Het woord ‘minimum’ ken ik niet. Het is beter dan een simpel: ‘nee’ of iets dergelijks, maar er is meer nodig. Het mooiste zou het natuurlijk zijn als het mogelijk was om het programma het Coöperatie-Principe van Grice (1967) mee te geven of de Rules of Politeness van Lakoff (1973). Maar dat is voorlopig nog toekomstmuziek. Volgens Rosenberg (1980) zijn de maximes van Grice nog zo inexact dat ze practisch onbruikbaar zijn voor implementatie. Rosenberg voegt daaraan toe dat alleen al het formaliseren van het maxime ‘be relevant’ waarschijnlijk even moeilijk is als het ontwerpen van een volledig interactief programma (p. 25). Waarom dat zo is is eenvoudig in te zien. Een maxime als ‘be relevant’ is door Grice wel in de vorm gegoten van een productie-regel, maar lijkt toch eerder te fungeren als interpretatie-regel. Dat wil zeggen als een programma kennis heeft van het maxime ‘be relevant’, dan zal het | ||||||||||||||||||||||||||||||||||
[pagina 4]
| ||||||||||||||||||||||||||||||||||
bij zijn interpretatie van input van gebruikers ervan uitgaan dat een gebruiker zich aan dit maxime houdt. Dit betekent dat, als de relevantie van een bepaalde uiting niet meteen duidelijk is, het programma op zoek moet gaan naar de link die de gebruikers-input verbindt met het voorafgaande. Daartoe moet het programma terug kunnen vallen op een grote hoeveelheid kennis van de wereld, (opgeslagen in semantische netwerken), op basis waarvan het inferenties kan maken. Als een programma niet beperkt wordt tot een bepaald domein en/of een bepaald soort gesprekken, zullen de benodigde netwerken in principe ontzettend complex moeten zijn. Daarnaast heeft Levinson (1981) nog gewezen op een heel ander type complexiteit van de conversatie, namelijk complexiteit die veroorzaakt wordt door de ‘gelaagdheid’ van de conversatie. In de menselijke communicatie kunnen heel gemakkelijk verschillende niveaus door elkaar heen aan bod komen. Twee mensen die tijdens het eten spreken over bijvoorbeeld hun werk kunnen moeiteloos een sequentie produceren en verwerken van het type:
Wee het computerprogramma dat hier op zoek gaat naar verbindende schakels tussen de op elkaar volgende uitingen! | ||||||||||||||||||||||||||||||||||
Voorbeeld 2: Spiliotopoulus & Shackel (1981)Toch blijkt niet iedere programma-ontwikkelaar bij voorbaat maar vast het hoofd in de schoot gelegd te hebben. Onderzoekers als Spiliotopoulus & Shackel (1981) proberen serieus een aanvang te maken met het inbouwen van elementen die de conversatie meer vloeiend maken. Uit experimenten van Spiliotopoulus & Shackel blijkt dat de aanvaardbaarheid van een interactief programma grotendeels bepaald wordt door een serie zogenaamde conversationele verschijnselen. Deze verschijnselen willen zij isoleren en in een apart conversatie-programma onderbrengen. Hun idee is dat de gebruiker dan een recht-toe-recht-aan vragenlijst kan invoeren, waaraan het programma vervolgens gebruikersvriendelijke elementen toevoegt. Het gaat dan om de volgende conversationele verschijnselen: opening van het gesprek (begroeting en introductie); stijlelementen (vriendelijke reacties van het programma op het antwoord van de gebruiker zoals ‘Dank u wel’ of ‘dat is jammer’ of ‘precies, dat is me nu helemaal duidelijk’; toevoegingen aan de kale vraag, bijvoorbeeld opmerkingen om de aandacht te richten op de volgende vraag: bijvoorbeeld ‘de volgende vraag is heel belangrijk’ of herformuleringen van de oorspronkelijke vraag: ‘heeft u vaak X?’ wordt dan ‘heeft u het idee dat u vaak X heeft?’) Het lijkt erop dat Spiliotopoulus & Shackel voornamelijk rekening houden met de Rules of Politeness, bijvoorbeeld in de genoemde herformuleringen en daarnaast veel aandacht hebben voor het structureren van het gesprek middels meta-uitingen. De aanpak van Spiliotopoulus & Shackel verraadt dat zij aannemen dat er onderscheid gemaakt kan worden tussen een ‘kaal’ interview bestaande uit imperatieven en recht-toe-recht-aan vragen van het type: ‘geef uw naam en adres’ en ‘hoest u veel? j/n’, waaraan gebruikersvriendelijke ‘franje’ toegevoegd kan worden om er een natuurlijk gesprek van te maken. Het is duidelijk dat Spiliotopoulus & Shackel het dan over een heel bepaalde categorie gebruikersvriendelijke verschijnselen hebben. Zij spreken bijvoorbeeld niet | ||||||||||||||||||||||||||||||||||
[pagina 5]
| ||||||||||||||||||||||||||||||||||
over inferentie-mechanismen waarmee indirecte opmerkingen of vragen gedecodeerd kunnen worden, zoals hiervoor beschreven onder de noemer coöperatief gedrag, maar meer over aangeklede formuleringen. Ook voor Spiliotopoulus & Shackel geldt dat hun belangstelling niet primair op de menselijke communicatie is gericht, maar dat deze belangstelling in dienst staat van het ontwerpen van een zo prettig mogelijk interactief programma. | ||||||||||||||||||||||||||||||||||
Voorbeelden 3 en 4: ELIZA (1966) en PARRY (1977)Ik wil op deze plaats twee programma's bespreken die deel uitmaken van de eerste lichting interactieve programma's en waarvan zeker de eerste als overbekend mag gelden: ELIZA en PARRY. ELIZA (1966) is ontworpen door Weizenbaum naar een model van een Rogeriaanse therapeut, PARRY simuleert het gedrag van een paranoïde patiënt. Ze zijn hier met name vermeldenswaard omdat ze een heel bijzondere plaats innemen tussen enerzijds de vraag-antwoord-systemen en anderzijds de cognitieve modellen. ELIZA heeft in de eerste plaats de beschikking over een serie steekwoorden waarmee zij de inputzin kan scannen en waar zij een gepaste reactie bij geeft. ELIZA kan het probleem van rolwisseling in de dialoog aan (‘ik’ wordt ‘jij’, ‘mijn’ wordt ‘jouw’ etc.) de werkwoordsvervoegingen daarbij aanpassen en een zelfstandig naamwoord bevragen. Een kort stukje dialoog met ELIZA zou er als volgt uit kunnen zien:
ELIZA heeft een beperkte hoeveelheid zeer eenvoudige semantische netwerken waardoor zij ook naar verwante zaken of attributen van het steekwoord kan vragen, bijvoorbeeld:
In dit voorbeeld is sprake van een netwerk ‘familie’, waartoe relaties als broer, zus, vader, moeder etc. behoren. Deze relaties zijn opgenomen als steekwoorden en het noemen van een van hen roept meteen de vraag ‘vertel me eens wat meer over je familie’ te voorschijn. Dat dit bij een dergelijke eenvoudige opzet vrij gauw tot minder gelukkige responsen kan leiden leert het voorbeeld:
Naast deze steekwoorden en voorgebakken reacties beschikt ELIZA over een arsenaal aan multi-toepasbare antwoorden als: ‘werkelijk?’ ‘wat akelig nou!’ etc. Belangrijk is dat ELIZA over een onbeperkt domein kan meepraten. Maar taalkundig gezien stelt ELIZA niets voor: ze heeft haast geen semantiek of syntaxis en geen ‘geheugen’. Alle input die binnenkomt is ze onmiddellijk na haar eigen response weer kwijt. Dat | ||||||||||||||||||||||||||||||||||
[pagina 6]
| ||||||||||||||||||||||||||||||||||
ELIZA ondanks dit alles op het eerste gezicht toch zo'n goede indruk maakt verraadt iets over de structuur van dit soort gesprekken in de werkelijkheid: Rosenberg (1980) suggereert dat veel conversaties (en hij sluit daar de meer taakgerichte gesprekken buiten) kennelijk zin voor zin verwerkt worden en dat daarbij niet of nauwelijks verwezen wordt naar eerdere delen van de discourse. Nu is dit laatste in zijn algemeenheid niet waar voor alledaagse conversaties. Maar wellicht gaat het wel op voor dat type therapeutische gesprekken (d.w.z. gesprekken op Rogeriaanse leest geschoeid). In die zin zou ELIZA gezien kunnen worden als een programma dat de stijl van een bepaald type gesprekken imiteert. Nog sterker geldt dit voor PARRY van Colby (1975). PARRY is ontwikkeld om een bepaalde theorie over paranoïde gedrag te toetsen. Als een interviewer met PARRY zou converseren dan zou het resultaat, het transcript, door experts niet te onderscheiden zijn van een transcript van een conversatie tussen die interviewer en een menselijke paranoïde figuur. Afgezien van het punt dat dit ‘niet te onderscheiden van’ misschien moeilijk te operationaliseren is, is de gedachte erachter interessant. Het plaatst PARRY (en ook ELIZA) in een bijzondere positie tussen de hiervoor genoemde practisch toepasbare vraag-antwoord-programma's en de zogenaamde cognitieve modellen. Het zijn geen cognitieve modellen als het gaat om syntactische of semantische vraagstukken; op dat vlak proberen zij niets menselijks te simuleren. Maar als het gaat om stijlen, om reactiepatronen dan is er wel degelijk van een poging tot simuleren sprake: bij PARRY is dat zelfs hoofddoel. | ||||||||||||||||||||||||||||||||||
1.1.2 Cognitieve modellenIn de tweede helft van de zeventiger jaren groeide de interesse voor dialoogsystemen en systemen die discourse kunnen ‘begrijpen’. In het kader daarvan kwam de nadruk te liggen op mogelijke systemen van kennisrepresentatie (en de daarbij behorende problemen van activering en controle). De bekendste bijdragen uit die begintijd zijn: Minsky's frame-theorie (1975) en Schank & Abelson (1975) met hun scripts. Een recent voorbeeld van een poging om een ‘begrijpend’ systeem te beschrijven wordt geleverd door Brady & Berwick: Computational Models of Discourse (1983), een verzamelbundel waaraan zowel linguïsten als psychologen als ook AI-onderzoekers een bijdrage hebben geleverd. Hierin gaat het nadrukkelijk om computerprogramma's die niet alleen uiterlijk de indruk geven dat ze wel aardig kunnen reageren op gebruikersinput, maar om programma's die ook werkelijk die input begrijpen. Met name het hoofdstuk van Allen gaat over de vraag hoe de hoorder de communicatieve intenties van de spreker kan herkennen. Een centrale term in dit proces is: plan-inferentie. Het idee van Allen is dat de hoorder nagaat wat het hoofddoel van de spreker zou kunnen zijn en welke subdoelen daarbij automatisch geïmpliceerd zijn. Sommige van die subdoelen kunnen misschien niet uitgevoerd worden zonder de hulp van de hoorder en vormen als het ware obstakels in het plan van de spreker. Een coöperatieve hoorder zal dan trachten deze obstakels uit de weg te ruimen. Aan de hand van het volgende (geconstrueerde) voorbeeld-fragment zal duidelijker worden wat hier bedoeld wordt.
| ||||||||||||||||||||||||||||||||||
[pagina 7]
| ||||||||||||||||||||||||||||||||||
B weet zodra A's plan bekend is (nl. groenten halen) welke obstakels er zijn voor A in dat plan: de groenteman is met vakantie en, als A dan naar de supermarkt zou willen, A heeft geen fiets. B reageert coöperatief: hij/zij loopt vooruit op het plan en ruimt vast wat obstakels uit de weg. We zien aan dit voorbeeld dat zogenaamde plan-inferentie (het afleiden van een plan) de coöperativiteit tussen twee gespreksdeelnemers kan bevorderen. We zien dit ook in het programma van Allen. Allen kiest als setting een treinstation en laat zijn programma de rol vervullen van perronwachter, een voor ons niet zo gebruikelijke post: de perronwachter verschaft de reizigers informatie over vertrekkende en aankomende treinen. Ook hierbij geldt dat de techniek van plan-inferentie de coöperativiteit van het systeem bevordert. Het systeem kan uit een vraag een totaal-plan afleiden en eventuele obstakels uit de weg ruimen (ook obstakels die niet expliciet aangegeven zijn). Bijvoorbeeld: een reiziger vraagt: ‘Hoe laat vertrekt de trein naar W?’ Het systeem ‘begrijpt’ dat die reiziger per trein naar W. wil. Uit de vraag blijkt dat het ontbreken van informatie over de vertrektijd van de trein een eerste obstakel is, maar bij het controleren van het overall-plan ‘ontdekt’ het systeem dat de reiziger nog een andere belangrijke informatie mist, namelijk het perron waarvandaan de trein zal vertrekken. Het systeem ruimt beide obstakels in een keer op met het antwoord: ‘Om vier uur van perron 5.’ Om plannen, doelen en handelingen te kunnen relateren aan taal grijpt Allen naar een combinatie van theorieën van Problem Solving en van Speech Acts (Austin, 1962 en Searle, 1969). Een plan wordt dan beschouwd als een opeenvolging van handelingen die de spreker van een bepaalde startpositie naar het gewenste doel brengt. Deze handelingen vormen een hiërarchische structuur: het effect of de uitkomst van de ene handeling vormt een beginvoorwaarde voor de volgende. Speech Acts worden op dezelfde wijze behandeld als fysieke handelingen binnen een plan: beide vormen zij de bouwstenen van het totaalplan. (Zie voor eenzelfde aanpak: Cohen & Perrault, 1979.) Bijvoorbeeld het stellen van de vraag: ‘hoe laat vertrekt de trein naar W?’ maakt onderdeel uit van het plan om naar W. te gaan.
Als we hier een voorzichtige vergelijking wagen met PARRY en ELIZA vallen meteen al een aantal dingen op. In de eerste plaats is het opereren in adjacente paren hier doorbroken. De hoorder reageert in dit model niet per se alleen maar op de laatste uiting van zijn gesprekspartner, maar probeert te reageren op onderliggende intenties. We zien hier een ontwikkeling parallel aan die binnen de conversatie-analyse: ook daar is de aanvankelijke gerichtheid op adjacente paren geleidelijk aan vervangen door een oriëntatie op discourse segmenten. Het beurtwisselingsmodel (Sacks e.a., 1978) ging nog uit van het idee dat er in principe na iedere voltooide uiting in een gesprek een beurtovergangsplaats zou zijn. Houtkoop & Mazeland (1982) onder andere hebben laten zien dat in een aantal gevallen grotere functionele eenheden te onderscheiden zijn (bijvoorbeeld verhalen) waarbinnen in principe geen beurtovername plaatsen zijn. Het recht om de beurt over te nemen is opgeschort tot aan het moment dat de spreker een duidelijk herkenbare intentie heeft kunnen realiseren. Aan het systeem zoals Allen dat beschrijft ligt eenzelfde idee ten grondslag: mensen | ||||||||||||||||||||||||||||||||||
[pagina 8]
| ||||||||||||||||||||||||||||||||||
reageren niet op losse, laatste uitingen. Coöperatieve gespreksdeelnemers proberen te vatten welke communicatieve intentie hun gesprekspartner heeft en daar op in te gaan. Een model van een coöperatieve interactant moet dit gedrag verantwoorden. Een tweede groot verschil heeft te maken met kennis van de wereld. ELIZA bijvoorbeeld kan over alles meepraten, maar ‘begrijpt’ er niets van. Allen's programma heeft een zeer beperkt domein: zijn programma is alleen thuis in aankomende en vertrekkende treinen, maar weet daar dan ook veel van. Het heeft ingebouwde planstructuren, in de vorm van boomstructuren, waarin gerepresenteerd wordt welke deelplannen of obstakels bij een bepaald hoofddoel horen. Het kan daadwerkelijk nagaan of een plan op een bepaald moment uitvoerbaar is of dat er nog serieuze beletsels zijn. Het kan daar informatie over geven en zelf anticiperen op de informatie die zijn gesprekspartner nodig zou kunnen hebben. Mensen hebben dit soort kennis van plannen en noodzakelijke tussenstappen echter niet alleen veel uitgebreider en gedetailleerder dan de nu voorhanden zijnde interactieve programma's, maar ook nog eens op veel meer terreinen. Allen's programma moet gezien worden als een eerste poging om deze veelheid van kennis en vooral het benutten van deze kennis bij inferenties te simuleren. Het is misschien nog niet opzienbarend, maar toch een stap vooruit vergeleken bij ELIZA's stoplap: ‘Vertel me eens wat meer over je familie’.
In het hiervoorgaande kwam de tegenstelling tussen vraag-antwoord-systemen en ‘begrijpende’ systemen aan bod. Opgemerkt moet worden dat de scheidslijn tussen de meer practisch gerichte belangen van de vraag-antwoord-systemen en de theoretische gerichtheid van de cognitieve modellen natuurlijk niet altijd even duidelijk is. Naarmate een programma de input van de gebruiker beter ‘begrijpt’, zal het ook adequater en flexibeler daarop kunnen reageren. | ||||||||||||||||||||||||||||||||||
1.2 Expliciet pleidooi van kunstmatige intelligentie-onderzoekers voor samenwerking met gespreks-analyse1.2.1 Goodman & Hein (1982)Uit het feit dat bijvoorbeeld aan het boek van Brady & Berwick is meegewerkt door zowel linguïsten als AI-onderzoekers blijkt impliciet dat er binnen beide disciplines onderzoekers te vinden zijn die samenwerking nuttig vinden. Een expliciet pleidooi van de kant van AI voor een nauwe samenwerking met de linguïstiek en met de conversatie-analyse in het bijzonder vinden we bij Goodwin en Hein (1982). Zij stellen dat met name die onderzoekers in de linguïstiek die geïnteresseerd zijn in taalgebruik of beter gezegd in cognitieve processen die een rol spelen bij taalgebruik (bijvoorbeeld onderzoek naar discourse planning of discourse productie) veel kunnen hebben aan wat binnen de AI ontwikkeld is op het gebied van controlestructuren (p. 243, 245). Goodwin en Hein merken op dat de linguïstiek een onderverdeling gemaakt heeft in het vakgebied (semantiek, syntaxis etc.) die niet is gestoeld op functionele onderscheidingen. Het zou beter zijn hier de werkwijze van AI over te nemen en per cognitieve taak te onderzoeken welke vaardigheden en kennis noodzakelijk zijn om die taak uit te voeren. Bijvoorbeeld om een taaluiting te begrijpen hebben we syntactische, semantische en pragmatische kennis nodig. Nu is het natuurlijk niet mogelijk al deze kanten van de zaak tegelijkertijd uitputtend te beschrijven. Dit zou echter niet in moeten houden dat slechts een van deze invalshoeken onderzocht wordt: eerst zou van al deze invalshoeken een | ||||||||||||||||||||||||||||||||||
[pagina 9]
| ||||||||||||||||||||||||||||||||||
gesimplificeerd en voorlopig beeld geschetst moeten worden, dat vervolgens een nadere uitwerking krijgt. Bij deze voorlopige schets en vooral ook bij het steeds verder verfijnen van deze schets zouden AI en ‘de linguïstiek’ moeten samenwerken, aldus Goodwin & Hein. Zij geven dan een recept voor hoe die samenwerking zou moeten verlopen. Het komt erop neer dat linguïsten in de eerste plaats systematische verzamelingen van empirische data aanleveren. Goodwin & Hein noemen dan met name data uit het empirisch onderzoek naar conversaties. (Op deze suggestie kom ik later nog terug.) ‘De linguïst’ zou deze dan moeten classificeren en systematisch beschrijven en initiële modellen moeten opstellen van menselijke cognitieve performance zoals af te leiden uit de data. Op basis daarvan probeert AI formele modellen van linguïstisch gedrag te construeren. Bij die poging ontstaan nieuwe vragen die AI-onderzoekers aan linguïsten zullen stellen: daarbij kan het zo zijn dat de AI-onderzoekers meer specifieke data vragen; ook kan het voorkomen dat AI-onderzoekers de aangeleverde data te specifiek vinden om te verwerken en tenslotte kan het zo zijn dat AI-onderzoekers geneigd zijn om bepaalde linguïstische hypothesen te herinterpreteren. (Dit laatste heeft te maken met de omstandigheid dat AI-onderzoekers meer procesgerichte modellen opstellen. Zie hierover ook G. Lakoff, 1978.) De bijdrage van AI zou dan resulteren in een formeel model van linguïstisch gedrag hetgeen geïmplementeerd kan worden en vervolgens getest. Bij dit testen zouden linguïsten en AI-onderzoekers weer samen moeten werken en de uitkomst samen evalueren. | ||||||||||||||||||||||||||||||||||
2 Wat denkt de gespreks-analyse te kunnen hebben aan onderzoek naar kunstmatige intelligentie?2.1 Conversatie-Analyse versus Discourse-AnalyseHet zal inmiddels duidelijk geworden zijn dat zowel AI-onderzoekers die zich met vraag-antwoord-systemen bezig houden als ook diegenen die meer op cognitieve modellen uit zijn ieder op hun eigen manier iets denken te kunnen hebben aan samenwerking met ‘de linguïstiek’ en met ‘de gespreks-analyse’ in het bijzonder. De vraag is nu of er evenveel enthousiasme bestaat in omgekeerde richting. Om deze vraag te kunnen beantwoorden moet in de eerste plaats vastgesteld worden dat er niet zoiets bestaat als ‘de gespreks-analyse’, maar dat in dit gebied minstens twee belangrijke deelgebieden te vinden zijn: te weten de Conversatie-Analyse en de Discourse-Analyse. Hierbij volg ik de indeling van Levinson (1983). Zijn indeling is wel wat te sterk aangezet in die zin dat er gesuggereerd wordt dat gespreks-analytici in het ene of in het andere kamp zitten, terwijl er meer sprake is van een scala, maar het voordeel van dergelijke rigoreuze indelingen is natuurlijk wel dat ze duidelijk zijn. De Conversatie-Analyse (CA) wordt gekenmerkt door een strikt empirische aanpak, welke voorbarige theorie-vorming vermijdt. De onderzoeksmethode is inductief; er wordt gezocht naar ‘recurring patterns across many records of naturally occurring conversations’ (Levinson, 1983: p. 287). Dit in tegenstelling tot de Discourse-Analyse (DA) waarin men onmiddellijk begint te categoriseren op grond van een (meestal) beperkte hoeveelheid materiaal. De CA is niet zozeer gericht op de vraag of een bepaalde keuze in de interactie ‘juist’ is (d.w.z. volgens de regels), maar kijkt naar de consequenties die die keuze heeft in de interactie. Verder beroept men zich in de CA zo min mogelijk op intuïtieve oordelen. De nadruk ligt op wat er werkelijk gebeurt, niet op datgene wat afwijkend (of acceptabel) ZOU zijn als het ZOU gebeuren. | ||||||||||||||||||||||||||||||||||
[pagina 10]
| ||||||||||||||||||||||||||||||||||
De DA zou te kenschetsen zijn als een poging om de traditionele linguïstische analyse niet langer te beperken tot losse zinnen, maar ook toe te passen op grotere eenheden. Men start daarbij vanuit een aantal basis-categorieën of discourse-units en voegt daar een aantal sequentie-regels aan toe die wel-gevormde sequenties (coherente discourse) moeten onderscheiden van gemarkeerde sequenties (niet-coherente discourse). Een soortgelijk onderscheid tussen Conversatie-Analyse en Discourse-Analyse vinden we bij Labov & Fanshell (1977). | ||||||||||||||||||||||||||||||||||
2.1.1 Conversatie-AnalyseHoewel Goodwin en Hein met name de CA noemen als meest geschikte tak van de gespreks-analyse om de AI-onderzoeker te voorzien van empirische dataGa naar eind3, zijn mij geen gevallen bekend van samenwerking tussen CA- en AI-onderzoekers, noch ook enig blijk van enthousiasme voor het implementeren van CA-resultaten van de kant van CA-onderzoekers. Er lijkt eerder sprake te zijn van een onverschillige zo niet laatdunkende houding ten opzichte van AI-onderzoek. Deze mag blijken uit schimpscheuten hier en daar in de CA-literatuur, zoals bijvoorbeeld een opmerking van Schegloff (1982) aan het eind van een artikel getiteld ‘Discourse as an interactional achievement’, namelijk dat er bij gespreksvoering sprake is van interactie tussen de gespreksdeelnemers en niet van een podium waarop scripts, die in de geest geschreven zijn, uitgespeeld worden. Een serieuze poging om de houding te bepalen tot AI-onderzoek is echter niet gauw te vinden met uitzondering van een artikel van Levinson (1981). In ‘Some pre-observations on the modeling of dialogue’ richt Levinson zich tegen het idee dat de structuur van de dialoog beschreven zou kunnen worden in een of andere formele taal. Hij doet dit door eerst vast te stellen dat de enige theorie op basis waarvan ooit een formeel model voor dialoog-voering ontworpen zou kunnen worden de speech act theorie is. En vervolgens legt hij uit waarom speech act modellen zijns inziens niet beschrijven wat er werkelijk in dialogen gaande is. Conclusie: formalisering van de dialoog is onmogelijk. Zijn belangrijkste kritiek op speech act modellen is dat deze in principe geen rekening houden met de context van de uitingen. Dit bezwaar laat zich met name gelden als het gaat om de behandeling van indirecte speech acts en bij antwoorden die meer betrekking hebben op de presupposities en implicaturen van de voorgaande uiting dan op de uiting zelf. In deze beide gevallen kunnen inferenties slechts gemaakt worden vanuit de specifieke context. Verder noemt hij nog als obstakel: de gelaagdheid van de conversatie, hetgeen al ter sprake kwam. De problemen die Levinson signaleert zijn inderdaad groot en nog lang niet opgelost. Al eerder kwam dit naar voren met betrekking tot het implementeren van het coöperatie-principe en van de politeness-regels en dat is natuurlijk precies waar Levinson hier ook op doelt. Levinson maakt het zich echter wel een beetje gemakkelijk door zijn aanval te richten op een heel rigide, ‘zuiver’ speech act model, namelijk een speech act model dat principieel geen verantwoording geeft van de context van de uitingen. Er zijn natuurlijk allerhande mengvormen denkbaar (en Allen's programma is daar een goed voorbeeld van) waarmee de door hem genoemde problemen op zijn minst iets verder opgelost zouden kunnen worden. | ||||||||||||||||||||||||||||||||||
[pagina 11]
| ||||||||||||||||||||||||||||||||||
2.1.2 Discourse-AnalyseHet is niet moeilijk in te zien dat de werkwijze van de DA nauw aansluit bij die van AI. Goodwin & Hein mogen dan wel benadrukken dat het startpunt van een AI-programma gelegen zou moeten zijn in de empirische data, van waaruit een model voor de menselijke cognitieve performance zou moeten worden opgesteld, de AI-praktijk is toch anders. Men kan moeilijk staande houden dat het idee dat mensen bij de verwerking van teksten gebruik maken van scripts, uit empirische data is afgeleid. Een goed voorbeeld van een geslaagd samengaan van gespreksanalytische (DA) en AI-optiek vinden we in het werk van Grosz en Sidner (1986). Zij geven een beschrijving van wat zij noemen ‘task-oriented dialogues’. Grosz en Sidner geven eerst een uitvoerige schets van hun discourse model om dan later, na de behandeling van het materiaal, bepaalde hypothesen wat bij te stellen (meestal af te zwakken). Uit deze gang van zaken blijkt al dat zij een typische top-down aanpak hebben: eerst is er het model en vervolgens zijn er de data om een en ander wat bij te schaven. Grosz en Sidner gaan ervan uit dat met name taakgerichte teksten bestaan uit discourse segmenten die hiërarchisch geordend zijn. De belangrijkste criteria op grond waarvan de segmenten van elkaar onderscheiden kunnen worden zijn:
Het laatste punt is hier met name van belang. Bij de bespreking van Allen's programma werd al gewezen op een verschuiving van de aandacht van adjacency pairs naar grotere functionele eenheden binnen gesprekken, waarbij vooral de onderliggende intentie van de gespreksdeelnemers in het geding is. Bij Grosz en Sidner zien we nu hetzelfde. Zij gaan ervan uit dat de deelnemers met het gesprek een bepaald doel na streven (the overall purpose). Men tracht dit doel te bereiken door onderscheiden tussendoelen te verwezenlijken, die onderling weer hiërarchisach geordend zijn. Per discourse-segment werkt men aan een dergelijk tussendoel (discourse-segment purpose). Zowel bij Allen als ook in het model van Sidner en Grosz wordt de interpretatie van discourse niet opgevat als het betekenis geven aan een serie (samenhangende) uitingen, maar als een proces van intentie- of plan-herkenning. | ||||||||||||||||||||||||||||||||||
3 Kiezen voor de kunstmatige intelligentie-optiek bij gespreks-analyseBij de vraag of de optiek van de kunstmatige intelligentie vruchtbaar is voor de gespreks-analyse kunnen we in de eerste plaats opmerken dat het streven van de AI-onderzoeker om beschrijvingen van cognitieve processen zo ver mogelijk te formaliseren duidelijkheid oplevert en eventuele zwakke kanten in de beschrijving aan het licht brengt. Cohen & Perrault (1979) bijvoorbeeld laten zien hoe hun poging om een procesmodel te ontwikkelen voor de speech act INFORM leidt tot een verfijning in de definitie van deze speech act. De vraag of een beschreven systeem ook daadwerkelijk geïmplementeerd is is op dit punt minder van belang. Wilks (1986) merkt op dat er veel studies zijn bijvoorbeeld op het gebied van de psychologie die zich duidelijk binnen het informatie-verwerkings para- | ||||||||||||||||||||||||||||||||||
[pagina 12]
| ||||||||||||||||||||||||||||||||||
digma bevinden, maar geen bijbehorende programma's hebben (en hetzelfde gaat op voor werk binnen AI zelf), terwijl in die gevallen toch waardevolle ideeën over bijvoorbeeld representatie naar voren gebracht worden. In de tweede plaats kan de invalshoek die AI-onderzoekers kiezen, namelijk het centraal stellen van de cognitieve processen die een rol spelen bij het verwerken van natuurlijke taal, een nieuwe impuls geven aan de gespreks-analyse. Het zwaartepunt wordt daarmee verschoven van de structuur van een gesprek naar het proces van de gespreksvoering. De hamvraag wordt: welke kennis en vaardigheden moeten gespreksdeelnemers bezitten om in staat te zijn op een bepaald moment in een gesprek een coherente bijdrage te leveren. McLaughlin (1984) onderscheidt twee manieren waarop onderzoekers het afbakenen van topics in gespreksmateriaal aanvatten: de zogenaamde ‘referentiële’ tegenover de zogenaamde ‘propositionele’ aanpak. Bij een referentiële aanpak definieert men een topic in een tekst als een tekstgedeelte waarin naar eenzelfde zaak of dezelfde zaken in de werkelijkheid wordt verwezen. Bij een propositionele aanpak beschouwt men een topic in een tekst als een tekstgedeelte waarin over een bepaalde zaak of zaken iets beweerd wordt. Een AI-benadering zou daarnaast ‘intentioneel’ genoemd kunnen worden: niet alleen de zaken waarover gesproken wordt vormen het aandachtpunt (referentieel) en ook niet alleen de standpunten die ten aanzien van die zaken worden ingenomen (propositioneel), maar vooral het kader waarbinnen deze zaken en standpunten ter sprake komen (intentioneel). | ||||||||||||||||||||||||||||||||||
Bibliografie
| ||||||||||||||||||||||||||||||||||
[pagina 13]
| ||||||||||||||||||||||||||||||||||
|
|