Op het breukvlak van twee eeuwen
(1976)–Jan Romein– Auteursrechtelijk beschermd
[pagina 423]
| |
Hoofdstuk XXII De triomf van het atoom‘Beschouwt men deze fase van de ontwikkeling der theorie van Lorentz kritisch, dan valt het dualisme op, dat daarin ligt, dat mathematisch punt in de zin van Newton en veld als continuum als elementaire begrippen naast elkaar worden gebruikt... H.A. Lorentz wist dat heel goed... De door de invoering van het veld begonnen revolutie was echter nog allerminst ten einde. Toen gebeurde het, dat omstreeks de eeuwwende onafhankelijk hiervan een tweede fundamentele crisis begon, waarvan de betekenis door Max Plancks onderzoek over de warmtestralen (1900) plotseling tot het bewustzijn doordrong.’Ga naar eind1 ‘De eerste fase [van de revolutionering der natuurkunde], die van 1895 tot 1916 duurde, kan men het heroïsch of het ongedifferentieerde aspect noemen, het amateur-tijdperk der moderne fysica. Nieuwe werelden werden erin verkend, nieuwe ideeën opgeworpen, in hoofdzaak met de technische en intellectuele hulpmiddelen van de oude negentiende-eeuwse wetenschap. Het was overwegend nog een periode van individuele prestaties: van de Curies en Rutherford, van Planck en Einstein, van de Braggs en Bohr. De natuurwetenschap, en met name de fysica zelf, hoorde nog thuis in het universiteitslaboratorium; ze had weinig nauwe verbintenissen met de industrie, de apparatuur was goedkoop en eenvoudig, het was nog de <lak-met-een-touwtje-periode>.’Ga naar eind2
In 1895 ontdekte Wilhelm Röntgen, professor in Würzburg, bij een studie van elektrische ontladingen in een glazen buis waarin een verdund gas was opgesloten, dat naast de reeds sinds 1859 bekende kathodestralen in de buis een nieuw soort straling buiten de buis optrad, die de merkwaardige eigenschap had bij een aantal stoffen fluorescentie teweeg te brengen. Deze stralen, waarvan hij de natuur niet kende, noemde hij x-stralen, en het bleek dat zij evenals lichtstralen op fotografische platen beelden konden te voorschijn roepen. Wat vooral opviel was het feit dat de nieuwe stralen zo buitengewoon penetrant waren, zelfs tamelijk dikke metaalplaatjes konden ze niet tegenhouden. De ontdekking werd onmiddellijk populair. Fysici vertoonden proeven met x-stralen aan bewonderende toehoorders, grappenmakers vonden een nieuw onderwerp voor jolijt. ‘Inderdaad is over gene ontdekking der laatste jaren, noch over de proeven van HertzGa naar eind3, noch over het opsporen | |
[pagina 424]
| |
van het argon en het heliumGa naar eind1, in weinige maanden zoveel gesproken en geschreven als over de onzichtbare stralen van Röntgen’, schreef Lorentz in 1896, die door de redactie van De Gids speciaal was uitgenodigd om het publiek over het nieuwe verschijnsel voor te lichten. Lorentz vergeleek de x-stralen met de kathodestralen, waarvan ze in vele opzichten verschilden, en eindigde met de hoop uit te spreken dat ‘wellicht na enige maanden het raadsel in hoofdzaak zal zijn opgelost’. Inderdaad werd na enige maanden het raadsel in zekere zin opgelost, maar alleen door nog veel grotere raadsels ervoor in de plaats te stellen. De ontwikkelingen die volgden waren zo opzienbarend, dat men met goed geweten de revolutie in de natuurkunde met die ontdekking der x-stralen kan laten beginnen. Wat gebeurde is dat op 20 januari 1896 Henri Poincaré, lid van de Franse Academie, op een zitting dezer Academie fotografieën met x-stralen liet zien, die hij van Röntgen had gekregen. Zijn medelid Henri Becquerel vroeg bijzonderheden: de nieuwe stralen kwamen van de plaats op het glas van de buis die door de kathodestralen was getroffen. Die ‘trefplaats’ bleek zelf fluorescent. Becquerel besloot te onderzoeken of andere fluorescente stoffen dezelfde eigenschap hadden, straling te ontwikkelen. Door zijn vader, Alexandre Edmond Becquerel, had Becquerel heel wat ervaring in die soort stoffen gekregen. Hij nam zekere zouten van het element uranium. Het bleek dat deze zouten, ook zonder eerst door licht bestraald te zijn, op een fotografische plaat, in donker papier verpakt, een beeld gaven. Blijkbaar zond het uraniumzout zelf een straling uit. Dat was iets geheel nieuws. De ontdekking, op 2 maart 1896 aan de Academie medegedeeld, verwekte groot opzien. En inderdaad, met haar begint de ‘geschiedenis der radioactiviteit’. Een gedenksteen op een der laboratoriummuren in de Jardin des Plantes in Parijs bewaart de herinnering. Ontdekking volgde nu op ontdekking. Becquerel vond spoedig, dat de radioactiviteit afhing van het element uranium, en niet van de manier waarop het met andere elementen verbonden was. Dat maakte de zaak nog vreemder: hoe kan een element, dat bij definitie onveranderlijk is, straling, en derhalve energie, afgeven? En nu werden ook andere radioactieve elementen gevonden. In 1898 ontdekten Marie en Pierre Curie het polonium en het radium, veel sterker radioactief dan uranium. Radiumzouten fluoresceerden in de duisternis en konden door hun stralen ernstige weefselbeschadigingen veroorzaken. E. Rutherford en F. Soddy kwamen hierop, tussen 1899 en 1903, met een nieuwe en verrassende theorie: radioactieve straling treedt op bij spontane desintegratie van atomen: ‘radioactiviteit kan beschouwd worden als | |
[pagina 425]
| |
een verschijnsel van subatomische chemische verandering’. Ze stelden reeksen van transformaties op, waarlangs het ene radioactieve element in het andere veranderde tot lood als eindprodukt ontstond. Daarbij werden drie soorten stralen uitgezonden, die geklassificeerd werden als α-, β- en γ-stralen. De α-stralen bestaan uit snelvliegende deeltjes, die uiteindelijk als heliumkernen werden geïdentificeerd. De β-stralen bleken evenals kathodestralen uit elektronen te bestaan, negatief geladen deeltjes die in andere theorieën ook al waren opgetreden. De γ-stralen waren kortgolvige elektromagnetische stralen, als de Röntgenstralen. Hier werden dus elementen in andere elementen veranderd - de tijd der alchimisten scheen teruggekeerd, al kwam er nog niet terstond goud. Dat de kathodestralen uit negatief geladen deeltjes bestonden, was door Jean Perrin in 1895 ontdekt en door J.J. Thomson in 1897 bevestigd. Thomson bepaalde de snelheid en de verhouding van massa en lading. De massa bleek 1/1840 van een waterstofatoom te zijn. Thomson stelde de hypothese op dat deze deeltjes in alle atomen aanwezig waren: In de kathodestralen hebben we de materie in een nieuwe toestand, een toestand, waarin de onderverdeling van de materie verder doorgevoerd is dan in de gewone gasvormige toestand.Ga naar eind1 Deze ontdekkingen ondersteunden die fysici, die van een atomistische structuur van de elektriciteit waren overtuigd, en waaronder H.A. Lorentz een vooraanstaande plaats innam. Lorentz was reeds in de jaren tachtig de herziening van de theorie van Maxwell begonnen door de overdracht van de elektriciteit door kleine geladen deeltjes aan te nemen, waarvoor hij omstreeks 1900 de door G.J. Stoney (1891) voorgeslagen naam van elektronen begint te gebruiken. ‘Wij stellen ons in alle ponderabele lichamen talloze uiterst kleine, elektrisch geladen deeltjes voor, met dien verstande dat elk lichaam, in zijn natuurlijke toestand, evenveel positieve als negatieve lading bevat. Die deeltjes noemen wij elektronen’, verklaarde Lorentz in 1901. Ondanks grote moeilijkheden was Lorentz in staat geweest verscheidene verschijnselen met zijn beschouwingswijze te verklaren, en vooral zijn verklaring van het zgn. Zeemaneffect (de splitsing van spectraallijnen als de lichtbron in een sterk magnetisch veld wordt geplaatst, 1896) verwekte grote bewondering. ‘Zie hoe gemakkelijk het nieuwe Zeemaneffect zijn plaats kant en klaar gevonden heeft, en zelfs heeft geholpen om het Faraday-effect onder te brengen, dat aan alle pogingen van Maxwell weerstand had geboden’, riep Henri Poincaré in 1900 uit.Ga naar eind2 In Lorentz' theorie der elektronen was de atomisch gedachte materie de enige plaats waar elektrische ladingen konden zijn; tussen de deeltjes is lege ruimte, waar het elektromagnetische veld is, veroorzaakt door de ladingen op de deeltjes. Er waren ook hier | |
[pagina 426]
| |
moeilijkheden in het dualisme tussen het materiële deeltje in de zin van Newton en het continue veld in de zin van Maxwell. Doch de successen die kort voor 1900 de leer der corpusculaire structuur van materie en elektriciteit zowel experimenteel als theoretisch had kunnen boeken, brachten binnen een tiental jaren de meeste fysici in het kamp der ‘atomisten’, dat juist in de tweede helft der negentiende eeuw veel aanhang had verloren. Maar daarmee was tevens de relatieve zekerheid, die de meeste fysici in de negentiende eeuw hadden gevoeld, verruild voor de onzekerheid van een nieuwe wereld. Inderdaad, de ontdekking van de Röntgenstralen, van de radioactiviteit, de atomistische structuur der α- en β-stralen, de successen van de elektronentheorie brachten alle een element van onzekerheid mee. Wat zou het nieuwe wereldbeeld nu worden? Wat moest men denken van een elektron dat zowel ‘ponderabele’ massa als lading had? Was die massa soms ook een vorm van elektriciteit, en moest het geloof, vaak aangehangen, dat elektriciteit een vorm van materie in de zin der mechanica was, vervangen worden door iets anders, bijv. dat de materie een vorm van elektriciteit is? Bovendien, wat moest men denken van de transmutatie der elementen? En waar kwam eigenlijk al die energie vandaan die zich in die emissie van stralen bij het radioactieve verval openbaarde - was dit in overeenstemming met de wet van het behoud van energie, een der grondpijlers van de structuur der negentiende-eeuwse wetenschap? Wat moest men nu eigenlijk onder ‘materie’ verstaan? En nu al die moeilijkheden zich begonnen op te hopen, gingen de gedachten van sommige fysici terug naar nog andere onopgeloste problemen, die al lang bestonden, doch waaraan slechts weinigen aandacht hadden besteed in de atmosfeer van vertrouwen in de klassieke fysica die al zoveel jaren zo goed had gediend.
In het algemeen kan men zeggen dat in de betrekkelijk rustige periode, die het Europa van de tweede helft van de negentiende eeuw doormaakte, de mening overheerste dat de grondslagen der natuurkunde eens en vooral waren verzekerd. Op deze grondslagen was een omvangrijke en indrukwekkende wetenschap opgetrokken: de mechanica zoals ze door Isaac Newton in 1687 axiomatisch was opgezet en in de achttiende eeuw tot een groot wiskundig systeem was opgebouwd (vastgelegd in de werken van Lagrange en Laplace), had haar bruikbaarheid als fundament der theoretische fysica overtuigend bewezen. Gedurende de negentiende eeuw had de theorie van het elektromagnetisme, gebaseerd op de experimenten van Faraday, een eigen positie veroverd, beheerst door de vergelijkingen van Maxwell welker resultaten eenzelfde nauwkeurigheid bereikten als die | |
[pagina 427]
| |
van de vergelijkingen der mechanica. Men was er in het algemeen met Maxwell van overtuigd dat deze elektriciteitsleer met behulp van mechanische modellen te begrijpen was. Nog in 1894 schreef Heinrich Hertz, de ontdekker van de elektromagnetische golven (waarvan het bestaan uit Maxwells vergelijkingen was voorspeld - Maxwell zelf had reeds de lichtgolven als zulke elektromagnetische golven verklaard) en een der meest kritische geesten onder de fysici, dat het probleem van de natuurkunde bestond in het reduceren van de natuurverschijnselen tot de eenvoudige wetten der mechanica - het kwam er op aan te ontdekken wat deze wetten waren. Het was verbazend hoeveel heterogene gebieden op de mechanica konden worden teruggevoerd: warmte, geluid, licht, hydro- en aerodynamica, diffusie, osmose, viscositeit, capillariteit, warmtegeleiding, waarbij nog de elektrische en magnetische verschijnselen, zij het met enige moeite, konden worden gevoegd. Al deze verschijnselen waren verbonden door de universele wet van het behoud der energie, die tevens een wet van de omzetting van energie was, van warmte-energie in elektrische energie enz. Aangezien eigenlijk alle energie mechanische energie was, en deze uiteenviel in potentiële en kinetische energie, waren alleen deze twee vormen van energie essentieel. Er waren verschillende opvattingen. Was het noodzakelijk voor de verklaring der natuurverschijnselen een corpusculaire, een atomistische structuur der materie aan te nemen? Het geloof in atomen was een erfenis der Grieken, en vele natuurfilosofen van de zeventiende eeuw hadden deze atomen weer aanvaard. Boyle, de chemicus, Newton, de fysicus, waren van de corpusculaire structuur der materie overtuigd. Maar Descartes was een tegenstander geweest. In het begin van de negentiende eeuw hadden Dalton en anderen de corpusculaire structuur der materie aan de chemici zo overtuigend uiteengezet, dat de gehele moderne scheikunde op het begrip van atomen en moleculen was opgebouwd - al was de scheikunde alleen maar geïnteresseerd in de verhouding der atoom- en moleculairgewichten. Voor vele chemici bleven atomen en moleculen echter toch maar een symbolische uitdrukkingswijze. Voor vele fysici was zelfs zulk een uitdrukkingswijze verdacht, al bleven er onder hen verscheidenen die de natuur niet zonder atomen of moleculen konden denken. De kinetische gastheorie, reeds in 1738 door Daniel Bernoulli opgesteld, bleef aanhangers tellen om de elegante wijze waarop zij mechanisch vele eigenschappen van gassen kon verklaren. In 1865 berekende Loschmidt hieruit het aantal moleculen in een kubieke centimeter gas - een getal dat volgens de wet van Avogadro (1811) van de aard van het gas onafhankelijk is. Kentekenend is evenwel | |
[pagina 428]
| |
de opmerking van Maxwell, zelf een aanhanger van de kinetische gastheorie, die nadat hij in zijn boek van 1873 de elektrolyse had behandeld op grond van een theorie van moleculaire ladingen, de verwachting uitsprak dat ‘het uiterst onwaarschijnlijk is, dat, wanneer we tot een begrip van de ware natuur van de elektrolyse komen, we in enigerlei vorm zullen vasthouden aan de theorie van moleculaire ladingen’.Ga naar eind1 De meest bekwame voorstander en nu ook voorvechter van de kinetische gastheorie in de laatste jaren der negentiende eeuw was professor Ludwig Boltzmann, maar hij werd een beetje als een zonderling beschouwd. De vermindering van de belangstelling in de corpusculaire structuur der materie was gedeeltelijk te danken aan de successen van de theorie van het veld. Faraday, in zijn pogingen de elektromagnetische verschijnselen te verklaren, had zich rondom de elektrische stromen en de magnetische polen krachtvelden gedacht, die onder omstandigheden uit potentiaalvelden konden worden afgeleid. Die velden werden dan gedacht in een ijle stof, gelijkmatig door de ruimte verspreid, die ether werd genoemd. En het bleek nu dat Newtons leer der gravitatie, die op de moeilijk te begrijpen afstandswerking van deeltjes berustte, ook als een veldtheorie kon worden opgevat. Deze gravitatievelden lagen dan in de ruimte, gewoonlijk met de ruimte van de euklidische meetkunde geidentificeerd. Zo had men gravitatie-, elektrische en magnetische velden, continue uitgebreidheden, waarin de elektrische ladingen en ponderabele lichamen lagen. Tot de natuurkundigen die meenden het bestaan van atomen of moleculen als metafysische begrippen geheel te moeten verwerpen, behoorde Ernst Mach, die in zijn - overigens vaak rake - kritiek tot dat fenomenalistische positivisme overging dat zowel Lenin als Planck zo scherp hebben gekritiseerd. Een andere bestrijder van het atoombegrip was Wilhelm Ostwald, die een ‘energetica’ opstelde, waarbij alle natuurverschijnselen konden worden beschreven als uitingen van verschillende vormen van energie. Deze ‘energetica’ heeft de nederlaag geleden, doch heeft de aandacht gevestigd op een belangrijk feit: dat de fysica der negentiende eeuw het begrip energie in het centrum van haar beschouwingen plaatste. Een energie die aan een zgn. ‘behouds-wet’ beantwoordde: bij alle verschijnselen bleef de totale hoeveelheid energie behouden. Dat was de negentiende-eeuwse aanvulling van - of substitutie voor - de wet van het behoud van de massa, die reeds in de achttiende eeuw was geformuleerd. Deze mechanistische natuurbeschouwing ging samen met bepaalde wijsgerige opvattingen. Het was in principe mogelijk, het verloop der natuurverschijnselen causaal te zien, en die causaliteit wiskundig te formuleren. In het eenvoudigste geval van een stelsel massapunten, aan centrale krach- | |
[pagina 429]
| |
ten onderhevig, betekent dit dat het gehele toekomstige gedrag van dit stelsel bepaald is als op één moment plaats en snelheid van ieder massapunt zijn gegeven. Deze grootheden moeten dan gedefinieerd worden met behulp van een absolute tijd en een absolute ruimte, zoals dan ook Newton had gepostuleerd. Ondanks de moeilijkheden die in deze begrippen liggen, en die reeds door Huygens en Leibniz tegen Newton waren aangevoerd, waren de successen van de mechanica van Newton zo groot dat de meeste fysici en mathematici bereid waren de verdere verheldering maar aan de toekomst over te laten. Dit was ook het geval met de zwaartekracht, die een actie voorstelde tussen twee lichamen op een afstand van elkaar in de absolute ruimte gelegen: ook hier hadden Huygens en Leibniz bezwaar aangetekend. Newton had geantwoord: ‘de zwaartekracht is er, en hypotheses non fingo’. De theorie van het continue veld had hier enige verlichting der gewetensbezwaren gebracht. De voorstanders van een corpusculaire opvatting bleven eveneens actief. Dit kwam, zoals na 1900 dramatisch bleek, ook een andere theorie ten goede, en dat was de interpretatie die Boltzmann had gegeven van de zogenaamde tweede hoofdwet der thermodynamica. In deze theorie, die zich omstreeks 1850 onder de invloed van het toenemende gebruik van de stoommachine tot een eigen gebied ontwikkelde, is de wet van het behoud van energie als eerste hoofdwet bekend. In de loop der jaren had zich naast de eerste hoofdwet nog een tweede gesteld, de wet van het toenemen der entropie. De eerste wet kan in gelijkheden, de tweede moet in ongelijkheden worden uitgedrukt. Deze tweede wet, een ware Proteus, die in allerlei gedaanten, soms bijna tot onkenbaar wordens toe vervormd, in alle hoofdstukken der fysica indringt, kan als volgt worden uitgedruktGa naar eind1. Wanneer a en b twee evenwichtstoestanden van een lichaam zijn en wanneer men, om het stelsel van a naar b over te brengen, een hoeveelheid warmte dq moet toevoeren, dan geeft de uitdrukking d q/t (t: absolute temperatuur van het lichaam) aan hoeveel de entropie in b minstens groter is dan in a. Als men nu aan een stelsel van lichamen geen warmte van buiten toevoegt of onttrekt, dan kunnen er in dit stelsel geen veranderingen plaats hebben waarbij de totale entropie (de som van alle entropieën) kleiner wordt. In andere woorden, de entropie zal toenemen - tenzij ze in speciale gevallen constant blijft. In een andere, eenvoudiger, formulering: het is onmogelijk dat de veranderingen in een stelsel lichamen (afgesloten van de verdere wereld) ten slotte op niets anders zouden uitlopen dan dat een lichaam van lager temperatuur een zekere hoeveelheid warmte heeft verloren en een lichaam van hoger temperatuur een even grote hoeveelheid heeft gewonnen. | |
[pagina 430]
| |
Het merkwaardige in deze tweede hoofdwet is dat ze een richting in het natuurgebeuren aangeeft. Daardoor onderscheidt deze wet zich van de wetten van Newton en Maxwell, die een gebeuren beschrijven dat zowel in de ene als in de andere richting kan plaatsvinden. Het probleem dat dus ontstond, was te vinden hoe deze richting uit de klassieke wetten kon worden afgeleid. Dit gelukte aan Ludwig Boltzmann, die de vruchtbare gedachte had de kinetische gastheorie te verbinden met de eveneens al oude waarschijnlijkheidstheorie. De kinetische gastheorie tracht de gaswetten, bijv. die van Boyle, uit de beweging van kleine deeltjes af te leiden, die tegen elkaar en tegen de wand van het omsluitende lichaam botsen. Boltzmann voerde nu het begrip van de waarschijnlijkheid van een zekere distributie van gasdeeltjes in en baseerde de tweede hoofdwet op de eigenschap van deze deeltjes, steeds naar een waarschijnlijker toestand te streven. Nu definieerde hij de entropie als een functie dezer waarschijnlijkheid (k log w, w: waarschijnlijkheid). Met grote wiskundige vaardigheid - en zonder alle moeilijkheden daarbij op te lossen - wist hij zodoende de tweede hoofdwet der thermodynamica op een corpusculaire theorie der materie te baseren. Doch ook hier stuitte hij op een onwilligheid bij vele zijner collega's deze theorie - en zelfs de gehele kinetische gastheorie - ernstig te nemen. Toen hij dan zijn Vorlesungen über Gastheorie publiceerde (1896), leidde hij ze in met de opmerking dat hij deze zaak wilde bijeenbrengen, opdat ‘indien door latere geslachten de kinetische theorie mogelijk weer in ere hersteld mocht worden, niet alles opnieuw behoeft te worden ontdekt’. Wij kunnen van de kinetische theorie der materie niet afstappen zonder de in vele opzichten van de theorie van Boltzmann afwijkende statistische mechanica te vermelden, die de Amerikaanse hoogleraar Josiah Willard Gibbs in 1902 publiceerde, Elementary principles in statistical mechanics. Gibbs' uitgangspunt was dat in Newtons mechanica, in haar klassieke vorm, individuele systemen worden beschouwd, wier verloop in de tijd wordt nagegaan vanuit gegeven posities en snelheden. In vele gevallen kennen we echter die beginwaarden niet precies. Daarom is het gewenst een waarschijnlijkheidsverdeling van de onvoldoende bekende beginwaarden aan te nemen. Vervolgens moet worden nagegaan hoe dan die waarschijnlijkheidsverdeling met de tijd verandert. Deze theorie der ‘ensembles’, die evenals die van Boltzmann, ernstige wiskundige moeilijkheden opleverde, heeft steeds groter invloed uitgeoefend door haar verband met zulke verschijnselen als de zgn. beweging van Brown enerzijds, de communicatietheorie anderzijds. De wiskundige moeilijkheden zijn in de loop der twintigste eeuw, zoals we zullen zien, gedeeltelijk overwonnen. | |
[pagina 431]
| |
Wij moeten nog op een andere moeilijkheid wijzen, die juist omstreeks 1900 tot een intensieve discussie aanleiding heeft gegeven. Die moeilijkheid ontstond uit de pogingen iets meer te ontdekken omtrent het verband tussen de ruimte van de mechanica en die van de elektrodynamica, de ether. Dit leidde tot de experimenten in Cleveland van Michelson en Morley (1887), die ten doel hadden de beweging van de aarde door de ether vast te stellen. Men kan gemakkelijk begrijpen dat de tijd nodig om een stromende rivier van oever naar oever en terug over te zwemmen verschilt van de tijd om met de stroom mee en tegen de stroom terug eenzelfde afstand te zwemmen. In het experiment te Cleveland was de zwemmer een lichtstraal en de stroom was de ether die, zo ze met de absolute ruimte samenviel, langs de aarde zou stromen als deze zich door de wereldruimte beweegt. Lichtstralen werden dus heen en weer teruggekaatst tussen spiegels, de ene straal in één richting, de andere in een richting loodrecht op de eerste. Er bleek geen verschil te bestaan tussen de tijden die de ene en de andere lichtstraal voor gelijke afstanden nodig hebben. De betrekking tussen ether en absolute ruimte werd dus wel erg vreemd. Verscheidene verklaringen ad hoc werden gegeven, waarvan de contractietheorie van Lorentz-Fitzgerald (1892, 1897) grote bekendheid heeft verworven door de interpretatie die Einstein er in 1905, en Minkowski er in 1908 aan heeft gegeven. Een lichaam door de ether bewegend, moet een zekere samendrukking ondergaan, die voor alle lichamen dezelfde is. Lorentz, die aannam dat de cohesie van lichamen ontstaat door de krachten tussen elektrische ladingen in de moleculen, berekende dat de veranderingen van alle lengten in de richting van de beweging van de lichtbron uitgedrukt konden worden door de formule l = l0 √1-v2/c2 (l0: lengte voor snelheid v = o, c: snelheid licht); men ziet dat deze ‘Lorentz-contractie’ alleen waarneembaar wordt voor een zeer grote v, als bijv. bij de elektronen van de kathodestralen. Lorentz vond ook dat de tijd op analoge wijze getransformeerd moest worden. Maar wat betekende dit nu voor de leer van de absolute ruimte en tijd, die aan de klassieke dynamica ten grondslag ligt? Gold die alleen voor lichamen met snelheden veel kleiner dan die van het licht? En wat betekende dit weer voor het steeds weer opduikend probleem, de betrekking tussen ponderabele materie en elektrische lading, tussen deeltjes en veld?
In deze periode, waarin onverwachte en opzienbare ontdekkingen elkaar in stormloop opvolgden, werd door een verrassende nieuwe toepassing van de corpusculaire theorie op een gebied dat tot nu toe tot de klassieke | |
[pagina 432]
| |
thermodynamica had behoord, een nieuwe theorie geboren zo revolutionair, en tevens zo vreemd, dat het enige jaren duurde voor ze enige invloed kon uitoefenen. Max Planck, in Berlijn, had zich bezig gehouden met de theorie der warmtestraling (niet te verwarren met de straling die Röntgen, Becquerel en de Curies bezig hield). Reeds in 1860 had Kirchhoff uit thermodynamische beginselen afgeleid dat in een holle ruimte, omgeven door ondoorlaatbare wanden, op (absolute) temperatuur t gehouden, de energiedichtheid en de frequenties der straling van de samenstelling van de wanden onafhankelijk zijn. Dat was dus een wet die, evenals die van Avogadro over het aantal moleculen in een eenheid van volume, onafhankelijk is van de speciale natuur van het materiaal (de wanden, of het gas). Dit universele, absolute, karakter van de warmtestraling had herhaaldelijk fysici aangetrokken, die haar experimenteel bepaalden en theoretisch haar in bepaalde wetten vastlegden. Zo had in 1884 Boltzmann, ook op thermodynamische wijze, doch met behulp van Maxwells theorie, een verklaring gegeven van de wet van J. Stefan (1879), die leerde dat de totale energiedichtheid, over alle frequenties ν genomen, evenredig is met t4. Later had Wilhelm Wien, eveneens thermodynamisch en met behulp van de vergelijkingen van Maxwell, bijzonderheden gevonden over het verband tussen ϱ (ν, t) en de temperatuur t. Nu gelukte het aan Planck in 1900, na alle verkrijgbare experimentele waarden te hebben verwerkt, voor deze functie ϱ (ν, t) een precieze uitdrukking te vinden, namelijk ϱ = Aν3 [exp bν/t - 1] -1, waarin a en b constanten zijn. Planck, die steeds, in eigen woorden, ‘het streven naar het absolute als het schoonste doel van alle wetenschappelijke werkzaamheid beschouwde’, spande alle krachten in om deze formule ook theoretisch te verklaren. Het bleek nu, dat het niet gelukken wilde, deze verklaring te vinden met klassieke thermodynamische methoden. Ofschoon hij zich tot nu toe verre had gehouden van alle kinetische interpretaties, besloot hij nu in de voetsporen van Boltzmann te treden en de entropie van de straling op waarschijnlijkheidstheoretische grondslag te baseren. Deze bekering tot de corpusculaire opvatting leidde hem er toe, de straling te beschouwen als afkomstig van een groot aantal oscillatoren, die ieder een energie-‘quantum’ ε = hν uitstraalden, waarin h een constante was. Het lukte hem inderdaad, door de waarschijnlijkheid der toestanden te berekenen, de experimentele formule voor ϱ (ν, t) af te leiden. Dit resultaat, dat voor ϱ gaf: ϱ = 8πhν3/c3 [exp hν/kt-1] -1 werd in december 1900 gepubliceerd en was het begin van de quantumtheorie. Het merkwaardige was namelijk - en Planck vestigde er speciaal | |
[pagina 433]
| |
Pierre en Marie Curie in hun nog uiterst primitief laboratorium, niet veel meer dan een daarvoor aangepaste schuur. Hun werkwijze vertegenwoordigt een periode van louter individueel wetenschappelijk onderzoek zonder assistenten en indrukwekkende universitaire instituten. Foto Harlingue-Viollet.
| |
[pagina 434]
| |
de aandacht op - dat deze formule alleen verkregen kon worden door een energiequantum ε = hν, dus een corpusculaire structuur der uitgestraalde energie, in te voeren, tegen alle wetten der thermodynamica in die een continue verdeling der energie (ε = ο) eisten. De grootheid h (constante van Planck) bleek een nieuwe universele constante, zoals het getal van Avogadro en ook k (constante van Boltzmann). Deze constante h is uiterst klein: h = 6.55 × 10-27 erg sec., volgens Plancks berekening. Op deze hoogst technische wijze kwam de quantumtheorie aan het licht. Ofschoon Plancks resultaat door sommige collega's werd gewaardeerd - zo verklaarde Boltzmann zijn sympathie - vond zijn onderstelling nog verscheidene jaren lang weinig weerklank. Meer aandacht vond een door Rayleigh terzelfdertijd op klassieke kinetische gronden afgeleide andere formule, die op de zgn. equipartitie van de energie berustte, doch waarbij de energiedichtheid bij hoge frequenties oneindig groot zou worden - in lijnrechte tegenspraak met de experimentele resultaten, volgens welke de energiedichtheid juist naar nul gaat. Deze tegenspraak, wel ‘ultravioletcatastrofe’ genoemd, had Planck juist tot zijn revolutionaire hypothese gebracht; de door hem geformuleerde wet sluit ook bij hoge frequenties uitstekend aan bij de experimentele bevindingen. Eerst in 1905-'06 heeft de quantumtheorie haar eerste verdere succes te boeken gehad toen Einstein liet zien dat niet alleen de energie der oscillatoren, doch ook de straling zelf, corpusculair moest worden opgevat. Daarbij stelde hij scherp de tegenstelling tussen de nieuwe theorie en de klassieke dynamica en elektrodynamica. Nu kon hij een verklaring geven van verschillende verschijnselen, die tot nog toe grote moeite hadden veroorzaakt. Zo behandelde hij het zgn. foto-elektrische effect door de fotonen in te voeren, lichtquanta. Hiermee scheen de strijd tussen de twee klassieke lichttheorieën (Newton: deeltjeskarakter, Huygens-Fresnel: golfkarakter) hervat te zijn. Men begon echter geleidelijk in te zien dat het hier ging om twee elkaar aanvullende beschouwingswijzen en dat er geen sprake behoorde te zijn van elkaar uitsluitende eigenschappen van het licht. Enkele decennia later werd het fundamentele karakter van dit deeltjesgolf dualisme door de Broglie erkend, en zijn hypothese vond een schitterende bevestiging toen elektronenbundels (deeltjes dus) bij buigingsproeven een duidelijk golfkarakter vertoonden. De eerste van de volgende belangrijke stappen in de herziening van de fysica is Rutherfords model van de structuur van het atoom als een miniatuur zonnestelsel: een zware centrale positieve kern, omringd door zoveel elektronen, dat hun gezamenlijke negatieve lading gelijk is aan de positieve lading van de kern (1911). Dan, in 1913, komt Niels Bohr met | |
[pagina 435]
| |
zijn quantumtheoretische uitbreiding van dit model. De vurig verbeide synthese van de twee grote ontdekkingen van de nieuwere tijd: de atoomtheorie aan de ene zijde, de quantumtheorie aan de andere zijde, was nu althans in beginsel tot stand gekomen. In 1912 en 1913 vallen ook de onderzoekingen van von Laue over kristalstructuur. Daarmee had de corpusculaire theorie der materie de overwinning behaald. Niet weinig hadden daartoe ook bijgedragen de onderzoekingen over de beweging van Brown. Deze onderzoekingen, waaraan ook de naam van Einstein is verbonden, leverden nieuwe bewijzen van de kinetische theorie der materie. Het was Jean Perrin, die erin slaagde de dimensies der atomen te ‘meten’, en die de theorie samenvatte in zijn boeken, zoals Les atomes (1913). In 1910 kon Planck schrijven dat ‘op het gebied der warmteleer, der scheikunde, der elektronenleer de kinetische atomistiek niet meer slechts een arbeidshypothese is, doch een vast en duurzaam gefundeerde theorie’. De bewijzen voor de juistheid der atomistische theorieën hadden zich zo opgestapeld, dat in 1909 Ostwald zijn vroegere houding opgaf en zich aansloot bij de atomisten. De atoomtheorie had overwonnen - als quantumtheorie.
In 1905 publiceerde Einstein ook zijn eerste verhandeling over de relativiteitstheorie, waarmee hij een begin maakte met de moeilijkheden die in de begrippen absolute ruimte en absolute tijd waren opgesloten. Daarmee kon hij tevens de richting aangeven, waarin de tegenstellingen tussen de dynamica van Newton en de elektriciteitsleer van Maxwell in beginsel konden worden overwonnen op zulke wijze, dat Lorentz' elektronentheorie niet alleen bleef gehandhaafd, doch ook enige van zijn ad hoc postulaten niet meer nodig had. Dit bleek uit Einsteins afleiding van de Lorentz-Fitzgerald contractie, die een natuurlijk gevolg van de relativiteitstheorie is. Uit deze beschouwingen kwam Einsteins beroemde betrekking tussen massa en energie, die in de vorm e = mc2 een soort van symbool van de moderne periode der atoomenergie is geworden. De ruimte en tijd van de relativiteitstheorie werden door H. Minkowski in 1908 wiskundig tot op de bodem onderzocht. Met deze verhandeling begon de nieuwe fysica de resultaten van de stormachtige periode 1895-1905 te absorberen. De periode van het atoom brak aan, die in 1925 in de quantummechanica van Schrödinger en Heisenberg een nieuwere gedaante kreeg, waarin de ontdekkingen en theorieën der voorgaande periode hun plaats hebben gevonden. Het is ook gebleken dat in deze nieuwere fase der natuurkunde het begrip van de entropie en haar statistische grondslag eveneens in het centrum van het theoretisch onderzoek zijn gekomen. Wat energie was voor de negentiende eeuw, is de entropie voor de twintigste geworden: feit en symbool. | |
[pagina 436]
| |
In de periode waarover wij spreken zijn ook in de wiskunde nieuwe ideeën binnengedrongen, die hoewel meer continu uit de oudere wiskunde ontspruitend en minder naar buiten opvallend, toch zo ingrijpend waren dat men na enige jaren over een crisis begon te spreken. De negentiende eeuw had niet alleen een geweldige toename van de omvang van het wiskundig weten gebracht, tot een zekere eenheid gebracht door zulke beginselen als die der groepentheorie, doch had ook tot een verscherping van het grondslagenonderzoek gevoerd. De reeds uit de achttiende eeuw daterende behoefte, de differentiaal- en integraalrekening op hechte basis te stellen, was door een reeks onderzoekers van Bolzano en Cauchy tot Riemann en Weierstrass tot een antwoord gebracht dat velen bevredigde. Daarmee was een proces gemoeid geweest dat men de aritmetisering van de wiskunde heeft genoemd en waarin het onderzoek van de grondslagen tot die der aritmetica werd teruggevoerd. Gelijktijdig met deze stroming had zich onder de inspiratie van G. Boole een andere ontwikkeld, die de reeds van Aristoteles komende logica wiskundig trachtte te behandelen en zo tot een wiskunde van het logisch redeneren was gekomen. De stromingen vloeiden in zekere zin in één bedding in het werk van professor G. Frege uit Jena, die in een aantal werken tussen 1879 en 1903 een axiomatiek van de rekenkunde opstelde, waarbij hij de rationale getallen definieerde door middel van logische begrippen. Hij gebruikte de symbolische logica van de school van Boole niet, zodat Freges werk eigenlijk eerst werd gewaardeerd nadat Bertrand Russell zijn Principles of mathematics (1903) had gepubliceerd. In die jaren 1895-1905 publiceerde ook de Italiaanse wiskundige G. Peano, in zijn Formulaire de mathématiques, een aantal onderzoekingen in symbolische logica, waarbij hij de theorie der natuurlijke getallen uit vijf axioma's afleidde. Deze gehele gedachtengang, waarbij de wiskunde werd gereduceerd tot de leer der getallen, de getallen tot de natuurlijke getallen, en de natuurlijke getallen tot logische begrippen, is bekend als de logistiek. Deze logistiek vond haar apotheose in het driedelige standaardwerk: Principia mathematica van B. Russell en A.N. Whitehead, waarvan het eerste deel in 1910 verscheen (1910-'13). Deze boeken, geheel in logische symbolen geschreven, vormen een indrukwekkend en eigenlijk een beetje ontzagwekkend geheel, waarin getracht wordt de identiteit van logica en wiskunde te bewijzen. Naast deze logistische ontwikkeling in de axiomatiek der wiskunde zette zich in deze jaren ook nog een andere opvatting door, die in het onderzoek van de grondslagen der meetkunde haar oorsprong vond. De ontdekking van de niet-euklidische meetkunden enerzijds, der projectieve meetkunde | |
[pagina 437]
| |
anderzijds, leidde in de tweede helft der negentiende eeuw tot een hernieuwd onderzoek van de grondslagen der oude meetkunde van Euklides. In dezelfde periode, waarin G. Frege in Jena de axiomatiek der rekenkunde onderzocht, analyseerde zijn collega Moritz Pasch in Giessen de axioma's waarop de zgn. elementaire meetkunde is gebaseerd. Het bleek nu, dat deze meetkunde, reeds sedert Euklides het voorbeeld van een axiomatisch opgebouwd systeem, niet meer voldeed aan de eisen door het moderne onderzoek gesteld, en voor het eerst sinds de tijd der Grieken werd de axiomatiek der elementaire meetkunde streng onderzocht. Dit leidde in het werk van David Hilbert tot een geheel nieuwe axiomatiek, samengevat in zijn Grundlagen der Geometrie, waarvan de eerste druk in 1899 verscheen. Het feit dat nog onlangs de achtste druk van dit boek, uitgebreid en herzien, is verschenen getuigt van de invloed die van dit boek is uitgegaan. Voor Hilbert zijn punten, lijnen en vlakken namen voor eigenlijk onbenoemde elementen a, a, α, slechts gedefinieerd door de betrekkingen die tussen hen bestaan: twee elementen a en b definiëren een element a, enz. Theorema's zijn betrekkingen tussen die elementen, uit de axioma's afgeleid. Om een meetkunde te krijgen, waarin alle stellingen die daartoe behoren, bewezen kunnen worden, is het nodig dat de axioma's niet-tegenstrijdig zijn en een volledig systeem vormen. Het bewijs van deze eigenschappen berust bij Hilbert op bepaalde afbeeldingen van één stelsel op een ander. Zo kan de euklidische meetkunde door de analytische meetkunde op de algebra worden afgebeeld, die weer haar niet-tegenstrijdigheid ontleent aan de rekenkunde (de volledigheid is een speciaal probleem). Zo kwam Hilbert ten slotte ook tot de taak, de axioma's der rekenkunde te onderzoeken. Hij vatte deze taak echter anders op dan Frege en Russell. Een der redenen voor deze verscheidenheid was een derde, meer sensationele ontwikkeling. In dezelfde tijd als Frege en Pasch had nog een derde Duitse wiskundige, George Cantor, de theorie der verzamelingen ontwikkeld. Hij toonde hierin hoe men met oneindige stelsels een wiskundig systeem kan opstellen, waarbij zulke stelsels niet als groeiend, doch als afgesloten worden beschouwd. Hij liet dus zien hoe een gebied, dat tot nu toe bijna geheel het onbestreden gebied van de theologen was geweest - het verband tussen de begrippen potentieel en actueel oneindig - ook wiskundig kan worden behandeld, waardoor de ontleding der begrippen aanzienlijk verscherpt werd. Een voorbeeld van de verrassende resultaten die de leer der verzamelingen oplevert wordt gegeven door het feit dat de verzameling 1, 2, 3, 4,... ‘hetzelfde aantal’ getallen heeft als de verzame- | |
[pagina 438]
| |
ling 2, 4, 6, 8,..., als men definieert dat twee verzamelingen hetzelfde aantal elementen hebben als men tussen hen een een-eenduidige correspondentie kan opzetten.Ga naar eind1 Dit kan hier, als men 1 met 2, 2 met 4, 3 met 6, enz. laat corresponderen. Doch de tweede verzameling is een deel van de eerste. Voor oneindige verzamelingen geldt dus niet meer het euklidische postulaat, dat het geheel groter is dan een zijner delen. Aan oneindige verzamelingen, die op deze manier ‘even groot’ zijn, gaf Cantor een eigen, zgn. transfiniet getal. En dan toonde hij aan dat het aantal transfiniete getallen onbeperkt groot is. Het transfiniete getal behorende bij het continuum, bijv. bij de verzameling van punten op een lijnsegment, is groter dan dat van de verzameling 1, 2, 3, 4,..., de zgn. aftelbare verzameling. Toen men eenmaal begon de studie der transfiniete getallen ter hand te nemen, bleek het dat deze wiskunde niet alleen verrassende, doch ook verontrustende resultaten opleverde, of scheen op te leveren. Tussen 1895 en 1905 kwamen allerlei tegenstrijdigheden aan het licht. Tegenstrijdigheden in de wiskunde! Het lelijke en beschuldigende woord (is niet de wiskundige overtuigd dat zijn theorie ‘waar’ is?) werd gewoonlijk vervangen door het woord ‘paradox’ - men hoopte er maar het beste van. Sommige dezer paradoxen zijn zo technisch, dat we ze hier niet willen aanhalen. Andere kunnen in meer populaire vorm worden gevat. Toen eenmaal uit de leer der verzamelingen paradoxen te voorschijn kwamen, werd gezien dat ze verband houden met oudere paradoxen, zoals het bekende gezegde van de Kretenzer, dat alle Kretenzers liegen (als ze allen liegen, liegt ook de Kretenzer die het zegt, dus het is een leugen dat alle Kretenzers etc.). Een andere paradox is die van J. Richard, die als volgt kan worden geformuleerd. Men kan elk natuurlijk getal op de een of andere manier definiëren, en het aantal letters van die definitie tellen. Men beschouwt nu het kleinste natuurlijke getal dat men niet met minder dan honderd letters kan definiëren. Maar dan is dit getal hierdoor uitgedrukt met minder dan honderd letters! Zo heeft men paradoxen van G. Peano, C. Burali Forti en B. Russell. En men denkt hierbij ook aan de barbier in het dorp, die alle mannen m scheert, die zichzelf niet scheren, en die alleen. Behoort die barbier nu tot de verzameling m? Zo hij ertoe behoort scheert hij zichzelf niet, maar dan scheert hij zichzelf volgens de definitie die we van hem hebben! Men voelde omstreeks 1900 dat deze paradoxen geen spitsvondigheden waren, maar diep in de natuur der leer van het oneindige lagen. Tevens wezen ze op het verband tussen de grondslagenstudie der wiskunde en de semantica. Het streven van de logistici was erop gericht hun systeem zo te vormen dat de paradoxen niet konden voorkomen. Doch ook Hilbert | |
[pagina 439]
| |
en zijn school moesten trachten de paradoxen te voorkomen. Zij deden dit door consequent door te gaan met het begrip der onbenoemde elementen. In deze school die de formalistische heet, wordt de wiskunde opgebouwd uit symbolen die afzonderlijk geen betekenis hebben en verbonden worden door abstracte relaties als ‘en’, ‘of’ enz. De formalisten weigeren te erkennen dat wiskundige begrippen kunnen worden herleid tot logische begrippen, die tot de logische paradoxen voeren. Wiskunde is de wetenschap van de structuur van objecten, die bestudeerd moeten worden met behulp van tekensystemen. Bij de opbouw van die tekensystemen moeten zekere regels worden opgezet, die alleen moeten voldoen aan de wet der niet-tegenstrijdigheid. Aan de opbouw van de wiskunde in deze zin - waarbij dus evenals in de logistische opbouw gebruik wordt gemaakt van een tekenschrift als in de symbolische logica - hebben Hilbert en zijn leerlingen vele jaren gewerkt. Noch Russell noch Hilbert hebben op volledig succes kunnen bogen, en in de laatste jaren is het gebleken dat een consequent pad der logistici en der formalisten beide tot grote, zo niet onoverkomelijke moeilijkheden voert. Daarnaast bleef altijd een stroming onder de wiskundigen bestaan, die tegenover beide opvattingen met wantrouwen stond, en dit grondvestte in een wantrouwen tegen de gehele leer der verzamelingen, zoals die door Cantor was opgebouwd. In de negentiende eeuw was de Duitse wiskundige Kronecker de hoofdvertegenwoordiger van deze stroming geweest. Na 1907 werd de woordvoerder van deze zgn. intuïtionistische richting de Nederlandse wiskundige L.E.J. Brouwer, die nadruk legde op het karakter van de wiskunde als een proces, als een activiteit, die niet zozeer met symbolen als met gedachten werkt. Men kan niet als Cantor deed, steeds maar nieuwe wiskundige objecten definiëren, doch men moet bij iedere definitie van een object aangeven hoe dit ook geconstrueerd kan worden. Het bezwaar, dat vele wiskundigen tegen deze opvatting hebben is dat vele gedeelten der wiskunde, zoals die in de loop der eeuwen, en in het bijzonder in de negentiende eeuw is gegroeid, of grondig gewijzigd of zelfs geheel verworpen moeten worden. De naam ‘intuïtionisme’ knoopt aan bij Kants opvatting, dat ruimte en tijd als a priori begrippen op zuivere intuïtie berusten. Nu kan Kants opvatting, na de ontdekking van de niet-euklidische meetkunden (1820-'40), niet meer gehandhaafd worden zover ze de ruimte betreft. Brouwer echter handhaafde het aprioristische karakter van de tijd. Zoals hij zich in 1912 uitdrukte: Hoe zwak ook de stelling van het intuïtionisme bleek te zijn na deze periode van wiskundige ontwikkeling, ze heeft zich hersteld door Kants aprioriteit van de ruimte op te geven, doch des te sterker aan de | |
[pagina 440]
| |
aprioriteit van de tijd vast te houden. Dit neo-intuïtionisme beschouwt het feit dat de levensmomenten uiteenvallen in kwalitatief verschillende delen, die slechts weer verenigd kunnen worden terwijl ze in tijd gescheiden blijven, als het fundamentele verschijnsel van het menselijk intellect. Dit gaat door abstractie van zijn gevoelsinhoud over in het fundamentele verschijnsel van het wiskundig denken, de intuïtie van het pure een-twee zijn. Deze intuïtie van het twee-een zijn, de grondintuïtie der wiskunde, schept niet alleen de getallen een en twee, doch ook alle eindige ordinaalgetallen doordat een der elementen van de twee-eenheid gedacht kan worden als een nieuwe twee-eenheid, welk proces onbeperkt herhaald kan worden.Ga naar eind1 Deze ‘oerintuïtie’ nu leidt tot de schepping der natuurlijke getallen, waarmee alle wiskundige begrippen geconstrueerd moeten worden. Dit doet denken aan de uitspraak van Kronecker (1886): ‘Die ganzen Zahlen hat der liebe Gott gemacht, alles andere is Menschenwerk.’ Het intuïtionisme leidt hieruit af dat men in de wiskunde alleen zulke objecten mag invoeren, die construeerbaar zijn, d.w.z. gegeven worden door een proces waarbij ze met elke vorm van benadering kunnen worden bepaald. Daarmee kunnen, zo verwacht het intuïtionisme, de paradoxen vermeden worden. Maar dit brengt Brouwer er ‘verder toe te ontkennen dat met het <of het een, of het ander> (een wiskundig object is of a, of niet-a) de wiskundige mogelijkheden uitgeput zijn. Het beginsel van het uitgesloten derde mag niet worden aanvaard voor zover het oneindige verzamelingen betreft. Hier geldt niet de stelling dat elke propositie óf waar óf fout is - er is een derde mogelijkheid. Zolang wij geen middel hebben om uit te maken of er in de decimaalontwikkeling van π zevenendertig achtereenvolgende nullen achter elkaar voorkomen, kunnen wij niet zeggen dat de stelling <in de decimaalontwikkeling van π komen zevenendertig achtereenvolgende nullen voor> waar of fout is.’ De problemen in de wiskunde, door de verschillende scholen opgeworpen en naar wier oplossing gestreefd werd, houden zich dus bezig met de vraag: wat is waarheid in de wiskunde? - en dus ook: wat is waarheid in alle wetenschap die op de wiskunde berust? Deze vraag, tezamen met de vraag die de natuurkunde zich terzelfdertijd stelde: wat is materie?, bracht zowel in de wiskunde als in de natuurkunde in de jaren na 1900 een toestand te weeg, die vaak als crisis is aangevoeld. Uit die crisis in de wiskunde is een nieuw gebied gegroeid, de zgn. metamathematica, dat zich bezig houdt met de vormen die de wiskundige gedachten kunnen aannemen; uit de crisis in de natuurkunde zijn de twee gebieden der quantumtheorie (na 1925) en der algemene relativiteitstheorie (na 1915) ge- | |
[pagina 441]
| |
groeid, die elkaar nog steeds niet gevonden hebben. Wat echter uit deze hele ontwikkeling in de wiskunde wel als algemeen eigendom voor het vak is gewonnen, behalve enige algemene beginselen (bijv. de overtuiging dat een definitie van een wiskundig object zo mogelijk met een recept voor een constructie moet samengaan), is het gebruik van een speciale symboliek om de fundamentele wiskundige gedachten uit te drukken. De grote veranderingen in de wiskundige taal, die de tegenwoordige periode (d.w.z. na 1940) kenmerken, zijn een direct gevolg van de crisis in de axiomatiek die rond 1900 plaatsvond.Ga naar eind1 Verder zullen de meeste wiskundigen, met alle respect voor het intuïtionisme, met Hilbert willen verklaren dat ‘niemand ons zal verdrijven uit het paradijs waarin Cantor ons heeft gevoerd’ (1925). Wij besluiten met nog een andere vernieuwing van de wiskunde omstreeks de wending van de eeuw. Ook zij kwam voort uit de discussies omtrent Cantors leer der verzamelingen, deze keer in de kringen der Franse wiskundigen, waarin opvattingen werden ontwikkeld die een eigen karakter dragen.Ga naar eind2 Voortbouwende op de leer van twee dezer verzamelingen, die der aftelbare getallen en die van het continuum, ontwikkelde Henri Lebesgue in zijn Parijse thèse van 1902 een herziene theorie van de integraal, omvattender dan de toen gebruikelijke, die van Riemann stamde (1854). Onder de theorieën die met deze nieuwe integraaltheorie algemener en tevens eenvoudiger geformuleerd konden worden, was de leer der trigonometrische reeksen. Deze reeksen, ook reeksen van Fourier genoemd, waren alreeds in de achttiende eeuw ingevoerd om trillingen in snaren te beschrijven, en leidden tot het moeilijke vraagstuk van het algemene karakter van een bewegingstoestand van een systeem dat uit eenvoudige trillingen lineair kan worden opgebouwd. De coëfficiënten van deze reeksen drukken zekere gemiddelden uit. Doch gemiddelden zijn karakteristieke begrippen van de waarschijnlijkheidsrekening. Zo kunnen wij plausibel maken dat de theorie van Lebesgue een grote betekenis heeft gekregen voor de grondslagen van de waarschijnlijkheidsrekening en de daarmee samenhangende ontwikkeling van de wiskundige statistiek. Nu was de waarschijnlijkheidsrekening, reeds in de zeventiende eeuw door Christiaan Huygens en anderen opgesteld, nog steeds een vak waarvan de grondslagen nogal moeilijk te begrijpen waren. Tot een eigenlijke crisis is het op dit gebied nooit gekomen. De toepasbaarheid der waarschijnlijkheidsrekening werd evenwel aan het begin dezer eeuw hoe langer hoe meer ingezien. Boltzmanns, Gibbs' en Plancks theorieën zijn hiervan een voorbeeld op theoretisch gebied, de aanwending van statistische methoden in de theorie der straling, bevolking, verkeer, communicatie enz. zijn | |
[pagina 442]
| |
voorbeelden op toegepast en praktisch gebied. Nu heeft Lebesgues theorie der integratie eraan medegewerkt dat op den duur vele van de wiskundige moeilijkheden in de waarschijnlijkheidstheorie en in het bijzonder in Boltzmanns en Gibbs' kinetische theorieën opgeruimd zijn. Ook aan de wiskundige verklaring van de zgn. Brown-beweging heeft Lebesgues theorie goede diensten bewezen.Ga naar eind1 We zien dus dat vele der nieuwe ideeën, die omstreeks 1900 in fysica en wiskunde opkwamen, doch onafhankelijk van elkaar, gedurende de verdere loop van de twintigste eeuw toch hun onderlinge samenhang hebben vertoond. Men zou dit verschijnsel, typisch voor de moderne tijd, nog met vele en belangrijke voorbeelden kunnen illustreren.Ga naar eind2 |
|