IS DE MENS EEN EINDIGE AUTOMAAT?

Gert-Jan Lokhorst

21 mei 1990

G.J.C. Lokhorst. Is de mens een eindige automaat? In F. Geraedts & L. de Jong, eds., Ergo cogito III, pp. 89-105. Historische Uitgeverij, Groningen, 1991. ISBN 90-6554-261-2.

Het mensbeeld van Kolmogorov

`Mensen zijn eindige automaten'. Deze provocerende stelling werd in 1956 door de Russische wiskundige Andrei Kolmogorov, één van de grootste wiskundigen van onze eeuw, in een serie colleges te Moskou verdedigd.

Het provocerende van de uitspraak is niet gelegen in de term `automaat'. Dat is slechts een technische uitdrukking, die in de wiskunde lang niet alle connotaties heeft die we er in de dagelijkse omgangstaal aan toekennen. Wiskundige automaten werken bijvoorbeeld lang niet zo `automatisch' als men geneigd zou zijn te denken. Ook indeterministische eindige automaten, die meerdere reacties kunnen vertonen op een reeks stimuli, zijn wiskundig gezien automaten.

Nee, het opmerkelijke van de stelling ligt vooral in de term `eindig'. Hiermee bedoelde Kolmogorov dat de mens slechts in een eindig aantal interne toestanden kan verkeren. Als een mens maar lang genoeg leeft zal er onvermijdelijk een herhaling van de inwendige configuraties optreden waarin hij al heeft verkeerd. Als het zover is zal hij precies hetzelfde denken, voelen, waarnemen en zich herinneren als hij al eens eerder heeft gedaan; hij zal geen enkel kwalitatief of kwantitatief verschil met het verleden kunnen bespeuren.

Het is natuurlijk niet uitgesloten dat een mens wel bijzonder lang zou moeten leven wil het ooit tot een dergelijke herhaling komen. Het aantal toestanden waarin onze lichamen (in het bijzonder onze hersenen) kunnen verkeren, zou immers wel eens heel erg groot kunnen blijken te zijn. Aan de andere kant is een werkelijke herhaling echter misschien ook niet nodig. Sommige toestanden zouden zozeer op elkaar kunnen lijken, dat het geen verschil maakt in welke we precies verkeren. Maar hoe dit ook zij, het lot van de mens ligt volgens Kolmogorov in principe vast: een ewige Wiederkehr van steeds maar hetzelfde is zijn deel.

Voor- en tegenstanders

Het oordeel van een groot geleerde als Kolmogorov kan natuurlijk niet zomaar terzijde geschoven worden. Dat is dan ook niet gedaan. De filosoof R.J. Nelson heeft het in zijn boek The logic of mind bijvoorbeeld tot het fundament van zijn gehele theorie van de geest gemaakt. Uiteenlopende verschijnselen als het verwachten van gebeurtenissen, het waarnemen van objecten, het hebben van kennis en overtuigingen en het toekennen van betekenissen aan zinnen kunnen volgens hem allemaal verklaard worden met de theorie van eindige automaten. Als er één goudmijn is voor de filosofie, dan is het volgens hem wel deze.

Er zijn echter ook critici: in zijn boek The emperor's new mind beweert de gerenommeerde wiskundige Roger Penrose (samen met zijn vader de uitvinder van de `onmogelijke figuren' die dankzij Escher zo beroemd zijn geworden) dat onberekenbare processen in onze hersenen een essentiële rol spelen bij het ontstaan van fenomenen als creativiteit, bewustzijn en wiskundig inzicht. Zulke processen kunnen zich nooit afspelen in eindige automaten. Wat deze wel en niet kunnen is precies te berekenen, omdat we een expliciete opsomming van al hun mogelijke gedragingen kunnen geven. Dit geldt ook voor de al genoemde indeterministische automaten; daarbij zal het aantal mogelijke gedragingen alleen wat groter zijn.

Uit deze twee standpunten blijkt al, dat het door Kolmogorov aangesneden onderwerp niet van marginaal belang is. Een juiste kijk erop is essentieel voor een goed begrip van de menselijke natuur.

Dit wordt nog des te duidelijker als we denken aan de implicaties die de these van Kolmogorov heeft voor de vraag of de mens een vrije wil heeft of deterministisch bepaald is. Het is namelijk bewezen dat deterministische eindige automaten precies equivalent zijn met indeterministische: voor iedere deterministische automaat is er een indeterministische die hetzelfde doet, en andersom. Als we zeker wisten dat mensen eindige automaten zijn, zouden we de eeuwenlange controverse over determinisme en indeterminisme meteen naar de mestvaalt van filosofische schijnproblemen kunnen verwijzen.

Hoe lossen we de vraag op of we eindig zijn of niet? Er is maar één methode: we moeten de blik richten op wat de modernste theorieën uit de wetenschap ons op dit punt te zeggen hebben. Vooral de modellen uit de theoretische neurowetenschappen verdienen de aandacht, omdat mensen in functioneel opzicht in de eerste plaats belichaamde hersenen zijn. Als deze theorieën ons op dit punt niet in het ongewisse laten, weten we of Kolmogorov gelijk had.

Theoretische neurowetenschap

De theoretische neurowetenschap is een nauwelijks ontwikkeld gebied. Hersenonderzoekers zijn vooral verzamelaars van feiten. Welke feiten verzameld worden wordt daarbij doorgaans gedicteerd door de beschikbare technieken. Men krijgt een nieuw apparaat en verzamelt daarmee net zo lang gegevens tot de mogelijkheden zijn uitgeput; als er een nieuwe onderzoekstechniek ter beschikking komt gaat men een ander soort gegevens verzamelen, maar het blijven feiten, feiten, feiten. Het onderzoek wordt niet gestuurd door theorieën, maar leidt een eigen leven.

In de afgelopen halve eeuw zijn er slechts enkele uitzonderingen op deze regel geweest. Slechts een handvol geleerden heeft kwantitatieve, wiskundige theorieën opgesteld die het collectieve gedrag van grote groepen van zenuwcellen beschrijven en verklaren. Op dergelijke theorieën zullen we ons in het onderstaande richten. Als de oneindigheid in deze theorieën een wezenlijke rol speelt, dan zullen we Kolmogorov's mensbeeld moeten afwijzen.

De logische neuronen van McCulloch en Pitts

De eerste wiskundige theorie voor het zenuwstelsel werd in 1943 opgesteld door McCulloch en Pitts. Deze theorie was tamelijk eenvoudig. Neuronen (zenuwcellen) kunnen slechts twee mogelijke activatiewaarden aannemen: ze zijn aan of uit. Of ze aan of uit zijn wordt bepaald door de prikkeling die ze ontvangen. In een McCulloch-Pitts netwerk zijn er twee soorten verbindingen, exciterende en inhiberende. De exciterende verbindingen moedigen een neuron aan om te vuren, de inhiberende remmen het neuron af. Of een neuron actief wordt, hangt af van wie er in deze touwtrekwedstrijd wint. Als de excitatie minus de inhibitie groter is dan een bepaalde in het neuron ingebouwde `drempelwaarde' (een soort recalcitrantie om actief te worden), dan zal het neuron tot activiteit overgaan en zelf prikkels uitzenden; anders blijft het op zijn lauweren rusten.

McCulloch en Pitts bewezen dat een dergelijk netwerk geheel beschreven kan worden in termen van `de' logica: de klassieke tweewaardige propositielogica die we bijvoorbeeld in de werken van Boole, Frege, Russell en Whitehead aantreffen. Een McCulloch-Pitts netwerk is een soort `vleesgeworden waarheidstabel'. Stop je de waarheidswaarden van de deelformules van een formule er aan de invoerzijde in, dan komt de waarheidswaarde van de gehele formule er aan de andere kant uit. McCulloch en Pitts bewezen zelfs dat iedere waarheidsfunctie uit de klassieke logica in een dergelijk netwerk ingebouwd kan worden: voor iedere functie is er een netwerk van deze soort dat precies deze functie berekent.

Een simpel voorbeeld van een McCulloch-Pitts netwerk is een netwerk dat uit twee invoercellen bestaat die ieder via één verbinding aan een enkele uitvoercel zijn verbonden. De gewichten (sterkten) van de verbindingen van de invoercellen naar de uitvoercel zijn +1, en de drempelwaarde van de uitvoercel is +2. Het zal duidelijk zijn dat de uitvoercel alleen zal vuren als beide invoercellen actief zijn; alleen dan overschrijdt de totale prikkeling de drempelwaarde. Als we de invoercellen met `A' en `B' markeren, staat de uitvoercel voor `A en B': hier hebben we een voorbeeld van een netwerk dat de logische functie `en' berekent. De activatietoestand van de uitvoercel geeft altijd de juiste waarheidswaarde van `A en B' weer als de activatietoestanden van de invoercellen van het netwerk de waarheidswaarden van `A' en `B' weergeven. Een netwerk voor `A of B (of beide)' zit op een analoge manier in elkaar: we hoeven de drempelwaarde van de uitvoercel slechts te veranderen in +1.

McCulloch-Pitts netwerken als eindige automaten

De McCulloch-Pitts theorie was lange tijd de enige kwantitatieve theorie voor netwerken van zenuwcellen. Zolang deze theorie het rijk alleen had, was het gemakkelijk om de vraag te beantwoorden of onze hersenen eindige automaten zijn. Omdat een logisch neuron van McCulloch en Pitts in slechts twee toestanden (aan en uit) kan verkeren, is het aantal toestanden waarin een dergelijk netwerk kan verkeren immers ook eindig. De zojuist als voorbeeld gegeven netwerkjes met drie cellen kunnen bijvoorbeeld slechts in acht (twee tot de derde) mogelijke toestanden verkeren. Kortom, McCulloch-Pitts netwerken zijn eindige automaten. Andersom is het niet moeilijk om te bewijzen dat er voor iedere eindige automaat--iedere abstracte automaat die slechts een eindig aantal interne toestanden kent--een McCulloch-Pitts netwerk geconstrueerd kan worden dat precies hetzelfde input-output gedrag vertoont. De twee begrippen zijn geheel equivalent.

Omdat McCulloch-Pitts netwerken (oftewel eindige automaten) logisch geheel doorgerekend kunnen worden, is er bijzonder veel bekend over wat ze in principe wel en niet kunnen. In 1956 publiceerde de Amerikaanse logicus Kleene de interessantste stelling op dit gebied. Kleene onderzocht welke soorten van reeksen gebeurtenissen in de tijd door deze netwerken kunnen worden herkend en geproduceerd. Hij ontdekte dat deze reeksen een bepaalde structuur moeten hebben: de netwerken kunnen alleen de zogenaamde reguliere verzamelingen herkennen en produceren. Als het om ingewikkelder soorten verzamelingen gaat, breekt hun eindigheid hen op en laten ze het afweten.

Automaten en talen

Het resultaat van Kleene werd vooral interessant in het licht van de wiskundige taalkunde die korte tijd later door Chomsky en anderen werd ontwikkeld. Chomsky ontwierp een hiërarchie van vier typen van talen, die door grammatica's met steeds `vrijere' herschrijfregels worden geproduceerd. Aan de basis staan de zogenaamde reguliere talen, die door de reguliere grammatica's worden voortgebracht. Vervolgens komen de contextvrije, de contextgevoelige en de opsombare talen, die door steeds sterkere grammatica's worden voortgebracht.

Men ontdekte al snel dat ieder type taal uit deze hiërarchie correspondeert met precies één type automaten, dat geschikt is om juist de talen van die soort te herkennen en te produceren. De reguliere talen bleken precies dezelfde structuur te hebben als de reguliere verzamelingen van Kleene, en dus precies te kunnen worden herkend en geproduceerd door de netwerken van McCulloch en Pitts, oftewel de eindige automaten. Voor de andere talen zien de correspondenties er, in oplopende automaat-sterkte, als volgt uit:

taal Chomsky-type bijbehorende automaat
regulier 3 eindige automaat
contextvrij 2 stapelautomaat
contextgevoelig 1 lineair begrensde automaat
opsombaar 0 Turing-machine

De Turing-machine is stellig de beroemdste automaat uit deze lijst. Een Turing-machine is niets anders dan een eindige automaat met een onbegrensde papierstrook. De machine kan tekens van de band lezen en zelf tekens op de band zetten. Bovendien kan zij over de band heen- en weer bewegen. Dat is alles. Ondanks haar eenvoudige karakter, is de Turing-machine echter de krachtigste machine die ooit is bedacht. Daarom heeft men wel voorgesteld om haar te gebruiken om de notie `berekenbaarheid' te definiëren: `berekenbaar' is niets anders dan `berekenbaar met een Turing-machine' (these van Church).

Een lineair begrensde automaat is net zoiets als een Turing-machine, behalve dat deze automaat alleen dat deel van de band mag gebruiken waar de initiële input op staat. Als er dus bijvoorbeeld 4000 tekens zijn aangeboden, dan mag de machine alleen die 4000 tekens door haar eigen tekens vervangen; de rest van de band is verboden terrein.

De stapelautomaat speelt in de rest van ons verhaal geen rol.

Zijn eindige automaten krachtig genoeg?

Voor ons doel is het interessantste aspect van de correspondentie tussen talen en automaten dat het ons een potentieel wapen aan de hand doet om de opvatting van de mens als een eindige automaat af te wijzen. Als de talen ene mensen spreken en verstaan niet-regulier zouden zijn, dan zouden mensen immers onmogelijk eindige automaten kunnen zijn: eindige automaten zijn niet bij machte dergelijke talen te beheersen.

De vraag is dus: van welk type zijn de talen die de mensen over de hele wereld spreken? Taalkundigen zijn het er in het algemeen over eens dat menselijke talen contextgevoelig zijn. De evidentie voor deze stelling is niet onomstotelijk; bovendien schijnt alleen het Zwitser-Duits duidelijke voorbeelden van contextgevoelige constructies te leveren. Maar laten we het algemeen gevoelen accepteren: mensen gebruiken talen die de krachten van eindige automaten te boven gaan. Het lijkt erop dat de these van Kolmogorov hiermee weerlegd is!

Toch is dit niet juist. Mensen hebben immers beperkingen. Misschien worden de talen die ze gebruiken perfect beschreven door contextgevoelige grammatica's, maar dergelijke grammatica's hoeven toch niet per se het hele verhaal te vertellen. We kunnen immers veilig aannemen dat mensen slechts kunnen omgaan met zinnen waarvan de lengte een zekere bovengrens niet overschrijdt. Zinnen met meer dan pakweg een miljard woorden zullen ze niet kunnen verwerken zonder een kladblok te hulp te roepen. Op een gegeven moment is hun hoofd gewoonweg vol!

Als dit zo is, dan zijn natuurlijke talen niet werkelijk contextgevoelig. Als we alleen naar zinnen van pakweg minder dan een miljard woorden kijken wekken ze deze indruk, maar zodra we langere zinnen beschouwen vervliegt deze schijn. Dan is de taal alleen nog maar regulier. Wat impliceert dit voor de automaat die de taal in kwestie verwerkt? Niets anders dan dat ze niet gezien moet worden als een lineair begrensde automaat met een onbeperkte invoerstrook, maar als één met een bepaald maximaal aantal vakjes op de band (in ons voorbeeld een miljard). Wat de natuurlijke talen betreft, kunnen mensen heel goed een dergelijk soort automaten zijn: eindige automaten die voorzien zijn van een beperkt werkgeheugen.

Het is echter gemakkelijk in te zien dat automaten van dit type niets anders zijn dan eindige automaten tout court: de vakjes op de band kunnen immers stuk voor stuk vervangen worden door simpele eindige automaatjes, en daarmee hebben we één grote eindige automaat gekregen. Kortom: de these van Kolmogorov is volledig gered. De schijnbare contextgevoeligheid van natuurlijke talen vormt geen bedreiging voor de opvatting van de mens als eindige automaat.

Het perceptron

Tot nu toe hebben we alleen nog maar de oudste theorie van zenuw-achtige netwerken bekeken: het McCulloch-Pitts model. Een prettige eigenschap van dit model is dat het eenvoudig genoeg is om geheel doorgerekend te kunnen worden, maar deze eenvoud heeft haar prijs: het model is te eenvoudig om recht te doen aan het zenuwstelsel. Het model heeft tenminste twee in het oog springende tekortkomingen. In de eerste plaats is het statisch. De verbindingen van de gewichten en drempelwaarden van de cellen kunnen niet veranderen in de loop van de tijd, en daardoor kan het netwerk in tegenstelling tot de hersenen niet leren. In de tweede plaats is het veel te gevoelig voor beschadigingen. Er hoeft maar één verbinding of cel uit te vallen, en er wordt een geheel andere logische functie berekend. In de hersenen sterven daarentegen duizenden neuronen per dag zonder dat dit merkbare gevolgen heeft.

In 1958 bedacht Frank Rosenblatt een netwerk-model dat niet aan deze tekortkomingen leed: het perceptron. In het perceptron werken tientallen verbindingen en cellen die ieder ongeveer dezelfde functie vervullen parallel aan elkaar. Daardoor is het uitvallen van enkele elementen hier niet fataal meer. Bovendien kan het perceptron uit zichzelf leren. Rosenblatt verzon een leermechanisme dat een perceptron kan gebruiken om zijn output te corrigeren. Met dit mechanisme stelt het de sterkten van zijn interne verbindingen op een zodanige wijze bij, dat zijn gedrag steeds beter wordt: zijn gedrag begint steeds meer te lijken op de voorbeelden van ideaal gedrag die aan het perceptron worden voorgehouden. Zo leert het zich, net zoals een braaf kind, precies zo te gedragen als men zou willen.

Het perceptron had één grote handicap: het bestond uit slechts twee lagen van cellen, namelijk invoercellen en uitvoercellen. Daardoor bleven zijn capaciteiten ver achter bij die van het McCulloch-Pitts netwerk. Omdat de prikkels in het netwerk direct van de inputlaag naar de outputlaag gaan en niet kunnen blijven rondcirkelen in het inwendige, heeft het perceptron geen dynamisch geheugen. De informatie wordt verwerkt en gaat meteen verloren. Wiskundig gezien is het perceptron een `eindige automaat zonder geheugen' of `eindige automaat zonder feedback'. Dergelijke automaten zijn zwakker dan eindige automaten met geheugen zoals het McCulloch-Pitts netwerk; ze kunnen niet eens de reguliere talen herkennen.

Backpropagation

Het perceptron bestond uit slechts twee lagen omdat men geen leerregel kon verzinnen voor meerlagige netwerken. Dat lukte pas in de jaren zeventig. In 1974 beschreef Paul Werbos een leerregel voor meerlagige netwerken, die hij echter slechts in zijn proefschrift publiceerde en daardoor door niemand werd opgemerkt. In het begin van de jaren tachtig werd deze leerregel door diverse personen herontdekt, en daardoor is het onderzoek van neurale netwerken de laatste tien jaar op een fenomenale manier opgebloeid. Theorieën van neurale netwerken zijn inmiddels toegepast in de neurowetenschappen, het kunstmatige intelligentie onderzoek, de cognitieve psychologie en in ontwerpen van nieuwe, parallel-werkende `neuro-computers'. Het is niet overdreven om te stellen dat het onderwerp tegenwoordig leeft als nooit tevoren.

De door Werbos ontdekte leerregel, die op het moment in zo'n tachtig procent van alle modellen van lerende neurale netwerken wordt toegepast, wordt de `backpropagation' (kortweg `backprop') leerregel genoemd. Deze benaming slaat op de manier waarop de gewichten in het netwerk tijdens het leren worden bijgesteld. Het leerproces gaat als volgt. Men biedt input aan het netwerk aan. De impulsen verplaatsen zich via de verbindingen door het netwerk heen, waarbij steeds een gelijksoortige afweging van negatieve en positieve impulsen en vergelijking met een drempelwaarde plaats vindt als in het McCulloch-Pitts netwerk. Als gevolg van deze golf van activiteit worden de elementen aan de outputzijde actief. De resulterende output zal echter niet altijd goed zijn. We zouden graag een bepaalde output gegeven de aangeboden input zien, maar het netwerk zit er doorgaans naast. Het verschil tussen de werkelijk vertoonde en de gewenste output wordt nu gebruikt als foutsignaal; dit signaal bepaalt hoe de verbindingen in het netwerk bijgesteld moeten worden. De backprop-regel zegt hoe de verbindingen precies moeten worden bijgesteld. Hij geeft aan in hoeverre iedere verbinding verantwoordelijk is voor de vertoonde fout en wijst op deze manier schuld toe aan de verschillende verbindingen. Hoe groter de schuld van een bepaalde verbinding, des te sterker zij zal moeten worden aangepast. Op deze manier vindt er een `terugverplaatsing' (backpropagation) van de fout aan de outputzijde plaats: iedere verbinding krijgt de haar toekomende `straf' voor haar bijdrage aan de fout in de output.

Backprop-netwerken zijn geen eindige automaten

Wat impliceert dit alles nu voor onze vraag of de mens als een eindige automaat kan worden beschouwd? De zaak lijkt heel vervelend te zijn: backprop-netwerken zijn namelijk zeker geen eindige automaten!

Het probleem met de backprop-leerregel is dat zij vooronderstelt dat de drempelwaarden van de cellen geen echte drempelwaarden zijn. De functie die bepaalt hoe actief een cel wordt als gevolg van de stimuli die ze ontvangt, is geen `alles-of-niets' functie, maar heeft een vloeiend verloop. Wiskundig gezien moet ze differentieerbaar zijn. Als ze dat niet is, weten we niet hoe we de fout over de verschillende lagen van het netwerk moeten verdelen. Als gevolg hiervan zijn cellen niet zonder meer `aan' of `uit'. Hun mate van activiteit kan onbeperkt veel tussenliggende waarden aannemen. Een cel kan dus in oneindig veel toestanden verkeren, en dit geldt a fortiori voor een geheel netwerk van cellen.

Het is echter de vraag of het oneindige aantal toestanden van backprop-netwerken wel zo'n wezenlijke factor is. Er zijn minstens vijf redenen om er geen groot gewicht aan toe te kennen.

Ten eerste ervaren de onderzoekers de eis dat de activatiefunctie differentieerbaar moet zijn alleen maar als storend. Hierdoor is het nodig om met reële getallen te rekenen, en dat gaat nu eenmaal veel trager dan rekenen met gehele getallen. Men is dan ook druk doende om de regel aan te passen voor discrete netwerken (netwerken met drempelwaarde-functies).

Ten tweede zijn de computersimulaties van backprop-netwerken (en hierop is al het onderzoek gebaseerd) altijd discreet. Een computer kan immers niet met echte reële getallen omgaan.

Ten derde kunnen de netwerken gemakkelijk gediscretiseerd worden (in netwerken met een eindig aantal toestanden worden omgezet) door aan te nemen dat de inputcellen echte drempelwaarde-functies hebben of de input anderszins omzetten in een eindig aantal signalen. (Net zoals een digitaal geluidsopname-apparaat.)

Ten vierde kunnen we de oneindigheid van het aantal mogelijke activatietoestanden buiten beschouwing laten als we aannemen dat het aantal mogelijke inputpatronen eindig is. Hier is iets voor te zeggen als we bijvoorbeeld het oog beschouwen. Er zijn slechts eindig veel receptoren op de retina, waarvan ieder wel of niet door een foton getroffen kan worden: kortom, slechts een eindig aantal mogelijke activatiepatronen.

Ten vijfde zou de gehele natuur weleens discreet kunnen zijn in plaats van analoog. Misschien is het hele universum een eindige automaat! Fysisch realistische backprop-netwerken zouden onder deze aanname misschien wel veel activatietoestanden per element mogen hebben, maar zeker niet oneindig veel. (Het vierde punt is een rechtstreekse consequentie van deze veronderstelling.)

De derde en vierde aanname worden des te plausibeler als men bedenkt dat mensen slechts een tamelijk grof waarnemingsvermogen hebben. We kunnen geen oneindig kleine verschillen waarnemen. Er zijn minima sensibilia, kleinste `waarnemings-atoompjes'; beneden een bepaalde drempelwaarde doen verschillen in de input er niet meer toe.

Gegeven deze vijf punten is er weinig op tegen om backprop-netwerken toch op één lijn te stellen met eindige automaten. Welk type eindige automaten zijn het wanneer we dit doen? Net zoals perceptrons zijn het geheugenloze eindige automaten. In backprop-netwerken mogen de signalen namelijk, net zoals in perceptrons, slechts één kant op lopen, van input naar output. Wanneer een signaal is verwerkt is het verdwenen.

Men is tegenwoordig druk doende om de regel zo uit te breiden, dat ze ook toegepast kan worden in netwerken met teruglopende (feedback) verbindingen. Zulke netwerken zouden volwaardige eindige automaten zijn, die bovendien het vermogen hebben om te leren. Vorderingen op dit terrein zijn reeds geboekt; er zijn al netwerken met recurrente (teruglopende) verbindingen beschreven die het gedrag van iedere willekeurige eindige automaat (mits deze niet te groot is) met behulp van de backprop-leerregel kunnen aanleren.

Hopfield-netwerken

Er is nog een ander soort uit zichzelf lerende netwerken waarvoor tegenwoordig een grote belangstelling bestaat: de netwerken die beschreven zijn door de fysicus John Hopfield. Hierin mogen de verbindingen in tegenstelling tot wat in standaard-backprop netwerken het geval is ook teruglopen, richting inputlaag. Hopfield netwerken zijn onder andere geschikt om als associatief geheugen gebruikt te worden en om ingewikkelde problemen waarvan de oplossing aan vele randvoorwaarden moet voldoen tot een oplossing te brengen. Een voorbeeld is het beruchte handelsreiziger-probleem, waarin een persoon een aantal steden langs de kortst mogelijke route moet bezoeken. Hopfield-netwerken lossen dit probleem behoorlijk goed en snel op, zelfs wanneer het om duizenden steden gaat.

Hopfield-netwerken zijn er in twee soorten. Binaire Hopfield-netwerken lijken op McCulloch-Pitts netwerken. Cellen kunnen slechts aan of uit zijn. Deze netwerken zijn equivalent met eindige automaten (met een geheugen). Daarnaast zijn er analoge Hopfield-netwerken, waarin de activatiewaarden uit de verzameling reële getallen komen. Dit zijn oneindige automaten, maar we kunnen dezelfde vijf punten tegen het belang van hun oneindige karakter inbrengen als we hierboven bij backprop-netwerken hebben gedaan. Als onze hersenen analoge Hopfield-netwerken zouden zijn (hetgeen overigens niet aannemelijk is), dan zou de these van Kolmogorov dan ook niet zonder meer opgegeven behoeven te worden.

De Boltzmann-machine

Hopfield-netwerken kunnen beschreven worden met wetten die allang uit de theoretische natuurkunde bekend zijn; ze lijken op zogenaamde `spinglazen'. Daardoor is de theorie van neurale netwerken voor een deel gaan behoren tot de fysica. Het is gebleken dat ook andere takken van de natuurkunde dan de spinglas-theorie vruchtbaar kunnen worden toegepast in het netwerk-onderzoek. Dit geldt in het bijzonder voor de thermodynamica. Hierdoor is er een variant van het Hopfield-netwerk ontstaan die ter ere van de negentiende-eeuwse vader van de statistische thermodynamica de Boltzmann-machine wordt genoemd.

In de Boltzmann-machine speelt een grootheid die `temperatuur' genoemd wordt een grote rol. De zenuw-achtige elementen van deze machine worden niet zomaar actief als hun netto-activatie de drempelwaarde overschrijdt. De kans dat ze actief worden hangt ook af van de `temperatuur'. Hoe hoger de temperatuur, des te geringer het verband tussen de prikkeling en het al dan niet actief worden van een element. De Boltzmann-machine ontvangt haar invoer bij een hoge temperatuur. De machine koelt vervolgens geleidelijk af. Op deze manier belandt ze tenslotte in een toestand met een heel lage `energie'. Metalen en kristallen met een laag energie-niveau worden op dezelfde manier gemaakt. Bij metalen noemt men dit proces `uitgloeien' of `ontharden', en daarom heet het bij netwerken `gesimuleerd uitgloeien'.

Met de Boltzmann-machine zijn we tamelijk ver verwijderd geraakt van de logische neuronen van McCulloch en Pitts. In feite heeft het netwerk-onderzoek de weg afgelegd die Von Neumann, de vader van de electronische computer, al in 1951 voorzag: `Dit alles zal tot theorieën leiden die in veel mindere mate dan de tegenwoordige formele logica een alles-of-niets karakter dragen. Zij zullen veel minder combinatorisch van aard zijn, en meer op het gebied van de differentiaal- en integraalrekening liggen. Er zijn in feite talrijke aanwijzingen dat dit nieuwe systeem van formele logica dichter in de buurt zal komen van een andere discipline die in het verleden nauwelijks met de logica is verbonden: namelijk de thermodynamica, voornamelijk in de vorm die Boltzmann eraan heeft gegeven, het gedeelte van de theoretische fysica dat in sommige aspecten het dichtst in de buurt komt van het manipuleren en meten van informatie.' (Von Neumann 1951).

Met de Boltzmann-machine moeten we ons nog meer in bochten wringen om de these van Kolmogorov overeind te houden. Deze machine kent immers niet alleen een oneindig aantal toestanden (evenveel als er reële getallen zijn), maar heeft ook nog de complicatie dat het begrip `kans' een rol speelt. Zelfs als we de oneindigheid als factor van betekenis hebben weggenomen door de vijf argumenten aan te dragen die we al hebben genoemd, dan houden we nog steeds een probabilistische eindige automaat over--en het is niet moeilijk om in te zien dat een dergelijke automaat doorgaans niet equivalent is met een eindige automaat. (Er zijn veel meer probabilistische automaten dan eindige automaten.) Willen we tot een reductie tot eindige automaat overgaan, dan moeten we ook nog aannemen dat er slechts eindig veel mogelijke kansen op een toestand zijn

Kunnen we het laatste wel doen? Mogen we aannemen dat temperaturen in eindige stapjes kunnen worden gemeten? Er lijkt eigenlijk niet veel op tegen. We kunnen analoge fenomenen immers tot iedere willekeurige graad van precisie benaderen met discrete middelen (zoals de evolutie van de compact-disk ons leert; vergelijk ook het eerste van de vijf hierboven genoemde punten). De overeenstemming zal nooit perfect zijn. Maar zouden verschillen op de miljardste plaats achter de komma er nu werkelijk zoveel toe doen bij het dagelijks reilen en zeilen van de mens? Dat lijkt onwaarschijnlijk. Nee, ook de Boltzmann-machine is geen werkelijke bedreiging voor de these van Kolmogorov, al staat zij nog zover af van de ideale logische automaat van McCulloch en Pitts.

Toekomstige netwerk-theorieën

Hiermee is onze tour langs contemporaine theorieën van de werking van neurale netwerken voltooid. Ongetwijfeld zijn de tot dusver voorgestelde modellen allemaal in sterkere of minder sterke mate onrealistisch; het zenuwstelsel zit veel ingewikkelder in elkaar dan deze geïdealiseerde modellen suggereren. Toch geven de modellen een goede indruk van welke kwesties er spelen als we een algemene theoretische visie op de hersenen willen ontwikkelen. Het onderzoek zal zich verder globaal in dezelfde richting bewegen; de toekomstige modellen zullen een zekere familiegelijkenis vertonen met de reeds voorgestelde.

In het bijzonder zullen zich steeds dezelfde kwesties aandienen als we ons over de vraag buigen of de theorie van eindige automaten nog wel adequaat is om de modellen te beschrijven. Ik denk dat we dan steeds tot dezelfde conclusie zullen komen als we hierboven hebben bereikt: de modellen mogen strict genomen wel niet eindig (discreet) zijn, maar hun oneindige (analoge) karakter is geen factor om serieus rekening mee te houden. De analoge aard van de modellen is een handige, grove benadering van de eindige werkelijkheid, niet andersom.

Hersenen als quantum-computers

De enige overgebleven tegenwerping tegen de opvatting van de mens als eindige automaat is het al genoemde quantum-mechanische argument van Penrose. Wat moeten we hiervan denken?

Penrose beweert dat de hersenen niet kunnen worden gezien als een discrete automaat zoals een eindige automaat of een Turing-machine omdat wiskundig inzicht niet algoritmisch is. Wiskundig inzicht verloopt in een flits. In zo'n flits is de wiskundige de directe aanschouwer van een Platonische hemel waarin de wiskundige waarheden zich objectief bevinden. Een dergelijke flits is volgens Penrose het gevolg van een quantummechanische gebeurtenis op het microscopische plan--een quantummechanische gebeurtenis die evenmin als de flits Turing-machine berekenbaar is. Deze brengt hem in harmonie met een Platonisch ideeënrijk dat in de materie wordt weerspiegeld.

Penrose's vermoedens vormen een provocerend alternatief voor de these van Kolmogorov, maar goed onderbouwd zijn zij niet. Zij berusten enerzijds op quantum science fiction--ideeën over de quantummechanica van de toekomst, waarin onberekenbare functies mogelijk een belangrijke plaats zullen krijgen. Of dit inderdaad zo zal zijn, kunnen we nu echter nog niet bepalen. Anderzijds berusten ze op Penrose's ideeën over mathematisch inzicht. Penrose is op dit punt echter tamelijk vaag; bovendien is het verband met de quantummechanica volstrekt onduidelijk. Zijn opmerkingen klinken dan ook als mysticisme van de bovenste plank. Door hun duisternis intrigeren ze; maar in de praktijk brengen ze ons niet veel verder. De opvatting van de mens als eindige automaat is veiliger en waarschijnlijk vruchtbaarder!

Mensen als eindige automaten

We kunnen de conclusie trekken dat de these van Kolmogorov nog recht overeind staat: mensen zijn eindige automaten. Zowel de linguïstiek (de meest precieze van alle alfa-wetenschappen) als de theorie van neurale netwerken (het enige abstracte deel van de hersenwetenschappen) leveren geen tegenbewijzen voor deze stelling.

Zoals reeds is vermeld, zijn de filosofische implicaties van dit inzicht niet gering. De hele filosofie van het mentale kan op dit stevige fundament worden opgetrokken. Dit is echter nog niet gebeurd. Alleen de reeds genoemde Nelson heeft een poging gewaagd. Ik denk evenwel niet dat Nelsons proeve van een filosofie van de eindige automaat geheel geslaagd is. De spil waarom zijn verhaal draait is een beschrijving van de manier waarop een automaat een toekomstige gebeurtenis zou kunnen verwachten. De reconstructie van dit begrip in termen van automaten is het essentiële gereedschap waarmee hij alle andere mentale noties opbouwt.

Nelsons verhaal is juist op dit cruciale punt echter tamelijk onbevredigend. Hij schetst hoe een Turing-machine over (delen van) zichzelf zou kunnen redeneren en aldus zou kunnen bepalen wat zij zal doen gegeven de toestand waarin zij verkeert en de input die zij ontvangt. Een dergelijke reflexieve Turing-machine zou op deze manier van zichzelf kunnen nagaan wat zij `verwacht', en haar interne toestanden eventueel kunnen bijstellen als die verwachting haar niet bevalt. Nelsons constructie is veelbelovend, maar zij lijkt nodeloos ingewikkeld en het is ook niet duidelijk of hij wel opgaat voor eindige automaten. Niet alleen bij Nelsons eerste stap kunnen vraagtekens gezet worden, ook de verdere afleiding van mentale noties is niet altijd even gelukkig. Zo neigt hij ertoe om aan te nemen dat `geloven dat Pof Q' equivalent is met `geloven dat P of geloven dat Q'. Dat is natuurlijk onjuist. Als ik geloof dat P of Q, is het eerder zodat ik noch geloof dat P, noch geloof dat Q: ik weet juist niet welke van beide overtuigingen ik moet hebben!

Maar al zijn er nog zo veel feilen in de details aan te wijzen, het project van Nelson lijkt toch van het grootste belang te zijn. Hier hebben we eindelijk eens een filosofie van de geest die op soliede grondvesten staat. Daar mankeert het bij andere benaderingen maar al te vaak aan.

Eindige automaten of neurale netwerken?

Helaas hebben filosofen nog weinig geschreven over eindige automaten. Er is inmiddels een ware stortvloed van filosofische lectuur verschenen over neurale netwerken, maar de theorie van formele automaten is filosofisch gezien nog grotendeels onontgonnen terrein. In feite is dit een merkwaardige zaak; zoals we hebben betoogd, is het immers aannemelijk dat neurale netwerken slechts een bepaald soort formele automaten zijn. Zouden filosofen, wier belangstelling toch in eerste instantie op het abstracte gericht zou moeten zijn, zich niet beter met de abstracte theorie kunnen inlaten dan met speciale gevallen daarvan? Neurale netwerken zijn slechts een bepaald soort implementaties van eindige automaten. Doen filosofen er wel verstandig aan om hun aandacht uitsluitend op deze implementaties te richten? Kunnen zij deze niet beter aan de wetenschap overlaten? De vraag of mensen uit backprop-netwerken of uit Boltzmann-machines bestaan lijkt voor de filosofie net zo irrelevant te zijn als de vraag of WordPerfect in Pascal of C is geschreven.

Hoe de eindige automaten in onze hoofden in elkaar zitten is natuurlijk een fascinerend probleem, maar de oplossing kan slechts van de wetenschap komen. Veel weten we er nog niet van. `Hoe is het mogelijk dat de menselijke geest, die zó klein is dat hij is opgesloten in de beperkte ruimten van de hersenen of het hart, plaats kan bieden aan de gehele uitgestrektheid van de hemel en de aarde?', vroeg Philo Judaeus zich twee millenia geleden af. Ondanks alle vooruitgang heeft zijn vraag nog niets aan actualiteit ingeboet. Ja, we kunnen zelfs zeggen dat zij dankzij ons scherper besef van onze eindigheid eigenlijk alleen nog maar klemmender is geworden.

Literatuur


Previous | Up | Next

gjclokhorst@gmail.com || July 17, 2015 || HTML 4.01 Strict