Mijn dissertatie ‘The informatical worldview, an inquiry into the methodology of computer science’ (1996) beschrijft hoe menselijke manieren van informatieverwerking samenhangen met de manier waarop de computer met informatie omgaat. Onderstaande is een samenvatting van de daarin verdedigde theorie. Een gepopulariseerde versie in het Nederlands verscheen in 1998 onder de titel ‘De programmeur en de kangoeroedans’ bij Kluwer Bedrijfswetenschappen. Een hoofdstuk daaruit verscheen apart als relatiegeschenk onder de titel ‘De geprogrammeerde graal’.
1 Inleiding
De gedachte dat de werkwijzen van de computer op de een of andere manier afgeleid moeten zijn van menselijke methoden van informatieverwerking, is niet nieuw. De computer is het eerste instrument dat net als mensen informatie niet alleen kan opslaan, maar ook gericht kan bewerken. Het ligt dan ook voor de hand dat de ontwerpers van de machine hun eigen informatieverwerkende capaciteiten erin projecteren.
Dit artikel geeft een schets van hoe zo’n brede samenhang eruit zou kunnen zien. De kern van die schets bestaat uit drie termen, die op een abstract niveau staan voor drie wijzen van informatieverwerking:
- In het instructionisme wordt aan informatie ad hoc betekenis toegekend, dat wil zeggen zonder dat die betekenis consistent hoeft te zijn met de betekenis van andere informatie-entiteiten. Aan informatie worden wel vormeisen gesteld, maar geen inhoudelijke. Er is daarom geen allesomvattende structuur.
- In het inventionisme wordt informatie juist wel beoordeeld op haar inpasbaarheid in een bepaalde structuur. Een informatie-entiteit is alleen geldig als zij niet in tegenspraak is met andere entiteiten waarvan de geldigheid reeds is vastgesteld. Informatie heeft dus een zekere eeuwigheidswaarde en er is sprake van een permanente structuur.
- Ook voor het adaptivisme is inpasbaarheid in een structuur het belangrijkste criterium. Anders dan bij het inventionisme heeft informatie echter geen eeuwigheidswaarde. Indien nieuwe informatie strijdig is met
bestaande, wordt de eerste niet bij voorbaat verworpen. Wanneer nodig evolueert de structuur mee met de informatie.
2 Menselijk instructionisme
De vraag wat de mens tot mens maakt, laat zich lastig beantwoorden. Vaak wordt taal als een beslissende factor genoemd, ofwel, iets breder: het mentale vermogen een object te projecteren buiten dat object zelf. Onder die noemer kan men bijvoorbeeld ook de tekeningen in de prehistorische grotten van onder meer Lascaux scharen. Hoewel uiteraard nooit met zekerheid vast te stellen is waar die tekeningen voor dienden, bieden sjamanistische praktijken in hedendaagse primitieve culturen de nodige aanknopingspunten. De conclusie luidt dan dat het niet om zomaar tekeningen gaat, maar dat het in de ogen van de primitieve mens om daadwerkelijke bizons ging, die opgejaagd en gedood konden worden.
Dit betekent niet dat het doden van een virtuele bizon inhoudt dat het diner geserveerd kan worden. De crux is juist dat die drang tot samenhang ontbreekt. Alleen de ad hoc beleving telt. Een van de beste studies naar de psychologische ondergrond van deze verwarring tussen verbeelding en realiteit is Homo ludens van de Nederlandse historicus Johan Huizinga. Volgens Huizinga moet de geestesgesteldheid van de primitieve mens gezien worden als een sterkere vorm van wat westerlingen nog kennen als ‘spel’. Met andere woorden, Huizinga suggereert dat de primitieve mens best weet dat wat hij beleeft in een of ander ritueel niet echt is.
Kleine kinderen hebben datzelfde inbeeldingsvermogen. Een vierjarig kind dat met drie lucifers speelt, die Hans, Grietje en de heks moeten voorstellen, kan door de heks zo geïntimideerd raken dat ze het handelen van de heks niet meer beheerst en om hulp schreeuwt, zo signaleerde antropoloog Leo Frobenius ooit. Uitgebreid psychologisch onderzoek heeft aangetoond dat het dochtertje van Frobenius geen uitzondering was. Voor alle jonge kinderen is de directe beleving belangrijker dan de omliggende structuur.
Bij (westerse) volwassenen worden structuur en logica er in de loop der jaren ingeramd, maar anderzijds is er ook een uiterst belangrijke erfenis uit dat tijdperk van de onbegrensde verbeelding, de taal.
Taal
Taal is meer dan een paar grammaticale productieregels en een woordenboek. Het gaat om een gereedschap dat nauw verbonden is met de groei van het bewustzijn. Het vindt zijn oorsprong in het primitieve denken en komt daar niet meer van los. Voor de taalkundige Noam Chomsky waren de overeenkomsten tussen alle talen aanleiding om te postuleren dat er een ‘universele grammatica’ moet bestaan, een soort hypertaal die beperkingen oplegt aan de vorm van talen.
Hoewel Chomsky’s universele grammatica vooralsnog een abstract concept is, staat het buiten kijf dat talen universele eigenschappen hebben. De belangrijkste daarvan komen overeen met het concept van instructionisme: ad hoc invulling van de betekenis van uitspraken en wel eisen aan de vorm, niet aan de inhoud. Dientengevolge kent taal een grote flexibiliteit en zeggingskracht.
Die flexibiliteit brengt echter wel onvermijdelijk dubbelzinnigheid met zich mee. Het grondigste onderzoek naar die eigenschap van taal is uitgevoerd door Ludwig Wittgenstein in diens Tractatus logico-philosophicus. De essentie vat de Oostenrijkse filosoof samen in wat men de stelling van Wittgenstein zou kunnen noemen: ‘Wat überhaupt gezegd kan worden, laat zich duidelijk zeggen; en over het onzegbare moet men zwijgen.’
In Wittgensteins strenge filosofie is het alleen zinvol iets te zeggen wanneer men zeker weet dat het een ondubbelzinnige weergave is van de feiten. In principe is dat mogelijk, maar de mogelijkheden zijn wel beperkt. Zelfs de bewering dat de zon morgen weer opgaat, is een hypothese, niet een feit. Het is dus niet zeker of er überhaupt wel iets te zeggen valt. Anderzijds bestaat er zeker een klasse van onzegbare zaken, namelijk de mystiek, betoogt Wittgenstein.
3 Menselijk inventionisme
Waar informatie zoals waargenomen door de primitieve mens gefragmenteerd is, signaleert de oosterse geest structuur. Deze structuur, die men de ‘kosmische orde’ zou kunnen noemen, doordrenkt ieder aspect van de wereld. Daarom zijn, volgens de oosterse filosofie, alle dingen aan elkaar gerelateerd. Wie een enkel deel van de kosmos begrijpt, begrijpt haar in essentie helemaal. Het verwerven van kennis is dan ook een proces van ontdekking, van het blootleggen van parallellen en uitwerkingen van wat al bekend is.
Psycholoog Piet Vroon heeft gesuggereerd dat de ontdekking van structuur gekoppeld moet worden aan de ontwikkeling van het menselijke zelfbewustzijn: naar mate men een scherper beeld van zichzelf heeft, ziet men ook zijn omgeving meer als een ge‹ntegreerd geheel. Vroon wijst met name op de oudste Griekse teksten, die verwarring op dit terrein tonen. Bij Homerus lijken lichamen samenstellingen van delen zonder dat er sprake is van een centrale coördinerende eenheid, een ziel zo men wil.
Naar mate de Grieken zich meer bewust werden van hun persoonlijke identiteit, verdween bijvoorbeeld ook het orakel van Dodona, dat bestond uit aan Zeus gewijde sprekende eiken. Kennelijk verloren de Grieken het vermogen stemmen te horen in het ruisen van de wind. De taak van orakel werd overgenomen door Delphi, waar een bedwelmde priesteres als enige de goddelijke boodschappen kon opvangen. Het zwijgen der eiken markeerde zo de overgang van de Grieken van het primitieve naar het oosterse denken.
Dat oosterse denken, ontstaan in Sumerië rond 4000 voor Christus, had op het moment dat de Grieken uit Rusland naar Klein-Azië migreerden al een basis van twee millennia en werd onder meer gekenmerkt door de verering van de moedergodin en een fascinatie voor getallen die de harmonie van de kosmos aantoonden. Die fascinatie werd in de zesde eeuw voor Christus overgenomen door Pythagoras, terwijl elders vrijwel tegelijkertijd Boeddha, Confucius en Lao-Tse op andere manieren het oosterse gedachtengoed systematiseerden. In alle gevallen was harmonie echter het sleutelwoord.
Op een formeler niveau is de essentie van het oosterse denken dat wanneer de waarheid van een stuk informatie is vastgesteld, die waarheid eeuwig is. Het gevolg is dat nieuwe informatie aangepast dient te worden aan de oude informatie, indien er sprake is van een conflict: de kosmische orde duldt geen interne tegenspraken. Pas als men een paradox volledig begrijpt (zoals het zen-vraagstuk ‘wat is het geluid van één klappende hand?’), heeft men de ware wijsheid. Men redeneert dus altijd van het bestaande naar het nieuwe toe.
Wiskunde
Dezelfde inventionistisch te noemen benadering van informatie kent de wiskunde, die niet toevallig in Sumerië ontstaan is. Wiskunde is de wereld van de axioma’s. De ‘Elementen’ van Euclides (330-260 v.C.) is eeuwenlang het toonbeeld geweest van hoe het moet. Het boek geeft vijf definities, vijf axioma’s en vijf regels, die niet uitgelegd maar enkel intuïtief begrepen kunnen worden. Alles wat verder volgt, is afgeleid uit dat trio. Wat men ook aan wiskundige beweringen wil doen, ze kunnen alleen waar zijn als ze afleidbaar zijn. Een bepaalde formule was misschien niet eerder bekend, maar ze is afgeleid uit bestaande formules, en was daarom impliciet wel degelijk bekend.
Het cruciale verschil tussen wiskunde en taal is gelegen in de strengere eisen van de eerste. Zoals eerder gesteld, taal stelt alleen eisen aan de vorm, niet aan de inhoud. De wiskunde heeft alleen aan een grammatica niet genoeg, maar legt ook beperkingen op aan de inhoud. In concreto: op de zin ‘een plus een is drie’ is taalkundig niets aan te merken, maar de uitdrukking ‘1+1=3′ is wiskundig niet acceptabel. Wiskunde mist zodoende de flexibiliteit van de taal, maar daar staat een grotere ondubbelzinnigheid tegenover.
De door Wittgenstein gewenste ondubbelzinnigheid van de taal heeft geleid tot een poging de taal te formaliseren, die bekend is geworden als het logisch-positivisme. Dit streven werd verder aangewakkerd door Bertrand Russell en Alfred North Whitehead, die de wiskunde van de grond af opnieuw wilden opbouwen (omdat een van Euclides’ axioma’s niet noodzakelijk bleek te zijn). Het pakte allemaal averechts uit toen Kurt Gödel zijn onvolledigheidsstelling publiceerde, waarmee hij aantoonde dat er ware wiskundige stellingen bestaan die niettemin onbewijsbaar zijn. De stelling van Gödel is feitelijk de wiskundige equivalent van de stelling van Wittgenstein.
4 Menselijk adaptivisme
Net als de oosterse filosofie gelooft het westerse denken in de kosmische orde, wat wil zeggen dat er een alomvattend ordenend principe ten grondslag ligt aan het universum. Er is echter ook een belangrijk verschil. In de filosofie van het westen is de kosmische orde niet direct kenbaar. De hoeveelheid kennis waarover de mens beschikt is niet toereikend. Naar mate de hoeveelheid informatie toeneemt, moet het wereldbeeld steeds aangepast worden.
In beide takken van de westerse filosofie (die van Joodse en Griekse oorsprong) draait het om fundamentele tegenstellingen: goed versus kwaad en waar versus niet-waar. Terwijl het oosten zoekt naar harmonie, zoekt het westen naar scheidslijnen, naar een ontrafeling van de wereld.
Essentieel is dat het wereldbeeld indirect is. De mens heeft volgens de bijbel geen toegang tot de boom van kennis van goed en kwaad, omdat die staat in het paradijs waar hij door de erfzonde uit verbannen is. In Plato’s versie werpt de boom zijn schaduw op de wand van een grot, waardoor ook slechts de contouren zichtbaar zijn. Deze visie houdt de mogelijkheid open van revisies van (en twisten over) de leer, die zo karakteristiek zijn voor het westerse denken.
Natuurkunde
Dit proces van ‘steeds een stapje dichter bij de waarheid’ is ook de kern van de natuurkunde, die doorgaans tot de oude Grieken teruggetraceerd wordt. Na een coma van zo’n duizend jaar begon de natuurkunde met Copernicus en Galilei aan zijn huidige zegetocht, daarbij overigens geholpen door strakke redeneermethoden die in de theologie waren uitgewerkt. Wetenschapsfilosoof Karl Popper legt de methode als volgt uit: ‘De foute visie op wetenschap verraadt zichzelf in de behoefte tot gelijk hebben. Want niet het bezit van kennis, van onweerlegbare waarheid, kenmerkt de wetenschapper, maar zijn vasthoudende en nietsontziend kritische zoektocht naar de waarheid’
Dat het in de praktijk lang niet altijd zo gaat, zoals Poppers collega Thomas Kuhn aantoonde, is een tweede. Het ideaalbeeld dat de natuurkunde van zichzelf heeft blijft echter dat van een benaderingsproces, dat op den duur tot volledige kennis van de kosmische orde leidt. Dit is de zogenaamde ’theorie van alles’, waarmee we in de woorden van Stephen Hawking ‘de geest van God’ zouden kennen.
5 Machinaal instructionisme
Het theoretische model voor die computer is de Universele Turing Machine (UTM), in 1936 bedacht door Alan Turing als metafoor voor de rekenende mens. De UTM bestaat uit een doos die symbolen leest en schrijft op een oneindig lange tape. De doos heeft intern een eindig aantal toestanden en het aantal mogelijke symbolen is ook eindig. De machine leest een symbool van de tape en schrijft er, afhankelijk van zijn interne toestand, een terug. Daarna verandert de interne toestand van de machine en schuift de tape een plaatsje op. Op elk moment wordt het gedrag van de machine dus bepaald door zijn interne toestand en het symbool op de tape. Afhankelijk van de verschillende toestanden die hij heeft meegekregen en de symbolen op de tape, zal de UTM zodoende een bepaalde berekening uitvoeren.
Hoewel de UTM een wiskundig model is, heeft het sterke taalkundige trekken. De opeenvolging van toestanden in de Turing machine wordt immers niet gedefinieerd door wiskundige noodzakelijkheid, maar door de overtuiging van de programmeur dat die opeenvolging consistent is met de gedachten in zijn hoofd. Met andere woorden, de Turing machine verschaft een grammatica waarmee wiskundige beweringen gedaan kunnen worden, maar legt geen beperkingen op aan de verbanden tussen die beweringen. De transformaties op de tape zijn alleen afhankelijk van de huidige toestand en het huidige symbool, niet op de volledige voorafgaande geschiedenis.
Het gevolg is dat de Turing machine geen inhoudelijk consistent raamwerk eist en ad hoc toestandsovergangen toelaat – precies de eigenschappen die het instructionisme kenmerken (met als gevolg onder meer dat de machine in een oneindige lus terecht kan komen).
Filosofische consequenties
De Turing machine is niet alleen een model voor de hardware maar ook voor veel software. Imperatieve en object-georiënteerde programmeertalen zijn op dezelfde manier afhankelijk van het hoofd van de programmeur als de Turing machine. Daarmee is meteen al het belangrijkste dilemma in de instructionistische informatica aangegeven: het verkrijgen van zekerheid over de juistheid van programma’s.
In essentie is dit hetzelfde probleem waar Wittgenstein mee worstelde en het is dan ook zeker geen toeval dat Peter Naur diens stelling hanteerde als motto voor de definitie van Algol, de eerste programmeertaal die specifiek bedoeld was om gestructureerd programmeren te ondersteunen. Het blijkt wiskundig onmogelijk aan te tonen dat programmeertalen vrij van dubbelzinnigheden zijn.
Dit betekent uiteraard niet dat het gebruik van gestructureerd programmeren en andere software engineering tools, zoals specificatietalen, zinloos is. Echter, de logisch-positivisten ondervonden ook dat verregaande formalisatie de begrijpelijkheid niet ten goede komt. Voor mensen is juist flexibiliteit een aangename eigenschap. En aangezien de discipline en het inzicht van de menselijke programmeur nog altijd doorslaggevend zijn, moet men zich afvragen welk niveau van formalisatie optimaal is.
6 Machinaal inventionisme
Op het moment dat Turing zijn UTM introduceerde, bestond er al een ander rekenmodel, de lambda calculus van Alonzo Church. Dit concept, dat ten grondslag ligt aan met name functioneel en logisch programmeren, is formeel equivalent aan de Turing machine. Dat wil zeggen dat wát het kan uitdrukken gelijk is aan de Turing machine. Het grote verschil zit er echter in hóe dat gebeurt.
De lambda calculus is anders dan de Turing machine gebaseerd op een beperkt aantal axioma’s en productiemethoden. Zodoende maakt iedere lambda-expressie deel uit van een groter, consistent geheel. Anders geformuleerd: de Turing machine berekent door overgangen, de lambda calculus door substituties. In de praktijk kan dit op hetzelfde neerkomen, maar conceptueel is er een groot verschil. Het eerste impliceert dat iets wat voorheen niet was nu wel is, terwijl het tweede een tijdloze equivalentie inhoudt.
Een van de consequenties van dit verschil is dat berekeningen met lambda-functies niet in een oneindige lus hoeven te geraken (hoewel dit in de praktijk door een onhandig substitutieproces wel kan gebeuren). Daar komt bij dat functionele en logische programmeertalen temporele consideraties ontberen. Als een variabele eenmaal een waarde heeft, kan die niet meer worden aangepast. Dit zeer inventionistische trekje is essentieel voor de mathematische robuustheid van op de lambda calculus gebaseerde programmeertalen, maar maakt het programmeren er bepaald niet makkelijker op, eenvoudigweg omdat tijd een belangrijke factor is in de menselijk beleving. Vandaar dat veel in de praktijk gebruikte talen (Lisp, Prolog) concessies doen.
Filosofische consequenties
Het voor het inventionisme kenmerkende idee van de ‘kosmische orde’ propageert samenhang. Het is uit dat oogpunt niet verwonderlijk dat juist de inventionistische informatica de vraag heeft opgeworpen over de samenhang tussen menselijke en machinale intelligentie. De ontwikkeling van de kunstmatige intelligentie (KI) hangt dan ook nauw samen met de opkomst van functionele en logische programmeertalen en expert systemen.
In het huidige verband is het met name significant op te merken dat de stelling van Gödel een grote rol speelt in het KI-debat (kunnen computers ‘denken’?). De computer is immers een wiskundig apparaat en zou daarom nooit zelf het ware maar onafleidbare tegenvoorbeeld van Gödel hebben kunnen verzinnen. Daar staat tegenover dat als een computer de stelling van Gödel eenmaal kent, hij ook de onafleidbare uitspraken kan produceren. Om dit als argument voor de computer te kunnen hanteren is het wel noodzakelijk dat de menselijke hersenen de stelling van Gödel op onbewust niveau ook kennen.
Daar zit ook meteen het manco van de hele discussie. Er is zo weinig bekend over de feitelijke werking van de hersenen dat de geldigheid van vergelijkingen niet objectief te toetsen valt. Of computers op dezelfde manier betekenis kunnen toekennen aan informatie als mensen valt simpelweg niet na te gaan.
7 Machinaal adaptivisme
Een overkoepelende theorie van het adaptivisme in de informatica bestaat nog niet. Gezien de eigenschappen van het adaptivisme valt hiervoor echter wel een richting aan te geven. Het kenmerkende verschil tussen inventionisme en adaptivisme is immers dat in het laatste geval het uiteindelijke doel middels een benaderingsproces, een iteratie, gezocht wordt. Er is zodoende wel sprake van gevoeligheid voor temporele consideraties. Een essentieel verschil met de Turing machine is dan weer dat de toestandsovergangen niet ad hoc zijn, maar gedefinieerd door een vast iteratieschema.
Uit de theorie van iteraties kan worden afgeleid dat een adaptivistische methode noodzakelijkerwijs uit drie componenten bestaat: een basis-algoritme dat informatie genereert, een ander algoritme dat de parameters van het eerste aanpast, en een evaluatie-algoritme dat de waarde van het resultaat beoordeelt.
Historisch gesproken wordt het machinale adaptivisme gedomineerd door de in 1943 door Warren McCulloch en Walter Pitts geïntroduceerde neurale netwerken (genetische algoritmen vormen de andere vertegenwoordiger). Ook hier geldt dat op wiskundig niveau de methode even krachtig is als de andere. Dat wil zeggen, dat neurale netwerken precies dezelfde dingen kunnen uitdrukken als Turing machine en lambda calculus.
Het verschil zit opnieuw in het hóe. Het belangrijkste adaptivistische kenmerk van neurale netwerken is dat zij informatie bewerken middels een leerproces, een benaderend iteratieschema. De kracht van de methode is dat het met een dergelijk algemeen schema zeer goed mogelijk blijkt complexe relaties tussen gegevens te achterhalen. Daar staat tegenover dat neurale netwerken nog altijd niet goed begrepen worden.
Filosofische consequenties
Wat betreft de discussies van meer filosofische aard die rond met name neurale netwerken spelen, ligt het voor de hand dat de KI-vraag ook hier een belangrijke rol speelt. Tenslotte gaat ook het adaptivisme uit van het principe van de ‘kosmische orde’, met de toevoeging van het temporele aspect als belangrijkste verschil ten opzichte van het inventionisme.
8 Conclusie
Het bovenstaande is slechts een ruwe opzet. Niettemin is de conclusie gerechtvaardigd dat het abstracte schema dat in de inleiding geïntroduceerd werd, een bruikbaar instrument is om vormen van informatieverwerking te beschrijven, zowel op menselijk als op machinaal niveau.
In de eerste plaats blijken de termen instructionisme, inventionisme en adaptivisme goed hanteerbaar om de verschillende benaderingen van informatie in drie opeenvolgende stadia van de menselijk cultuur te beschrijven. Bovendien zijn zij ook bruikbaar om de verschillen tussen taal, wiskunde en natuurkunde te aan te duiden. Vervolgens is gebleken dat geautomatiseerde methoden van informatieverwerking zich volgens dezelfde eigenschappen laten indelen. De dilemma’s die met deze methoden geassocieerd worden vertonen daarnaast overeenkomsten met meer algemene filosofische dilemma’s uit andere takken van wetenschap.
Geknipt en geplakt van mijn LinkedIn pagina: