Categorie archief: (Pseudo-) Wetenschap

Efficiente kennis, een meetbare grootheid?

I also have an English version of this blog.

Soms lukt het je niet om een artikel geplaatst te krijgen in een wetenschappelijk tijdschrift. Zelfs als je zelf overtuigd bent dat het artikel een waardevolle bijdrage aan het veld levert gebeurt het je soms dat je stuk niet wordt gewaardeerd. Dat ligt in eerste instantie natuurlijk aan jezelf. Kennelijk lukt het je niet je idee overtuigend genoeg te brengen. Soms krijg je ook je idee niet aan de man omdat je sterk tegen een bepaald idee ingaat, en de reviewers steeds dat idee blijven verdedigen. Frustrerend. Ik heb zo’n artikel op de plank liggen over het begrip “Instructional Efficiency”. Dat is een maat die wel gebruikt wordt in de theorie van Cognitive Load, die beweert dat je bij instructie rekening moet houden met het werkgeheugen van de leerling. Daar is op zich niets mis mee, maar de wijze waarop aanhangers van de theorie de Cognitive Load meten en de conclusies die ze trekken liggen wel onder vuur. Een van de begrippen die gebruikt wordt is dat van “Instructional Efficiency”, ook wel “Relative Condition Efficiency” genoemd. Vanaf hier noem ik het kortweg “Efficiency”. Het idee is dat het een maat is voor de kwaliteit van iemands kennis. Hoe hoger de efficiency van iemands kennis, hoe beter die is. Die efficiency is een trade-off van prestatie en “Mental Effort”. Als je goed presteert op een taak met weinig mentale inspanning is je kennis efficiënter dan van iemand die dezelfde prestatie haalt met meer inspanning is de redenering. Nu kun je over die redenering twisten, maar dat is niet mijn punt. Mijn bezwaar ging over de wiskundige definitie van Efficiency.

Omdat Efficiency zowel gaat over prestatie als inspanning moet je beiden kunnen meten. Prestatie is relatief makkelijk te meten vaak gaat het het aantal punten op een toets, genormeerd naar een percentage. Door onderzoekers naar Cognitive Load wordt in de regel mentale inspanning gemeten door proefpersonen op een schaal van 1 tot 9 aan te laten geven hoe belastend ze een bepaalde taak vinden. Ook daar is kritiek op te geven: in welke mate kunnen proefpersonen dat zelf aangeven en moet je behalve belasting niet ook de tijd meenemen die proefpersonen over de taak hebben gedaan. Die discussie wordt elders gevoerd. Wat echter curieus is, is de wijze waarop  vervolgens efficiency wordt berekend. Dat gebeurt met de volgende formule:

Efficiency

De redenering achter de formule is de volgende: Iemand met een gemiddelde prestatie(P) en een gemiddelde inspanning(R) heeft efficiency 0. Om dat van iemand anders te berekenen berekenen we hoeveel hij van de gemiddelden afwijkt, door z-scores te berekenen. Een z-score is het verschil met het gemiddelde, gedeeld door de standaardafwijking, een maat voor de spreiding van de gegevens. Dat punt wordt uitgezet in een grafiek en je berekent de afstand tot de lijn waarvoor beide z-scores gelijk zijn. Om dat helder te maken heb ik dit in een simulatie weergegeven. 

In onderstaande grafiek worden twee of drie condities vergeleken, bijvoorbeeld de kennis die het resultaat is van verschillende vormen van instructie. De efficiency is de lengte van het lijntje tussen de rode punten en de lijn die onder 45 graden getekend staat. Door op “Simulate” te drukken wordt een nieuwe dataset gegenereerd. 

Wat is nu mijn bezwaar tegen deze manier van berekenen? Dat zijn er twee: ten eerste wordt hier een grafiek verward met een meetkundig vlak. In een grafiek staan langs x-as en y-as twee grootheden met verschillende eenheden. In een meetkundig vlak kun je afstanden tussen punten meten, in een grafiek kun je dat niet omdat de horizontale en verticale eenheden verschillen. Een schuin lijntje heeft daarin geen betekenis. Het is alsof je meters bij liters op zou kunnen tellen.

Het tweede bezwaar betreft het feit dat de maat afhankelijk is van de verdeling. Als je bij dezelfde gemiddelden de standaarddeviaties varieert zie je dat de efficiency verandert, en zelfs om kan keren. Vul hierboven maar eens achtereenvolgens voor de standaarddeviatie van performance 20, 10 en 1 in en kijk wat dat met de efficiency doet. Een maat die afhangt van de verdeling van de scores kan geen goede maat zijn. Ook wanneer een derde conditie wordt toegevoegd zie je de efficiency van de originele condities veranderen. 

Hier vind je het manuscript waarmee ik geleurd heb bij meerdere tijdschriften. Als je geïnteresseerd bent, zeker als je enige wiskundige of statistische achtergrond hebt stel ik je commentaar op prijs.

Genetische algoritmen

Het was een beetje stil op deze blog. Ondertussen ben ik aan de gang gegaan met Coffeescript, een taal die het mogelijk maakt je programma’s voor webpagina’s heel compact en toch leesbaar op te schrijven. Als je geïnteresseerd bent kun je de broncode van het programma hieronder bekijken. In dat geval weet je vast ook hoe.

Ik heb coffeescript gebruikt om inzichtelijk te maken hoe genetische algoritmen werken. Dit zijn algoritmen die gebruikt worden om oplossingen te vinden voor problemen waarbij het aantal mogelijke oplossingen zeer groot is. Denk bijvoorbeeld aan het maken van een rooster voor een school. Als je -zeg- twintig klassen hebt, die elk les moeten krijgen in twaalf vakken verdeeld over achttien lokalen, in veertig mogelijke lesuren per week is het aantal mogelijkheden enorm groot. Wel kun je eenvoudig uitrekenen of een bepaalde oplossing aan alle voorwaarden voldoet, zoals geen lokaal of docent dubbel geboekt. Ook is het mogelijk iets te zeggen over de kwaliteit van een oplossing. Je kunt zo de voorkeur geven aan zo min mogelijk tussenuren voor klassen en docenten. Door het enorme aantal mogelijkheden is het vinden van de beste oplossing vrijwel onmogelijk, daarvoor zou je alle mogelijkheden moeten doorrekenen. Met genetische algoritmen kun je goede oplossingen vinden, hoewel die dus niet noodzakelijk de beste zijn.

Het werkt als volgt:

  1. Genereer een aantal willekeurige oplossingen
  2. Gebruik die oplossingen om nieuwe oplossingen te maken. Dat kan op twee manieren: combineer twee oplossingen tot één nieuwe (seksuele reproductie) of kopieer een oplossing en breng er een kleine wijziging in aan (aseksuele reproductie met mutatie)
  3. Bereken voor elke oplossing de kwaliteit.
  4. Houd de beste oplossingen (b.v. de beste 25%) en ga terug naar stap 2

Stappen 2-4 worden herhaald totdat je tevreden bent over de beste oplossing uit je verzameling oplossingen.

Screenshot 2013-10-22 14.42.42

Ik heb dit algoritme toegepast op het handelsreizigersprobleem. (Daar ben ik overigens niet origineel in). Dit probleem vraagt naar de kortste route voor een handelsreiziger die N steden precies één keer moet bezoeken en terugkeren naar zijn beginpunt. Het aantal mogelijke routes is N!, een aantal dat zeer snel oploopt met N, waardoor het onmogelijk wordt alle routes door te rekenen.

Hieronder kun je zien hoe een genetisch algoritme probeert een goede route te vinden. Klik in het witte vlak om steden te plaatsen. Als je minimaal twee steden hebt geplaatst kun je op start drukken om een route te vinden. Na elke generatie pauzeert het algoritme even en laat de tot dan toe beste oplossing zien. Als een generatie geen verbetering geeft stopt het. Als je nog niet tevreden bent, kun je met “Verder” het algoritme nog een schop geven om het nog wat langer te proberen. Soms helpt meerdere keren schoppen.

Voortplanting gebeurt op twee manieren: seksuele voortplanting gebeurt door het eerste deel van een oplossing te knippen, uit een andere de in dit deel al bezocht steden te verwijderen en de rest aan de nieuwe oplossing te plakken. Bij aseksuele voortplanting met mutatie wordt in de kopie één stad van plaats veranderd of worden twee steden verwisseld.

Mijn implementatie is niet ideaal, en stopt vaak te snel. Dat komt doordat ik relatief weinig “kinderen” laat genereren en doordat mijn mutaties misschien te conservatief zijn. Dat merk je vooral in situaties met veel steden. In onderstaand plaatje kreeg ik het algoritme niet meer verder ondanks het feit dat er op het oog zeker verbeteringen mogelijk zijn. Deze relatief zwakke implementatie laat denk ik juist goed de principes en beperkingen van genetische algoritmes zien.

Screenshot 2013-10-22 12.43.56

Ik hoop binnenkort een versie hier te plaatsen waarmee je met de parameters (aantal generaties, wijze van voortplanting) van het algoritme kunt stoeien en de effecten op het resultaat kunt zien.

 

20 jaar doctor

Gisteren (22 juni) was het exact 20 jaar geleden dat ik mijn proefschrift verdedigde: “Understanding and facilitating discovery learning in computer-based simulation environments”. Het proefschrift gaat over het toepassen van computersimulaties als middel om leerlingen te leren door experimenteren. Het was in de tijd dat het constructivisme opkwam. In die visie is het belangrijk de leerling te zien als een actieve deelnemer aan het leerproces. Informatie wordt niet ‘gekopieerd’ in de hersenen maar actief verwerkt. Als gevolg daarvan moet de leerling ook actief informatie verzamelen en verwerken. Ontdekkend leren (tegenwoordig spreken we liever van onderzoekend leren) is een manier om dat expliciet te doen: leerlingen experimenteren zelf en (her) ontdekken de onderliggende regels en wetten.

De oppositie
De oppositie

In mijn proefschrift gebruikte ik simulaties als een middel waarbinnen leerlingen veilig in een gecontroleerde omgeving konden experimenteren. Ik deed mijn studies met eerstejaars scheikundestudenten die iets moesten leren over meetfouten. Ik vond (en vind) het idee ze helemaal los te laten zonder enige verdere ondersteuning niet goed en bedacht ter ondersteuning een “hypothesekladblok” (hypothesis scratchpad). Hierop konden de studenten invullen welke hypothese ze wilden toetsen, al dan niet geholpen door een aangeboden structuur. Die structuur bestond er uit dat ze in de zin “Als … … dan geldt dat … …”, op de stippeltjes gegeven namen variabelen en relaties konden invullen zodat de hypothesen een correcte vorm kregen zoals: “Als de hoeveelheid stof toeneemt, dan geldt dat de relatieve meetfout afneemt”. Het idee was dat leerlingen dat vervolgens met de simulatie (van een titratie-experiment) gingen toetsen. Idealistisch als ik was dacht ik dat het kladblok enorm zou helpen.

Dat pakte anders uit. Hoewel ik in mijn proefschrift probeer een en ander positief uit te leggen is er eigenlijk geen enkele aanwijzing dat het kladblok werkt. Integendeel, studenten gebruikten het niet spontaan, en als ze gedwongen werden formuleerden ze vooral heel algemene en daardoor niet toetsbare hypothesen. De reden waarom bedacht ik later: studenten doen vooral dingen om verder te komen met de opdracht. Het kladblok liet zich makkelijk invullen en de studenten kregen de indruk dat ze opschoten. Waar ik dacht dat het zou leiden tot dieper nadenken bereikte ik het tegenovergestelde.

Met paranimfen
Met mijn paranimfen, Melanie Njoo en Erica de Vries

Leuk is dat ik in het proefschrift een methode heb ontworpen om automatisch hypothesen en experimenten van de leerlingen met de simulatie te kunnen interpreteren. Een soort learning analytics avant-la-lettre (hoofdstuk 9). En mijn laatste stelling had een voorspellende waarde, die gaat over leraren. Sinds een jaar ben ik directeur van een lerarenopleiding.

Het onderzoek heeft een vervolg gekregen in een aantal mooie projecten die leidden tot het auteurssysteem SimQuest, een systeem waar ik nog alijd trots op ben. Met SimQuest is het eenvoudig om een computersimulatie te maken en daaromheen vervolgens instructie te ontwerpen in de vorm van opdrachten, uitleg, en het geleidelijk moeilijker maken van het simulatiemodel. SimQuest hebben we nog lang gebruikt, en het is ook opgepikt door groepen in binnen- en buitenland – zo kregen we op een bepaald moment het verzoek om het in het Vietnamees te vertalen.

Promotie 9

Het hypothesekladblok is een eigen leven gaan leiden. Het is door anderen gekopieerd en/of heruitgevonden en in veel systemen gebruikt, vaak met als doel om er achter te komen wat de leerling denkt. Natuurlijk zijn onder invloed van de snelle ontwikkelingen in de technologie de versies steeds fraaier geworden, aan het basisprincipe is weinig veranderd. Dat is jammer, want als mijn proefschrift één ding aantoont is dat er een fundamentele ontwerpfout in zit. Door in het programma een invulformulier aan te bieden wordt dat automatisch onderdeel van de taak en haalt de aandacht weg van het werkelijke doel: leren over het onderwerp van de simulatie. Op een conferentie heb ik niet zo lang geleden eens gezegd dat we het hypothesis scratchpad ritueel moeten verbranden. Recent zag ik het echter – zelfs dicht bij huis – weer opduiken. In de loop der tijd heb ik geleerd dat het het belangrijkst is de leerling te motiveren. Je kunt nog zulke mooie modellen maken van de leertaak, die wordt pas effectief als de leerling zelf daadwerkelijk wil leren. En gedachteloos inzetten van invulformulieren als ondersteuning van hypothesevorming, experimentontwerp of planning zit die motivatie vaak alleen maar in de weg.

Simulaties ben ik blijven maken, de laatste tijd post ik ze op deze blog.

Onderzoeksfinanciering is geen loterij

Ik heb dit jaar de eer te mogen dienen als referent voor de  de PROO, de “Programmaraad voor Onderwijsonderzoek”, een onderdeel van NWO dat onderzoeksgelden verdeelt voor – niet verrassend – onderzoek aan het onderwijs. De PROO heeft een call uitgezet voor “Reviewstudies”. Een reviewstudie verzamelt zoveel mogelijk artikelen die in een bepaalde tijd over een bepaald onderwerp zijn geschreven. Ik heb zelf recent zo’n studie gedaan samen met promovendus Nico Rutten naar de effecten van het leren met computersimulaties. Zo’n review is heel nuttig om een breed overzicht over een onderzoeksgebied te krijgen.

De PROO wil graag een aantal van deze studies laten uitvoeren. In de call wordt een breed gebied beschreven. Belangstellenden kunnen intekenen met een voorstel waarin uiteengezet wordt welk deelgebied gereviewd gaat worden, waarom dat belangrijk is, hoe ze het gaan doen, en op welke wijze de resultaten van de review bekend gemaakt gaan worden. Een aanvraag beslaat zo’n zeven pagina’s tekst.

Voor deze call is een half miljoen euro beschikbaar. Per project kan €50000 worden aangevraagd (en de meeste aanvragen komen precies op dat bedrag uit). Er kunnen dus tien projecten worden gehonoreerd.

Toen ik de lijst met 43 aanvragen zag bekroop me het gevoel dat dit wel eens veel werk zou kunnen zijn. Ik kreeg de taak om negen van de 43 aanvragen van redelijk gedetailleerd commentaar te voorzien. Twee van mijn collega’s doen dat ook. Daarna werden de commentaren weer over de commissie verdeeld en geeft ieder commissielid zijn of haar persoonlijke top tien. Daarvoor moet je dus ook de andere aanvragen lezen, en de commentaren daarop. Tot slot vergadert de commissie (veertien man en vrouw sterk) een dag lang om tot een definitieve aanbeveling te komen. Dat alles overigens zonder vergoeding van NWO.

Ik sloeg aan het rekenen: voor een gedetailleerd commentaar ben ik per aanvraag 2 tot 3 uur bezig. Keer drie omdat elke aanvraag drie commentaren krijgt. Keer 43. De eerste reviewronde kost de reviewers dus zo’n 320 uur. De tweede ronde kostte me een dag. Acht uur keer veertien reviewers is 112 uur. Nog een dag vergaderen is nog eens 112. Totaal voor de reviewers dus 544 uur. Dat is dan nog zonder de uren die de PROO aan de administratie en organisatie besteedt.

Nu hebben 43 onderzoekers natuurlijk ook tijd besteed aan het schrijven van de aanvragen. Uit eigen ervaring weet ik dat zo’n aanvraag een paar dagen werk is. Je moet wat vooronderzoek doen, literatuur raadplegen, een mooie overtuigende tekst componeren en een begroting maken. Al gauw kost deze aanvraag iemand die redelijk ervaren is in projectaanvragen vier dagen vaak overigens verdeeld over twee personen. Vier keer acht uur is 32 uur. Keer 43 = 1376 uur.

Zowel aanvragers als referenten zijn in de meeste gevallen hoogleraar of universitair hoofddocent. Een uurtarief van 120 euro is dan laag geschat. Maar laten we het er mee doen. De totale kosten van de aanvraagronde zijn dus (544+1376) x €120 = €230400. Dat is bijna de helft van het te verdelen budget dat verdeeld kan worden. Uiteraard moet dit getal met de nodige slagen om de arm worden genomen, het is gebaseerd op ruwe schattingen.

We kunnen nu twee dingen zeggen. De bewering die je wel eens hoort dat de verdeling van onderzoeksgeld via NWO een loterij is klopt niet. Bij een loterij is de uitbetaling lager dan de inleg, hier is hij hoger. Het is echter wel de vraag of onderzoeksgeld op deze manier effectief wordt besteed. Veel van dat geld wordt uitgegeven aan de relatief kleine kans (1/4) om een niet eens zo grote hoeveelheid onderzoeksgeld te verwerven. Ik heb voor iets grotere projecten (promotieplaatsen voor vier jaar, ongeveer €200000 per project) ook eens zo’n berekening gedaan. Er konden minder projecten worden toegekend, aantal aanvragen was groter en de aanvragen zelf uitgebreider, en het beeld wat nog ongunstiger.

Onderzoeksgeld wordt op deze manier verdeeld zodat de overheid kan sturen op kwaliteit en bepaalde wetenschapsgebieden kan stimuleren. De vraag of financieren van kleine projecten met daarbij een uitgebreide reviewprocedure zoals deze wel een efficiënte manier is.

Onderwijsonderzoek

Ik was vandaag op een symposium bij NEMO. Aanleiding van het symposium was de presentatie van een nieuw boek van Rooske Franse: “Reizen door het Landschap van Informeel Leren”, dat een achtergrond biedt over het opzetten van educatieve tentoonstellingen. Mooi boek – en ik ga het zeker lezen. Bij die presentatie waren lezingen van Maartje Raijmakers, van de UvA, en Josh Gutwill, van het Exploratorium in San Francisco. Met name die laatste zette me aan het denken.

Hij noemde een voorbeeld van ontwerponderzoek dat ze bij het exploratorium doen. Ontwerponderzoek noemde hij als de meest praktijkgerichte vorm van onderzoek. Niet gedreven uit theorie maar gewoon om een opstelling op de museumvloer zo goed mogelijk te maken. Daarbij gaan ze heel praktisch te werk. Een ontwerper bouwt een eerste versie van een opstelling en die wordt op de museumvloer gezet. Het publiek loopt er langs en gebruikt de opstelling. Dat wordt geobserveerd – met camera’s en microfoons wordt vastgelegd wat er met en rond de opstelling gebeurt. Op basis daarvan wordt een nieuwe versie gemaakt. Ook die wordt op dezelfde manier getest en weer herzien. Net zolang tot er geen verbetering mogelijk is.

Gutwill noemde een voorbeeld van een opstelling waarin bezoekers schijven van een helling kunnen laten rollen, en kijken welke sneller gaat. Hoe snel een schijf rolt hangt af van hoe de massa verdeeld is over de schijf. Hoe dichter de massa bij het centrum van de schijf is geconcentreerd, hoe sneller de schijf gaat lopen – er gaat minder energie in de rotatie van de schijf zitten.

Er zijn verschillende soorten schijven: lichte aluminium en zware koperen schijven. Ook zijn er massieve en schijven die er meer uitzien als een wiel met spaken. Uit de observaties bleek dat mensen wel met de schijven speelden maar niet doorhadden dat het om de rotatie-energie ging. Veel dachten aan luchtweerstand. In het nieuwe ontwerp waren de schijven van hout met koperen gewichtjes er in, met een duidelijk zichtbare grootte en verdeling. Bezoekers hadden snel door dat het om massa en massaverdeling ging en probeerden dat uit. Een effect was wel dat ze veel korter bij de opstelling bleven.

De helling zoals gebruikt bij het exploratorium. Aan de onderkant zijn de schijven met gewichtjes te zien. Foto is van exploratorium.

In de volgende versie van de opstelling waren de schijven op dezelfde manier gemaakt, maar waren twee schijven toegevoegd waarvan de bezoekers zelf de massaverdeling konden bepalen door gewichtjes langs sleuven te verplaatsen. Nu bleven bezoekers weer veel langer bij de opstelling en kon uit hun gesprekken nog steeds worden opgemaakt dat de verdeling van de massa over de schijf essentieel is.

Wat mij vooral aan het denken zette is dat, hoewel de inhoud van de proef door de verschillende gebruikte schijven niet veranderde, het gedrag van de bezoekers dat wel deed, en vrij essentieel. Vooral omdat ik eerder op de dag een artikel reviewde waarin twee versies van een online leeromgeving werden gebruikt. In één versie kregen leerlingen vragen, in een andere niet. Ik heb het artikel afgewezen omdat de statistiek niet klopte, maar daarnaast zat de leeromgeving over celbiologie liefdeloos in elkaar. Fraaie animaties, maar de interactie met de leerling was weinig doordacht. Als je dit legt naast de wetenschap dan een relatief klein detail in het ontwerp veel uitmaakt, kun je je afvragen wat de zin van dergelijk onderzoek is.

Ik realiseerde me dat bij veel onderzoek naar instructievormen de eerste fase van zorgvuldig, iteratief ontwerp wordt overgeslagen of maar beperkt wordt gedaan. We grijpen meteen naar vergelijkend onderzoek, en vinden soms wel en soms geen verschil. Het probleem hiermee is dat doordat kleine verschillen in het ontwerp van de ervaring van de gebruiker grote gevolgen hebben voor gedrag, het geen zin heeft om verschillen in instructie te gaan vergelijken. Het effect van de details van de opstelling zelf kan vele malen groter zijn dan dat van wel of niet een bepaald soort vragen stellen. Onderzoek is gelaagd: eerst een goed ontworpen basisomgeving, dan pas uitproberen of verschillende vormen van instructie effect hebben. Die les kreeg ik vandaag weer een keer ingepeperd.

Een cellulair ecosysteem

Als je er aan begint ben je verslaafd. En als je één cellulaire automaat hebt gemaakt is de volgende niet zo moeilijk meer. Deze is een klassieker, en in onderzoek ook veel gebruikt, dan wel in wat uitgebreidere vorm: een ecosysteem bestaande uit verschillende onderdelen van de voedselketen. Ik heb het simpel gehouden en gekozen voor twee verschillende onderdelen van het ecosysteem: gras en konijnen. Net als bij de vorige cellulaire automaten zijn er enkele simpele regels waaraan de bewoners van de cellen zich houden. En zelfs met deze simpele regels kun je interessant gedrag zien ontstaan. De regels:

Voor Gras:

  1. Als er in je directe omgeving (de cellen links, rechts, boven of onder) een lege cel is wordt die in 20% van de gevallen gevuld met gras. [Gras groeit].

Voor de konijnen:

  1. Konijnen beginnen met een energie van 10.
  2. Iedere stap neemt de energie van een konijn af met 1. [Leven kost energie]
  3. Als de energie onder nul zakt sterft het konijn en laat een lege cel achter. [De hongerdood]
  4. Als het konijn naast een cel met gras staat, kan het konijn eten. De kans daarop is 1-energie/10 en wordt dus groter met afnemende energie (honger). Als het konijn eet springt het naar de cel met gras en stijgt zijn energie met 3. [Konijnen eten]
  5. Als je naast precies één ander konijn staat, en de energie van beide konijnen is groter dan 5, is er een kans (40%) dat er een nieuw konijn ontstaat in een cel naast het konijn. [Voortplanting]

Er zijn twee belangrijke toevoegingen aan de regels ten opzichte van de vorige automaten. Er is een kanselement ingebracht, sommige regels kunnen met een bepaalde kans worden uitgevoerd. Bovendien heeft het konijn een interne toestand, zijn energie, die het gedrag van het konijn bepaalt (wel/niet eten, wel niet voortplanten, sterven). En je kunt me aanvallen op de biologische correctheid omdat ieder konijn met ieder willekeurig ander konijn kan voortplanten. Hier zie je het resultaat:

In veel gevallen zie je dat het aantal konijnen vaak ongeveer stabiel blijft, met af en toe bevolkingsexplosies van konijnen. Die leiden dan tot grote kaalgevreten plekken waardoor konijnen in een hoog tempo afsterven. In veel gevallen blijven er een paar over die op termijn zich weer gaan vermenigvuldigen. Het systeem kan dus een stootje hebben. Maar soms gaat het fout en sterven alle konijnen. Het overkwam mij een aantal keer dat ik een eenzaam zwervend konijntje overhield. Dat heeft het eeuwige leven want in dit model is niet voorzien in sterven van ouderdom.

Cellulaire automaten – leven in de computer

Een van de leukste dingen die de combinatie van wiskunde en computers heeft opgeleverd zijn cellulaire automaten. Het principe ervan is simpel: je hebt een verzameling hokjes, die elk een cijfer bevatten. Vaak kan dat alleen een 1 of een 0 zijn. Daarnaast heb je regels die bepalen wat er met de vakjes gebeurt. Bijvoorbeeld: “Als ik een 0 ben en drie van mijn acht buren zijn een 1, dan word ik ook een 1. Een bekend voorbeeld is de Game of Life, bedacht door James Conway. Bij deze automaat (een spel is het niet echt) zijn de vakjes met enen en nullen in een vierkant of rechthoek gerangschikt en gelden de volgende regels:

Bij een 1: Als van je 8 buren er twee of drie een ook een 1 zijn, blijf dan een 1.
Bij een 0: Als je precies drie buren hebt die 1 zijn wordt je een 1.
In alle andere gevallen wordt je een 0.

Als je alle vakjes met een 1 inkleurt krijg je iets dat er als volgt uitziet:

Druk op “Stap” om de regels één keer toe te passen. Je ziet het patroon veranderen. Druk op “Start” om de regels keer op keer toe te passen. Een beetje afhankelijk van het beginpatroon kan een wild, dynamisch patroon ontstaan. Probeer ook het volgende eens uit. Druk op “Stop”, en dan op “Schoon”. Klik dan een paar vakjes aan tot je het volgende patroon ziet:

En druk op start. Je hebt leven gemaakt: dit patroon schuift in vier stappen schuin naar boven. Dit patroon heet – niet verrassend – een glider. Gliders zijn kwetsbaar, bij de kleinste verstoring gaan ze dood. Zet maar eens een zwart vakje op zijn route, of laat er twee botsen.

Life is interessant omdat het mooi laat zien dat je met simpele regels ingewikkeld gedrag kunt krijgen. Als je de wilde patronen zou zien zonder eerst mijn verhaal te lezen zou je waarschijnlijk niet vermoeden dat de onderliggende regels zo simpel zijn. Ondanks die simpele regels blijkt dat de Game of Life veel mogelijkheden biedt. Er zijn patronen die oneindig uitgroeien, gliders, ruimteschepen en zelfs is het mogelijk een programmeerbare computer in life te maken. Voorbeelden kun je vinden op de wikipedia-pagina (en hierboven uitproberen). En op deze site vind je een programma waarmee je allerlei cellulaire automaten kunt proberen, op een groot veld met verschillende regels. En cellulaire automaten zijn een mooie inspiratie als je een badkamer moet betegelen, maar daarover een volgende keer.

Higgs revisited

In mijn vorige blog liet ik een SimSketchmodel zien van de Higgs-metafoor met politici als deeltjes met massa die zich door een massa Higgs-journalisten moeten bewegen terwijl ik  als onbekend persoon me als een foton ongehinderd zou kunnen bewegen. Kijk-journalist Jean-Paul Keulen vond het jammer dat het filmpje alleen bolletjes en golfjes in plaats van Rutte, Wilders, mijzelf en journalistjes. Dat kon ik natuurlijk niet op me laten zitten:

Ik laat het aan de lezer over om uit te maken wie wie is.

Het Higgs-mechanisme getekend

[Edit 4 juli: een paar onnauwkeurigheden hersteld: veld en deeltje]

Sinds begin vorig jaar wordt er druk gezocht naar het Higgs deeltje. Dat deeltje heeft een bijna mythische status, zoals bijvoorbeeld blijkt uit één van zijn bijnamen. Het “God”-deeltje. Het is wereldnieuws als er sporen worden gevonden. Het is een deeltje dat een belangrijke sluitsteen vormt voor het “standaardmodel”, het model dat theoretische natuurkundigen hebben opgesteld om alle zichtbare materie mee te kunnen beschrijven in termen van elementaire deeltjes. Zonder het Higgs deeltje kunnen ze niet verklaren waarom deeltjes massa kunnen hebben. Maar, hoe werkt dat nu eigenlijk dat deeltjes massa kunnen krijgen door een ander deeltje?

Massa is niets anders dan weerstand bieden tegen verandering van beweging. Als iets stilstaat moet je het een duwtje geven om het te laten bewegen, als iets beweegt is er weer een kracht nodig om het te laten stoppen. Hoe zorgt Higgs dat dat gebeurt?

Er is een hele mooie manier om dat uit te leggen, ooit bedacht om in 1993 de Britse minister van wetenschap uit te leggen wat het Higgs boson is.De metafoor maakt gebuikt van Margaret Tatcher. Ik vertaal hem naar de huidige tijd.

Stel je de ruimte voor bij het hek van het Catshuis waar de regering in overleg is over de bezuinigingen. Enkele tientallen journalisten staan daar te wachten op nieuws. Als ik daar over loop zal ik dat gewoon kunnen doen zonder gehinderd te worden. Als echter Mark Rutter of Geert Wilders langs zou komen zouden alle journalisten om hen hen drommen en kunnen ze zich met moeite voortbewegen. De journalisten representeren het Higgs-veld deeltjes, ik ben een massaloos foton en Rutte en Wilders zijn deeltjes met massa.

In onderstaand filmpje, gemaakt met SimSketch zie je hoe dit werkt. De kleine zwarte bolletjes representeren het  Higgs-veld, Het witte rondje is een deeltje met massa en het golfje is een – massaloos – foton. De bolletjes van het  Higgs-veld drommen om het massadeeltje heen waardoor die moeilijker beweegt, het foton beweegt ongehinderd.

Het SimSketch model kun je gewoon tekenen. Op onderstaand plaatje laat zien hoe het model in elkaar zit. De deeltjes zijn getekend en met stickertjes wordt verteld hoe ze zich moeten gedragen. Higgs deeltjes trekken massa aan en omgekeerd waardoor massadeeltjes  zich moeilijker bewegen.

Zoals bij elke metafoor klopt niet alles. Het massadeeltje krijgt een wiebelige baan, wat in het echt niet gebeurt. En de bolletjes zijn geen Higgs-deeltjes, maar representeren het Higgs-veld. Higgs-deeltjes zijn spontane klonteringen van die bolletjes, b.v. op basis van geruchten. Dat is ook onderdeel van de oorspronkelijke metafoor maar is lastiger te tekenen.  Maar het blijkt een mooie metafoor om het mechanisme te begrijpen.

Crackpot of genie – voor Cabbolet valt het doek

Op 28 oktober verscheen in de Volkskrant onderstaand opiniestuk van mijn hand, naar aanleiding van de promotie van Marcoen Cabbolet:

In de afgelopen week kwam in het nieuws dat Marcoen Cabollet alsnog een doctorstitel heeft weten te bemachtigen, op basis van zijn proefschrift over zijn Elementary Process Theory. Die theorie kan, naar zijn eigen zeggen, in de plaats kan komen van de Quantummechanica en de Algemene Relativiteitstheorie, de twee theorieen die bepalend zijn geweest voor de natuurkunde in de twintigste eeuw maar die ook in essentie onderling  niet verenigbaar zijn. De natuurkunde zit te wachten op een nieuwe theorie die beide theorieen verenigt, maar natuurkundigen denken niet dat Cabollet’s theorie dat zal zijn. Cabollet probeerde eerst aan de Technische Universiteit Eindhoven te promoveren, slaagde bijna, maar vlak voor de promotie ontstond er twijfel. De promotie werd, na een advies van Nobelprijswinnaar Gerard ’t Hooft, tegengehouden. Nu is het hem toch gelukt. De Vrije Universiteit Brussel kende hem op basis van het proefschrift de doctorstitel in de Wijsbegeerte en Moraalwetenschappen toe, en wel summa cum laude. Het feit dat de plechtigheid  aan een wijsbegeerte faculteit en niet in de natuurwetenschap plaatsvond zegt genoeg. De natuurkundigen nemen zijn theorie niet serieus.

Interessant is waarom de natuurkundigen Cabollet’s theorie niet serieus nemen. Uit een publicatie in de Annalen der Physik blijkt dat de theorie een zeer uitgebreid wiskundig raamwerk biedt. De theorie is onconventioneel, maar dat waren de relativiteitstheorie en zeker de quantummechanica ook. Sterker, de Amsterdamse natuurkundige Erik Verlinde kreeg dit jaar een Spinozapremie toegekend voor het uitwerken van een zeer onconventioneel idee over de aard van de zwaartekracht. Zijn collega’s verwachten veel van zijn ideeën, hoewel iedereen ook rekening houdt met de mogelijkheid dat hij er naast zit. Voor doorbraken in de theoretische natuurkunde is onconventionaliteit eerder een voorwaarde dan een belemmering, en dat is dus niet de reden waarom Cabollet’s theorie niet word aangehangen.

Wat dan wel? Wat maakt dat Verlinde applaus krijgt en Cabbolet hoon ten deel valt? We moeten daarvoor naar het werk zelf kijken. Het artikel in Annalen der Physik, waarvan ik aanneem dat het inhoudelijk overeenstemt met het proefschrift, begint met de vraag of er een theorie kan bestaan waarin materie en antimaterie elkaar afstoten. Met andere woorden, hij neemt aan dat antimaterie een negatieve massa heeft. Dat is in tegenspraak met zowel de relativiteitstheorie en de quantum­mechanica die geen van beiden negatieve massa’s toelaten. Op zich is het natuurlijk niet vreemd dat een nieuwe theorie in tegenspraak komt met zijn voorgangers – als dat niet zo zou zijn had je geen nieuwe theorie nodig – maar hier wordt de tegenspraak als uitgangspunt genomen, en is er geen concrete aanwijzing dat het probleem ligt bij de zwaartekracht van antimaterie. Tot op heden zijn er nooit zwaartekrachtmetingen aan anti-deeltjes gedaan. Daarvoor zijn ze te licht en leven ze te kort. Voor Cabbolet is zijn aanname aanleiding om een volledig nieuwe wiskundige beschrijving van de natuurkunde te ontwerpen  zonder daarbij aan te geven hoe de oude natuurkunde zich daarmee verhoudt. Toen de algemene relativiteit en quantummechanica ontstonden losten die wel degelijk experimentele en theoretische problemen van de oude theorie op. Bovendien hielden zij zich aan het correspondentieprincipe: de oude theorie is voor die situaties waar ze wel goed werkt af te leiden uit de nieuwe.

Het werk van Verlinde bouwt voort op een reeks nieuwe inzichten uit de theorie van zwarte gaten, het holografisch universum. Juist dat voortbouwen en tot in uiterste consequenties doordenken van die inzichten maken dat zijn werk de potentie heeft uit te groeien tot een zeer krachtige theorie. En, hoewel Verlinde zelf ook aangeeft nog aan het begin te staan van een mogelijke theorie, begint hij met het afleiden van de aloude wetten van Newton. Zijn zwaartekracht is voor planeten en valllende appels gelijk aan die van Newton. Met het correspondentieprincipe zit het bij Verlinde dus wel goed.

Natuurkunde is een vak van kleine stapjes. Het idee van een wetenschapper die in zijn eentje in een studeerkamer het probleem van het universum ‘oplost’ is romantisch maar klopt niet. Ook Einstein en zijn tijdgenoten werkten niet zo. De problemen waaraan ze werkten werden gedeeld door hun collega’s gedeeld. Einstein zocht een theorie die elektromagnetisme en mechanica verenigde en deed één revolutionaire aanname, dat de lichtsnelheid voor alle waarnemers gelijk is, onafhankelijk van hun snelheid. Bohr, Heisenberg en collega’s werkten stap voor stap aan een verklaring voor destijds nieuwe en vreemde  verschijnselen op atomair niveau. Pas jaren later ontstonden uit hun werk de uitgewerkte theoretische bouwwerken die in de natuurkundige studieboeken beschreven staan.

Cabollet maakt zichzelf verdacht  door te claimen in één klap de uitgewerkte theorie te hebben geconstrueerd. Met een verhaal dat hij in de tram met een collega de formules uitwerkte op de beslagen ramen probeert hij daarbij een zekere mystificatie rond haar ontstaansgeschiedenis in het leven te roepen. Zijn theorie is echter onaanvaardbaar doordat die begint met het zoeken van een verklaring voor een nooit waargenomen verschijnsel, en het ontbreken van het begin van een correspondentie­principe. Een theorie die niet kan verklaren wat we al eerder konden kan nooit vooruitgang betekenen. En daarmee valt terecht het doek voor Cabollet, ondanks zijn doctorstitel.