AI in week 39

New!! A newsletter in English! Scroll down, or visit my site and read this newsletter in English too! If you subscribed a long time ago and never received a newsletter before that's because there we none in English before, so welcome!!
So Dutch readers, don't worry! This newsletter looks like it's 10.000 words but it is only a modest 5000, times two đ.
Meertaligheid op internet
Wat heb ik al veel nagedacht over in welke taal te schrijven op de socials en op mijn blog.
Aan de ene kant wil ik in het Engels schrijven want dan heb ik een groot publiek, en ik geloof dat sommige dingen die ik schrijf een groot publiek zouden moeten bereiken. Aan de andere kant schrijf ik heel anders in het Nederlands, met minder moeite, met een veel rijker vocabulaire, en meer "Felienne". Als ik mijn Nederlandse teksten teruglees, hoor ik mezelf er meer in terug dan in Engelse stukken. En ik reageer vaak expliciet op stukken uit Nederlandse kranten, en dat heeft dan weer wat minder waarde in het Engels.
Het is weer een van die vele voordelen die je hebt als je moedertaal Engels is, dat je maar één identiteit hebt!
Er is eigenlijk geen goede oplossing. Je kan twee losse accounts hebben, dat heb ik een tijdje gedaan voor Twitter, en twee losse sites, dat heb ik nu, maar dat is een hoop gedoe en doet ook niet echt recht aan de werkelijkheid. Ik ben niet twee losse mensen, ik ben één persoon.
Maar ik hou van experimenteren en proberen, en om recht te doen aan het feit dat ik één mens ben, ga ik gewoon Engels en Nederlands mixen! Onderaan de nieuwsbrief vind je voortaan een Engelse vertaling. Niet 100% hetzelfde als in de Nederlandse staat, maar dat hoeft ook niet.
Vind je deze nieuwsbrief dus nuttig maar kon je 'm tot nu toe niet delen met niet-Nederlandssprekende vrienden en bekenden? Nu wel!
Het wensdenken over AI
AI gaat de wereld overnemen, het kan zelf denken, het is een eigen soort levensvorm met een zelfbewustzijn, dit soort opinies is overal te lezen, onlangs nog in de Volkskrant in een interview met Michiel Bakker, universitair docent aan MIT.
"Ik ben ervan overtuigd dat we aan de vooravond staan van deze vorm van AI, Artificial General Intelligence (AGI).
[...]
De discussie is dan niet Ăłf superintelligentie eraan komt, maar wanneer.
Overigens is het heel boeiend om bij zo'n stuk te zien staan dat Bakker dit soort uitspraken doet "met jongensachtige bravoure". Ik zie nou zelden dat vrouwen van 36 meisjesachtige bravoure wordt toegeschreven.
Maar zijn extraordinary claims en die vergen, as the saying goes, extraordinary evidence. In haar nieuwsbrief legt Melanie Mitchell, professor bij het Santa Fe Institute, heel goed uit hoe de waanzinnige claims die je steeds leest precies dat zijn, waanzinnig [[1]].
En ik bedoel dat in de meest letterlijke betekenis van het woord, ze hebben waan in de zin. Waan is volgens van Dale een "gedachte die niet op waarheid berust", en dat is het precies. De voorbeelden die Mitchell aanhaaltâdie zij aanhaalt omdat ze voorkomen in een stuk van Thomas L. Friedman in New York Times, maar die op zoveel meer plekken ook te lezen zijnâkloppen niet, nauwelijks of in het beste geval half.
Mitchell debunkt bijvoorbeeld het vaak gehoorde verhaal dan LLMs zomaar talen kunnen leren waarop ze niet getraind zijn:
The claim that the AI system [...] was never trained on Bengali was quickly debunked by AI experts. In fact [the] training data indeed contained Bengali text, as detailed in Google's own paper.
Dit soort magisch denken gebeurt niet zomaar, dat komt AI bedrijven handig uit, hoe krachtiger LLMs lijken in de publieke perceptie, hoe vaker ze zullen worden ingezet. Zoals Katherine G. Schmidt, professor in de theologie aan de universiteit van New York in haar heerlijke stukje "AI is for losers" schrijft (ook een Substack, helaas):
At this point, it doesnât even matter if his predictions are correct; they are enough to steer the discourse toward all sorts of excitement and panic about AI, giving it more power than it deserves.
Mensen die aan de AI hype meedoen zijn vooral bang dat ze gezien wordt als luddieten, omdat het verhaal van big tech dat AI onvermijdelijk in alle haarvaten van de samenleving zal doordringen, en zo denkt als mensen zo overtuigend is.
Ik zie dat ook bij collega's op de universiteit, die oprecht geloven dat hallucinaties een soort kinderziekte zijn die er nog wel uitgeprogrammeerd gaan worden. Het zijn in de basis de argumenten die Mitchell eerder in haar boek uiteenzette: bias en hallucinaties zijn onvermijdelijk, en AI modellen missen 'common sense' reasoning. Nu is Mitchell's boek wel van 2019, dus voor deze LLM hype, en het is verleidelijk om te denken dat chatGPT wel kan denken, omdat het soms de linguĂŻstische patronen van common sense wel kan nadoen, maar echt nadenken is natuurlijk anders, want dat vergt ook buiten bestaande kaders kunnen handelen, ook letterlijk.
Dat zien we misschien het mooist in het kunstwerk van James Bridle - Autonomous Trap 001. De val van Bridle is een simpele cirkel op een parkeerplaats gemaakt met zout. Omdat de auto is getraind om niet over witte lijnen te rijden, komt de auto nooit meer uit deze 'val'.

Niet alleen Bridle, maar ook Service Model de sciencefictionroman van Adrian Tchaikovsky. In dat boek, zoals ik al eerder schreef in Volkskrant, ontwikkelt een robot zelfbewustzijn en verzint hij een test voor de andere robots: hij zet ze in een wachtkamer waar ze eindeloos moeten wachten. Hebben die andere robots ook een eigen wil? Dan worden ze op een dag wel boos vanwege die onredelijkheid en stormen ze naar binnen.
Een mens blijft niet tot hij een ons weegt in die zoutcirkel staan of in een wachtkamer zitten, en precies dĂĂ© common sense mist ieder algoritme. Software blijft aan regels gebonden, ook al heeft het er soms de schijn van dat er magie optreedt. Common sense is dus een fijne graadmeter, misschien veel zinniger dan intelligentie, maar het is wel ongeveer even ongrijpbaar.
En die ongrijpbaarheid is niet alleen een probleem, maar vaak expliciete opzet. Het is voor de makers van AI maar wat fijn als mensen niet precies weten wat er bedoeld wordt als ze zeggen dat "ze zeker weten hoe ze AGI moeten bouwen", maar nog geen half jaar later weer te zeggen dat AGI geen relevante term is. Die vaagheid is geen bug maar een feature.
In een goed stuk legt Eryk Salvaggio, onderzoeker aan de universiteit van Cambridge, uit dat het vaak totaal onduidelijk is wat de definitie van intelligentie is die gebruikt wordt. Hij stelt dan ook voor om het niet over de definitie van intelligentie te hebben maar juist over wat een gesprek is. Gesprek is als term heel wat makkelijker te kaderen dan intelligentie en de vraag of met AI werken onder de definitie van een gesprek is, laat zich weerleggen alleen al omdat je kan zeggen dat er in een gesprek twee mensen de heavy lifting doen.
"As we exchange ideas, we build a world we temporarily co-exist in. At its best, this is a circle of playfulness that welcomes risk-taking and vulnerability."
AI is dus geen echt gesprek, aldus Salvaggio, en we lopen met AI het risico om nog eenzamer te worden.
"AI is a conversation-shaped tool, used to create some of the benefits of a conversation in the absence of another person. But with too much dependency, they risk making real reciprocity, sharing, and vulnerability even rarer."
Eén van mijn favoriete denkers over taal is Wittgenstein, vooral omdat hij net als ik eerst in de wereld van de wiskunde en de logica woonde, en probeerde om taal en betekenis te vangen in formele logica. Na een uitstapje waarin hij leraar op een school werd in Oostenrijk (wat niet geweldig ging en waarbij hij lijfelijke straffen niet schuwde) kwam hij terug naar Cambridge met een totaal andere, veel menselijkere theorie over taal: het krijgt pas betekenis als het wordt gebruikt door mensen in een gemeenschap. Maar LLMs kunnen niet meedoen aan een gemeenschap en doen dus ook niet aan taal, maar alleen aan tekst. De betekenis die wij daar aan toekennen komt uit de ene mens die de LLM gebruikt.
Taal is als medium trouwens ook veel te mager voor al die betekenis; we gebruiken ook voortdurend éénwoorduitingen zoals ehm, gebaren en mimiek om elkaar te snappen, dat is de smeerolie van taal, schreef ik in het voorjaar nog in NRC, met een term die ik leende van taalwetenschapper Marc Dingemanse.
Ik schreef al een paar keer over David Graeber en ik vind zijn werk echt geweldig, vooral omdat hij de huidige staat van de wereld zo scherp bevraagt. Eén van Graebers mooie termen is 'interpretive labor'.
"Much of the everyday business of social life, in fact, consists in trying to decipher othersâ motives and perceptions. Let us call this âinterpretive labor.â
Een gesprek is hard werken, dat weten we allemaal, je moet je voortdurend inleven in de ander, snapt hij je wel? Ga je te snel, te langzaam, neem je te veel voorkennis aan? Je kan je echt afvragen of je volgens die definitie een 'gesprek' met AI wel een gesprek kan noemen.
Waarom hallucinaties erg zijn
Vorige week schreef ik al over het AI handboek van de VU, en gelukkig was ik niet de enige VU collega die zich er druk over maakte; ik kreeg talloze appjes, en las ook dit stuk in Ad Valvas van collega Sjoerd Oppenheim. In dat stuk las ik ook weer nieuwe schrikbarende dingen (ik had nog niet alle 113 pagina's in detail gelezen). Bijv:
"De auteurs [stellen] dat het âeen twijfelgeval isâ wanneer je âChatGPT een heel essay laat schrijven dat je vervolgens alleen licht aanpastâ."
Los van de vraag of dit ethisch is, stipt Oppenheim ook nog maar eens aan hoe weinig een student leert van zo'n activiteit.
"Het toestaan van generatieve AI voor dit soort doeleinden aan een universiteit is alsof je een aspirant-bergbeklimmer het telefoonnummer leert van een helikopterservice, en vervolgens doet alsof je bergbeklimmers opleidt."
Ja dat is het! Dit is een lekkere vergelijking, zoals de heftruck mee naar de sportschool, of zoals ik het zelf vaak omschrijf een bus nemen naar het einde van de marathon. Ik ben het dan ook eens met de conclusie van Oppenheim dat "dit handboek dus funest [is] voor het hele academisch onderwijs."
En het is geen hypothetisch theoretisch fringe probleempje, het speelt keer op keer, zoals (hilarisch) bij dit rapport van de Canadese provincie Newfoundland and Labrador over, haha, het ethisch gebruik van AI, dat maar liefst 15 niet-bestaande bronnen bleek te citeren. Of een advocaat in California die $10.000 dollar boete moet betalen omdat in zijn 'opening brief' 21 van de 23 citaten verzonnen waren. Nu is het misschien nog 'haha grappig wat een pannenkoeken dat ze AI gebruiken' maar binnenkort weten we niet eens meer wat er waar is, ben ik bang. Als genoeg juristen dezelfde bronnen hallucineren dan worden ze op een dag gewoon echt.
En het gaat mij natuurlijk niet per se om de VU, al gaat dat me uiteraard het meeste aan het hart, maar in het algemeen.
Het blijft me verbazen dat we een technologie die zo nieuw is, waarvan we op geen enkele manier de langetermijneffecten kennen of onderzocht hebben, zo klakkeloos in het onderwijs uitrollen. We weten niet of zoeken met AI je beter leert zoeken dan zonder AI. We weten niet of blootstelling aan talloze halfkloppende of totaal onzinnige bronnen je beter leert omgaan met nepnieuws dan een paar gefocuste kloppende. Voor we zomaar dingen op studenten gaan loslaten, zouden we dat niet eerst eens gedegen moeten uitpluizen?
Op basis van wat we nu weten over leren, lijkt het een slecht idee om studenten te laten werken met AI, in de hoop ze te helpen leren werken met AI. Ander onderzoek toont vaak aan dat het uitvoeren van een grote taak niet geen effectieve manier is om een taak te leren: van programmeren, bijvoorbeeld ga je helemaal niet zozeer beter programmeren, je kan beter codes lezen met bijbehorende uitleg van experts. Net zoals je wanneer je een taal leert, je niet meteen begint met vertalingen uit Google Translate halen, maar met grammatica en woordenschat.
De eagerness waarmee AI toch, zonder bewijs en terwijl het onze beste gok is dat het niet zomaar werkt, uitgerold wordt, ligt denk ik aan een paar dingen.
Ten eerste het feit dat big tech heel succesvol is in het vertellen van het verhaal dat dit "niet meer weg te denken is" uit de hele samenleving. Universiteiten die bang zijn de boot te missen, of door de samenleving (hier voornamelijk gerepresenteerd door opiniestukschrijvende hoogopgeleide ouders) als conservatief te worden afgeschilderd. Het is het klassieke voorbeeld van groepsdruk waar mijn ouders me altijd voor waarschuwden: "Als iedereen in de sloot springt, spring jij dan ook?"
Het tweede stuk van het verhaal is dat big tech ons wijsmaakt dat AI hetzelfde is als menselijk denken. Of big tech daarvoor gekwalificeerd is, is een tweede, daar geef ik binnenkort een lezing over, en dan zal je dat zeker hier ook kunnen lezen! Maar ze doen het wel, en mensen luisteren naar het narratief van superintelligentie, ook omdat dat (zie ook eerder in deze nieuwsbrief) zo vaag is dat het bijna niet valt te weerleggen.
En ik geef toe, soms verrassen LLMs me ook, ze doen zo menselijk aan. Dat komt natuurlijk niet alleen door hun goede mimicing van taal, maar ook door design keuzes die gemaakt worden, zoals het hanteren van de ik-vorm, en zoals ik laatst zag toen ik laatst weer eens chatGPT probeerde om een les mee voor te bereiden (wat op interessante wijze mislukte, daar schrijf ik later nog wel eens over!) de nieuwe meldingen "searching the web" of "thinking".
Door de menselijke vorm, wordt het makkelijker om een AI te zien die doet wat een mens doet, als ik het heb over hallucinaties, is vaak het antwoord: "Ja, maar mensen maken ook fouten, en mensen hebben ook bias." (en soms zelfs ook: en mensen die denken stoten ook CO2 uit maar dat is er een voor een andere keer... Het gebruik bij individuen leggen is een kwalijke manier om naar de zaken te kijken.)
Dus laten we die eens oppikken, is er een verschil tussen mensen die hallucineren en LLMs die dat doen?
Een eerste belangrijke verschil is dat een mens aansprakelijk kan gehouden worden voor fouten. Maak je een fout, dan kan een ander je verantwoordelijk houden voor de fouten, en kan je in sommige gevallen ook consequenties ervaren. Dat zien we nu ook gebeuren bij die rechtbank in California gelukkig, de fouten die chatGPT maakt, worden toegeschreven aan de advocaat die de systemen gebruikt.
Maar in veel gevallen gaat het een stuk ongrijpbaarder zijn wie blaam treft, als ik een lezing voorbereid met AI bijvoorbeeld, daarin iets onwaars zeg en dat een bezoeker vervolgens op LinkedIn overneemt. Dan is het helemaal niet meer zo makkelijk te herleiden tot een AI-hallucinatie, om nog maar te zwijgen over gehallucineerde onzin die door nieuwe trainingsrondjes weer in nieuwe AI systemen terechtkomt.

Een tweede verschil is dat mensen consistent zijn in het maken van fouten, en dat ze, bij genoeg bewijs van mening kunnen veranderen. Een AI heeft geen interne representatie van goed of fout, dus zelfs als jij feedback geeft in de vorm van "weet je zeker dat dit klopt?" dan kan het erna zo weer misgaan bij de volgende gebruiker. En dat is een fundamenteel verschil, een mens die een fout maakt kan oprecht beloven het nooit meer te doen, en zich daaraan houden. Een LLM niet.
Het gaat erom hoe je het gebruikt!
Als ik kritisch ben op AI, dan is vaak het antwoord dat het er toch om gaat hoe je het gebruikt, bijvoorbeeld in een reactie op een hele prima column van Peter Kuipers Munneke in NRC waarin hij betoogt dat chatGPT niet thuishoort in het universitaire schrijfproces.
Docent Martin Bakker schrijft als reactie op LinkedIn:
"De waarschuwing van Kuipers Munneke is dus essentieel: zonder kritische sturing produceert AI inderdaad eenheidsworst. Maar in de juiste handen is het geen "creatieve houtversnipperaar", maar juist een slijpsteen die de menselijke creativiteit en helderheid van geest scherper kan maken."
Het gaat erom hoe je het gebruikt, Felienne! Jij gebruikt het gewoon niet goed genoeg.
Nu is dat in eerste instantie een soort "guns don't kill people" argument, dat de technologie zelf, en diens maker buiten schot laat, en alleen het gebruik door mensen centraal stelt.
Maar nog even los daarvan, kun je je ook nog afvragen hoe waarschijnlijk het is dat in de onderwijswereld die we nu hebben gemaakt, studenten het echt constructief zouden gebruiken.
Ja, je kan een LLM jezelf laten overhoren, en er zijn vast studenten die het zo gebruiken. Net zoals er in mijn tijd leerlingen waren die eerst alle sommen maakten, en daarna de antwoordenboekjes echt gebruikten om te controleren of ze het goed gedaan hadden, en eerst zelf alles vertaalde voordat ze de vertalingen van scholieren.com erbij pakten. Mogelijk? Zeker! Een klasgenoot van mij die dat deed promoveerde later in Oxford. Waarschijnlijk? Nee. Zelfs in de jaren '90 was het zeker niet wat de meesten kinderen bij mij op school deden, en toen leefden we nog niet eens in de prestatiemaatschappij die we nu kennen. Waar leerlingen die nu naar de TU willen toelatingstoetsen en essays moeten doen, schreef je je toen simpelweg in; als je de goede vakken op je diploma had deden je cijfers er niet eens toe. Met andere woorden, als er al een tijd was dat leerlingen op school gewoon konden leren om het leren en niet om de cijfers, dan was dat toen ik op school zat, en toen werd er ook alom gefraudeerd.
Nu is de wereld echter totaal anders. Leerlingen ervaren heel veel druk om goede cijfers te halen, en ze voelen die druk dus niet alleen, die druk is er ook, anders kom je niet binnen bij bijv. een TU. Logisch dus dat ze denken: ik ben slim, ik maak mijn huiswerk of PWS lekker met AI. We maken die wereld van druk zelf. Zouden we zeggen, zoals een van mijn professoren op de universiteit eens gekscherend voorstelde om iedereen gewoon bij de eerste les een 10 te geven, en dan aan wie nog steeds wilde leren, les te blijven geven, dan zou er een stuk minder reden (niet 0 natuurlijk) zijn om vriend chat om hulp te vragen.
Dat blijkt ook uit onderzoek onder jongeren zelf:
De enquĂȘte laat ook zien dat prestatie- en tijdsdruk belangrijke drijfveren zijn voor oneigenlijk gebruik van AI. Ongeveer 37% van de studenten denkt dat medestudenten AI vooral gebruiken om goede cijfers te halen, 27% noemt tijdgebrek als belangrijkste reden, en 26% geeft aan dat sommigen weinig waarde hechten aan academische integriteit
Ik refereerde vorige week nog aan het boek The Charisma Machine over het One Laptop Per Child project waarvan mensen zeer hoge verwachtingen hadden. Leerlingen in ontwikkelingslanden die opeens een heuse laptop met internet tot hun beschikking hebben, die gaan toch uit vrije wil Wikipedia uitlezen of Chinees lezen, toch...? Toch? Nee, natuurlijk niet! Gamen en YouTuben is toch veel leuker!
AI influencers die dus steeds maar hameren op geweldige voorbeelden van hoe AI kan worden gebruikt voor 1:1 tutoring, verdieping en overhoren hebben in de basis geen ongelijk, die dingen zijn mogelijk [[2]] âal hebben ze er waarschijnlijk flink voor moeten promptenâmaar niet waarschijnlijk, en die realiteit moeten we ook meenemen.
Lezersvraag: maken we leren niet te makkelijk?
Soms krijg ik lezersvragen binnen die redelijk overzichtelijk zijn: hoe organiseer jij je blog, hoe leef je zonder mobiel? Maar soms krijg ik er ook binnen die diep zijn en waarvan ik denk: daar kan ik nu op antwoorden, en als ik het over een jaar nog eens doe, denk ik er weer anders over. Zo eentje kreeg ik onlangs binnen, de vraag was:
"Ik ben echt serieus benieuwd naar jouw professionele view hierop, en hoe jij dat ziet vanuit jouw vakkennis."
Hierop verwijst naar een stuk uit filosofiemagazine Epoché, van onderwijswetenschapper Cary Campbell, over wat Biesta de learnification van het onderwijs noemt. Het is een mooi stuk, uit 2019, dus van voor de LLM hype.
Er staan een aantal voor ons wat lastig te volgen stukken in over Ontario in Canada, maar ik raad je aan om het te lezen! [[3]]. Het stuk stelt de vraag of online onderwijs en het inzetten van apps en online leeromgevingen leren niet te makkelijk maken. Het is zo'n intrigerende vraag, want mijn eerste intuĂŻtie (en misschien die van jou ook) is dat het goed is als leren makkelijker is. Leuker kunnen we het niet maken, wel makkelijker!
Maar lees door en het raakt echt de kern van waar onderwijs over gaat, want als we leren voor iedereen in hapklare brokjes aanbieden, waar en wanneer ze maar willen, wat voor beeld op onderwijs geeft dat dan?
"What kind of learning is this, which calls for no productive effort on the part of the learner, nor even for his presence, which replaces the teacher by a programme, which severs head from body, mind from world?"
De kern van het stuk is de vraag waar onderwijs voor is. Leiden wij burgers op, of medewerkers? Het laatste lijkt het steeds maar weer van het eerste te verliezen:
"any collective struggle to preserve education as a basis for creating critical citizens is rendered defunct within the corporate drive for efficiency"
Snel, hup, wat kennis erin! Nu met een LLM, maar in de tijd van het stuk met andere digitale leermiddelen. De natuurlijke frictie die nu eenmaal bij leren hoort; de verwarring van nieuwe dingen leren, de weerstand die dat soms oproept, de irritatie dat je dingen van de vorige les toch weer vergeten bent, of in positieve zin de glans die van die frictie komt; de soms niet te stillen honger naar kennis, de trots die een leerling voelt als iets lukt, en die jij als docent dan ook voelt, die zijn vermalen in de molen van efficiëntie.
School komt, uiteraard, van het Griekse woord skolé dat vrije tijd betekent, maar ook in relatief recente tijd speelde vrijheid nog een rol, voordat kinderen in Nederland met de leerplicht naar school moesten, werkten ze vaak op het land of in de fabriek. Dus ook ver na de Oudheid was school een plek waar je vrij was van (onmiddellijk) productief werk, en kon nadenken, ontplooien en ontdekken. Zo werd de zoon van de bakker advocaat. Door kennis, ja, natuurlijk, maar ook door een docent die zo'n kind zag, aanmoedigde en optrok.
Jan Masscheilan, wiens denken ook in het Epoché stuk voorkomt noemt dit met een leuk woord togethering: samen als docent en leerlingengroep het leerproces beleven. Met togethering leer je ook dat niet iedereen alles al weet, dat je soms op elkaar moet wachten, moet helpen, moet uitleggen, en dat de een bij wiskunde voorloopt en de andere bij Frans.
In mijn college over AI in het onderwijs heb ik deze twee foto's van een klas, eentje uit 1892, en eentje uit recente tijden.

Wat zie jij hierin? Dat het onderwijs ouderwets is en al 100+ jaar hetzelfde? Of dat de vorm van een groep mensen van zo'n stuk of 30 onder de bezielende leiding van een ervaren docent misschien de ideale vorm is die geen disruption nodig heeft? Broeken hebben ook al eeuwenlang twee pijpen, want mensen hebben twee benen. Er kunnen dingen beter aan broeken maar dat van die twee pijpen is gewoon een goed design. Ik neig naar het tweede, als groep samen wat doen, dat is de togethering van Masscheilan.
Wat volgens Campbell nodig is, en waar ik het grondig mee eens ben, is meer vertrouwen van de samenleving in de docent.
"Society must come to trust teachers in their ability to be flexible and not just display a blind adherence to method and curriculum.
A society âready to trust people enough to free them of requirements of productivity ⊠[to] allow them to be teachers and studentsâ"
Niet maar voortdurend pushen op de nieuwste technologie, op meer toetsen, testen, centralisering en controle, maar opzij gaan en loslaten. De meeste docenten willen dat leerlingen zich ontwikkelen maar zijn met handen en voeten gebonden, en dat werkt averechts.
"If we want students to be creative, inventive, and imaginative, we have to allow the time and space for this to happen."
En dat betekent loslaten, zoals een plantje groeit. Natuurlijk hebben je groene vingers er invloed op, je zet m in de zon, giet Pokon en wiedt onkruid. Maar er is een grens waarboven het niet sneller of efficiënter kan, want het is een proces van de natuur, dat snapt iedereen. Zo is het ook met leren. Laat je leerlingen bloeien met de juiste context, sta niet voor hun zonnetje, maar neem ook de tijd om te genieten van de groei, de een snel als een waterkers, de ander langzaam als een Juweel van Madagascar. Allebei indrukwekkend op hun eigen manier.
En de keerzijde van al dat leren on demand is niet alleen de technologificering van het onderwijs zelf, het leidt ook tot een "onderwijs is een snackbar" denken bij studenten, laat dit vrij hartverscheurende verhaal van Hogeschool Rotterdam zien, waar maar een derde van de studenten op komt dagen, met alle gevolgen van dien voor de studenten die er wel waren:
"In een tijd waarin het individu centraal staat, is het idee dat jouw aanwezigheid ertoe doet â voor jezelf Ă©n voor de ander â minder vanzelfsprekend geworden."
Om de lezersvraag te beantwoorden, ik ben het erg eens met het stuk, zeker met de oproep waarmee het afsluit:
"The dream sold to many young people âthat a loosely networked individualism coupled with ongoing âtechnological progressâ can somehow keep us afloat through the turbulent late stages of global capitalism and the impending ecological crisis â is increasingly less credible.
Now more than ever we must ask âare we ready to fight for this vision of what school can mean?â
Willen we samen werken aan een school waar de leergemeenschap centraal staat? Waar we hoge verwachtingen hebben van leerlingen? Maar vooral waar de docent als professional serieus genomen wordt en niet voortdurend bestookt met alle grillen van de samenleving.
Ja, leraren zijn conservatief misschien, maar is er ook niet van alles wat de moeite van het beschermen waard is? De leraar als coach, leerpleinen, online systemen, ik verzet me er niet tegen omdat ik niet van veranderen hou, of van technologie, maar omdat die vernieuwingen geen context creëeren waarin echt geleerd kan worden.
Goed nieuws
Onderzoekers in Denemarken hebben een nieuwe manier bedacht om zonnepanelen neer te zetten, rechtop! Gras en graan kan er dan prima tussenin groeien, net zo goed als in een veld zonder panelen en het levert ook nog eens betere stroomvoorziening op! Zo kunnen we energie opwekken en ook nog eens gewassen kweken op hetzelfde gebied en dat spaart oppervlak!
AI is overal, maar "resistance is growing" aldus ZDnet. Steeds meer mensen worden zich ervan bewust dat je van AI gebruiken nou niet bepaald slimmer wordt (met ook een verwijzing naar ons paper over de weigering van AI in het hoger onderwijs)
Niet alleen in Ethiopië, ook in Noorwegen gaat het top met de elektrische auto, in 13 jaar tijd gingen ze van 0% naar bijna 100% elektrische auto's.
De FTC (Federal Trade Commission) start een onderzoek naar de risico's van chatbots voor kinderen. Nu heb ik weinig vertrouwen in de Amerikaanse overheid op het moment maar het is toch goed dat uitgesproken wordt dat we niks weten over de impact ervan, en er wel zomaar zoveel kinderen aan blootstellen.
En ten slotte mooi onderzoek in Nature! Als je in een stad verhuist wie meer ingericht is op voetgangers (het paper noemt New York als voorbeeld), dan ga je ook meer lopen, wel 1,100 stappen per dag meer! Dit gold voor allerhande groepen, verschillende leeftijden, genders en lichaamstypes. Niet verrassend misschien maar toch fijn, want deze studie kijkt expliciet naar mensen voor en na een verhuizing, en zo sluit je andere factoren uit (zoals de bias dat sommige mensen misschien liever lopen dan anderen, of gezonder zijn en daarom meer lopen).
Slecht nieuws
Op basis van onderzoek in Zwitserland toont aan de online wereld sterk beĂŻnvloedt of jonge vrouwen een carriĂšre in de politiek zullen kiezen. Ze zien toekomstig online abuse als een risico dat ze daarvan weerhoudt, en dat is niet onterecht, het onderzoek laat zien dat vrouwen ook veel vaker op hun gender worden aangevallen online. Gelukkig laat dat sommige jonge vrouwen zoals Kat Abu niet tegenhouden!
Deze was nog even blijven liggen van de zomer, maar ik pik m toch nog even mee, want het is me een verhaal, van de altijd heel diepgaande Follow The Money. Miljoenen kiloâs grond van Schiphol vol met pfas (een forever chemical dat nooit meer uit de natuur verdwijnt) moesten ergens naartoe. Het kon niet op Schiphol zelf blijven want daar lag al veel te veel vieze grond. Maar gelukkig kon het worden 'hergebruikt' in Haarlemmermeer, het klinkt als recyclen op de composthoop, maar het was gewoon van de ene plek naar de andere verhuizen, terwijl dat niet mocht. Uit het stuk blijkt dat een hele groep ambtenaren overal de wet omzeilden om het toch voor mekaar te krijgen.
English
Being multilingual on the internet
I have thought long and hard about which language to use on social media and on my blog.
On the one hand, I want to write in English because that way I can reach a large audience, and I believe that some of the things I write should reach a large audience. On the other hand, I write differently in Dutch, it takes me a lot less effort and I have a much richer vocabulary. Plus, it feels more âFelienne.â When I reread my Dutch texts, I hear myself in them more than in my English texts. And I often respond explicitly to articles from Dutch newspapers, which is less valuable in English.
You might not realize this when English is your native language: you only have one identity and that is a great benefit.
There is no good solution, really. You can have two separate accounts, which I did for a while on Twitter, and two separate sites, which I have now, but that's a lot of hassle and doesn't really do justice to reality. I'm not two separate people, I'm one person.
Since I like to experiment and try new things, and to do justice to the fact that I am one person, I'm just going to mix English and Dutch! From now on, I will append an English âtranslationâ to the newsletter that you can reach directly by appending #english to the url (f.e. for this one: https://www.felienne.nl/2025-39/#english)
It won't be 100% the same as the Dutch version, but it doesn't have to be.
Wishful thinking about AI
AI is going to take over the world, it can think for itself, it is a life form with self-awareness. Opinions like these can be found everywhere, most recently in the Volkskrant newspaper in an interview with Michiel Bakker, assistant professor at MIT (in Dutch).
"I am convinced that we are on the eve of this form of AI, Artificial General Intelligence (AGI)."
"The discussion is not whether superintelligence is coming, but when."
As an aside, it is interesting to see that Bakker makes these kinds of statements according to the journalist âwith boyish bravado.â I rarely see women aged 36 being attributed girlish bravado.
But these are extraordinary claims and, as the saying goes, those require extraordinary evidence. In her newsletter, Melanie Mitchell, professor at the Santa Fe Institute, explains very well how the delusional claims you keep reading are exactly that, delusional [[11]].
And I mean that in the most literal sense of the word. Delusion is a âthought that is not based on truthâ, and that is exactly what it is. The examples Mitchell citesâwhich she cites because they appear in an article by Thomas L. Friedman in the New York Times, but which can also be read in so many other placesâare incorrect, hardly correct, or at best only half correct.
For example, Mitchell debunks the often-heard story that LLMs can learn languages they have not been trained on:
"The claim that the AI system [...] was never trained on Bengali was quickly debunked by AI experts. In fact [the] training data did indeed contain Bengali text, as detailed in Google's own paper."
This kind of magical thinking doesn't happen accidentally; it comes in handy for AI companies. The more powerful LLMs appear to be in the public perception, the more often they will be used. As Katherine G. Schmidt, professor of theology at New York University, writes in her delightful piece âAI is for losersâ (also a Substack, unfortunately):
"At this point, it doesn't even matter if his predictions are correct; they are enough to steer the discourse toward all sorts of excitement and panic about AI, giving it more power than it deserves."
People who participate in the AI hype are mainly afraid of being seen as Luddites, because the big tech narrative that AI will inevitably permeate every facet of society is so convincing.
I see this among colleagues at the university, who sincerely believe that hallucinations are a kind of teething problem that will eventually be programmed out. These are basically the arguments Mitchell previously set out in her book: bias and hallucinations are inevitable, and AI models lack âcommon senseâ reasoning. Now, Mitchell's book is from 2019, so before this LLM hype, and it is tempting to think that chatGPT can think, because it can sometimes mimic the linguistic patterns of common sense, but real thinking is of course different, because that also requires being able to act outside existing frameworks, literally.
We can perhaps see this most clearly in James Bridle's artwork Autonomous Trap 001. Bridle's trap is a simple circle made with salt in a parking lot. Because the car has been trained not to drive over white lines, it can never escape this âtrapâ.

Bridle is not the only artist that has reflected on AI in a this way. I also love Service Model, the science fiction novel by Adrian Tchaikovsky. In that book, as I wrote earlier in Volkskrant (Dutch), a robot develops self-awareness and devises a test for the other robots: he puts them in a waiting room where they have to wait endlessly. Do the other robots also have a will of their own? Of so, then one day they will get angry because of this unreasonableness and storm inside.
A human being will not remain standing in a salt circle or sitting in a waiting room until they die. And it is precisely that common sense that every algorithm lacks. Software remains bound by rules, even if it sometimes appears that magic is at work. Common sense is therefore a good measure of intelligence, perhaps much more meaningful than intelligence, but it is just as elusive.
And that elusiveness is not only a problem, but often explicit intent. It is very convenient for the creators of AI when people do not know exactly what is meant when they say that âthey know for sure how to build AGIâ, but then say again less than six months later that AGI is not a relevant term. That vagueness is not a bug but a feature.
In an insightful article, Eryk Salvaggio, a researcher at the University of Cambridge, explains that it is often completely unclear what definition of intelligence is being used. He therefore suggests not talking about the definition of intelligence, but rather about what a conversation is. Conversation is a much easier term to define than intelligence, and the question of whether working with AI falls under the definition of a conversation can be refuted simply because you can say that in a conversation, two people do the heavy lifting.
"As we exchange ideas, we build a world we temporarily co-exist in. At its best, this is a circle of playfulness that welcomes risk-taking and vulnerability."
So AI is not a real conversation, according to Salvaggio, and with AI we run the risk of becoming even lonelier.
"AI is a conversation-shaped tool, used to create some of the benefits of a conversation in the absence of another person. But with too much dependency, they risk making real reciprocity, sharing, and vulnerability even rarer."
One of my favorite thinkers on language is Wittgenstein, mainly because, like me, he first lived in the world of mathematics and logic, trying to capture language and meaning in formal logic. After a stint as a teacher at a school in Austria (which didn't go well and involved him resorting to corporal punishment), he returned to Cambridge with a completely different, much more human theory about language: it only acquires meaning when it is used by people in a community. But LLMs cannot participate in a community and therefore do not engage in language, only text. The meaning we attach to it comes from the one person who uses the LLM.
As a medium, language is also far too limited for all that meaning; we also constantly use single-word expressions such as âumâ, gestures, and facial expressions to understand each other. They form is the lubricant of language, I wrote in the spring in NRC (in Dutch), borrowing the term from linguist Marc Dingemanse.
I have already written a few times about David Graeber and I think his work is really great, especially because he questions the current state of the world so sharply. One of Graeber's beautiful terms is âinterpretive laborâ.
"Much of the everyday business of social life, in fact, consists in trying to decipher others' motives and perceptions. Let us call this 'interpretive labor.'"
Conversation is hard work, we all know that. You have to constantly empathize with the other person. Do they understand you? Are you going too fast, too slow, assuming too much prior knowledge? You really have to wonder whether, according to that definition, a âconversationâ with AI can even be called a conversation.
Why hallucinations are bad
Last week, I wrote about the VU's AI handbook, and fortunately, I wasn't the only VU colleague who was concerned about it; I received countless messages and also read this article in Ad Valvas (in Dutch) by VU colleague Sjoerd Oppenheim. In that article, I read new alarming parts (I hadn't yet read all 113 pages in detail). For example:
"The authors [argue] that it is 'a borderline case' when you 'let ChatGPT write an entire essay that you then only slightly modify.'"
Regardless of whether this is ethical, Oppenheim also points out how little a student learns from such an activity.
"Allowing generative AI for this kind of purpose at a university is like teaching an aspiring mountaineer the phone number of a helicopter service and then pretending to train mountaineers."
Yes, that's it! This is a nice comparison, like taking a forklift to the gym, or as I often describe it myself, taking a bus to the end of the marathon. I therefore agree with Oppenheim's conclusion that âthis handbook is therefore disastrous for academic education as a whole.â
And it's not a hypothetical theoretical fringe problem; this happens time and time again, as (hilariously) in this report from the Canadian province of Newfoundland and Labrador on, haha, the ethical use of AI, which turned out to cite no fewer than 15 non-existent sources. Or a lawyer in California who has to pay a $10,000 fine because 21 of the 23 citations in his opening brief were fabricated. Now it may still be âhaha, funny how clueless they are about using AI,â but soon we won't even know what's true anymore, I'm afraid. If enough lawyers hallucinate the same sources, one day they will simply become real.
And of course, I'm not necessarily concerned about VU University Amsterdam, although that is obviously closest to my heart, but in general.
It continues to amaze me that we are so recklessly rolling out a technology that is so new, whose long-term effects we do not know or have not researched in any way, in education. We don't know whether searching with AI teaches you to search better than without AI. We don't know whether exposure to countless semi-accurate or completely nonsensical sources teaches you to deal with fake news better than a few focused, accurate ones. Before we just start unleashing things on students, shouldn't we first thoroughly investigate this?
Based on what we currently know about learning, it seems like a bad idea to have students work with AI in the hope of helping them learn to work with AI. Other research often shows that performing a large task is not an effective way to learn a task: programming, for example, does not necessarily make you a better programmer; you are better off reading code with accompanying explanations from experts. Just as when you learn a language, you don't immediately start with translations from Google Translate, but with grammar and vocabulary.
The eagerness with which AI is being rolled out, without proof and while our best guess is that it doesn't just work, is due to a few things, I think.
Firstly, the fact that big tech is very successful in telling the story that this is "indispensable" to society as a whole. Universities that are afraid of missing the boat, or of being portrayed as conservative by society (here mainly represented by opinion-writing, highly educated parents). It's the classic example of peer pressure that my parents always warned me about: "If everyone jumps into the ditch, will you jump in too?"
The second part of the story is that big tech would have us believe that AI is the same as human thinking. Whether big tech is qualified to do so is another matter, which I will be giving a lecture on soon, and you will certainly be able to read about it here! But they do it, and people listen to the narrative of superintelligence, partly because (as mentioned earlier in this newsletter) it is so vague that it is almost impossible to refute.
And I admit, sometimes LLMs surprise me too; they seem so human. Of course, this is not only due to their good mimicking of language, but also to design choices that are made, such as using the first person, and as I saw recently when I tried chatGPT again to prepare a lesson (which failed in an interesting way, I'll write about that later!), the new notifications "searching the web" or "thinking."
The human form makes it easier to see an AI doing what a human does. When I talk about hallucinations, the answer is often: "Yes, but humans also make mistakes, and humans also have biases." (And sometimes even: humans who think also emit CO2, but that's a topic for another time... Attributing this to individuals is a bad way of looking at things.)
So let's pick up on that. Is there a difference between people who hallucinate and LLMs that do so?
A first important difference is that a human being can be held liable for mistakes. If you make a mistake, someone else can hold you responsible for it, and in some cases you may also face consequences. Fortunately, we are now seeing this happen in that California court, where the mistakes made by ChatGPT are being attributed to the lawyer who uses the systems.
But in many cases, it will be much more difficult to determine who is to blame. For example, if I prepare a lecture with AI, say something untrue in it, and a visitor then reposts it on LinkedIn. Then it is no longer possible to trace it back to an AI hallucination, not to mention hallucinated nonsense that will inevitably end up in new AI systems through new training rounds.

A second difference is that people are consistent in making mistakes and that, given enough evidence, they can change their minds. An AI has no internal representation of right or wrong, so even if you give feedback in the form of "are you sure this is correct?", it can still go wrong for the next user. And that is a fundamental difference: a human who makes a mistake can sincerely promise never to do it again and stick to it. An LLM cannot.
It's all about how you use AI!
When I am critical of AI, the response is often that what really matter is how you use is, for example in a response to an excellent column by Peter Kuipers Munneke in NRC (in Dutch) in which he argues that chatGPT has no place in the university writing process.
Lecturer Martin Bakker writes in response on LinkedIn (translated from Dutch):
"Kuipers Munneke's warning is therefore essential: without critical guidance, AI does indeed produce uniformity. But in the right hands, it is not a âcreative wood chipperâ, but rather a whetstone that can sharpen human creativity and clarity of mind."
It's all about how you use it, Felienne! You're just not using it well.
Now, that's primarily a kind of "guns don't kill people" argument, which leaves the technology itself and its creator out of the picture and focuses solely on its use by humans.
But aside from that, you can also ask yourself how likely it is that, in the educational world we have created, students would actually use it constructively.
Yes, you can have an LLM test you, and there are bound to be students who use it that way. Just as in my day there were students who first did all the sums and then used the answer books to check whether they had done it right, and first translated everything themselves before consulting the translations easily found on the internet in those days. Possible? Certainly! A classmate of mine who did that later earned a doctorate at Oxford. Probable? No. Even in the 1990s, it was certainly not what most children at my school did, and at that time we were not even living in the performance-oriented society we know today. Whereas students who want to attend technical universities now have to take entrance exams and write essays, back then you simply enrolled; if you had the right subjects on your diploma, your grades didn't even matter. In other words, if there was ever a time when students could simply learn for the sake of learning and not for the sake of grades, it was when I was in school in the late 1990s and even then there was widespread cheating.
Now, however, the world is completely different. Students experience a lot of pressure to get good grades, and they don't just feel that pressure, that pressure is real, otherwise you won't get into a technical university, for example. So it's logical that they think: I'm smart, I'll just do my homework or PWS with AI. We have created this world of pressure. If we were to do what one of my professors at university once jokingly suggested, namely to give everyone a A+ grade in the first lesson and then continue teaching those who still wanted to learn, there would be a lot less reason (not zero, of course) to ask chatGPT for help.
This is also evident from research among young people themselves (Dutch).
"The survey also shows that performance and time pressure are important drivers for the improper use of AI. Approximately 37% of students think that fellow students mainly use AI to get good grades, 27% cite lack of time as the most important reason, and 26% indicate that some attach little value to academic integrity."
Last week, I discussed the book The Charisma Machine about the One Laptop Per Child project, which people had very high expectations for. Students in developing countries who suddenly have a real laptop with internet access at their disposal are going to read Wikipedia or learn Chinese of their own free will, right? Right? No, of course not! Gaming and YouTube are much more fun!
AI influencers who showcased home one example of how AI after another, for 1:1 tutoring, in-depth learning, and testing might not be wrong; these things are possible [[12]] (although in many cases I suspect they tried many prompts to get it right), but they are not likely, and we must also take that reality into account.
Question by a reader: are we making learning too easy?
If you are a first time reader in English... You too can send in questions for me to talk about! Just send me an email on f.f.j.hermans@vu.nl!
Sometimes I receive reader questions that are fairly straightforward: how do you organize your blog, how do you live without a cell phone? But sometimes I also receive questions that are profound, and I think: I can answer that now, but if I do it again in a year, I'll have a different opinion. I recently received one such question:
"I'm really curious about your professional view on this, and how you see it from your professional knowledge."
Here 'this' refers to an article in the philosophy magazine Epoché, by educational researcher Cary Campbell about what Biesta calls the learnification of education. It's a great article from 2019, so before the LLM hype.
There are a few parts about Ontario in Canada that are a bit difficult to follow in you aren't Canadian, but I recommend reading it! [[13]]. The article asks whether online education and the use of apps and online learning environments make learning too easy. It's such an intriguing question, because my first intuition (and perhaps yours too) is that it is desirable that learning is easier. We can't make learning more fun, but we can make it easier!
But read on and the piece really touches on the core of what education is all about, because if we offer learning to everyone in bite-sized chunks, wherever and whenever they want, what kind of image does that give of education?
"What kind of learning is this, which calls for no productive effort on the part of the learner, nor even for his presence, which replaces the teacher by a programme, which severs head from body, mind from world?"
The core of the piece is the question of what education is for. Are we educating citizens or employees? The latter seems to be losing out to the former time and again:
"any collective struggle to preserve education as a basis for creating critical citizens is rendered defunct within the corporate drive for efficiency."
Quick, let's cram some knowledge in! Now with an LLM, but at the time of the piece with other digital learning resources. The natural friction that is part and parcel of learning; the confusion of learning new things, the resistance that this sometimes evokes, the irritation that you have forgotten things from the previous lesson, or, in a positive sense, the sparkle that comes from that friction; the sometimes insatiable hunger for knowledge, the pride that a student feels when they succeed, and that you as a teacher also feel, have been ground down in the mill of efficiency.
School, of course, comes from the Greek word skolé, which means free time, but even in relatively recent times, freedom still played a role. Before children in the Netherlands were required to attend school, they often worked on the land or in factories. So even long after Antiquity, school was a place where you were free from (immediate) productive work and could think, develop, and discover. This is how the baker's son became a lawyer. Through knowledge, yes, of course, but also through a teacher who saw such a child, encouraged him, and took him under his wing.
Jan Masscheilan, whose thinking also appears in the Epoché piece, calls this, with a nice word, togethering: experiencing the learning process together as a teacher and a group of students. With togethering, you also learn that not everyone knows everything already, that sometimes you have to wait for each other, help each other, explain things, and that one person may be ahead in math and another in French.
In my lecture on AI in education, I showed these two photos of a classroom, one from 1892 and one from recent times.

What do you see in these? That education is old-fashioned and has been the same for over 100 years? Or that a group of about 30 people under the inspiring leadership of an experienced teacher is perhaps the ideal form that needs no disruption? Trousers have also had two legs for centuries, because people have two legs. There are things that could be improved about pants, but having two legs is simply a good design. I lean towards the second option, doing things together as a group, which is Masscheilan's togethering.
What Campbell believes is necessary, and what I wholeheartedly agree with, is more trust from society in teachers.
"Society must come to trust teachers in their ability to be flexible and not just display a blind adherence to method and curriculum.
A society âready to trust people enough to free them of requirements of productivity ⊠[to] allow them to be teachers and studentsâ"
Don't constantly push for the latest technology, more tests, centralization, and control, but step aside and let go. Most teachers want students to develop, but their hands are tied, and that is counterproductive.
"If we want students to be creative, inventive, and imaginative, we have to allow the time and space for this to happen."
And that means letting go, like a plant grows. Of course, your green fingers have an influence on it; you put it in the sun, water it, and weed it. But there is a limit beyond which it cannot be done faster or more efficiently, because it is a process of nature, which everyone understands. The same applies to learning. Let your students flourish in the right context, don't stand in their sunlight, but also take the time to enjoy their growth, some as fast as watercress, others as slow as a Jewel of Madagascar. Both impressive in their own way.
And the downside of all this learning on demand is not only the technologization of education itself, but also leads to "education is a snack bar" mindset among students, as shown by this heartbreaking story from Hogeschool Rotterdam, where only a third of the students show up, with all the consequences that entails for the students who did show up (in Dutch):
"In an age where the individual is central, the idea that your presence matters â for yourself and for others â has become less self-evident."
To answer the reader's question, I very much agree with the original article, especially with the call to action with which it concludes:
"The dream sold to many young peopleâthat a loosely networked individualism coupled with ongoing âtechnological progressâ can somehow keep us afloat through the turbulent late stages of global capitalism and the impending ecological crisisâis increasingly less credible.
"Now more than ever we must ask 'are we ready to fight for this vision of what school can mean?"
Do we want to work together to create a school where the learning community is central? Where we have high expectations of students? But above all, where teachers are taken seriously as professionals and are not constantly bombarded with all the whims of society.
Yes, teachers may be conservative, but isn't there also a lot that is worth protecting? The teacher as coach, open-plan classrooms, online systemsâI don't oppose them because I don't like change or technology, but because these innovations do not create a context in which real learning can take place.
Good news
Researchers in Denmark have found a new way to install solar panels: upright! Grass and grain can grow perfectly well in between, just as well as in a field without panels, and it also make for a better power supply! This allows us to generate energy and grow crops in the same area, saving space.
AI is everywhere, but âresistance is growing,â according to ZDnet. More and more people are becoming aware that using AI does not necessarily make you smarter (with a reference to our paper on the rejection of AI in higher education).
Not only in Ethiopia, but also in Norway, electric cars are doing well. In 13 years, they went from 0% to almost 100% electric cars.
The FTC (Federal Trade Commission) is launching an investigation into the risks of chatbots for children. I don't have much faith in the US government at the moment, but it's good that they are acknowledging that we know nothing about the impact of chatbots and yet are exposing so many children to them.
And finally, some great research in Nature! If you move to a city that is more walkable (the paper cites New York as an example), you will walk more: 1,100 steps more per day. This was true for all kinds of groups, different ages, genders, and body types. Perhaps not surprising, but still nice, because this study explicitly looks at people before and after a move, ruling out other factors (such as the bias that some people like to walk more than others, or are healthier and therefore walk more).
Bad news
Research in Switzerland shows that the online world strongly influences whether young women will choose a career in politics. They see future online abuse as a risk that deters them, and not without reason: the research shows that women are much more likely to be attacked online because of their gender. Fortunately, that doesn't stop some young women like Kat Abu!
This one had been lying around since the summer, but I'm going to pick it up anyway, because it's quite a story, from the always very thorough Follow The Money. Millions of kilos of dirty soil from Schiphol Airport full of PFAS (a forever chemical that never disappears from nature) had to go somewhere. It couldn't stay at Schiphol itself because there was already far too much contaminated soil there. But fortunately, it could be âreusedâ in Haarlemmermeer. It sounds like recycling on the compost heap, but it was simply moving it from one place to another, even though that wasn't allowed. The article (in Dutch) reveals how a whole group of civil servants circumvented the law in order to get it done.
[[1]]: Heel jammer trouwens dat Mitchell op SubStack zit, waar ik echt zo min mogelijk naar link, want ze blijven zaken doen met openlijke Nazis.
[[2]]: Ik laat hier de hallucinaties even helemaal buiten beschouwing, die heb ik deze week en eerder vaak genoeg behandeld, maar bij echt 'goed gebruik' zou je natuurlijk ook nog het "alle antwoorden driedubbel controleren moeten meenemen".
[[3]]: Bij veel van de stukken waarover ik schrijf raad ik dat niet per se aan, dan is het best genoeg om mijn kijk erop te lezen om te snappen wat er staat, maar deze is de moeite echt waard als je zelf voor de klas staat.
[[11]]: It's a shame, by the way, that Mitchell is on SubStack, which I try to link to as little as possible, because they continue to do business with openly Nazi individuals.
[[12]]: I'm leaving the hallucinations out of the equation here, as I've dealt with them often enough this week and before, but if you really want to make good use of this, you should of course also include âtriple-check all answers.â
[[13]]: For many of the pieces I write about, I don't necessarily recommend that; it's enough to read my take on them to understand what they say, but this one is really worth the time if you're a teacher.
Member discussion