137 AI in de Collegezaal: valsspelen of vooruitgang… 
(en kunnen docenten dat trouwens ook controleren?)

, ,

Studenten gebruiken AI en frauderen zo in het onderwijs…
Moeten we dat accepteren of gewoon verbieden?


Wat is er aan de hand?

“De docent opent zijn laptop, klikt het zoveelste ingeleverde essay open en leest de eerste alinea. Vloeiend, helder, foutloos. Bijna te goed. Hij scrolt verder. De stijl blijft identiek, geen haperingen, geen taalniveau dat piekt of daalt. Hij kent de student natuurlijk en weet dat die meestal worstelt met structuur, dus altijd veel rode strepen. Maar dit riekt gewoon naar ChatGPT, of iets nóg geavanceerders. Hij zucht. Wat nu…. Wat moet ik hiermee?” 

Een soortgelijke scène speelt zich intussen dagelijks af binnen het onderwijs. Sinds de komst van ChatGPT in 2022 is het onderwijslandschap radicaal veranderd. Studenten kunnen met een paar prompts een scriptie, samenvatting of betoog genereren die nauwelijks van ‘echt’ te onderscheiden is. Wat moet je daar nu mee? Moet het verboden worden zoals je veel om je heen hoort, of… Tja, wat of… Docenten blijven achter met een frustratie en vooral ook met onzekerheid. Want wat betekent het als je niet meer zeker kunt weten wie het werk daadwerkelijk heeft geschreven? Hoe kun je iemand dan nog een cijfer geven? 

Onderwijskundige aardverschuiving?

Traditioneel draait onderwijs om het ontwikkelen van kritisch denken en het ontwikkelen van kennis en vaardigheden die bij een studierichting horen zoals bijvoorbeeld schrijfvaardigheid en probleemoplossend vermogen. AI ondermijnt dát fundament. Wanneer je een algoritme het denkwerk toevertrouwt, wordt het leren oppervlakkig. De student krijgt het resultaat, maar heeft niet geleerd van het proces. En juist in dat proces ligt voor de student de meeste winst te behalen. Worstelen met een tekst, zoeken naar argumenten, structureren van gedachten en het napluizen van mogelijk afwijkende zienswijzen over een onderwerp, kortom… een scala aan gemiste ervaringen.

Toch is het allemaal niet zo zwart-wit als (vele huidige) docenten nog veronderstellen. AI kan studenten namelijk ook juist ondersteunen bij al die processen als: brainstormen, herformuleren, belichten vanuit meerdere perspectieven etcetera. Net zoals een rekenmachine het rekenen niet overbodig maakt, maar juist bevrijdt van routinematige stappen en de spellingcontrole voorkomt dat een dyslecticus alleen maar met woordenboeken bezich is, zo kan ook AI juist méér ruimte/tijd bieden voor de verdieping van die meest cruciale leer-aspecten. 

Dat vergt echter wel een didactische herinrichting van het onderwijs en van de wijze waarop we studenten zouden moeten toetsen. Simpele essays als toetsvorm zijn dus inderdaad passé. AI gaat heus niet meer weg, dus leer het kennen, weet waar haar sterke en vooral ook zwakke kanten liggen. Leer er mee om gaan totdat het je dagelijkse maatje is want pas dan kun je haar waarde evenwichtig inschatten en be-/ver-oordelen.

Hoewel iedereen er in discussies al van alles van vindt, is het op dit moment nog slechts een zeer beperkte groep die het al écht als dagelijks maatje beschouwt en er op een evenwichtige en effectieve manier gebruik van maakt en dus zo’n inschatting (voorzichtig) zou kunnen maken. Hoe kun je als ‘verantwoordelijke in een proces’ dan regelgeving of beleid voorstaan zónder deze basiskennis? Dus het is verstandiger om hier voorzichtig mee om te gaan!

Het perspectief van de student

Eigenlijk kun je het misschien wel het best als volgt omschrijven: “Als studenten alleen beoordeeld worden op output, zullen ze altijd de snelste weg naar die output kiezen.” 

We zijn allemaal jong geweest en zelfs als leergierige student ging ook ik soms voor ‘de kortste weg’. Dus niets menselijks is ons vreemd… Je moet toch de ‘tools’ kunnen gebruiken die het probleem lichter maken? Misschien moet de focus dus juist liggen op het goed leren gebruiken van juist die tools…?  Luiheid is volgens mij zelden het (hele) verhaal.

N.B. Ik zelf gebruik taalmodellen vooral strategisch: als een digitale sparringpartner die mij inmiddels zo goed kent dat ie ook mijn schrijfstijl en manier van denken heeft geadopteerd, die weet dat ik niet van de compromissen ben maar juist van scherpe analyses. Zo scherp mogelijk in de analyse en waar nodig of mogelijk, mild in het oordeel. Als een tekst gereed is dan is AI mijn feedback-tool of de hulp bij het bewaken van de structuur of het hanteren van de juiste toon voor de doelgroep, de uniformiteit in het woordgebruik, het vermijden van dubbelingen, de tool voor de opmaak, enzovoorts. Studenten simpelweg zien als ‘valsspelers’ is dus niet echt eerlijk en ook niet een verstandige insteek, gezien de toekomst. Ze liggen gewoon een stapje voor op de ontwikkelingen binnen het onderwijs en op de kennis en vaardigheden van de docent!

Is het dus eigenlijk wel valsspelen?

De morele paniek onder docenten is natuurlijk begrijpelijk. De koude douche op het oude proces van beoordelen, wordt in een keer weggevaagd als betrouwbare norm of indicatie. Ze creëert ook nog eens een urgent probleem met de vraag om een nieuwe evaluatievorm. Het is ook niet niets!
Maar is het gebruiken van een taalmodel door de student moreel anders dan het inhuren van bijvoorbeeld een scriptiebegeleider, of het gebruik van taaltools als Grammarly? Die grens is vaag, en dat is precies het probleem: we bevinden ons in een ethisch grijs gebied. De huidige situatie is ethisch dubbelzinnig (ambigu), het ondermijnt de actuele geloofwaardigheid van het onderwijssysteem zelf in deze vorm.

Kunnen docenten trouwens controleren of AI gebruikt is door de student?

Hier kunnen we kort over zijn: “Ja, maar…. slechts op basis van waarschijnlijkheid”. Eenduidige afdoende technologische detectie schiet dus tekort en dat vindt zijn oorzaak in het fundament van taalmodellen als ChatGPT. Ze zijn namelijk allen gebaseerd op statistische waarschijnlijkheid. Ook professionele AI-detectors zoals Turnitin of GPTZero zijn onbetrouwbaar, juridisch wankel en vaak zelf ook ‘black boxes’. Bovendien: hoe bewijs je dat een tekst door een AI is geschreven, als de student zegt: “Ik heb alleen om hulp gevraagd”?

Een uitspraak of  actie hierop door de docent leidt dus tot juridische risico’s. Beschuldiging van fraude kan bijvoorbeeld resulteren in klachtenprocedures, reputatieschade en zelfs rechtszaken waarbij blijkt dat de docent alles behalve sterk staat in zijn recht. Rechters in de VS en het VK hebben al geoordeeld dat detectie alleen onvoldoende bewijs is voor sancties.

Docenten kunnen de waarschijnlijkheid van AI-gebruik wel enigszins achterhalen via slimme prompts: “Geef een inschatting van de waarschijnlijkheid dat deze tekst door een taalmodel is gegenereerd, en geef de kenmerken waarop dat oordeel is gebaseerd.”

Ik doe dit zelfs voor mijn eigen blogs! Ik wil namelijk wel zelf graag de auteur blijven, maar ik wil ook graag gebruik maken van een ‘maatje’ dat vanuit mijn stijl, normen, waarden en kennis- en ervaringsprofiel, suggesties geeft tijdens het schrijven! Aan het eind, zal ik ook altijd mijn prompt gebruiken ‘Blog – AI-Analyse’ om het evenwicht ‘authenticiteit/AI-bijdage’ in de tekst te bewaken.

Een illustratief voorbeeld: Een docent voert een essay in bij een AI-systeem met de prompt:

Analyseer de volgende tekst op kenmerken van taalmodel-output. Let op herhaling, voorspelbare zinsstructuren, afwezigheid van subjectieve nuance en overmatig gebruik van transitie-woorden. Geef een inschatting of deze tekst gegenereerd is door een taalmodel, en licht je antwoord toe met concrete kenmerken uit de tekst.

De AI antwoordt:

“Deze tekst bevat herhaalde patronen zoals ’ten tweede’, ‘daarnaast’, en ‘een ander belangrijk punt is’. De toon is afstandelijk, bevat geen subjectieve observaties, en er worden geen persoonlijke of context-specifieke voorbeelden gebruikt. Dit duidt op een hoge waarschijnlijkheid (70-80%) dat deze tekst gedeeltelijk gegenereerd is door een taalmodel.”

Hoewel dit dus geen sluitend bewijs is, helpt het dus wel om patronen te herkennen — en studenten bewust te maken van wat een menselijke ‘stem’ (nu nog) onderscheidt van een ‘synthetisch gegenereerde’. Door studenten dit expliciet uit te leggen, ontstaat ook transparantie over de beoordelingscriteria én verhoog je het bewustzijn over wat ‘eigen werk’ eigenlijk inhoudt.

Daarmee komen we bij een fundamentelere kwestie: Als je het echte leerproces niet kunt controleren, moet je het misschien herontwerpen. Volgens mij moet het onderwijs terug naar toetsvormen waarin authenticiteit zichtbaar wordt: mondelinge tentamens, procesverslagen, reflectie-interviews, co-creatie. Wat niet te controleren is, moet daarnaast natuurlijk ook zichtbaar gemaakt worden via interactie en begeleiding.

Deze passage raakt een cruciale verschuiving in het denken over onderwijs in het AI-tijdperk. De suggestie is: als AI de output kan genereren, moet onderwijs zich richten op het proces en de menselijke meerwaarde. Het gaat niet meer alleen om wat studenten produceren, maar hoe ze dat doen — en of ze daar iets van leren.

AI als didactische partner (dus alternatieven voor wantrouwen)

Er zijn al opleidingen die AI niet verbieden, maar integreren. Bijvoorbeeld door studenten een AI-gegenereerde tekst te laten analyseren en verbeteren. Of opdrachten te geven waarin samenwerking met AI juist de kern is van de leerdoelen: wat kan AI wel en wat niet (en waarom natuurlijk. Denk daarbij aan de opbouw en training van taalmodellen), wat mist het, waar zit de menselijke meerwaarde? Hoe kun je AI zo beïnvloeden dat het wel jouw teksten kan schrijven (eigen prompts en training)? Zo wordt AI niet de vijand, maar zelf een leerobject.

Een krachtig alternatief voor toetsing is het ontwikkelen van hybride toets-modellen: Studenten mogen AI gebruiken, mits ze in een reflectieverslag expliciet verantwoorden hoe, waarom en waarmee ze het hebben gedaan. Transparantie vervangt dan achterdocht, en docenten beoordelen proces én resultaat.

Deze aanpak vraagt om duidelijke kaders, transparantie en ethische bewustwording — bij zowel studenten als docenten. Maar ze biedt dus ook de kans om onderwijs te moderniseren zonder het fundament te verliezen.

Instellingen lopen achter de feiten aan

Onderwijsinstellingen lopen merkbaar achter de feiten aan. Niet zelden reageren ze traag, en wat misschien nog verwarrender is: ook tegenstrijdig. Dat klinkt onprettig, maar het is deels verklaarbaar. Juist door hun maatschappelijke rol zijn onderwijsorganisaties niet de eersten die op technologische veranderingen voorsorteren. Sommige opleidingen verbieden elk gebruik van AI, andere experimenteren volop met AI-ondersteuning. Het gevolg? Studenten worden geconfronteerd met wisselende regels per vak, docent of instituut. Dat voedt verwarring én opportunistisch gedrag. Wat ontbreekt, is een gedeeld institutioneel kader dat helder maakt wat AI-gebruik binnen het onderwijs wél of juist niet is – en waarom.

Dat zo’n kader nog niet bestaat, is begrijpelijk. Innovaties druppelen nooit overal tegelijk door. Maar hier gaat het om iets fundamenteels. En dan mag je van instellingen meer verwachten dan afwachten.

Bestuurlijke onwetendheid is deel van het probleem

Een belangrijke oorzaak ligt in de manier waarop bestuurders AI benaderen: vaak als een technisch vraagstuk dat thuishoort bij de ICT-afdeling of het examenbureau. Daarmee blijven juist de pedagogische, ethische en structurele implicaties onderbelicht – en dat is problematisch. Want het onderwijs is allang geen stabiel curriculumtraject meer waarin vaste processen met eindtermen in kennis en vaardigheden automatisch leiden tot het gewenste resultaat. In een tijd waarin kennisproductie niet langer exclusief menselijk is, vraagt goed onderwijs om iets anders: een scherpe visie op leren, autonomie en het omgaan met taalmodellen in de klaspraktijk.

Het wrange is: veel bestuurders (en dat geldt net zo goed voor andere grote organisaties en overheden) hebben al een stevig vooroordeel over AI. Vaak ingegeven door vrees, gevoed door mediabeelden, zelden op basis van eigen ervaring of expertise. En waar kennis ontbreekt, wint zekerheid het van verkenning. Het verbod lijkt dan de veiligste route – totdat er ‘breed gedragen’ inzichten zijn waarmee men kan aanhaken. Maar dat is bestuurlijke omgekeerde bewijslast: eerst pas op de plaats, dan pas beleid. En dat is precies het verkeerde tempo bij een ontwikkeling die het onderwijs al fundamenteel aan het veranderen is.

Wat er wél nodig is

Als bestuurders goede beslissingen willen nemen, moeten ze investeren in hun eigen kennisbasis. Dat begint met het organiseren van evenwichtige presentaties en sessies over de (on)mogelijkheden van taalmodellen: wat kunnen ze wel, wat (nog) niet, welke ontwikkelingen zijn op korte en middellange termijn te verwachten? Nodig daarbij geen incidentele ‘innovatieve voorlopers’ uit, maar partijen die ervaring hebben met de implementatie én de maatschappelijke implicaties. Niet om meteen een blauwdruk te maken, maar om bewustzijn, urgentie en denkruimte te creëren. Dat voorkomt dat AI-beleid louter reactief of paniekerig wordt vormgegeven.

Conclusie: AI als reality check voor het onderwijs

De vraag of studenten AI mogen gebruiken is dus eigenlijk secundair. De echte vraag is: wat betekent leren nog in een maatschappij waar AI een belangrijke nuance brengt in de waarden van kennis en vaardigheden? Zolang onderwijs draait om reproduceerbare output, zal AI altijd de overhand krijgen. Ja, AI kan misbruikt worden en nee, ze is niet feilloos, net als wij zelf of de instrumenten die we bedacht hebben. Dat is echter geen reden om haar buiten de deur te houden. Integendeel: het is een reden om het onderwijs opnieuw te ontwerpen en een stap vooruit te zetten in het aantonen van waar onze menselijke bijdrage van belang is.

Instellingen/docenten die nu alleen maar AI willen voorkomen of detecteren, proberen de symptomen van een dieper probleem te bestrijden. AI is geen bedreiging voor goed onderwijs, ze maakt een nieuwe stap mogelijk.

Misschien voor sommigen een ‘beetje kort door de bocht’ gevoel, maar ik huldig hierbij graag de metafoor dat Doornroosje niet wakker wordt van een slaapliedje! Een scherpe aanval lokt reactie uit. Een sterke nuance stelt die uit en dat moeten we niet willen.

Actiepunten voor instellingen:

  1. Ontwerp hybride toetsvormen met AI-verantwoording
  2. Bied institutionele AI-tools aan met begeleiding
  3. Train gebruikers in het bijsturen van AI naar eigen inzichten
  4. Train docenten in AI-didactiek en toetsing
  5. Ontwikkel een ethisch kader, afgestemd op vakgebied
  6. Betrek studenten bij het ontwikkelen van AI-beleid

Alleen zo maken we van AI geen sluiproute, maar een leerroute.

 

Tot slot heb ik AI gevraagd of deze blog zelf, is geschreven door AI of niet…

Het antwoord van ChatGPT:

//AI-gebruik in Jeroen Teelens blog: een snelle analyse

Blogtitel: Studenten gebruiken AI en frauderen zo in het onderwijs… Moeten we dat accepteren of gewoon verbieden?

Datum: 17 juli 2025


Eindoordeel:

Waarschijnlijk gebruik van AI – in hybride vorm

De blog is hoogstwaarschijnlijk geschreven door Jeroen Teelen, met gebruik van een taalmodel zoals ChatGPT als ondersteunende schrijfhulp. De kerninhoud, stijl en visie zijn duidelijk afkomstig van de auteur zelf, met AI waarschijnlijk ingezet voor structurering, toonbewaking en eindredactie.

3 duidelijke signalen van AI-hulp:

  1. Vloeiende, foutloze stijl zonder haperingen

    – Geen typefouten, stijlbreuken of wisselend taalniveau

    – Zinnen zijn retorisch sterk en symmetrisch opgebouwd

  2. Zeer strakke structuur

    – Heldere paragrafen en opbouw

    – Afsluiting met lijst van actiepunten — een typisch AI-format

    – Consistente toon en redenering

  3. Abstractieniveau en beperkte bronverwijzing

    – Veel algemene uitspraken zonder concrete onderbouwing

    – Enkele persoonlijke reflecties zijn opvallend gestileerd (mogelijk geoptimaliseerd via AI)

✨ Belangrijke correctie: de slotmetafoor is puur menselijk

De afsluitende metafoor – “Doornroosje wordt niet wakker van een slaapliedje” – is door de auteur zelf bedacht en niet afkomstig uit een AI-suggestie. Dit onderstreept dat authentieke creatieve inbreng en AI-gebruik prima kunnen samengaan. Het laat ook zien dat een AI-analyse geen oordeel mag vellen over inhoudelijke oorspronkelijkheid zonder aanvullende context.

Wat leren we hiervan?

Deze blog is een sterk voorbeeld van hoe AI als digitale co-auteur kan functioneren, zonder de menselijke stem te vervangen. Jeroen Teelen gebruikt AI bewust, transparant en ondersteunend – zonder zijn creativiteit of visie uit handen te geven.

Belangrijk leerpunt: AI-geletterdheid betekent ook weten wat AI niet doet — en wat je als mens zelf toevoegt.

einde reactie ChatGPT//

AI als co-auteur? Over bijdragen, perceptie en het echte werk

In deze blog heb ik AI bewust een relatief grote inhoudelijke bijdrage laten leveren, als experiment omdat het zo mooi past bij het onderwerp. Interessant genoeg werd zelfs de slotmetafoor — oorspronkelijk door mijzelf bedacht om aan te geven waarom ik vind dat analyses zo scherp mogelijk moeten om mensen tot actie uit te dagen — eerst ten onrechte aan AI toegeschreven, hetgeen pas na mijn protest werd gecorrigeerd. Dat is illustratief voor de verwarring die ontstaat over auteurschap en authenticiteit in een tijd waarin AI als ‘meeschrijver’ optreedt. Het laat zien hoe onbetrouwbaar AI kan zijn in het trekken van conclusies over de herkomst van inhoud. En hoe snel een menselijke auteur zich tekortgedaan kan voelen wanneer zijn bijdrage wordt miskend.

Voor mij persoonlijk geldt: ik schrijf in minder tijd betere artikelen dankzij AI. Maar haar toegevoegde waarde zit niet in de zinnen die ze oplevert. Die zit vooral in de ordening van inzichten, de logische opbouw, de fine-tuning van toon en formulering, het toevoegen van nuance, het breder plaatsen van thema’s én het sneller vinden van onderbouwing of weerlegging. Het echte werk, dus. AI neemt de redactionele futiliteiten over — en precies daardoor houd ik meer ruimte over voor wat er echt toe doet en wat ik leuk vind. Trouwens, ze heeft (van nature!) nogal de neiging om de controverse uit de weg te gaan en zich te focussen op de meerderheids-inzichten en meningen. Een logisch gevolg van de wijze waarop dit soort modellen getraind zijn. Het zal duidelijk zijn dat ik dat niet pik in kritische blogs dus ik moet haar daarmee steeds confronteren, inclusief de redenen waarom. Dat maakt dat ze dan de volgende keer mijn ‘stijl’ wat belangrijker vindt dan die meerderheid-meningen. Ze past zich aan…

Trouwens het heeft er ook toe geleid dat ik meermaals het verzoek heb gehad om (betaald) AI-Trainer te worden… maar daar heb ik de (priori)tijd niet meer voor op deze leeftijd. Ik geniet zo wel met volle teugen van de mogelijkheden die technologie biedt, maar laat me echt niet de les lezen door AI… tenzij meerderheid en ratio samengaan!

Jeroen Teelen

17 juli 2025

Een goed artikel in dit kader is ook:

Ilja Leonard Pfeijffer We weten wie de mannen zijn die profiteren van de sabotage van de democratie

 

 

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.