148 Wie moet er toezicht houden op het gebruik van AI in organisaties? En hoe zou dat toezicht er idealiter uitzien?
AI-toezicht – Van slager die zijn eigen vlees keurt naar echte accountability
Inleiding
AI schuift in rap tempo door in onze besluitvorming. Niet langer alleen mens en bestuur bepalen de richting, maar steeds vaker (ook) ondoorzichtige algoritmes en taalmodellen. De gevolgen zijn concreet: of je een hypotheek krijgt, of jouw sollicitatie wordt gezien, of een medische behandeling wordt toegekend.
De vraag is niet meer óf AI toezicht nodig heeft, maar wie dat toezicht organiseert – en hoe.
1. Waarom toezicht nu urgent is
De opmars van AI in organisaties verliep niet via beleid of strategie, maar door experimenten, losse tools en ad-hocaankopen. Een enthousiaste medewerker toont snelle winst, waarna het systeem ongemerkt een kernfunctie krijgt. Zo werd ChatGPT in klantenservice al binnen maanden onmisbaar.
Maar die snelheid betekent ook: nauwelijks toetsing vooraf. Geen heldere kaders, geen training van personeel, geen afspraken over verantwoordelijkheid. Pas achteraf, vaak na incidenten, dringt door dat er structurele risico’s zijn.
Vergelijk het met de financiële sector vóór de kredietcrisis van 2008: innovatie ging sneller dan toezicht, en “zelfregulering” bleek niets waard. Pas na de crash kwam strenger toezicht en verplichte buffers. De geschiedenis leert: toezicht dat achter de feiten aanloopt, komt altijd te laat.
2. De kern van toezicht: vijf pijlers
Transparantie & macht
AI-systemen zijn vaak black boxes, zelfs voor hun makers. Zonder inzicht in data en werking zijn fouten niet te corrigeren.
Voorbeeld: SyRI, het Nederlandse fraudedetectiesysteem, sneuvelde in 2020 bij de rechter vanwege gebrek aan transparantie en te grote inbreuk op privacy.
Rechtvaardigheid & impact
AI kan bestaande ongelijkheid versterken. Training op scheve datasets of impliciete vooroordelen leidt tot systematische uitsluiting.
Voorbeeld: COMPAS in de VS gaf Afro-Amerikanen structureel hogere risicoscores.
Veiligheid & betrouwbaarheid
Falen of misbruik kan levens kosten.
Voorbeeld: een Uber-zelfrijdende auto herkende een voetganger niet en veroorzaakte een dodelijk ongeluk.
Menselijke autonomie
AI mag geen doorslaggevende rol hebben zonder menselijke toets.
Voorbeeld: in het VK bepaalde een algoritme tijdens de coronapandemie de eindexamencijfers; duizenden studenten zakten onterecht.
Verantwoording
Wie is verantwoordelijk als het misgaat? Zonder duidelijke aanspreekpunten verschuilen bestuurders zich achter “het systeem”.
Voorbeeld: de toeslagenaffaire in Nederland, waar gezinnen financieel kapotgingen door een algoritme dat niemand nog kon uitleggen of corrigeren.
3. Wie moet het doen? De vijf actoren
Gebruikers
Zij staan het dichtst bij de toepassing. Ze moeten fouten kunnen melden en recht houden op een menselijke toets.
Voorbeeld: een arts mag nooit verplicht worden blind een AI-diagnose te volgen.
Management
Bestuurders zijn eindverantwoordelijk. AI is geen IT-detail, maar raakt de kern van de organisatie.
Voorbeeld: Amazon liet een AI-recruiter jaren doormodderen die vrouwen systematisch lager scoorde.
Organisatie
Onafhankelijke interne audits zijn nodig, net zoals financiële controles. Transparantie en verantwoording moeten cultuur worden.
Extern toezicht
Geen organisatie kan zichzelf betrouwbaar controleren. Toezichthouders moeten tanden hebben: bevoegdheden, boetes, stopzettingen.
Voorbeeld: Clearview AI kon in de VS jarenlang miljarden foto’s scrapen; in Europa was dit direct verboden.
Wetgever en beleidsmakers
Alleen bindende regels veranderen gedrag. De AVG liet zien: pas toen miljardenboetes dreigden, kwam privacybeleid écht op orde. De Europese AI Act moet eenzelfde rol krijgen.
4. De gevolgen van schijntoezicht
Voor burgers
Onrecht, frustratie en verlies van vertrouwen. Mensen worden veroordeeld door systemen die ze niet kunnen begrijpen of aanvechten.
Voor organisaties
Reputatieschade, boetes en verlies van talent. Eén incident kan jaren zorgvuldig werk vernietigen.
Voor de samenleving
Als schijntoezicht de norm blijft, verschuift macht van democratische instituties naar techbedrijven en ondoorzichtige technologie. Daarmee raken we de kern van democratische legitimiteit kwijt.
5. Lessen uit de geschiedenis
Toezicht op technologie ontstaat zelden preventief; bijna altijd pas na misstanden. Dat patroon zien we ook in Nederland.
-
Farmacie – DES-dochters (jaren ’70–’80)
Het medicijn DES werd voorgeschreven aan zwangere vrouwen. Pas jaren later bleek het kankerverwekkende en vruchtbaarheidsschadelijke effecten te hebben bij dochters en kleindochters. Pas toen kwamen strengere toelatingsprocedures en transparantie-eisen. -
Voedselveiligheid – fipronilcrisis (2017)
In de Nederlandse pluimveesector werden miljoenen eieren vernietigd nadat bleek dat een verboden middel was gebruikt. De NVWA kreeg stevige kritiek: toezicht was versnipperd, te reactief, en burgers voelden zich onvoldoende beschermd. -
Financiële sector – DSB Bank (2009)
De ondergang van DSB Bank toonde hoe lakse interne controle en te laat ingrijpen door DNB en AFM tot enorme schade leidde. Pas daarna werden regels voor zorgplicht en producttoetsing aangescherpt. -
Algoritmes – Toeslagenaffaire (2010–2020)
Duizenden gezinnen werden de afgrond in geduwd door een combinatie van hardvochtige wetgeving en ondoorzichtige algoritmes. Pas nadat de schade onomkeerbaar was, ontstond politieke wil om strengere eisen aan algoritmisch toezicht te stellen.
De rode draad: toezicht volgt op incidenten, niet erop vooruit. Steeds opnieuw leren we dezelfde les: zonder onafhankelijk en stevig toezicht worden burgers het slachtoffer en is herstel vaak te laat.
6. De Nederlandse context
Nederland kent voorbeelden van zowel vooruitgang als falen. Het algoritmeregister van Amsterdam laat zien dat transparantie wél kan. Tegelijkertijd lieten de toeslagenaffaire en SyRI zien hoe desastreus het is als toezicht ontbreekt.
Nederland profileert zich graag als innovatief, maar durft vaak niet door te pakken in regulering. De kans is groot dat de AI Act straks wél de stok achter de deur wordt, net zoals de AVG dat was. Maar nationale aanvulling blijft nodig: toezicht moet niet alleen Europees, maar ook lokaal stevig verankerd zijn.
7. De kernvraag
Durven we toezicht écht onafhankelijk te maken – mét tanden – of accepteren we AI-theater: ethiekcommissies zonder budget, audits zonder gevolgen en toezichthouders die door lobby’s worden verlamd?
AI is te ingrijpend om over te laten aan techbedrijven of interne compliance-afdelingen. Het vraagt om een ‘multi-layered’ systeem:
-
Intern: gebruikers en medewerkers die fouten signaleren, management dat beleid en kaders opstelt.
-
Organisatiebreed: interne audits, registers en een AI-functionaris.
-
Extern nationaal: toezichthouders zoals de Autoriteit Persoonsgegevens, AFM of IGJ die bevoegdheden hebben en sancties opleggen.
-
Extern Europees/internationaal: kaders zoals de AI Act en samenwerking over landsgrenzen.
Als één laag faalt (bijvoorbeeld management dat wegkijkt), dan blijft er altijd nog controle op andere niveaus. Het is dus de tegenhanger van “slager die zijn eigen vlees keurt”: je bouwt een gelaagd systeem waarin onafhankelijkheid is ingebouwd.
Bijlage – Toolkit AI-toezicht: praktische handvatten
Vier lagen van toezicht
-
Gebruikers: train medewerkers in bias-herkenning, richt een veilig meldpunt in.
-
Management & governance: benoem een AI-functionaris met mandaat, stel beleid op en voer reviews uit.
-
Organisatiebreed: houd logboeken bij, voer audits uit net als bij financiën, stel escalatieprocedures in.
-
Extern toezicht: breid toezichthouders uit met AI-expertise, ontwikkel sector-specifiek toezicht, gebruik de AI Act als stok achter de deur.
Quick wins (morgen beginnen)
-
Inventariseer alle AI-tools en risico’s.
-
Test bias met diverse namen en profielen.
-
Wijs een AI-verantwoordelijke aan.
-
Start een incidentenlog.
Binnen 6 maanden
-
AI-functionaris met mandaat en budget.
-
Impact-assessments bij nieuwe toepassingen.
-
Training voor medewerkers.
-
Transparantiebeleid intern én extern.
Binnen 1 jaar
-
Externe audit van de drie belangrijkste AI-systemen.
-
AI-register publiceren.
-
Incidenten en leerpunten delen met toezichthouders en sectorgenoten.
Kostenindicatie (middelgrote organisatie)
-
Startjaar: ± €50.000 (functionaris, training, quick scan).
-
Jaarlijks: ± €50.000 (audits, updates, training).
-
ROI: vermijden van boetes, voorkomen van reputatieschade, behoud van vertrouwen.
Slotgedachte
AI-toezicht is geen luxe maar basisvoorwaarde. De vraag is niet of we het ons kunnen veroorloven, maar of we het ons kunnen veroorloven het níet te doen.
Jeroen Teelen
25 augustus 2025

Plaats een Reactie
Meepraten?Draag gerust bij!