187 Mens<-> AI? De mens is geen beter algoritme
De mens is geen beter algoritme
Over wat artificial intelligence ons leert over de (nog) onvervangbare waarde van menselijk oordeel — en waarom dat oordeel in deze complexe tijd een instrument verdient.
Wie de ontwikkelingen volgt, weet dat de vraag niet meer is wat AI ooit zal kunnen. Die grens verschuift sneller dan het debat bijhoudt. De echte vraag — en de moeilijkere — is wat er voor de mens overblijft als AI vrijwel alles kan.
Daarmee dringt ook de vraag dringt zich op: wat is de mens dan nog waard? Het antwoord ligt niet in de competitie, maar in wat AI structureel (nog?) niet kán zijn en de onwetendheid over het eindperspectief.
De illusie van de rivaliteit
De publieke discussie over AI en menselijke arbeid draait vrijwel uitsluitend om vervangbaarheid. Welke banen verdwijnen? Welke vaardigheden worden overbodig? Die vraag is begrijpelijk, maar misleidend. Ze behandelt de mens als een uitvoeringsorgaan — en vergelijkt hem vervolgens met een machine die beter uitvoert. Dat is een wedstrijd die de mens niet kán winnen, en ook niet hoeft te winnen.
De vraag naar toegevoegde waarde begint niet bij capaciteit, maar bij functie. Een rechter is niet waardevol omdat hij sneller dan een algoritme dossiers verwerkt. Hij is waardevol omdat hij verantwoording aflegt, in een publieke ruimte, aan medeburgers, op grond van normen die democratisch zijn gelegitimeerd. Dat is iets wezenlijk anders.
“AI vergroot de capaciteit om te handelen. Maar het vergroot daarmee ook de urgentie van de vraag: wie toetst — en op grond waarvan?”
Wat AI voorlopig nog niet kan zijn
Laten we precies zijn. Kunstmatige intelligentie is buitengewoon bekwaam in patroonherkenning, synthetisering van bestaande kennis, en het consistent toepassen van regels op schaal. Het zijn capaciteiten die de mens overtreffen — kwantitatief, in snelheid, in geheugen. Maar bekwaamheid is nog geen bevoegdheid.
Een algoritme optimaliseert. Het doet dat binnen de grenzen die zijn opgelegd door degene die het programmeert. Het stelt geen vragen bij die grenzen zelf. Het draagt geen verantwoordelijkheid voor de uitkomst. En het kan — dit is cruciaal — niet worden aangesproken. Er is geen subject dat rekenschap aflegt, geen instantie die zich verantwoordt tegenover degenen over wie beslissingen worden genomen.
Dit is geen technische beperking die met de volgende modelversie verdwijnt. Het is een structurele eigenschap — zolang verantwoordelijkheid een subject vereist dat rekenschap aflegt. Betekenis is geen berekening.
Ervaring als epistemische bron
AI traint op representaties van menselijke ervaring — tekst, data, patronen. Niet op de ervaring zelf. Dat verschil is niet sentimenteel. Het is epistemisch.
Wanneer een bestuurder besluit een vergunning te weigeren, een rechter een vonnis uitspreekt, of een volksvertegenwoordiger instemt met een wetsartikel — dan is de kwaliteit van dat oordeel mede afhankelijk van de vraag of degene die oordeelt begrijpt wat er op het spel staat. Niet als abstractie, maar als werkelijkheid voor mensen van vlees en bloed. Dat begrip vergt gedeelde ervaring, historisch bewustzijn, sociale inbedding. Precies de dimensies waarop AI structureel blanco is.
Legitimatie als mensenwerk
Er is nog een derde dimensie, en die raakt de kern van democratisch bestuur. Beslissingen over mensen vereisen instemming van mensen. Niet als sentiment, maar als constitutioneel principe. Procedurele legitimatie — de eis dat besluiten worden genomen door bevoegde personen, in een transparant proces, met reële mogelijkheid tot bezwaar — is structureel mensenwerk. Een geautomatiseerd besluit dat correct is, maar niet democratisch gelegitimeerd, heeft een fundamenteel gebrek. Correctheid is geen substituut voor legitimatie.
Dit is ook het punt waar AI de meeste schade kan aanrichten: niet door fouten te maken, maar door zo efficiënt en consistent te zijn dat de vraag naar legitimatie vergeten wordt.
Efficiency verdringt accountability. En dat is een situatie die een democratische rechtsstaat niet kan toestaan.
✦ ✦ ✦
De toegevoegde waarde van de mens in relatie tot AI is niet cognitief. Het is normatief. De mens is het enige wezen dat beoordeelt, verantwoordt en legitimeert omdat die functies alleen zinvol zijn als ze worden uitgeoefend door een subject dat deel uitmaakt van de samenleving waarover het oordeelt.
Maar dan rijst onmiddellijk de volgende vraag: als menselijk oordeel onvervangbaar is, hoe zorgen we er dan voor dat dat oordeel deugt? Hoe maken we het transparant, toetsbaar, consistent — zonder het te vervangen door een machine?
Die vraag heeft lange tijd geen goed antwoord gehad. Ze heeft er nu een — en ook dat antwoord mag meebewegen met de tijdgeest. Een democratische toetssteen is dan ook geen dogma, maar een spiegel: hij laat zien wat er is, niet wat er moet zijn.
Het toetsingskader in mijn boek “Wie Niet Toetst, Mag Niet Normeren” rust op vier pijlers: universaliseerbaarheid, toetsbaarheid, proportionaliteit en procedurele legitimatie. Geen abstracte categorieën — het zijn de vragen die elk normerend besluit zou moeten doorstaan voordat het anderen bindt. Samen vormen ze de democratische toetssteen: geen keurslijf, maar een spiegel voor ieder die in een publieke rol beslissingen neemt die anderen raken.
Het kader wordt in het boek toegepast op meer dan veertig concrete casussen uit het Nederlandse bestuurlijke, religieuze en maatschappelijke leven. Naast het boek is een interactief instrument beschikbaar waarmee u beslissingen stap voor stap langs de vier pijlers kunt analyseren.
Wie niet toetst, mag niet normeren is geen aanklacht tegen het systeem. Het is een uitnodiging om onze democratie serieus te nemen — inclusief onszelf als normerende actoren.
Het manuscript is gereed. Binnenkort meer over de publicatie.
Jeroen Teelen 28 maart 2026

Plaats een Reactie
Meepraten?Draag gerust bij!