184 TOEKOMSTSCENARIO’S VAN DE SAMENLEVING MET ARTIFICIAL INTELLIGENCE (2) De RealiteitsCheck…
Het gevaarlijkste risico is ‘wat AI principieel niet kan oplossen…’
Inleiding – Systeemverschuiving, maar wel met begrenzing
In Blog 1 is de AI-transitie benaderd als een maatschappelijke systeemverschuiving, niet als een optelsom van technologische innovaties. De centrale vraag was niet wat AI kan, maar welke samenleving waarschijnlijk ontstaat wanneer bestaande machts-, eigendoms- en waardestructuren grotendeels intact blijven. Dat perspectief leidde tot vier scenario’s — van Grote Divergentie tot Symbiose.
Een cruciaal inzicht daarbij was dat geen enkel scenario automatisch uit technologie volgt. Technologie zet beweging in gang, maar bepaalt niet de richting. Die richting wordt gevormd door keuzes die buiten het domein van technologie vallen: politieke besluitvorming, institutionele inrichting en culturele betekenisgeving.
Die constatering roept een onvermijdelijke vervolgvraag op: waar liggen de grenzen van wat technologie — en specifiek AI — überhaupt kan oplossen? Juist omdat AI technisch zo krachtig wordt, is het expliciet maken van haar principiële beperkingen een noodzakelijke voorwaarde om die impact verantwoord te kunnen sturen.
Dat is het doel van deze realiteits-check.
Deze check gaat dus nadrukkelijk niet over technologische ontkenning of over absolute uitspraken van het type “AI zal nooit …” — uitspraken die in publieke discussies opvallend vaak worden gedaan door mensen zonder zicht op de technische of maatschappelijke dynamiek, en die per definitie niet te onderbouwen zijn. Integendeel: juist de aantoonbare versnelling die AI mogelijk maakt, dwingt tot een scherp en zorgvuldig onderscheid. Welke problemen kan AI structureel versnellen, en welke problemen vallen principieel buiten haar oplossend vermogen — ongeacht verdere schaal, data-toegang of intelligentie?
Zonder dat onderscheid ontstaat een gevaarlijke verwarring. Maatschappelijke spanningen worden dan behandeld alsof het optimalisatieproblemen zijn, terwijl ze in werkelijkheid draaien om macht, legitimiteit en betekenis. Die verwarring is een kernoorzaak van de huidige bestuurlijke en politieke verlamming rond AI.
Een concreet, herkenbaar voorbeeld van wat hier misgaat is bijvoorbeeld de geautomatiseerde fraudedetectie in de sociale zekerheid:
SyRI (Systeem Risico Indicatie): een geautomatiseerd risicoprofileringssysteem voor opsporing van fraude met o.a. uitkeringen/toeslagen. De rechtbank Den Haag zette het gebruik stop omdat de wettelijke basis onvoldoende waarborgen bood (o.a. privacy/EVRM).
Toeslagenaffaire / risicoprofilering: (semi-)geautomatiseerde risicoselectie en fraudefocus leidde tot grootschalige onterechte verdenkingen en hard ingrijpen; Amnesty beschrijft hoe profilering/algoritmiek en (onder meer) nationaliteitsgegevens hierbij een rol speelden.
FSV (Fraude Signalering Voorziening): registratiesysteem voor “fraudesignalen” bij Belastingdienst/Toeslagen; stopgezet omdat het niet goed werd gebruikt en niet voldeed aan eisen.
In dit soort systemen wordt een maatschappelijk probleem — fraude en oneigenlijk gebruik van publieke middelen — behandeld als een optimalisatievraagstuk:
hoe detecteren we met zo min mogelijk kosten en zo veel mogelijk nauwkeurigheid afwijkend gedrag?
Dat lijkt rationeel. Maar daarmee wordt het probleem verkeerd geherformuleerd!
Wat hier namelijk werkelijk speelt, is geen technisch vraagstuk, maar de machts- en legitimiteitsvraag:
- hoeveel wantrouwen mag de staat standaard richting burgers hanteren?
- wie draagt daarbij het risico van fouten: de overheid of de burger?
- hoe verhouden efficiëntie en rechtsbescherming zich tot elkaar?
Het lijken in eerste instantie misschien detail-kwesties maar ze zijn eigenlijk juist heel fundamenteel!
Het AI-systeem kan uitstekend voorspellen wie statistisch gezien een hoger risico vormt. Maar het kan niet beantwoorden:
- of dat risico acceptabel is,
- of indirecte discriminatie geoorloofd is,
- of de burger voldoende rechtsmiddelen heeft,
- of deze vorm van controle democratisch gelegitimeerd is.
Wanneer zulke systemen dan tóch worden ingevoerd, ontstaat precies de verwarring die we kennen:
- de uitkomst wordt gepresenteerd als objectief (“het model signaleert dit”),
- terwijl de normatieve keuzes — over controle, wantrouwen en macht — onzichtbaar blijven.
Het gevolg is geen betere uitvoering, maar verlies aan vertrouwen, juridische procedures, maatschappelijke woede en bestuurlijke stilstand. De technologie heeft hier niet gefaald maar de politiek! Een moreel conflict is vermomd als een technisch optimalisatieprobleem.
Deel I – De kracht van AI: optimalisatie zonder deliberatie
(waar begint de fundamentele misvatting precies)
AI is een uitzonderlijk krachtige versneller — maar alleen binnen een duidelijk afgebakend domein. Haar kracht manifesteert zich wanneer processen voldoen aan drie voorwaarden:
- het doel is vooraf eenduidig gedefinieerd;
- de relevante variabelen zijn in de praktijk formaliseerbaar;
- optimalisatie is wenselijker dan overleg (deliberatie) of conflict.
Binnen dit domein zijn de prestaties reëel en indrukwekkend: patroonherkenning op schaal, voorspelling binnen afgebakende kaders, consistente uitvoering zonder vermoeidheid of belangenconflict. Dat verklaart zowel het enthousiasme als de snelle institutionele adoptie van AI in logistiek, medische diagnostiek, energiebeheer, wetenschappelijk onderzoek en beleidsvoorbereiding. Juist daar zijn die randvoorwaarden eigenlijk impliciet aanwezig.
Maar ook precies dáár ontstaat ook de fundamentele misvatting. Wat uitstekend werkt binnen goed gedefinieerde optimalisatieproblemen, wordt vervolgens geprojecteerd op maatschappelijke vraagstukken die dus eigenlijk van een andere orde zijn.
Daar is de ‘oplossing’ geen wiskundig optimum, maar het resultaat van strijd, onderhandeling, compromis en wederzijdse erkenning. Maatschappelijke problemen zijn zelden oplosbaar in de zin waarin een logistiek probleem oplosbaar is. Ze zijn ‘beheersbaar, verdraaglijk of tijdelijk gestabiliseerd’ — maar niet ‘geoptimaliseerd’.
Die projectie is dus geen ‘technische vergissing’, maar een politieke keuze. Zij verschuift verantwoordelijkheid van een aanspreekbare actor naar een ogenschijnlijk neutraal systeem. En precies in die verschuiving ligt een van de grootste risico’s van de AI-transitie.
Deel II – De eerste grens: AI kan geen doelen legitimeren
AI kan middelen optimaliseren, maar zij kan (nog) geen doelen rechtvaardigen. Elk AI-systeem draait op vooraf vastgestelde doelstellingen: maximaliseer efficiëntie, minimaliseer kosten, verhoog veiligheid, verlaag risico. De vraag waarom dit doel, en niet een ander? valt buiten het bereik van het systeem zelf.
Het woord nog is hier bewust gekozen. Niet omdat dit een technisch probleem zou zijn dat met krachtigere modellen of meer data kan worden opgelost, maar omdat legitimiteit geen technische eigenschap is. Zij vereist autonomie, erkende rechten en een maatschappelijk mandaat — voorwaarden waaraan AI op dit moment niet voldoet.
Doelen worden niet door data ontdekt, maar door mensen en instituties gekozen. En keuzes over doelen vereisen legitimiteit: een proces van erkenning, verantwoordelijkheid en toetsbaarheid. Zolang AI geen actor is binnen onze rechtsorde, kan zij geen doelen legitimeren, ongeacht haar intelligentie of operationele autonomie.
Wanneer AI-systemen beleidsopties voorbereiden of zelfs uitvoeren, ontstaat het risico dat legitimiteit wordt ingeruild voor schijnobjectiviteit. Beslissingen lijken ‘uit het model’ te volgen, maar zijn in werkelijkheid het resultaat van vooraf ingeprogrammeerde — en vaak onzichtbaar gebleven — prioriteiten.
De illusie dat ‘het systeem het heeft besloten’ is bestuurlijk aantrekkelijk, maar democratisch dus ‘leeg’. Legitimiteit vereist niet alleen een menselijk waarom, maar ook betwistbaarheid: het moet zichtbaar zijn wie verantwoordelijk is, welke waarden zijn afgewogen en via welk proces keuzes kunnen worden herzien.
Geen enkel algoritme kan verantwoordelijkheid dragen. Geen enkel model kan ter verantwoording worden geroepen. Pas wanneer een systeem als actor wordt erkend — met rechten, plichten en aansprakelijkheid — zou legitimiteit überhaupt aan de orde kunnen zijn. Tot die tijd blijft de verantwoordelijkheid onvermijdelijk bij mens en bestuur liggen.
Deel III – De tweede grens: AI kan conflicterende waarden niet oplossen
Veel kernvragen van ons samenleven zijn geen kennisproblemen, maar waardeconflicten: veiligheid versus vrijheid, herverdeling versus prikkels, snelheid versus zorgvuldigheid, nationale belangen versus mondiale solidariteit.
AI kan scenario’s doorrekenen en de consequenties van keuzes zichtbaar maken — vaak met een precisie die voorheen onmogelijk was. Maar zij kan niet kiezen tussen vrijheid en veiligheid. Die keuze vereist een normatieve weging die per definitie buiten het domein van optimalisatie valt.
Zelfs ‘optimaliseren’ veronderstelt immers dat vooraf is bepaald wat als winst telt en welke schade acceptabel wordt geacht. Dat is dus geen computationele beslissing, maar een morele en politieke.
Het risico is dat politieke keuzes worden vermomd als technische uitkomsten. Beleidsmakers kunnen zich verschuilen achter modellen, terwijl de normatieve afweging onbesproken blijft. Dat vergroot de efficiëntie, maar ondermijnt de democratische herkenbaarheid.
Hier ontstaat een paradox: AI-gedreven besluitvorming kan leiden tot méér wantrouwen, zelfs wanneer de uitkomsten aantoonbaar ‘beter’ zijn. Democratie draait niet alleen om resultaten, maar om uitlegbaarheid, verantwoordelijkheid en gedeelde eigenaarschap van pijnlijke afwegingen. Frictie tussen waarden is geen fout in het systeem — het is het systeem.
Noot: Ter verduidelijking: bij veel moderne AI-systemen is het voor mensen — inclusief de ontwerpers — niet mogelijk om de precieze redenering achter een specifieke uitkomst te reconstrueren. Dit komt niet door geheimhouding, maar doordat zulke modellen werken met statistische patronen in zeer hoge dimensies in plaats van expliciete, menselijk navolgbare argumentatiestappen. Daardoor kan een uitkomst vaak wel worden getest op effect, maar niet volledig worden herleid tot een begrijpelijke “waarom”.
Deel IV – De derde grens: AI kan betekenis en zingeving niet vervangen
De diepste grens is existentieel. Zoals Blog 1 al liet zien, nadert de samenleving een historische breuk: kennis en arbeid verliezen hun vanzelfsprekende rol als bron van inkomen, status en identiteit. AI en robotisering versnellen deze ontkoppeling aanzienlijk.
AI kan productief werk overnemen. Maar zij kan geen antwoord geven op de vragen die daardoor vrijkomen: wat betekent ‘bijdragen’ zonder economische noodzaak? Waar ontleen je waardigheid aan als werk niet langer schaars is?
Zingeving is geen optimalisatieprobleem, maar een sociaal en cultureel proces. Zij ontstaat in gedeelde verhalen, sociale relaties en morele verantwoordelijkheid. Cruciaal daarbij is ook sociale erkenning: mensen ontlenen waardigheid niet alleen aan wat zij doen, maar ook aan de maatschappelijke betekenis die daaraan wordt toegekend.
AI kan ervaringen produceren, gedrag begeleiden en voorkeuren voorspellen, maar zij kan geen erkenning afdwingen. Wie veronderstelt dat zingeving kan worden vervangen door gepersonaliseerde stimulatie of simulatie, verwart afleiding met betekenis.
De vraag is dus niet of mensen beziggehouden kunnen worden, maar of hun bijdrage maatschappelijk wordt erkend als waardevol. Hierbij rijst onvermijdelijk de vraag of samenlevingen een nieuwe dimensie van erkenning kunnen ontwikkelen waarin zingeving vorm krijgt — niet als individueel gevoel, maar als collectief toegekende betekenis.
Deel V – Drie domeinen, drie logica’s
(en waarom hun vermenging tot crisis leidt)
De realiteitscheck dwingt tot het expliciet onderscheiden van drie domeinen, elk met een eigen logica:
- Technologie optimaliseert middelen voor een gegeven doel.
- Bestuur legitimeert keuzes en handelt waardeconflicten af.
- Samenleving produceert betekenis en zingeving.
Veel ontsporende AI-debatten zijn terug te voeren op het verwisselen van deze logica’s. Technologie wordt gevraagd te legitimeren wat alleen politiek gelegitimeerd kan worden. Bestuur verschuilt zich achter systemen. Betekenis wordt gereduceerd tot efficiëntie.
AI is een krachtige motor, maar een slecht kompas. Zij kan versnellen, maar geen richting bepalen. Zodra zij buiten haar eigen logica wordt ingezet, ontstaan schijnoplossingen die structurele problemen verdiepen in plaats van oplossen.
Deel VI – Terug naar de scenario’s en waarom politiek de richting bepaalt en dus ook verantwoordelijk is
De grenzen die hier zijn geschetst verklaren waarom de scenario’s uit Blog 1 geen technologische voorspellingen zijn, maar politieke uitkomsten.
- Grote Divergentie wordt plausibel wanneer AI-winsten niet actief en politiek worden herverdeeld — technologie kan herverdeling niet afdwingen.
- De Verzorgde Tuin vereist expliciete, legitieme instituties voor eigendom en zingeving — zaken die AI niet kan leveren, slechts ondersteunen als ze al bestaan.
- Symbiose verandert menselijke capaciteiten, maar lost normatieve en sociale vragen niet op — zij maakt ze meer zichtbaar.
- Balkanisatie volgt logisch uit het ontbreken van gedeeld politiek handelen op mondiale schaal — technologie dwingt geen samenwerking af.
Met andere woorden: technologie duwt, maar politiek en cultuur bepalen de richting. Wie niet stuurt, kiest niet voor neutraliteit, maar voor de default van bestaande machts- en eigendomsstructuren. AI versnelt die trajecten; zij kiest ze niet.
Slot – De gevaarlijkste illusie
De beperkingen van AI maken haar niet minder belangrijk. Integendeel: ze maken haar gevaarlijker wanneer we haar negeren. Wie AI inzet zonder expliciete politieke keuzes over eigendom, legitimiteit en menselijke waarde, krijgt geen neutrale toekomst, maar een voorspelbare omdat onuitgesproken aannames en bestaande machtsverhoudingen ongestoord hun werk blijven doen.
AI fungeert daarbij als een krachtige vermenigvuldigingsfactor. “Slimme inzet leidt tot disproportionele voorsprong voor wie al beschikt over kapitaal, data, infrastructuur en institutionele invloed.” Een beleid van ‘laten gebeuren’ of technologische laksheid (denk aan onze eigen datacenters, infrastructuur, data-beschikking en dergelijke) — vaak verpakt als pragmatisch realisme — resulteert niet in evenwicht, maar in het consolideren en zelfs extra vergroten van bestaande macht en ongelijkheid. Het voelt misschien voor velen als acceptabel of ‘goed genoeg’, maar is in feite een keuze voor de default-uitkomst van onevenwichtigheid.
De gevaarlijkste illusie is niet dat AI te machtig wordt, maar dat zij maatschappelijke keuzes kan vervangen via bestuurlijke onbekwaamheid of laksheid. Die illusie leidt tot een samenleving waarin technologie de richting bepaalt omdat niemand verantwoordelijkheid neemt om anders te kiezen.
De conclusie is onontkoombaar: als AI geen samenleving kan ontwerpen, welke instituties kunnen dat dan wél? En hoe organiseren we sturing zonder te vervallen in technocratie of machtspolitiek?
Dat is het onderwerp van de volgende blog — en de kernvraag van deze hele reeks.
Volgende blog: Sturing zonder illusies – welke instituties en keuzes werkelijk het verschil maken in het AI-tijdperk
Jeroen Teelen (schrijver-regisseur, voor deze blog-serie, zes taalmodellen als sparringpartners in concurrentie)
22 januari 2026

Plaats een Reactie
Meepraten?Draag gerust bij!