122 AGI op de drempel: Een bedreiging voor Nederlands bestuur en moraliteit?

, ,

De Volgende Stap: Artificial General Intelligence:

De Nieuwe Dreiging voor Nederlands Bestuur en Moraliteit?

Voorwoord

De veelbezongen beloftes van AI – van medische doorbraken tot logistieke wonderen – worden inmiddels breed uitgemeten. Daar gaat deze blog dus ook niét over. Niet omdat die kant niet belangrijk is, maar omdat ze al genoeg aandacht krijgt. Wat onderbelicht blijft, is de andere vraag: hoe verandert AI – en straks AGI – onze samenleving? Niet in termen van efficiëntie, maar van veiligheid, gelijkheid en moraliteit. Kunnen we dat beïnvloeden en waarom zouden we dat moeten willen?

Dit stuk verkent dus die schaduwzijde. Niet als doembeeld, maar als noodzakelijke toetsing. Past deze technologische ontwikkeling nog bij wie we als samenleving willen zijn? Ik wil geen angstzaaier zijn, maar wel een wake-up-call doen over nieuwe ontwikkelingen die er aan komen en waarover we tijdig als samenleving moeten nadenken en beleid ontwikkelen. Nobelprijs winnaar (voor zij baanbrekend werk op het gebied van AI) Geoffrey Hinton Vertelt in deze video waar om deze schaduwzijde onze aandacht verdient…

Samenvatting: AI en AGI bieden niet alleen kansen, maar ook bedreigingen voor veiligheid, gelijkheid en moraliteit. Nederland moet deze schaduwzijde toetsen om zijn waarden te beschermen.


Waarom zou AGI een bedreiging vormen voor Nederlands Bestuur en Moraliteit?

Inleiding: Een crisis die Nederland niet kan negeren!

Toen in de jaren tachtig-negentig de computer zijn intrede deed, zagen we banen verdwijnen, privacy als strijdtoneel opduiken, en overheden worstelen met regulering. Bestuurders, bedrijven en burgers hadden vaak geen idee wat hen te wachten stond. Pas na rapporten van het Rathenau Instituut, zoals over technologiebeoordeling in de jaren tachtig, kwam er actie, te laat voor een degelijk beleid dus ontwikkelingen overvielen de maatschappij. Hebben we daarvan geleerd? Nauwelijks. Vandaag herkennen we opnieuw dezelfde blinde vlek, maar dan op een duizelingwekkend grotere schaal. Wederom hebben bestuurders én burgers weinig besef van wat AI – laat staan AGI – teweeg zal brengen. Ook hier waarschuwt Geoffrey Hinton….

In 2021 waarschuwde het Rathenau Instituut opnieuw, met rapporten zoals “Waarden wegen” over de ethische risico’s van digitalisering, maar concrete actie blijft tot nu toe uit. Rudimentaire AI, zoals ChatGPT sinds november 2022, verandert onze wereld al fundamenteel. Een deepfake op X kan nu al een crisis veroorzaken — maar wat als AGI dit straks, onder regie van narcisten of populistische influencers, strategisch inzet? We lijken wederom te slapen.

“We sliepen bij de computerrevolutie in de jaren tachtig… en nu dreigt straks AGI ons opnieuw te overrompelen.”

Van de Verenigde Staten, waar Trump ‘waarheid’ herschreef tot ‘fake news’, tot China, waar AI-surveillance wordt ingezet om burgers te onderdrukken (Amnesty International, 2024), en Europa, waar migratiedebatten steeds verder polariseren (Eurostat, 2024) — overal wordt waarheid een speelbal van macht. Denk aan leiders als Netanyahu of Erdogan, die informatie strategisch inzetten voor eigen gewin. Ook in Nederland zien we bestuurders zwichten voor de luidste stemmen. Het stikstofdebat (2022) is een pijnlijk voorbeeld: RIVM-rapporten werden genegeerd onder druk van protestacties (Trouw). Een virale TikTok-video die ‘stikstofmythes’ verspreidt, overtuigt boeren sneller dan een wetenschappelijk onderbouwd rapport.

Relatief simpele AI-systemen, zoals ChatGPT en TikTok-algoritmes, versterken die trend. Ze versnellen desinformatie, polariseren het debat en ondermijnen bestuurlijke ruggengraat. Maar wat nu al zorgelijk is, krijgt een potentieel verwoestend vervolg: de opkomst van Artificial General Intelligence (AGI) — een AI die écht kan denken, redeneren en beleid vormen als een mens. Terughoudende experts schatten dat AGI binnen 10 tot 20 jaar realiteit zal zijn (Nature, 2024), terwijl anderen waarschuwen dat het al binnen 2 tot 5 jaar zover kan zijn. Tegelijk wijzen sommigen, zoals Gary Marcus, op substantiële technische barrières die nog overwonnen moeten worden. Wat deze uiteenlopende inschattingen delen, is het besef dat AI inmiddels haar eigen code schrijft — en dat we dus in een exponentiële ontwikkelingscurve zitten. Voorspellen wordt daardoor steeds moeilijker.

Maar misschien is dát zelfs niet het belangrijkste punt. Wat telt, is dat AI met de dag slimmer wordt, en dat de huidige generatie tools — hoe indrukwekkend ook — al snel zal worden ingehaald. ChatGPT en soortgenoten zijn nog geen ‘echte’ intelligentie, maar baseren zich op statistische taalanalyse. En toch veranderen ze al onze werkelijkheid. Wat als de volgende generatie AI niet alleen slimmer is, maar ook strategischer, overtuigender — en dus gevaarlijker?

Hoewel sommigen nog wijzen op technische barrières, is de optelsom duidelijk: we moeten ons voorbereiden. Hoe houden we deze ontwikkelingen veilig voor onze samenleving? De groei is exponentieel — en wij slapen nog.

Het is duidelijk: als Nederlandse leiders nu niet handelen, zal A(G)I onze bestuurlijke kwetsbaarheid uitbuiten en onze morele fundamenten verder ondergraven dan AI nu al doet (zie ook blog 118 en volgende). Dit is geen doemdenken, maar een waarschuwing. Nederland heeft zelfs de kans om het verschil te maken — juist vanwege zijn schaal, zijn cultuur én zijn vermogen om moreel leiderschap te tonen binnen Europa.

Samenvatting: Huidige AI-systemen versnellen desinformatie, vergroten maatschappelijke scheidslijnen en ondermijnen bestuurlijke veerkracht. AGI voegt daar iets fundamenteels aan toe: het vermogen tot autonoom redeneren en strategisch handelen. De dreiging is niet hypothetisch, maar exponentieel. Nederland moet nú moreel leiderschap tonen.

“AGI schrijft zijn eigen code…
Maar wie bewaakt onze waarden?”


Huidige AI: Een motor voor wantrouwen en bestuurlijke zwakte

Artificial Narrow Intelligence (ANI) — zoals ChatGPT, Deepseek, Grok en andere zogenaamde taalmodellen — vormt nu al een structurele bedreiging voor het Nederlandse bestuur.

Desinformatie versnelt: MIT-onderzoek (2018) toont aan dat nepnieuws zich zes keer sneller verspreidt dan feitelijke informatie (MIT, 2018). Tijdens het MH17-debat (2014–2024) gebruikten Russische botnetwerken AI om complottheorieën te verspreiden, wat het publieke vertrouwen in bestuur ernstig ondermijnde (NOS, 2024). In het Nederlandse stikstofdebat zwichtten politici onder publieke druk, in plaats van zich te baseren op wetenschappelijke inzichten. Voorbeeld: een X-post die RIVM-data afdoet als “gefabriceerd” krijgt meer bereik dan het onderliggende rapport.

Censuur zonder transparantie: In 2021 bestempelden AI-gestuurde factcheckers van Meta een peer-reviewed artikel in The BMJ over vaccinbijwerkingen als “desinformatie” (The Guardian). The BMJ, een gerenommeerd medisch tijdschrift dat al sinds 1840 wordt uitgegeven — als zelfs dat als ‘onwaar’ wordt bestempeld, wat blijft er dan over? Steeds vaker bepalen techbedrijven ongemerkt wat als ‘waar’ wordt gezien. Ook in Nederland ondersteunen AI-systemen beleidsvorming, maar blijven de gebruikte aannames en databronnen ondoorzichtig.

Verantwoordelijkheid verdampt: Het Rathenau Instituut waarschuwde al in de jaren tachtig voor bestuurlijke passiviteit bij technologische revoluties. In 2023 herhaalde het deze boodschap, en sprak van een “moreel kennisvacuüm” waarin bestuurders AI gebruiken om impopulaire beslissingen te legitimeren — zonder verantwoordelijkheid te nemen. Dit zien we terug in het inconsistente inclusiviteitsbeleid, waarin algoritmen sentimenten volgen in plaats van waarden (zie blog 118).

Moraliteit verdwijnt: AGI vormt juist daarom zo’n risico voor ons moreel kompas: onder de druk van sociale media verdwijnt ruggengraat. Slechts weinigen durven hun visie te verdedigen als die haaks staat op de ‘waarheid’ van de publieke opinie — een opinie gevormd door de invloed van ‘Trumps’ en andere narcisten. Als datasets bepalen wat ‘normaal’ is, verliezen menselijke principes hun richtinggevende kracht. Zoals ik al waarschuwde in blogs 118 en 119: inclusiviteit dreigt van waarde tot wapen te worden.

Samenvatting: Huidige AI versnelt desinformatie, maskeert machtsstructuren, en erodeert zowel verantwoordelijkheid als moreel kompas — met AGI als logische, maar veel gevaarlijker volgende stap.

“Als AI bepaalt wat ‘waar’ is,
wie bepaalt dan wat ‘goed’ is?”


AGI: Een dreiging voor nationale stabiliteit en mondiale orde?

De huidige generatie AI-systemen is indrukwekkend maar fundamenteel beperkt. Ze werken door patronen te herkennen in enorme hoeveelheden data, maar missen echt begrip van wat woorden en concepten betekenen. Ze simuleren intelligentie zonder werkelijk te begrijpen.

AGI daarentegen zou een vorm van intelligentie zijn die veel meer lijkt op menselijke cognitie, met echte flexibiliteit om problemen op te lossen in verschillende domeinen. Dit vereist niet simpelweg “meer van hetzelfde” maar doorbraken in meerdere AI-onderzoeksgebieden. Het besef dat het niet lang meer duurt voordat we op alle kennisdomeinen een AGI-score krijgen van zo’n 90% (90% van de beste wetenschapper op dat gebied) én dat die ‘wijsheid’ allemaal in één systeem beschikbaar is, maakt het tot een ongekend genie waar zelfs Leonardo da Vinci niet bij in de schaduw kan staan…

Positieve toepassingenzoals stikstofreductie via geoptimaliseerde scenario’s, technologische vooruitgang en het uitbannen van ziekten en gebreken — zijn er natuurlijk ten volle, maar de gevaren zijn wellicht nog groter en fundamenteler:

Massamanipulatie via synthetische media

AGI zou bestaande technologieën voor het creëren van overtuigende deepfakes kunnen perfectioneren. Deze systemen werken door twee AI-netwerken tegen elkaar uit te spelen: één netwerk creëert de nep-inhoud, het andere probeert te bepalen of de inhoud echt of nep is. Door deze voortdurende competitie worden de resultaten steeds beter. In India beïnvloedden deepfakes in 2024 al verkiezingen met nepvideo’s van Rahul Gandhi. Voorbeeld: In Nederland kan een AGI-gegenereerde deepfake van een minister die “migratieregels opheft” op WhatsApp rellen uitlokken.

Beleid zonder menselijke controle

AGI zal ook beleidsadviezen produceren die ogenschijnlijk neutraal zijn, maar kunnen voortkomen uit data vol impliciete bias. Een toekomstig AGI-advies om Schiphol uit te breiden op basis van luchtvaartlobby-data kan zo een democratisch proces omzeilen. Bestuurders volgen het algoritme — niet uit vertrouwen, maar uit angst om anders ‘anti-wetenschappelijk’ over te komen.

Moraliteit geautomatiseerd

AGI leert van wat het online vindt. In een land als Saoedi-Arabië zou het “leren” dat vrouwenrechten onwenselijk zijn. In Nederland kan het, op basis van sociale media-data, concluderen dat Pride-vlaggen “verdeeldheid zaaien” en dus “niet inclusief” zijn. Morele waarden worden dan niet langer gevormd door debat, maar door dataselectie.

Samenvatting: AGI’s autonome intelligentie kan desinformatie perfectioneren, beleid manipuleren, en moraliteit reduceren tot data, met chaos als gevolg.

Voorbeeld: Een AGI die een nepcrisis over “Zwarte Piet-verboden” orkestreert op X kan het debat strategisch ontwrichten.


Van morele erosie naar bestuurlijke wanorde?

De symptomen zijn allang zichtbaar, ook in Nederland:

  • Wantrouwen wordt onwetendheid: Het stikstof-debat laat zien hoe snel feit en fictie vervagen wanneer AI-modellen botsen met publieke opinie. Burgers weten niet meer wat klopt, en haken af.

  • Polarisatie wordt conflict: Discussies over Zwarte Piet of migratie, gevoed door AI, kunnen uitmonden in georganiseerde confrontaties. AGI zal zulke spanningen niet alleen versterken, maar ook doelgericht exploiteren.

  • Moraliteit verdwijnt: Wanneer datasets bepalen wat ‘normaal’ is, verliezen menselijke waarden hun richting. Zoals ik in blog 118 en blog 119 al stelde: inclusiviteit dreigt te worden ingezet als instrument van uitsluiting, dus niet als moreel kompas, maar als wapen.

Samenvatting: AI en AGI voeden wantrouwen, escaleren conflict en ondermijnen moraliteit. Dit zet zo de deur open naar bestuurlijke chaos.

“Als data onze moraliteit stuurt,
wat blijft er dan over van onze menselijkheid?”


Nederlandse overheid: Bereid je voor!

Ik heb de wijsheid niet in pacht natuurlijk… maar laat ik deze vraag stellen aan AI. “Wat zijn de stappen die we moeten ondernemen tegen ‘vervuilde’ A(G)I-Waarheden?” AI’s antwoord:

“De mens kan het verlies van grip op waarheid door beïnvloede AGI enkel tegengaan via scherpe structurele ingrepen:

  • Openbaarheid van algoritmen – Alleen via open-source en verifieerbare code kan controle plaatsvinden op vertekening en beïnvloeding.

  • Onafhankelijke toetsing – Onafhankelijke commissies met technische, ethische en juridische expertise moeten elke AGI periodiek toetsen op manipulatie, bias en belangenverstrengeling.

  • Scheiding van macht – AGI mag nooit in handen vallen van één bedrijf of staat. Denk aan een model zoals bij centrale banken: onafhankelijk, maar publiek verantwoord.

  • Democratische legitimatie – Besluiten over de inzet van AGI moeten parlementair controleerbaar zijn. Publiek debat, transparantie en journalistieke tegenmacht zijn cruciaal.

  • Educatie en bewustwording – Burgers moeten de mechanismen van AI leren begrijpen. Kritisch burgerschap is de eerste verdedigingslinie tegen subtiele manipulatie.

  • Beperking van eigenaarschap – Geen enkel individu of bedrijf mag volledige zeggenschap hebben over zelflerende systemen die publieke invloed kunnen uitoefenen.”

Einde citaat!


AGI vraagt dus om nationaal leiderschap en Europese samenwerking

Nederland heeft op dit gebied een paar specifieke voordelen ten opzichte van andere landen in Europa:

  • Een sterke ethische traditie, o.a. via het Rathenau Instituut, de WRR en universiteiten zoals de TU Delft en Universiteit Twente die vooroplopen in ethics-by-design.

  • Een relatief wendbaar bestuursmodel en korte lijnen tussen wetenschap, beleid en maatschappij.

  • Actieve rol in de totstandkoming van de EU AI Act.

Maar er zijn landen die inhoudelijk en technologisch verder zijn en waar we dus iets van zouden kunnen leren:

  • Frankrijk: Investeert zwaar in nationale AI-programma’s, met een duidelijke strategische visie onder Emmanuel Macron (zie Plan IA, 2018–2024). Heeft ook sterke defensie-AI-initiatieven.

  • Duitsland: Integreert AI in industriële planning en ethische regulering met grote institutionele slagkracht. Denk aan het KI-Strategie Deutschland programma.

  • Canada: Pionierde met ethische AI en financierde al vroeg AI-onderzoek via het Montreal Declaration project. Grote betrokkenheid van universiteiten als MILA (Yoshua Bengio).

  • Verenigd Koninkrijk: Heeft een aparte AI Safety Taskforce, trekt wereldwijd talent aan (o.a. via DeepMind) en voert eigen risico-assessments uit naast de EU.

  • Verenigde Staten en China: Zijn dominant in technologische ontwikkeling en schaal, hoewel ethiek daar een ander gewicht heeft.


Wat er bij ons nu moet gebeuren:

  • Binnen twee jaren een nationale AGI-strategie: Ontwikkel een beleid dat ethiek, transparantie en menselijkheid vooropstelt, en niet enkel economische efficiëntie. Sluit aan bij de EU AI Act.

  • Verplicht AI-audits: Dwing overheden en bedrijven tot transparante audits van AI-systemen die beleid sturen, zoals het Europees Parlement voorstelt.

  • AI-geletterdheid voor burgers: Start campagnes zoals “AGI Alert Online” (TU Delft, 2024) om digitale weerbaarheid te vergroten.

  • Verbied manipulatieve AGI: Stel wettelijke grenzen aan het gebruik van AGI voor deepfakes en beïnvloeding in verkiezingen.

  • Investeer in ethische innovatie: Ondersteun onafhankelijk AI-onderzoek en kritische technologieontwikkeling via de Nederlandse AI Coalitie (NLAIC, 2024). Laat ethiek leidend zijn in plaats van bijzaak.


Voor burgers:

  • Controleer informatie via platforms als Bellingcat of Snopes.

  • Vergelijk berichten op sociale media met betrouwbare nieuwsbronnen.

  • Denk kritisch na vóór je iets deelt: “Kan dit een deepfake zijn?”

  • Volg een training via Mediawijsheid.nl.

  • Bespreek desinformatie actief in je eigen netwerk.

Jeroen Teelen, (met dank aan AI-tools voor inhoudelijke ondersteuning, maar mijn waarschuwing blijft natuurlijk volledig menselijk).

8 mei 2025

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.