122 AGI op de drempel: Een bedreiging voor Nederlands bestuur en moraliteit?
De Volgende Stap: Artificial General Intelligence:
De Nieuwe Dreiging voor Nederlands Bestuur en Moraliteit?
AGI daarentegen zou een vorm van intelligentie zijn die veel meer lijkt op menselijke cognitie, met echte flexibiliteit om problemen op te lossen in verschillende domeinen. Dit vereist niet simpelweg “meer van hetzelfde” maar doorbraken in meerdere AI-onderzoeksgebieden. Het besef dat het niet lang meer duurt voordat we op alle kennisdomeinen een AGI-score krijgen van zo’n 90% (90% van de beste wetenschapper op dat gebied) én dat die ‘wijsheid’ allemaal in één systeem beschikbaar is, maakt het tot een ongekend genie waar zelfs Leonardo da Vinci niet bij in de schaduw kan staan…
Positieve toepassingen — zoals stikstofreductie via geoptimaliseerde scenario’s, technologische vooruitgang en het uitbannen van ziekten en gebreken — zijn er natuurlijk ten volle, maar de gevaren zijn wellicht nog groter en fundamenteler:
Massamanipulatie via synthetische media
AGI zou bestaande technologieën voor het creëren van overtuigende deepfakes kunnen perfectioneren. Deze systemen werken door twee AI-netwerken tegen elkaar uit te spelen: één netwerk creëert de nep-inhoud, het andere probeert te bepalen of de inhoud echt of nep is. Door deze voortdurende competitie worden de resultaten steeds beter. In India beïnvloedden deepfakes in 2024 al verkiezingen met nepvideo’s van Rahul Gandhi. Voorbeeld: In Nederland kan een AGI-gegenereerde deepfake van een minister die “migratieregels opheft” op WhatsApp rellen uitlokken.
Beleid zonder menselijke controle
AGI zal ook beleidsadviezen produceren die ogenschijnlijk neutraal zijn, maar kunnen voortkomen uit data vol impliciete bias. Een toekomstig AGI-advies om Schiphol uit te breiden op basis van luchtvaartlobby-data kan zo een democratisch proces omzeilen. Bestuurders volgen het algoritme — niet uit vertrouwen, maar uit angst om anders ‘anti-wetenschappelijk’ over te komen.
Moraliteit geautomatiseerd
AGI leert van wat het online vindt. In een land als Saoedi-Arabië zou het “leren” dat vrouwenrechten onwenselijk zijn. In Nederland kan het, op basis van sociale media-data, concluderen dat Pride-vlaggen “verdeeldheid zaaien” en dus “niet inclusief” zijn. Morele waarden worden dan niet langer gevormd door debat, maar door dataselectie.
Samenvatting: AGI’s autonome intelligentie kan desinformatie perfectioneren, beleid manipuleren, en moraliteit reduceren tot data, met chaos als gevolg.
Voorbeeld: Een AGI die een nepcrisis over “Zwarte Piet-verboden” orkestreert op X kan het debat strategisch ontwrichten.
Van morele erosie naar bestuurlijke wanorde?
De symptomen zijn allang zichtbaar, ook in Nederland:
-
Wantrouwen wordt onwetendheid: Het stikstof-debat laat zien hoe snel feit en fictie vervagen wanneer AI-modellen botsen met publieke opinie. Burgers weten niet meer wat klopt, en haken af.
-
Polarisatie wordt conflict: Discussies over Zwarte Piet of migratie, gevoed door AI, kunnen uitmonden in georganiseerde confrontaties. AGI zal zulke spanningen niet alleen versterken, maar ook doelgericht exploiteren.
-
Moraliteit verdwijnt: Wanneer datasets bepalen wat ‘normaal’ is, verliezen menselijke waarden hun richting. Zoals ik in blog 118 en blog 119 al stelde: inclusiviteit dreigt te worden ingezet als instrument van uitsluiting, dus niet als moreel kompas, maar als wapen.
Samenvatting: AI en AGI voeden wantrouwen, escaleren conflict en ondermijnen moraliteit. Dit zet zo de deur open naar bestuurlijke chaos.
“Als data onze moraliteit stuurt,
wat blijft er dan over van onze menselijkheid?”
Nederlandse overheid: Bereid je voor!
Ik heb de wijsheid niet in pacht natuurlijk… maar laat ik deze vraag stellen aan AI. “Wat zijn de stappen die we moeten ondernemen tegen ‘vervuilde’ A(G)I-Waarheden?” AI’s antwoord:
“De mens kan het verlies van grip op waarheid door beïnvloede AGI enkel tegengaan via scherpe structurele ingrepen:
Openbaarheid van algoritmen – Alleen via open-source en verifieerbare code kan controle plaatsvinden op vertekening en beïnvloeding.
Onafhankelijke toetsing – Onafhankelijke commissies met technische, ethische en juridische expertise moeten elke AGI periodiek toetsen op manipulatie, bias en belangenverstrengeling.
Scheiding van macht – AGI mag nooit in handen vallen van één bedrijf of staat. Denk aan een model zoals bij centrale banken: onafhankelijk, maar publiek verantwoord.
Democratische legitimatie – Besluiten over de inzet van AGI moeten parlementair controleerbaar zijn. Publiek debat, transparantie en journalistieke tegenmacht zijn cruciaal.
Educatie en bewustwording – Burgers moeten de mechanismen van AI leren begrijpen. Kritisch burgerschap is de eerste verdedigingslinie tegen subtiele manipulatie.
Beperking van eigenaarschap – Geen enkel individu of bedrijf mag volledige zeggenschap hebben over zelflerende systemen die publieke invloed kunnen uitoefenen.”
Einde citaat!
AGI vraagt dus om nationaal leiderschap en Europese samenwerking
Nederland heeft op dit gebied een paar specifieke voordelen ten opzichte van andere landen in Europa:
-
Een sterke ethische traditie, o.a. via het Rathenau Instituut, de WRR en universiteiten zoals de TU Delft en Universiteit Twente die vooroplopen in ethics-by-design.
-
Een relatief wendbaar bestuursmodel en korte lijnen tussen wetenschap, beleid en maatschappij.
-
Actieve rol in de totstandkoming van de EU AI Act.
Maar er zijn landen die inhoudelijk en technologisch verder zijn en waar we dus iets van zouden kunnen leren:
-
Frankrijk: Investeert zwaar in nationale AI-programma’s, met een duidelijke strategische visie onder Emmanuel Macron (zie Plan IA, 2018–2024). Heeft ook sterke defensie-AI-initiatieven.
-
Duitsland: Integreert AI in industriële planning en ethische regulering met grote institutionele slagkracht. Denk aan het KI-Strategie Deutschland programma.
-
Canada: Pionierde met ethische AI en financierde al vroeg AI-onderzoek via het Montreal Declaration project. Grote betrokkenheid van universiteiten als MILA (Yoshua Bengio).
-
Verenigd Koninkrijk: Heeft een aparte AI Safety Taskforce, trekt wereldwijd talent aan (o.a. via DeepMind) en voert eigen risico-assessments uit naast de EU.
-
Verenigde Staten en China: Zijn dominant in technologische ontwikkeling en schaal, hoewel ethiek daar een ander gewicht heeft.
Wat er bij ons nu moet gebeuren:
-
Binnen twee jaren een nationale AGI-strategie: Ontwikkel een beleid dat ethiek, transparantie en menselijkheid vooropstelt, en niet enkel economische efficiëntie. Sluit aan bij de EU AI Act.
-
Verplicht AI-audits: Dwing overheden en bedrijven tot transparante audits van AI-systemen die beleid sturen, zoals het Europees Parlement voorstelt.
-
AI-geletterdheid voor burgers: Start campagnes zoals “AGI Alert Online” (TU Delft, 2024) om digitale weerbaarheid te vergroten.
-
Verbied manipulatieve AGI: Stel wettelijke grenzen aan het gebruik van AGI voor deepfakes en beïnvloeding in verkiezingen.
-
Investeer in ethische innovatie: Ondersteun onafhankelijk AI-onderzoek en kritische technologieontwikkeling via de Nederlandse AI Coalitie (NLAIC, 2024). Laat ethiek leidend zijn in plaats van bijzaak.
Voor burgers:
-
Controleer informatie via platforms als Bellingcat of Snopes.
-
Vergelijk berichten op sociale media met betrouwbare nieuwsbronnen.
-
Denk kritisch na vóór je iets deelt: “Kan dit een deepfake zijn?”
-
Volg een training via Mediawijsheid.nl.
-
Bespreek desinformatie actief in je eigen netwerk.
Jeroen Teelen, (met dank aan AI-tools voor inhoudelijke ondersteuning, maar mijn waarschuwing blijft natuurlijk volledig menselijk).
8 mei 2025
Plaats een Reactie
Meepraten?Draag gerust bij!