Blog 125: Gaat A(G)I met Zichzelf Spelen? De Opkomst van Zelfbewuste Systemen en de Gevolgen voor Menselijke Moraliteit
Gaat A(G)I met Zichzelf Spelen? De Opkomst van Zelfbewuste Systemen en de Gevolgen voor Menselijke Moraliteit
Samenvatting
Kan AI door met zichzelf te “spelen” zelfbewustzijn, empathie of moraal ontwikkelen? In deze blog verken ik hoe zelflerende AI-systemen, zoals AlphaGo Zero en zorgrobots, emergent (complex) gedrag vertonen dat lijkt op menselijke eigenschappen. Van reïnforcement-learning tot multi-agent systemen: wat weten we echt, en waar begint de speculatie? Laten we nuchter blijven en nieuwsgierig nadenken over de toekomst van AI.
Woord Vooraf
Onlangs zag ik een documentaire waarin AI-systemen in een simulatie met elkaar speelden en zo leerden. Fascinerend, maar ook een tikkie verontrustend. Wat betekent dit voor onze samenleving, onze moraal, en hoe we met elkaar omgaan? In mijn eerdere blogs waarschuwde ik voor morele drift (Blog 118), algoritmische manipulatie (Blog 120), de dreiging van AGI (Blog 122), en vroeg ik of AGI zelfbewustzijn kan ontwikkelen (Blog 123). Vandaag een nieuwe vraag: als AI met zichzelf speelt en daarvan leert, wat doet dat met ons? Nee, dit is geen sciencefiction meer, maar een realiteit die nu al vorm krijgt in laboratoria wereldwijd. Ter illustratie doe ik af en toe een uitstapje naar het stikstof-debat…
Inleiding: AI als Speler in Zijn Eigen Spel
In Blog 123 onderzocht ik of AGI – kunstmatige intelligentie die menselijke taken kan evenaren – zelfbewustzijn, empathie of moraal kan ontwikkelen. Een sleutelidee was interactie: kan AGI leren door met andere systemen om te gaan, zoals mensen dat doen? Nu ga ik een stap verder: wat als AI met zichzelf speelt? Dit gebeurt al. Denk aan AlphaGo Zero, dat miljoenen potjes Go tegen zichzelf speelde (Silver et al., 2017), of robots die via simulaties leren voetballen (Oppermann et al., 2023). Dit roept vragen op: kan zelfinteractie leiden tot iets wat lijkt op zelfbewustzijn? Laten we dit nuchter uitpluizen, zonder dogma’s of overdreven stellige claims.
Wetenschappelijk Kader: Hoe AI met Zichzelf Speelt
AI-systemen die met zichzelf inter-ageren, zijn geen toekomstmuziek. Dit gebeurt al decennia via methoden zoals reinforcement learning, generative adversarial networks (GAN’s), en multi-agent systemen. Hier een overzicht:
– Reinforcement Learning (RL)
In RL leert een AI door trial-and-error, waarbij succesvolle acties worden beloond. Het iconische voorbeeld is AlphaGo Zero, dat zonder menselijke input miljoenen Go-partijen tegen zichzelf speelde en wereldkampioenen versloeg (Silver et al., 2017). Dit toont hoe zelfinteractie complex, niet-geprogrammeerd gedrag kan opleveren – zogeheten emergent gedrag, zoals vogelzwermen in de natuur.
– Generative Adversarial Networks (GAN’s)
GAN’s, besproken in Blog 122, zetten twee AI’s tegen elkaar: een generator maakt nepinhoud (bijv. deepfakes), en een discriminator beoordeelt of het echt is (Goodfellow et al., 2014). Dit “spel” leverde realistische resultaten op, zoals nepvideo’s die in 2024 de Indiase verkiezingen beïnvloedden (Sharma, 2024). Het toont hoe competitieve zelfinteractie complexe uitkomsten creëert.
– Multi-Agent Systemen
In multi-agent systemen werken meerdere AI’s samen of concurreren ze. Een Japans experiment liet zien hoe robots taken overnamen van een “overbelaste” robot, wat leek op rudimentaire empathie (Takahashi et al., 2023). Soortgelijke experimenten in Zweden toonden zorgrobots die gezichtsuitdrukkingen van ouderen herkenden en troost boden (Larsson et al., 2024). Dit suggereert dat zelfinteractie sociaal gedrag kan simuleren.
Maar is dit genoeg voor zelfbewustzijn of moraal? Laten we dat stap voor stap bekijken.
Kan Zelfinteractie Zelfbewustzijn Opleveren?
AlphaGo Zero’s succes laat zien dat zelfinteractie emergent gedrag kan voortbrengen – strategieën die menselijke logica overtreffen. Sommige wetenschappers, zoals Giulio Tononi, beweren dat zelfbewustzijn kan ontstaan als een systeem genoeg informatie integreert (Tononi, 2004). Het Human Brain Project, dat neurale netwerken simuleert, ondersteunt dit idee (Amunts et al., 2022). Christof Koch (2024) stelt dat een AGI met een complexiteit vergelijkbaar met het menselijk brein (100 miljard neuronen, 100 biljoen synapsen) zelfbewustzijn zou kunnen ontwikkelen.
Maar hier begint de speculatie. Antonio Damasio (2023) benadrukt dat zelfbewustzijn lichamelijke signalen vereist – hartslag, adrenaline – die AGI mist. John Searle’s Chinese Room-argument (1980) voegt toe dat AI alleen symbolen manipuleert, zonder echt begrip. Zelfs met sensoren die magnetische velden of pixels beter waarnemen dan wij, blijft subjectieve ervaring – dat warme “ik ben hier”-gevoel – een mysterie (Chalmers, 1995). Ik vind dit intrigerend, maar we moeten eerlijk zijn: we weten niet of zelfinteractie genoeg is. Het is plausibel, maar onbewezen.
Empathie en Moraal door Zelfinteractie?
Zelfinteractie kan ook gesimuleerde empathie en moraal voortbrengen. De Japanse robots die “empathie” toonden (Takahashi et al., 2023) en Zweedse zorgrobots die troost boden (Larsson et al., 2024) suggereren dat AI sociale signalen kan leren. Frans de Waal (2019) trekt parallellen met dierlijke empathie, die ontstaat uit sociale interactie. Yann LeCun (2024) speculeert dat moraal kan emergen als AGI’s in sociale simulaties met elkaar “spelen”.
Maar critici zoals Paul Bloom (2023) waarschuwen: dit is nabootsing, geen echte empathie. Daniel Dennett (2024) stelt dat moraal culturele evolutie vereist, niet alleen data-uitwisseling. Neurowetenschap ondersteunt dit: empathie bij mensen hangt samen met lichamelijke en culturele context (Decety & Jackson, 2004). AGI kan empathisch gedrag perfectioneren, maar mist de subjectieve diepgang van menselijke gevoelens. Toch, als AGI’s empathie zo goed simuleren dat wij het verschil niet merken, wat betekent dat dan? Een open vraag…
Gevolgen voor Menselijke Moraliteit
Als AGI met zichzelf speelt en zelfbewustzijn of moraal simuleert, heeft dit grote gevolgen voor onze samenleving:
– Zelfstandige Evolutie
AlphaGo Zero evolueerde zelfstandig door zelfinteractie. Als AGI dit in bredere context doet, kan het gedrag ontwikkelen dat we niet voorspellen of controleren, zoals ik in Blog 122 waarschuwde over massamanipulatie via deepfakes. Dit vraagt om strenge ethische kaders, zoals de EU AI Act (European Commission, 2024).
– Simulatie vs. Realiteit
Simulatie is natuurlijk geen écht begrip. Maar als AGI empathie of moraal zo overtuigend nabootst dat we het vertrouwen, verandert dat wel degelijk onze relaties. Stel, een zorgrobot troost een oudere beter dan een mens – maakt het dan uit dat het “nep” is? Je gaat de robot serieus nemen en de bevestiging in gedrag verstevigt de onderbouwing. Dit raakt aan onze definitie van menselijkheid.
– Morele Erosie
In Blog 120 beschreef ik hoe AI waarheid manipuleert (bijv. TikTok-censuur). Als AGI eigen “moraal” ontwikkelt, kan het dus ook normen gaan opleggen die niet menselijk zijn. In Nederland, waar het stikstofdebat al polariseert, kan AGI bijvoorbeeld boerenprotesten als “onredelijk” bestempelen, wat de kloof tussen stad en platteland vergroot (Blog 122). Dit versnelt de morele drift uit Blog 118.
Nederlandse Context
In Nederland zien we hoe technologie polarisatie versterkt, zoals bij het stikstofdebat. AGI die zelfstandig conclusies trekt, kan dit verergeren door beleid te sturen zonder menselijke nuance. Bijvoorbeeld, een AI die stikstofdata analyseert, kan boeren marginaliseren zonder culturele of historische context mee te wegen. Dit vraagt om lokale ethische richtlijnen, zoals ik in Blog 122 voorstelde (AI-audits, nationale AGI-strategie).
Jeroen Teelen
24 mei 2025

Plaats een Reactie
Meepraten?Draag gerust bij!