127 Wie heeft nog controle over zichzelf verbeterende AI?

, ,

Wie bestuurt AI die zichzelf herschept?

Een zoektocht naar grip op algoritmisch evolutionaire macht…

Een nieuwsbrief van Jarno Duursma over AI die zichzelf verbetert triggerde me. Niet omdat het nieuw was (iedereen die zich verdiept in AI denkt al jaren na over zelfverbeterende systemen) maar omdat het onderwerp plots toch weer urgent voelde. Niet theoretisch, maar tastbaar. AlphaEvolve van Google DeepMind (onderaan deze blog nader toegelicht) laat zien dat zelflerende algoritmes nu daadwerkelijk originele oplossingen produceren. AI die AI verbetert. Een grens is gepasseerd. En die grens schuurt met onze beheers-ambities ten aanzien van AI. Opmerkingen als: “Maar AI zal nooit…. en… We kunnen er toch altijd de stekker uit trekken?” getuigen slechts van een te simpele gedachte en niet van enig besef van de realiteit en wat ons te wachten staat…

We staan op een technologisch kantelpunt. Niet alleen qua rekenkracht of toepassing, maar qua machtsstructuur, kennisdefinitie en democratisch vermogen. In deze blog de maatschappelijke, ethische en geopolitieke impact van zelf-verbeterende AI. Want de vraag is niet óf dit invloed heeft, maar wié er aan het stuur zit (als er straks überhaupt nog een stuur ís…).

Een algoritme dat zichzelf herschrijft

AlphaEvolve, Gemini, FunSearch zijn systemen die code genereren, testen, optimaliseren – en daarbinnen nieuwe oplossingsstructuren ontdekken die mensen niet eerder bedachten. In sommige gevallen verbeteren ze klassieke wiskundige algoritmes, in andere gevallen vinden ze nieuwe moleculaire structuren of chip-ontwerpen die efficiënter, goedkoper of krachtiger zijn.

AI als ontdekkingsmachine. Dus niet een assistent, maar een initiator. Niet langer een feedback-machine, maar een evolutionair systeem dat eigen mutaties genereert en selecteert. Digitale Darwin in een datacenter is misschien de juiste metafoor. Geen volger, maar leider.. In het gunstigste geval zet het ons voor opdrachten om de gewenste nieuwe arbeid te verrichten (maken van door AI bedachte materialen, systemen etcetera… In het ongunstigste geval… laat je geest de vrije loop… ik weet natuurlijk ook niet waar dit eindigt!

De verleiding: snelheid, efficiëntie, doorbraak

De voordelen van AI zijn indrukwekkend. Denk aan snelheid, efficiëntie en het vermogen om tot elegante oplossingen te komen die voor mensen nog ondenkbaar zijn. Voeg daar de aanstaande kracht van quantumcomputers aan toe en de doorbraken lijken grenzeloos: nieuwe medicijnen, betere chips, radicaal efficiëntere logistiek, baanbrekend onderwijs, en duurzame materialen die vandaag nog onvoorstelbaar zijn. AI-systemen die in uren doen wat mensen decennia kost. Een onbekende hartafwijking opsporen, een eeuwenoud wiskundig bewijs leveren, een revolutionair bouwmateriaal ontwikkelen — we kunnen het nauwelijks bevatten.

Maar juist daar schuilt ook het risico: we verwarren effectiviteit met waarheid. Wat werkt, lijkt waar. En wat waar lijkt, krijgt automatisch autoriteit. Daarmee dreigt een glijdende schaal: beslissingen worden overgenomen door systemen die niet redeneren vanuit morele waarden, menselijk inzicht of culturele context, maar puur vanuit uitkomst en rendement.

Wordt efficiëntie daarmee een nieuwe waarheidsmaatstaf? Als een AI-model een technisch juiste oplossing aandraagt, zal het dan ook automatisch mede mogen bepalen? De mens verdwijnt zo deels uit het afwegingsproces. Niet omdat dat beter is — maar omdat het sneller is. En daarmee verandert fundamenteel hoe we tot besluiten komen, hoe we verantwoorden, en hoe we samenleven.

Dat is een gevaarlijke ontwikkeling. Wetenschap is groot geworden dankzij twijfel, niet dankzij zekerheid. Zodra we technische prestaties gelijkstellen aan morele of bestuurlijke legitimiteit, verliezen we de ruimte voor menselijke wijsheid — en daarmee ook onze vrijheid om tegen te spreken, te vertragen, of juist af te wijken van wat efficiënt lijkt.

Nu lijkt dit misschien een futiliteit — iets waarvan je denkt: “ach, dat houden we toch gewoon in de gaten?” Maar in werkelijkheid ligt het ingewikkelder. In steeds complexere processen, waarin AI zichzelf optimaliseert en versnelt, verdwijnt de mogelijkheid om menselijke nuance aan te brengen. Niet omdat we het niet zouden willen, maar omdat we het vaak niet meer kunnen.

We begrijpen de oplossing soms niet meer, maar zien slechts dát het werkt. En precies dát functionele succes kan dan zwaarder gaan wegen dan ethische of culturele overwegingen. Daarmee kantelt de situatie: we bevestigen het systeem, omdat het resultaat oplevert — terwijl we de morele controle langzaam uit handen geven.

Slecht twijfel brengt ons verder.

Wat weten we nog, als we het niet begrijpen: wat is kennis nog?

En precies dáár zit het risico. Want wat als we de oplossing niet begrijpen, maar ze wel accepteren? Wat weten we dan nog echt? Wat is kennis nog waard als we haar niet kunnen doorgronden?

Luciano Floridi noemt dit het verschil tussen informatie en betekenis. Machines genereren informatie — snel, efficiënt en vaak correct. Maar betekenis voor ons ontstaat pas in een ‘menselijke’ context: via interpretatie, debat, reflectie en twijfel. Als AI die tussenstappen overslaat, verandert fundamenteel wat wij ‘weten’ noemen.

Erger nog: zonder toetsbaarheid wordt waarheid een black box. Een model zegt dat iets zo is — en wij knikken. Niet omdat we overtuigd zijn, maar omdat het werkt. Dat is geen wetenschap meer, dat is technocratische overgave.

En ik vermoed: iedere democraat wil technologie inzetten, maar technocratie voorkomen. Er is meer in het leven dan wat werkt. Er zijn waarden die niet uit te rekenen zijn — en die moeten we, hoe dan ook, blijven beschermen.

Creativiteit als rekenmodel: bevrijding of reductie?

AI die creatief is – het klinkt hoopvol. Maar moeten we willen dat machines origineler zijn dan wij? Mijn eerste reactie is: waarom niet? Misschien ontdekken we zo iets wat we anders nooit zouden tegenkomen… Ik besef hierbij natuurlijk net als ieder ander dat daarmee de waarde van menselijke creativiteit een fundamentele knauw krijgt en we dan misschien juist het fundamentele menselijke van creatie: zingeving, context en ervaring verliezen?

Creativiteit reduceren tot patroonherkenning is efficiënt, maar ook reductionistisch. We maken kunst rationeel. En daarmee leeg. Met dat ik dit zo opschrijf denk ik trouwens ook “Da’s niet waar! Het is nog veel erger, we kennen de ratio achter haar creativiteit zelfs niet!” We weten daarmee dan eigenlijk ook niet meer wat creativiteit is en hoe we haar kunnen beoordelen. Moeilijk…moeilijk…

Politieke economie: de nieuwe tech-elite

De vraag “wie bestuurt AI?” komt neer op: wie bezit de infrastructuur? Wie heeft toegang tot de datasets, rekencapaciteit en het talent?

Antwoord: Google, Microsoft, Amazon, Nvidia. Niet overheden. Niet burgers. Niet universiteiten. Zelfverbeterende AI versterkt deze asymmetrie exponentieel. Wie één keer voorligt, versnelt zijn voorsprong. The Winner Takes It All – in intellectuele productie.

De AI-industrie is geen neutrale sector. Het is het nieuwe geopolitieke front. En zolang wetgeving traag en nationaal is, en tech internationaal en hyperadaptief, ligt de macht buiten bereik van democratische controle.

Milieu: AI als ecologische paradox

We prijzen AlphaEvolve om een energiebesparing van 0,7%. Maar wat kostte het om dat systeem te trainen? GPT-4 verbruikte 780.000 liter water tijdens training; AlphaFold miljoenen GPU-uren.

De ironie: we gebruiken megawatt-datacenters om duurzamer te worden. De nieuwe olie is ‘compute’. En die wordt net zo ongelijk verdeeld.

Antropologie: verdwijnen van de mens als norm

Zelfverbeterende AI roept een ongemakkelijke vraag op: wat blijft er over van menselijke uniciteit?

Als systemen creatiever, slimmer, sneller en beter afwegend zijn – is er dan nog een rationele reden om mensen beslissingen te laten nemen? Of worden we langzaam herleid tot consumenten van optimalisaties die elders plaatsvinden? Geoffrey Hinton (The Godfather of AI) ziet het als volgt…  

Yuval Noah Harari waarschuwde al: algoritmes die jou beter kennen dan jij jezelf, nemen autonoom de leiding over jouw leven. Niet door dwang, maar door suggestie. Je kiest wat het model aanbeveelt. Altijd. Omdat het werkt.

Juridisch vacuüm: aansprakelijkheid zonder actor

Een AI-systeem stelt een diagnose. Het ziekenhuis volgt het advies. Een patiënt overlijdt. Wie is aansprakelijk?

  • De ontwikkelaar van het model?
  • De arts die het advies opvolgde?
  • De dataset waarop het systeem getraind is?
  • Niemand?

We zitten in een juridisch vacuüm. Wetgeving gaat uit van intentie. Maar AI heeft geen intentie. Alleen output. En zonder uitleg is er geen toetsing.

Culturele homogenisering: optimalisatie als wereldbeeld

AI traint op dominante datasets: Engelstalig, westers, economisch georiënteerd. Wat niet in de data zit, blijft onzichtbaar.

Indiase geneeskunde, Afrikaanse cosmologie, queer theorie – het zijn anomalieën in een model dat zoekt naar gemiddelden. Cultuur wordt noise. Uniformiteit wordt doel. En dat noemen we vooruitgang.

Geopolitiek: algoritmen als wapen

China ontwikkelt eigen AGI-initiatieven. De VS subsidieert chips en taalmodellen. Europa schrijft hooguit beleidsdocumenten? De race om zelf-verbeterende AI is géén neutrale innovatie, maar strategische dominantie.

Toegang tot de beste AI betekent controle over innovatie, defensie, gezondheidszorg, energie, klimaat. Zelfverbeterende AI is de nieuwe atoombom: je hoeft hem niet te gebruiken – het feit dat je hem kunt maken, is macht genoeg.

Democratisch onvermogen: beleid als achterhoedegevecht

Wetgeving kost jaren; AI-iteraties duren dagen. Tussen wens en wet gaapt een afgrond.

We hebben geen model van anticiperend beleid. Geen ethische sandbox, geen publieke innovatieruimte, geen rekenkracht voor universiteiten. De publieke sector moddert, Big Tech jaagt.

We hebben wetenschappers die waarschuwen. Ethici die rapporten schrijven. Maar we missen infrastructuur. We missen regie. We missen lef.

Tot slot: nu of nooit

Stel je voor: in 2030 stelt een AI-systeem een diagnose. Het vindt iets nieuws. Het redt levens. Maar niemand begrijpt het. Niemand kan verifiëren of het klopt. Is dat vooruitgang? Of afhankelijkheid?

Zelfverbeterende AI is meer dan techniek; het is een nieuw systeem van kennis, macht en besluitvorming.

We moeten nu beslissen:

  • Willen we begrijpen, of alleen benutten?
  • Accepteren we afhankelijkheid van gesloten systemen?
  • Accepteren we een toekomst waarin technologie sneller beslist dan politiek kan nadenken?

De tijd van vrijblijvend toekijken is voorbij. Dit is geen sciencefiction meer. Dit is beleid, filosofie en verantwoordelijkheid – nu.

Een bezinning op ons mens-zijn: Arthur C Clarke heeft in de jaren zeventig van de vorige eeuw reeds zijn visie op de ontwikkeling gedeeld.

Wie denkt mee? Wie durft te remmen – of te sturen?

 

Jeroen Teelen

mei 0225

—————————

UITLEG AlphaEvolve

AlphaEvolve is een experimenteel AI-systeem van Google DeepMind dat voortbouwt op eerdere successen zoals AlphaZero en AlphaFold, maar een veel radicalere stap zet: het is ontworpen om zelf nieuwe algoritmes te genererenvia een proces dat lijkt op evolutionaire selectie. In plaats van simpelweg bestaande algoritmes te verbeteren, creëert AlphaEvolve duizenden varianten van oplossingsstrategieën, test deze op prestaties, en selecteert vervolgens de best werkende – een digitaal Darwinistisch proces.

Hoe werkt AlphaEvolve?

AlphaEvolve maakt gebruik van principes uit genetische algoritmes en reinforcement learning. Het systeem:

  1. Genereert varianten van een bestaand algoritme.

  2. Test die varianten op een specifieke taak (zoals matrixvermenigvuldiging).

  3. Selecteert de beste prestaties op basis van een doel (bijvoorbeeld snelheid, efficiëntie).

  4. Maakt nieuwe varianten op basis van de best presterende algoritmes.

  5. Herhaalt dit proces in een continue iteratieve cyclus.

Opmerkelijk is dat sommige door AI gegenereerde algoritmes beter presteren dan klassieke methoden die al decennialang als standaard gelden. Een sprekend voorbeeld is AlphaEvolve, dat een methode voor matrixvermenigvuldiging ontwikkelde die structureel één stap efficiënter was dan het beroemde Strassen-algoritme uit 1968 – een wiskundige mijlpaal destijds.

Waarom is dit zo significant?

  • Originele creatie: Het systeem genereert nieuwe kennis, niet alleen optimalisaties van bestaande methoden. Het komt met echt nieuwe inzichten en methoden.

  • Verplaatsing van menselijke rol: In plaats van dat een onderzoeker een algoritme bedenkt en test, doet AlphaEvolve dit autonoom en op grote schaal.

  • Toepasbaarheid: De methode is breed inzetbaar – van chipontwerp tot datastructuren – mits de doelstelling kwantificeerbaar is.

Kritische reflectie

AlphaEvolve toont aan dat AI niet langer een verlengstuk is van menselijk redeneren, maar zelfstandig kan exploreren en ontdekken. Dit roept vragen op over:

  • Begrijpelijkheid van de oplossingen (zijn ze nog uitlegbaar?).

  • Eigenaarschap (wie bezit de uitvindingen van een AI?).

  • Toepassingsmacht (wie beslist wat met deze algoritmes gebeurt?).

Bronnen

De informatie over AlphaEvolve is o.a. gebaseerd op:

  • Publicaties van DeepMind (2023–2024).

  • Artikelen in Nature, MIT Technology Review en The Verge.

  • Kritische reflecties van onderzoekers zoals François Chollet en Gary Marcus.

 

Jeroen Teelen

7 juni 2025

 

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.