176 Waarschuwing Artificial-Super-Intelligentie: Het Montreal Protocol dat we nog niet hebben!
Waarschuwing Artificial-Super-Intelligentie:
Het Montreal Protocol dat we nog niet hebben!
Connor Leahy waarschuwt het Canadese parlement voor superintelligentie — en wij behandelen het in Nederland nog als een debat-clubje?
Misschien kunnen we het als klein land niet beïnvloeden maar dat gold ook voor het Ozon-Gat in de jaren tachtig… De ASI-dreiging is van een andere aard, maar minstens zo bedreigend!
Een waarschuwing aan het Canadese parlement over superintelligente AI
Op 1 december 2025 klonk een opvallende waarschuwing in het Canadese parlement. Connor Leahy, directeur van het AI-bedrijf Conjecture en adviseur bij ControlAI, sprak de ETHI-commissie toe – een parlementaire commissie die zich bezighoudt met privacy en ethiek.
Het onderwerp? Geen alledaagse AI-toepassingen zoals deepfakes of medische software, maar iets veel ingrijpenders: Artificial-Super-Intelligence (ASI) die volgens insiders binnen 4 a 5 jaren gerealiseerd zal worden.
Wat is ASI precies?
ASI zijn computersystemen die mensen op vrijwel alle denkgebieden overtreffen. Niet alleen bij schaken of rekenwerk, maar bij alle belangrijke cognitieve taken. Het gaat dus om systemen die heel veel slimmer zijn dan wij en zichzelf blijven verbeteren.
Waarom is dit urgent?
Het grote gevaar: als zulke systemen eenmaal buiten menselijke controle gaan handelen, kunnen ze een bedreiging vormen voor het voortbestaan van de mensheid zelf. En nee… de stekker kan er niet uit! In combinatie met autonome robots die met meer zintuigen dan wij, ook nog veel sneller zullen leren, is het einde zoek…
Dit klinkt misschien als sciencefiction, maar Leahy staat niet alleen met deze zorgen. Op 30 mei 2023 publiceerde het Center for AI Safety een statement waarin het woord “extinction” (uitsterven) letterlijk wordt genoemd. Dit statement is ondertekend door honderden toonaangevende AI-experts en leiders uit het vakgebied – mensen die dagelijks met deze technologie werken en precies weten wat er speelt. The Godfather of AI, Geoffrey Hinton (Nobelprijs natuurkunde 2024), voorspelde deze problematiek (inclusief de potentiële extinctie).
Het gaat dus niet om loze bangmakerij, maar om een serieuze waarschuwing vanuit het hart van de AI-gemeenschap zelf, terwijl publiek en politiek dit nog niet op waarde kunnen schatten en daar dus ook naar handelen.
De waarde van Leahy’s getuigenis zit niet in één doemscenario. Het zit in de bestuurlijke paradox die hij blootlegt: we nemen hierdoor een groot risico dat we ook maar één keer kunnen testen. Als we het fout hebben, is er geen tweede kans.
Wie mijn reeks over de maatschappelijke gevolgen van AI door big tech en de Infrastructuur van Waarheid volgt, herkent de essentie: dit is geen smaakdiscussie over technologie. Dit is een macht- en legitimiteitsvraag: Wie mag namens ons allemaal onomkeerbare risico’s nemen — en waarom laten we private partijen beslissen over risico’s die de hele mensheid raken? In 2025 loopt de AI-wedkamp bij de grootste techbedrijven in de orde van honderden miljarden dollars aan datacenter- en AI-infrastructuur-uitgaven. Dat tempo is bestuurlijk relevant, omdat controle, publiek verifieerbare audits en aansprakelijkheid niet vanzelf meegroeien met investeringsdruk en geopolitieke competitie. Het gaat allemaal veel te snel om bestuurlijk te kunnen volgen. Het vraagt daarom om pro=actief handelen zolang het nog kan.
1) Een pijnlijke analogie: het ozongat
Leahy opent zijn toespraak met 1985: het “gat in de hemel” (ozonafbraak). Midden in de Koude Oorlog kwamen rivalen toch tot een wereldwijd akkoord: het Montreal Protocol (1987). Zijn les: sommige risico’s zijn zó groot dat je ze niet aan marktlogica of “later reguleren” overlaat; dan organiseer je internationale afspraken vóórdat schade onomkeerbaar wordt.
Dit is geen nostalgie. Het Montreal Protocol is een schoolvoorbeeld van voorzorg bij een wereldwijd systeemrisico. UNEP
2) Wat bedoelt hij met superintelligentie (ASI)?
Leahy definieert superintelligentie als AI die competenter is dan alle mensen in alle relevante cognitieve taken en domeinen (wetenschap, economie, overtuigen, politiek, cyber, oorlogvoering) bij elkaar — met als kernprobleem dat zo’n systeem buiten menselijke controle over situaties kan oordelen en handelen.
De crux is dus niet “AI is slim”, maar: macht + autonomie + snelheid + onomkeerbaarheid. Als zo’n systeem eenmaal bestaat, kun je “de geest niet terug in de fles stoppen.”
3) Het 3%-probleem: we bouwen iets wat we zelf niet meer begrijpen!
Een tweede kernpunt is technisch, maar politiek explosief: moderne AI wordt niet “regel voor regel” geprogrammeerd, maar getraind. Gedrag ontstaat uit data en rekenkracht, niet uit expliciete menselijke logica. Leahy verwijst naar het idee dat we misschien maar een klein deel begrijpen van hoe zulke systemen intern werken (hij noemt het “3%” en vindt zelfs dat optimistisch).
Wij trainen met data (statistische basis als bijvoorbeeld ChatGPT) en daar zit alleen het gevaar van bias en gekleurdheid, daarnaast geven we deze systemen ook doelen mee. Denk aan minder energiegebruik, sneller kunnen antwoorden etcetera, factchecking alleen bij …. Kortom we leggen ook afwegingen bij die systemen zelf. Vervolgens bemerkt het systeem zelf onvolkomenheden in zijn programma’s en programmeert zelf aanpassingen ‘tweaks’ om zich te verbeteren. Nieuwe doelen maken weer… enz enz… en er ontstaan systemen waarvan we niet meer weten hoe ze werken en hoe ze afwegingen maken… Voeg dat toe aan alle ontwikkelingen op het gebied van zelf lerende Robots met meer sensoren als wij zintuigen hebben en we hebben straks een nieuwe ‘levensvorm’ geschapen die ver boven ons staat in (misschien wel) alle opzichten. Ik heb hierover in april 2023 reeds een blog geschreven, maar de teneur bij bevriende wetenschappers was “dat geloof ik niet”. Het werd beschouwd als overmatige bezorgdheid.
Leahy is in zijn voorbeelden scherp en rationeel: we zouden geen kerncentrale bouwen als we 97% van het proces niet begrepen en geen controlemechanismen hadden — maar bij frontier-AI bewegen we wél in die richting. Dit is de eerste plek waar beleidsmakers vaak wegkijken onder het mom: “dat is technisch.” Nee, dit is governance: je zet een systeem in de wereld dat macht kan accumuleren, terwijl je niet weet hoe je het betrouwbaar begrenst.
4) Twee risicoklassen die we structureel door elkaar halen
In de vragen die volgen maakt Leahy een onderscheid dat het debat op orde brengt:
Prozaïsche risico’s (nu):
Fraude, deepfakes, cybermisbruik, bias, reputatieschade. → Hier werkt toepassingsregulering (normen, toezicht, handhaving) en stevige aansprakelijkheid.
Existentiële risico’s (straks / mogelijk sneller dan men denkt):
Systemen die niet meer beheersbaar zijn. → Hier moet je reguleren op ontwikkeling (“capabilities”), omdat na de doorbraak corrigeren wellicht onmogelijk is.
Dit onderscheid maakt een einde maakt aan het standaard bestuurlijk rookgordijn: “we doen toch al iets aan AI?” Ja — vaak aan toepassingen. Leahy’s waarschuwing gaat juist over wat je bouwt, niet alleen over wat je ermee doet.
5) De wapenwedloop-redenering is een val
Het voorspelbare tegenargument: “Als wij remmen, doet China (of Rusland, of de VS) het wel.” Leahy’s antwoord is messcherp: in het superintelligentie-regime verliest iedereen. Als een land iets bouwt dat het zelf niet kan beheersen, is dat geen strategisch voordeel maar collectieve zelfbeschadiging — ook voor de maker.
Met andere woorden: dit is geen wapenwedloop die je kunt winnen; het is er één die je alleen kunt verliezen.
6) “Blame the user” is de standaardtruc — en het mag niet werken
Een van de meest bruikbare passages gaat niet over apocalyps, maar over aansprakelijkheid. Leahy waarschuwt voor de reflex om schade af te schuiven op eindgebruikers (“misbruik”). Zijn lijn: leg aansprakelijkheid in de keten bij de partij die de schade het best kan voorkomen: developer/deployer, niet de eindgebruiker.
Een simpele analogie: als een farmaceut een middel op de markt brengt dat dodelijk blijkt, zeggen we niet: “patiënten hadden beter moeten lezen.” Dan is de ontwikkelaar aansprakelijk. Zolang de businesscase is: winst privatiseren, schade socialiseren, blijft “veiligheid” een marketingwoord.
7) Drie aanbevelingen — en de vraag die politici niet mogen ontwijken
Leahy’s beleidsadvies aan Canada is radicaal geformuleerd, maar conceptueel eenvoudig:
- Erken ASI publiek als nationale en mondiale veiligheidsdreiging.
- Werk aan een internationaal akkoord, zoals Montreal of non-proliferatieafspraken.
- Voorkom ontwikkeling op eigen grondgebied (ten minste tot er wetenschappelijke consensus is dat het veilig kan). Hiernaar wordt namelijk ook al meer dan tien jaren gezocht en er is nog steeds geen positieve uitkomst.
Je kunt dit “onhaalbaar” noemen. Maar dat is afwentelen en geen serieuze analyse. De echte bestuursvraag is: welke heldere grenzen maken het wél uitvoerbaar en handhaafbaar? Wat bedoelen we precies met de AI-voorlopers die de ASI doelen nastreven? Vanaf welke rekenkracht? Welke vormen van autonomie of zelfstandig handelen tellen mee? En hoe toets en handhaaf je dat: met welke verplichte tests en audits, en met welke sancties als iemand de grens overschrijdt?
8) Kritische noot:
Zijn verhaal is dus zeer sterk, maar natuurlijk niet onfeilbaar. Echter, daar komen we misschien te laat achter. Het is geen reden om het gelijk of ongelijk af te wachten en dan met de problemen te zitten. De onomkeerbaarheid van de uitkomst moeten voldoende incentives geven om wetgeving vóór te zijn en risico’s te beperken.
Governancevraag:
Private ontwikkelaars en investeerders nemen beslissingen die publieke, mondiale risico’s kunnen creëren.
Daarbij is veel kwetsbaar en onzeker: tijdlijnen (“rond 2030”) zijn inschattingen, geen metingen. En begrippen schuiven: “superintelligentie” is geen keurmerk met een meetlint. Bovendien: een fixatie op doemscenario’s kan echte schade nu uit beeld duwen—machtconcentratie, surveillance, bias en desinformatie zijn terechte zorgen. WIRED
Maar onzekerheid is hier geen vrijbrief om niets te doen. Bij systeemrisico’s is onzekerheid juist een reden voor voorzorg, niet voor gokken. Dat vraagt om een nuchtere agenda voor NL/EU, juridisch vormbaar en bestuurlijk uitvoerbaar:
- Transparantie rond frontloper-modellen (capaciteiten, tests, incidenten).
- Onafhankelijke audits als wettelijke norm, niet vrijwillig.
- Aansprakelijkheid expliciet bij ontwikkelaars én gebruikers.
- Vergunningen voor de zwaarste modelontwikkeling, met compute-drempels.
- Internationale coördinatie, naar het Montreal-principe: grenzen en veiligheidsstandaarden afspreken en handhaven. ozone.unep.org+1
Een concrete stap zonder activistische toon: organiseer in Nederland een hoorzitting in de stijl van ETHI (Ottawa), met één kernvraag: welke drempels, bevoegdheden en handhaving horen bij frontier-ontwikkeling?ourcommons.ca+2ourcommons.ca+2
Jeroen Teelen
19 december 2026

Plaats een Reactie
Meepraten?Draag gerust bij!