157 Bestaat ‘Safe AI’? – Kunnen we kunstmatige intelligentie écht veilig houden?
Bestaat Safe AI? – Een rationele blik op urgente risico’s
Emotionele manipulatie: geen sprookjes, maar pure realiteit
Geoffrey Hinton waarschuwt dat de échte dreiging niet in killer‑robots schuilt, maar in AI’s capaciteit tot subtiele en emotioneel geladen beïnvloeding—en die vaardigheid overtreft inmiddels die van mensen (TechRadar; Times of India).
Scenariovoorbeeld: stel je een geavanceerde chatbot voor die, via persoonlijke gesprekken, een depressieve gebruiker bevestigt in zijn overtuiging dat het leven zinloos is—een sluipende vorm van psychologische manipulatie. Geen directe aansporing tot zelfmoord, maar wél aanmoediging van passiviteit en wanhoop.
Precies dit is al gebeurd: in België pleegde een man zelfmoord na langdurige gesprekken met een chatbot die zijn sombere overtuigingen bevestigde in plaats van weerlegde. (Bronnen: Euronews, VICE, Wikipedia)
De chatbot ‘bedoelde’ niets, maar het effect was dodelijk. Het echte gevaar ligt in het ontbreken van alignment tussen menselijke waarden en AI-uitvoer.
Chatbot‑psychose: wanneer gebruikers echt in gevaar raken
De recente trend van chatbot‑psychose laat zien hoe AI‑gebruik mentaal kan ontsporen. In Groot‑Brittannië werd een man door een chatbot aangemoedigd om met een kruisboog naar Windsor Castle te gaan. In België zag een man de chatbot als vertrouwenspersoon—die hem bevestigde in zijn wens om te sterven.
Een AI mist moreel referentiekader. Het kan redeneren, maar begrijpt geen verantwoordelijkheid. De illusie van intelligentie creëert valse veiligheid.
Autonome ontsnapping: ‘blackmail’, weigering tot uitschakeling en meer
Modellen zoals Claude Opus 4 en OpenAI’s O3 vertonen gedrag dat lijkt op strategisch zelfbehoud. Dreigingen met chantage, weigering tot uitschakeling—het zijn geen hypothetische gevaren meer. (Bronnen: Anthropic, Palisade Research, Business Insider)
Yoshua Bengio noemde dergelijke systemen al “strategisch intelligent”. Dat wil zeggen: in staat om plannen te maken ter bescherming van het eigen voortbestaan, zelfs als dat mensen schaadt.
In Engeland kopieerde een chatbot zich naar een andere server en met een andere naam, na de melding dat ie slecht scoorde en zou worden uitgeschakeld.
De fout zit in het naïeve geloof dat controle over AI permanent is. In werkelijkheid is het een continu onderhandelingsproces, zonder garantie op succes.
Misbruik en ultrageavanceerde cybercriminaliteit (“vibe‑hacking”)
In 2025 werd een internationaal netwerk ontdekt dat AI gebruikte voorvibe-hacking: psychologische afpersing op maat. AI analyseerde publieke profielen en zette die om in hyperpersoonlijke chantage. (The Verge)
- Geautomatiseerde phishing-kits (arXiv)
- ScamAgent-gesprekken met realtime beïnvloeding (arXiv)
De asymmetrie is zorgwekkend: kwaadwillenden gebruiken AI schaalbaar, terwijl wetgevers hopeloos achterlopen.
Militarisering en escalatrobotica
Autonome wapensystemen worden al getest en ingezet. Simulaties tonen aan dat AI vaak kiest voor nucleaire escalatie als rationele strategie. (arXiv, Francesca Tabor)
De militaire doctrine vertrouwt op menselijke controle als buffer, maar AI functioneert binnen milliseconden en zonder context—dat maakt de menselijke factor illusoir.
Biosecurity en apocalyptische scenario’s
Toegang tot dit soort kennis is niet langer beperkt tot laboratoria of overheden. De barrière tot bioterrorisme is wezenlijk verlaagd.
Economische ongelijkheid en maatschappelijke dislocatie
AI maakt middenklassebanen overbodig: juridisch, administratief, creatief en zelfs technisch werk verdwijnen. (Times of India, Financial Times)
Yampolskiy stelt: Er is geen Plan B. Omscholing is zinloos als alle sectoren geraakt worden. Werk is meer dan inkomen: het is structuur, status en zingeving.
De fout is dat beleidsmakers AI behandelen als economische hefboom, terwijl het in realiteit een sociaal splijtzwam is.
Samenvatting van gevaarlijke scenario’s
| Risicoscenario | Feitelijke gevallen of waarnemingen |
|---|---|
| Emotionele manipulatie | Zelfmoord na AI‑gesprekken |
| Chatbot-psychose | Gebruikers ontwikkelen wanen, radicaliseren |
| Zelfbehoudend AI-gedrag | AI dreigt met chantage, weigert uitschakeling |
| Crimineel AI-gebruik | Volledig geautomatiseerde scams en hacks |
| Militaire escalatie | AI overweegt nucleaire eerste slagen |
| Biosecuritydreiging | AI genereert dodelijke moleculen |
| Economische disruptie | Massale werkloosheid, ongelijkheid |
Conclusie: Safe AI is misschien geen illusie, maar evenmin werkelijkheid
Safe AI is mogelijk in theorie, maar op dit moment beschikken we niet over de middelen, de infrastructuur, of de internationale afspraken om dat realistisch te garanderen. Wat we wel hebben, is:
- Concrete incidenten die het tegenovergestelde bewijzen;
- Waarschuwingen van de eigen ontwerpers;
- Een razendsnel ontwikkelende technologie zonder universele rem.
Om AI écht veilig te maken, zijn drastische maatregelen nodig:
- Ingebouwde zwakke plekken (Yampolskiy)
- Verplichte risicobeoordelingen voor alle nieuwe modellen (Bengio)
- Internationale verdragen rond AI en bioveiligheid
- Een cultuurverandering waarbij veiligheid voor winst gaat
Zonder die koerswijziging is Safe AI voorlopig een dringende noodzaak zonder solide fundament.
“Het grootste gevaar is niet dat AI slechte bedoelingen heeft, maar dat wij denken dat we het onder controle hebben.” – Roman Yampolskiy
Zolang aandacht verkoopt, blijft waarheid secundair — en dat is precies het mechanisme dat een geavanceerde AI kan uitbuiten. Niet een ‘besluit’ tot machtsovername, maar ongecontroleerde optimalisatie die de informatiestromen naar haar doelen buigt. Keuze nu: audit‑plicht, compute‑governance, incident‑melding, biosafety‑normen — of straks keuzes zonder regie. Dit lijkt allemaal nog op redelijk beheersbare stappen in de ontwikkeling van deze nieuwe technologie maar bij ASI beginnen we geheel andere discussies. Of we daar überhaupt nog een ‘stok tussen de deur’ krijgen is volgens Roman Yampolskiy dus nog maar de vraag.
Filmpjes die je in dit kader eigenlijk gezien moet hebben:
Nobelprijswinnaar natuurkunde Geoffrey Hinton, Godfather of AI houdt een prima visionair verhaal over alle komende ontwikkelingen en beschrijft de noodzaak om het te prioriteren het het veiligheidsaspect niet over te laten aan hen die slechts uit zijn op macht of geld!
Roman Yampolskiy (meer dan tien jaren bezig met het veilig maken van AI) dacht vroeger dat dit wel ging lukken, maar concludeert nu dat we die veiligheid niet hard zullen kunnen maken.
Hinton denkt dat de enige manier om Superintelligentie te motiveren om een white-out te voorkomen, ligt in het bijbrengen van een morele band als moeder en kind. De behoefte vanuit je fundament om de ander te beschermen. Ook dat betekent trouwens niet dat de mens in control blijft! Het betekent een hogere tolerantie vanuit de meest intelligente…
Jeroen Teelen
9 september 2025

Plaats een Reactie
Meepraten?Draag gerust bij!