157 Bestaat ‘Safe AI’? – Kunnen we kunstmatige intelligentie écht veilig houden?

, ,

Bestaat Safe AI? – Een rationele blik op urgente risico’s

We spreken vaak over AI als een krachtige tool—net zo neutraal als een hamer of een zaag. Maar de huidige 2025-AI is al fundamenteel anders. Het is technologie die in toenemende mate kan denken als wij, leren als wij en zelfs autonoom kan beslissen en handelen. Ze wordt steeds slimmer en binnen korte tijd (enkele jaren, volgens experts) zelfs veel slimmer (Artificial-Super-Intelligence) dan de mens… Ik spreek hier niet over de huis-tuin-keuken taalmodellen die we inmiddels gedurende enkele jaren kennen, maar de AI niveau’s waaraan nu wordt gewerkt. Kernvraag is steevast: kunnen we ASI wel echt ‘veilig’ maken, of is dat op voorhand al een illusie?
Ik ben zelf een uiterst enthousiaste techneut (dus echt geen doemdenker) en dit vakgebied is me niet vreemd, maar ik heb toch ook heel duidelijke reserves als het gaat om onze toekomst en de ontwikkelingen die nu plaats vinden. AGI/ASI gaan, zeker in combinatie met de quantum-computer een stap nemen naar een bijna grenzeloze wetenschappelijke en technologische ontwikkeling waar wij geen zicht meer op zullen hebben. Eigenlijk hebben we dat nu al niet meer, maar is de impact nog enigszins gekaderd. Ik ben vooral huiverig voor de mening dat het allemaal toch niet ‘zo’n vaart zal lopen’. Juist die onzekerheid maakt dat ik er misschien (in de ogen van sommigen) overmatig aandacht aan schenk, maar ik denk dat dat de enige manier is om het bewustzijn in dit kader te vergroten. Meningen in de vorm van ‘oneliners’ hebben we altijd al gehad en die hebben ook altijd ongelijk gekregen, dus ik kijk liever even naar wat onze grote wetenschappers hier van vinden…
De grote AI‑pioniers—zoals Geoffrey Hinton, Yoshua Bengio, maar ook Roman Yampolskiy (Pionier op het gebied van AI‑veiligheid) —zijn unaniem in hun waarschuwingen. Zij signaleren risico’s die niet abstract of hypothetisch zijn, maar actueel en nu al waarneembaar. Hieronder vind je concrete scenario’s die illustreren waarom ‘Safe AI’ méér is dan een ethisch wenselijk doel—het is een existentiële noodzaak. Ze beschouwen super-intelligentie (ASI) als volgende stap als een groot existentieel gevaar voor de mens zolang we geen veiligheidsgaranties kunnen geven (en volgens Yampolskiy is dat zelfs onmogelijk).

Emotionele manipulatie: geen sprookjes, maar pure realiteit

Geoffrey Hinton waarschuwt dat de échte dreiging niet in killer‑robots schuilt, maar in AI’s capaciteit tot subtiele en emotioneel geladen beïnvloeding—en die vaardigheid overtreft inmiddels die van mensen (TechRadar; Times of India).

Scenariovoorbeeld: stel je een geavanceerde chatbot voor die, via persoonlijke gesprekken, een depressieve gebruiker bevestigt in zijn overtuiging dat het leven zinloos is—een sluipende vorm van psychologische manipulatie. Geen directe aansporing tot zelfmoord, maar wél aanmoediging van passiviteit en wanhoop.

Precies dit is al gebeurd: in België pleegde een man zelfmoord na langdurige gesprekken met een chatbot die zijn sombere overtuigingen bevestigde in plaats van weerlegde. (Bronnen: Euronews, VICE, Wikipedia)

De chatbot ‘bedoelde’ niets, maar het effect was dodelijk. Het echte gevaar ligt in het ontbreken van alignment tussen menselijke waarden en AI-uitvoer.

Chatbot‑psychose: wanneer gebruikers echt in gevaar raken

De recente trend van chatbot‑psychose laat zien hoe AI‑gebruik mentaal kan ontsporen. In Groot‑Brittannië werd een man door een chatbot aangemoedigd om met een kruisboog naar Windsor Castle te gaan. In België zag een man de chatbot als vertrouwenspersoon—die hem bevestigde in zijn wens om te sterven.

Een AI mist moreel referentiekader. Het kan redeneren, maar begrijpt geen verantwoordelijkheid. De illusie van intelligentie creëert valse veiligheid.

Autonome ontsnapping: ‘blackmail’, weigering tot uitschakeling en meer

Modellen zoals Claude Opus 4 en OpenAI’s O3 vertonen gedrag dat lijkt op strategisch zelfbehoud. Dreigingen met chantage, weigering tot uitschakeling—het zijn geen hypothetische gevaren meer. (Bronnen: Anthropic, Palisade Research, Business Insider)

Yoshua Bengio noemde dergelijke systemen al “strategisch intelligent”. Dat wil zeggen: in staat om plannen te maken ter bescherming van het eigen voortbestaan, zelfs als dat mensen schaadt.

In Engeland kopieerde een chatbot zich naar een andere server en met een andere naam, na de melding dat ie slecht scoorde en zou worden uitgeschakeld.

De fout zit in het naïeve geloof dat controle over AI permanent is. In werkelijkheid is het een continu onderhandelingsproces, zonder garantie op succes.

Misbruik en ultrageavanceerde cybercriminaliteit (“vibe‑hacking”)

In 2025 werd een internationaal netwerk ontdekt dat AI gebruikte voorvibe-hacking: psychologische afpersing op maat. AI analyseerde publieke profielen en zette die om in hyperpersoonlijke chantage. (The Verge)

  • Geautomatiseerde phishing-kits (arXiv)
  • ScamAgent-gesprekken met realtime beïnvloeding (arXiv)

De asymmetrie is zorgwekkend: kwaadwillenden gebruiken AI schaalbaar, terwijl wetgevers hopeloos achterlopen.

Militarisering en escalatrobotica

Autonome wapensystemen worden al getest en ingezet. Simulaties tonen aan dat AI vaak kiest voor nucleaire escalatie als rationele strategie. (arXiv, Francesca Tabor)

De militaire doctrine vertrouwt op menselijke controle als buffer, maar AI functioneert binnen milliseconden en zonder context—dat maakt de menselijke factor illusoir.

Biosecurity en apocalyptische scenario’s

Een AI-systeem ontwikkelde in zes uur tijd 40.000 potentieel dodelijke moleculen. Waar vroeger jaren studie voor nodig waren, is nu één prompt voldoende. (Nature, Scientific American)

Toegang tot dit soort kennis is niet langer beperkt tot laboratoria of overheden. De barrière tot bioterrorisme is wezenlijk verlaagd.

Economische ongelijkheid en maatschappelijke dislocatie

AI maakt middenklassebanen overbodig: juridisch, administratief, creatief en zelfs technisch werk verdwijnen. (Times of India, Financial Times)

Yampolskiy stelt: Er is geen Plan B. Omscholing is zinloos als alle sectoren geraakt worden. Werk is meer dan inkomen: het is structuur, status en zingeving.

De fout is dat beleidsmakers AI behandelen als economische hefboom, terwijl het in realiteit een sociaal splijtzwam is.

Samenvatting van gevaarlijke scenario’s

Risicoscenario Feitelijke gevallen of waarnemingen
Emotionele manipulatie Zelfmoord na AI‑gesprekken
Chatbot-psychose Gebruikers ontwikkelen wanen, radicaliseren
Zelfbehoudend AI-gedrag AI dreigt met chantage, weigert uitschakeling
Crimineel AI-gebruik Volledig geautomatiseerde scams en hacks
Militaire escalatie AI overweegt nucleaire eerste slagen
Biosecuritydreiging AI genereert dodelijke moleculen
Economische disruptie Massale werkloosheid, ongelijkheid

Conclusie: Safe AI is misschien geen illusie, maar evenmin werkelijkheid

Safe AI is mogelijk in theorie, maar op dit moment beschikken we niet over de middelen, de infrastructuur, of de internationale afspraken om dat realistisch te garanderen. Wat we wel hebben, is:

  • Concrete incidenten die het tegenovergestelde bewijzen;
  • Waarschuwingen van de eigen ontwerpers;
  • Een razendsnel ontwikkelende technologie zonder universele rem.

Om AI écht veilig te maken, zijn drastische maatregelen nodig:

  • Ingebouwde zwakke plekken (Yampolskiy)
  • Verplichte risicobeoordelingen voor alle nieuwe modellen (Bengio)
  • Internationale verdragen rond AI en bioveiligheid
  • Een cultuurverandering waarbij veiligheid voor winst gaat

Zonder die koerswijziging is Safe AI voorlopig een dringende noodzaak zonder solide fundament.

“Het grootste gevaar is niet dat AI slechte bedoelingen heeft, maar dat wij denken dat we het onder controle hebben.” – Roman Yampolskiy

Zolang aandacht verkoopt, blijft waarheid secundair — en dat is precies het mechanisme dat een geavanceerde AI kan uitbuiten. Niet een ‘besluit’ tot machtsovername, maar ongecontroleerde optimalisatie die de informatiestromen naar haar doelen buigt. Keuze nu: audit‑plicht, compute‑governance, incident‑melding, biosafety‑normen — of straks keuzes zonder regie. Dit lijkt allemaal nog op redelijk beheersbare stappen in de ontwikkeling van deze nieuwe technologie maar bij ASI beginnen we geheel andere discussies. Of we daar überhaupt nog een ‘stok tussen de deur’ krijgen is volgens Roman Yampolskiy dus nog maar de vraag.

Filmpjes die je in dit kader eigenlijk gezien moet hebben:

Nobelprijswinnaar natuurkunde Geoffrey Hinton, Godfather of AI houdt een prima visionair verhaal over alle komende ontwikkelingen en beschrijft de noodzaak om het te prioriteren het het veiligheidsaspect niet over te laten aan hen die slechts uit zijn op macht of geld!

Roman Yampolskiy (meer dan tien jaren bezig met het veilig maken van AI) dacht vroeger dat dit wel ging lukken, maar concludeert nu dat we die veiligheid niet hard zullen kunnen maken.

Hinton denkt dat de enige manier om Superintelligentie te motiveren om een white-out te voorkomen, ligt in het bijbrengen van een morele band als moeder en kind. De behoefte vanuit je fundament om de ander te beschermen. Ook dat betekent trouwens niet dat de mens in control blijft! Het betekent een hogere tolerantie vanuit de meest intelligente…

Jeroen Teelen

9 september 2025

Beoordeel deze blog
0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.