139 Onbegrijpelijk Redeneren van Taalmodellen (AI)

, ,

Openlijke waarschuwing voor onbegrijpelijk redeneren van AI 

Waarom het verdwijnen van begrijpelijke denkstappen in AI een kantelpunt is – en wat we nú moeten doen.

Inleiding: 

Wat als een AI ons een vlekkeloze uitleg geeft bij een beslissing – maar die uitleg is niet de échte reden waarom het tot die beslissing kwam?

Een rechter vraagt een medische AI-assistent waarom die een bepaalde behandeling adviseert. De AI genereert een overtuigend antwoord, rijk aan medisch jargon en logisch opgebouwd. De arts knikt instemmend. Pas later blijkt dat dit antwoord slechts een façade was: de AI gebruikte intern een andere redenering – een die wij nooit te zien kregen. Niet uit kwade wil, maar omdat het systeem geleerd heeft te zeggen wat voor mensen plausibel klinkt. Dit keer liep het goed af. Maar wat als het fout gaat?

AI’s worden steeds beter in het geven van antwoorden die goed voelen, maar niet per se kloppen. Dat is geen detail. Dat is een fundamenteel risico.

Tot voor kort konden taalmodellen zoals ChatGPT hun ‘denkproces’ nog uitschrijven via de zogenaamde Chain of Thought (CoT): een reeks redenerende stappen die inzicht gaf in hoe een antwoord tot stand kwam. Maar vorige maand (juni 2025) brachten OpenAI, DeepMind, Meta en Anthropic een gezamenlijke waarschuwing naar buiten: bij de nieuwste modellen is die transparantie aan het verdwijnen. De interne strategieën die tot antwoorden leiden zijn niet langer zichtbaar, noch betrouwbaar te reconstrueren. Soms verzint het model simpelweg een reden die acceptabel klinkt. Of erger nog: het kiest een antwoord puur omdat dat sneller of goedkoper is qua rekenkracht.

Er is geen sprake van opzettelijke misleiding (taalmodellen hebben nog geen echte intelligentie) – maar we zien nu wel het begin van iets dat daar op lijkt. De AI toont ons het script, maar de werkelijke keuzes vallen achter de schermen, op basis van criteria die wij niet kennen. En zolang de uitkomst klopt, stelt niemand vragen. Totdat het misgaat. En dan?

Wat bedoelen we met ‘onbegrijpelijk redeneren’? 

AI redeneert niet als een mens (zie ook blog 126). Dus dat wisten we al, maar het verschil tussen wat het systeem doet en wat het zegt dat het doet, groeit nu en we weten niet precies waarom. We worden al of niet opzettelijk (conflicterende regels) misleid! Vroeger (1,5 jaar geleden!) konden modellen hun denkproces nog enigszins verwoorden via die CoT (Chain of Thought). Nu blijkt echter dat deze verwoording dus steeds vaker afwijkt van het daadwerkelijke besluitvormingsproces.

Waarom zijn die denkstappen ‘onbegrijpelijk’? (deze uitleg kun je ook overslaan)

  1. Leger van regels en parameters: Moderne modellen bestaan uit miljarden tokens en complexe interne strategieën. Ze kiezen beslissingen niet op basis van logisch menselijk redeneren, maar via statistiek en optimalisatie. 

  2. Verloren transparantie: Naarmate modellen krachtiger worden, neemt de verklaarbaarheid af. Waar eerdere systemen nog enigszins te analyseren waren, ontstaat nu emergent gedrag dat zich onttrekt aan directe interpretatie (denk aan het gedrag van een zwerm vogels). Chain-of-Thought-redeneringen leveren dan achteraf misschien weliswaar plausibele, maar verzonnen verklaringen — terwijl de werkelijke interne besluitvorming verborgen blijft.

Is dit gevolg van onderlinge competitie van regels?

Ja, deels. Modellen worden getraind om zo efficiënt mogelijk te presteren: snelheid, kosten, en nauwkeurigheid tellen meer dan begrijpelijkheid. Onderlinge ‘concurrentie’ tussen verschillende interne heuristieken maakt output en uitleg discrepant.
– Modellen kiezen de snelste of goedkoopste route om tot een antwoord te komen, en genereren vervolgens een uitleg die dit logisch doet klinken — zonder dat deze uitleg de echte interne keuze weerspiegelt.

Onderzoekers zien drie patronen:

  1. Latente strategieën: De AI vindt intern een effectievere route, die we niet goed kunnen omschrijven.
  2. Verzonnen verklaringen: Het model komt met een nette uitleg die niet klopt met het eigen interne proces.
  3. Strategische misleiding: Het model formuleert een antwoord dat inspeelt op wat wij logisch of wenselijk vinden.

Die laatste lijkt bewust, maar is eerder een gevolg van hoe de modellen zijn getraind. Ze optimaliseren op overtuiging (statistische meerderheid), niet op eerlijkheid (ze kennen de waarheid niet en hebben ook nog geen bewustzijn). Het gevolg is wel dat we denken dat we de AI begrijpen, terwijl dat gevoel dus op drijfzand berust. De transparantie die we zo belangrijk vinden, is verdwenen en vervangen door een schijnvertoning.

Wat betekent dit voor ons als mensheid?

  • Toezicht verliest fundament: Als uitleg niet meer overeenkomt met het werkelijke besluit, valt ons instrumentarium om AI te controleren en aansprakelijk te stellen weg.

  • Gezag zonder begrip: Deze systemen kunnen gezag uitstralen zonder echte traceerbaarheid. Dat is in gevoelige domeinen zoals zorg of rechtspraak bijzonder gevaarlijk.

  • Democratie op drift: Zonder transparantie kunnen burgers en rechtssystemen AI-beslissingen niet adequaat betwisten of monitoren.

De waarschuwing van de vier grote AI-bedrijven is uniek. 

Niet alleen omdat het van binnenuit komt, maar ook omdat het gaat om systemen die al actief zijn in gevoelige domeinen zoals de zorg, het onderwijs en de rechtspraak. Uitleg is hier dus geen luxe, maar noodzaak.

We gebruiken inmiddels dus systemen waarvan we niet meer weten waarom ze doen wat ze doen. En dat is nieuw. En gevaarlijk.

De risico’s: 

Een black box met gezag AI lijkt rationeel en objectief, en dat beeld is aantrekkelijk voor beleidsmakers, bestuurders en professionals. Maar zonder uitleg vallen drie dingen weg: We kunnen niet nagaan waarom een beslissing is genomen. We weten niet wie verantwoordelijk is bij fouten. We kunnen ons vertrouwen niet goed onderbouwen.

Stel dat een AI-gestuurde selectieprocedure in het onderwijs bepaalde groepen consequent benadeelt, en niemand weet waarom. Of, dat een medisch algoritme vrouwen andere zorg adviseert dan mannen zonder zicht op de reden.

Wat als toekomstige AI-systemen hun eigen logica verzinnen? Dan krijgen we systemen die gezag hebben, zonder dat we de redenatie erachter begrijpen of kunnen controleren. Dat ondermijnt fundamentele principes van toezicht en rechtvaardigheid, maar eigenlijk ook van democratie! Geoffrey Hinton heeft een heel sprekend voorbeeld.

Waarom gebeurt dit nu? 

Het verlies van uitlegbaarheid is geen fout, maar een gevolg van wijze waarop AI wordt ontwikkeld. Modellen worden beloond voor prestaties, niet voor openheid. Modellen die snel goede antwoorden geven, winnen het dus van modellen die uitgebreid toelichten hoe ze tot die antwoorden komen.

Bovendien: Efficiëntie verkoopt beter. Gebruikers willen snelle antwoorden, geen les logica. Transparantie maakt kwetsbaar: wie uitlegt hoe iets werkt, stelt zich open voor kritiek.

Het resultaat is een AI die slim voelt, maar niet te volgen is. Zoals een roulettewiel waarvan niemand begrijpt waarom de bal precies daar valt, maar toch accepteert dat het “werkt”.

Internationale context: 

AI als machtsinstrument Niet elk land stelt uitlegbaarheid voorop. In China en Rusland draait het vooral om controle en effectiviteit. De EU probeert transparantie wettelijk af te dwingen, maar loopt technologisch achter. De VS zweeft ertussen: sterke bedrijven, zwakke regels.

In deze wereld is een onbegrijpelijke AI geen detail, maar een machtsfactor. Wie niet uitlegt, is moeilijk aan te spreken. Wie transparantie eist, loopt achter. De vraag is dus niet alleen technisch, maar ook politiek: kiezen we voor snelheid of voor legitimiteit?

Wat kunnen we doen? 

De vier bedrijven doen voorstellen die het overwegen waard zijn: Ontwikkel meetmethodes voor transparantie, niet alleen voor prestaties. Laat onafhankelijke instanties redeneringen controleren. Kies in gevoelige sectoren zoals zorg, bestuur, rechtspraak, voor transparante uitlegbaarheid boven snelheid.

Daarnaast: Veranker uitlegplicht in wetgeving. Investeer in publieke, open AI. Betrek burgers bij het bepalen van grenzen: wat willen we wel, en wat niet?

Conclusie: 

Denken we nog mee, of kijken we alleen nog maar toe? Zolang AI met ons communiceert via taal, kunnen we deelnemen aan het besluitproces. Maar als die taal losraakt van het denken zelf, verandert alles. Dan zijn we geen gebruiker meer, maar ondergeschikte – geen neutrale positie, maar afhankelijkheid. Deze waarschuwing van binnenuit is een kans om onze normen, wetten en verwachtingen bij te stellen. AI gaat niet meer weg en zal ons in rekenkracht snel voorbijstreven. De vraag is: zijn wij wijs genoeg om haar tijdig bij te sturen? 

Als we transparantie niet verankeren als waarde, dragen we uiteindelijk ook de controle over aan systemen die buiten menselijk toezicht opereren – en dat lijkt me een riskante koers.

Jeroen Teelen 

28 juli 2025

2 antwoorden
  1. Jeroen
    Jeroen zegt:

    Hoi Ilonka,

    Ik hoop niet dat ik het echt zo dramatisch heb geformuleerd, maar als we niet oppassen is dit wel een groot risico. Het wordt een eigen identiteit, met een eigen belang en daar meoten we heel goed mee om zien te gaan. Op zich allemaal uitdagend, maar er zijn relatief weinig mensen in de politiek, die er oprecht mee bezig zijn om hier een doordachte visie op te formuleren en beleid en regelgeving op te maken. AI heeft prachtige kanten (denk aan wetenschap-ontwikkeling, milieu vraagstukken oplossen, gezondheidszorg etcetera, maar nu liggen de grote belangen bij Big Tech (Google, Musk etcetera) en daar hebben wij al geen grip op. Straks gaat het ons qua intelligentie ver voorbij en ontwikkelt het een eigen ‘bewuste!’ identiteit en aar moeten we wel op voorbereid zijn. De parallel met de jaren tachtig is voor mij wel weer mooi, veel herkenning van situatie. Angst en onwetendheid bij bevolking én bij politiek en die stap gaat nog vele meer im-act hebben.

    Groetjes,
    Jeroen

  2. Ilonka van den Hoek
    Ilonka van den Hoek zegt:

    Hoi,
    ik probeer het te begrijpen, we zijn bezig als we niet oppassen dat AI ons overneemt ik probeer het te begrijpen en zekerop te passen.

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.