163 Waarheid en Wijsheid in het AI-tijdperk: Wat is “Waarheid” in Taalmodellen?

, ,

Waarheid en Wijsheid in het AI-tijdperk

Een korte gids voor rijp en groen omtrent het kritisch gebruiken van Taalmodellen

pastedGraphic.png

1: De Praktische Gids

Wat is “Waarheid” in Taalmodellen?

Kort samengevat: Taalmodellen kennen geen waarheid in filosofische of absolute zin. Ze kennen geen feiten, alleen waarschijnlijkheden.

Een LLM (Large Language Model) is in essentie een “statistische tekstvoorspeller”. Het heeft biljoenen patronen geleerd uit trainingsdata (een groot deel van het internet, boeken, artikelen). Zijn “waarheid” is daarom:

  • Statistische Waarschijnlijkheid: Het antwoord dat het meest waarschijnlijk is, gegeven de prompt (=jouw vraag of opdracht) en de patronen in de trainingsdata
  • Consistentie met Training Data: Een antwoord is “correct” als het overeenkomt met patronen in de bronnen waarop het getraind is

Dit leidt tot het fundamentele probleem: de trainingsdata bevat onjuistheden, tegenstrijdigheden, meningen en desinformatie. Het model kan dus met evenveel gemak een wetenschappelijk bewezen feit reproduceren als een hardnekkig broodjeaapverhaal.

De Drie Aspecten van AI-Output

Om verstandig om te gaan met een LLM, moet je de volgende aspecten uit elkaar houden:

1. Feitelijke Nauwkeurigheid

Wat het is: De overeenkomst tussen de informatie van het model en de geverifieerde werkelijkheid
Het risico: Hallucinaties – het model verzint feiten, bronnen, data of citaten die plausibel klinken maar niet bestaan

2. Contextuele Consistentie

Wat het is: De interne logica en samenhang binnen een gesprek
Het risico: Het model “vergeet” context of raakt in de war door tegenstrijdige instructies

3. Conceptuele Logica

Wat het is: De logische redenering en afleiding die het model toepast
Het risico: Argumenten die oppervlakkig goed lijken, maar logische fouten bevatten

Hoe Stel Je Effectieve Vragen?

Best Practices

1. Wees Specifiek en Gedetailleerd
Slecht: “Vertel me over klimaatverandering.”
Goed: “Leg uit wat de oorzaken zijn van antropogene (voornamelijk door mensen veroorzaakte) klimaatverandering, gebaseerd op IPCC-rapporten, en noem drie gevolgen voor West-Europa.”

2. Vraag om Bronnen (en verifieer ze ook!)
Slecht: Geen verzoek om bronnen.
Goed: “Geef een samenvatting met verwijzing naar wetenschappelijke publicaties.”
Let op: Controleer ALTIJD of genoemde bronnen echt bestaan.

3. Geef Context en Kader
Slecht: “Schrijf een email.”
Goed: “Schrijf een formele email aan mijn professor waarin ik me excuseer voor het missen van mijn college vanwege ziekte.”

4. Gebruik Stapsgewijze Redenering
Slecht: “Wat is het antwoord?”
Goed: “Los deze vraag stap-voor-stap op, zodat ik je redenering kan volgen.”

5. Stel de Vraag op Meerdere Manieren
Als een antwoord twijfelachtig lijkt, herformuleer: “Zijn er studies die het tegendeel bewijzen?”

Wat Je Moet Vermijden

1. Toekomstvoorspellingen – “Wie wint de verkiezingen?” → Pure speculatie zonder basis

2. Persoonlijke Meningen van het Model – “Wat vind jij van…?” → Het model heeft geen meningen, alleen patronen uit trainingsdata

3. Doorvragen op Hallucinaties – Als het model iets verzint, ga er dan NIET op door – dit versterkt de hallucinatie

4. Medisch of Juridisch Persoonlijk Advies – Gebruik alleen voor algemene informatie, nooit voor persoonlijke situaties

5. Zeer Actuele Gebeurtenissen (zonder internettoegang) – Het model “weet” niets van recente ontwikkelingen. Het trainingsmoment bepaalt hoe actueel het is. Zonder aanvullende externe bronnen kent een LLM geen recente gebeurtenissen voorbij zijn laatste modelupdate; het kan wél actuele informatie citeren—mits je bron- en datumverificatie afdwingt

Wanneer zijn Taalmodellen WEL Betrouwbaar?

Gebruik ze gerust voor:

  • Programmeren: Code debuggen/genereren, voorbeelden genereren, documentatie schrijven
  • Taalkundige taken: Grammatica-check, vertaling, stijlverbetering, opmaak
  • Brainstormen: Ideeëngeneratie waar “waarheid” minder relevant is
  • Structureren: Je gedachten ordenen, argumenten opbouwen
  • Exploratie: Nieuwe invalshoeken ontdekken
  • Oefenmateriaal: Voorbeeldvragen of cases genereren

Wees extra voorzichtig bij:

  • Feitelijke claims in academisch werk
  • Bronverwijzingen (altijd controleren!)
  • Actuele gebeurtenissen
  • Persoonlijke gezondheids- of rechtskwesties
  • Financiële beslissingen

pastedGraphic.png

2: Dieper Begrip

Uit de Praktijk: De Student en de Verzonnen Bronnen

Een student vraagt ChatGPT om hulp bij zijn scriptie over globalisering. Binnen seconden krijgt hij een vloeiend antwoord. Namen van theoretici, VN-rapporten, alles lijkt te kloppen. De student verwerkt het in zijn tekst.

Een week later blijkt de helft van de bronnen niet te bestaan. De geciteerde papers zijn nergens te vinden. Het VN-rapport blijkt een samenraapsel. De tekst klinkt als academische kennis, maar is in werkelijkheid taal zonder anker. Dit illustreert het kernprobleem: taalmodellen produceren overtuigende taal, maar zonder de waarheidsgrond die we van wetenschappelijke bronnen verwachten. In september 2025 werden advocaten in Californië beboet omdat ze op AI-gegenereerde, verzonnen jurisprudentie hadden vertrouwd.

Wat is eigenlijk “Waarheid”?

Filosofisch gezien is waarheid complex. Verschillende denkers benadrukken verschillende aspecten:

  • Waarheid als correspondentie: Komt het overeen met de werkelijkheid?
  • Waarheid als coherentie: Past het binnen een logisch systeem?
  • Waarheid als consensus: Wat accepteert de gemeenschap als waar?
  • Waarheid als machtsstructuur: Wie bepaalt wat als “waar” geldt?

Taalmodellen opereren buiten al deze structuren. Ze ervaren niets, relateren niet aan instituties, onderscheiden geen morele context. Ze simuleren taal – niet ervaring, niet begrip, niet verantwoordelijkheid. Het is dus niet meer dan pure statistiek gebaseerd op de data waarmee ze getraind zijn. Het besef dat ze getraind kunnen zijn vanuit een bepaald (commercieel, politiek, levensbeschouwelijk) doel is goed om situaties te herkennen. Een religieuze vraag in Irak krijgt andere beschouwingen dan dezelfde vraag in on onze westerse wereld. Naast training is er ook het maatschappelijk kader dat aan een model wordt meegegeven. Bijvoorbeeld: De politieke waarde van Xi Jinping wordt door het Chinese ‘Deepseek’ niet beantwoord omdat de vraag buiten de toegestane grenzen valt.

Het Spanningsveld: Functioneel Begrip vs. Echt Begrip

Er is een belangrijk debat: als een model consequent de juiste antwoorden genereert, functioneert het dan niet alsof het begrijpt? Voor veel praktische toepassingen – debuggen van code, structureren van argumenten – is dit functionele “begrip” vaak voldoende.

De uitdaging ligt in het begrijpen wanneer functioneel begrip volstaat en wanneer we diepere verificatie nodig hebben: – Een taalmodel dat helpt bij het programmeren? Prima. – Een taalmodel dat medisch advies geeft? Dat vraagt om heel andere waarborgen.

De Maatschappelijke Impact

Waar het misgaat:

  • Studenten die kritiekloos AI-teksten overnemen
  • Journalisten die “feiten” publiceren zonder verificatie
  • Rechtbanken die niet-bestaande jurisprudentie citeren
  • Bedrijven die CV’s laten beoordelen door vooringenomen modellen

Waar het goed gaat:

  • Programmeurs die sneller bugs (fouten) oplossen
  • Onderzoekers die nieuwe verbanden ontdekken
  • Docenten die gepersonaliseerde feedback kunnen geven
  • Artsen die differentiaaldiagnoses opstellen (mét menselijke verificatie)

Het verschil? In succesvolle toepassingen is AI een gereedschap dat menselijke expertise versterkt, (nog) niet vervangt.

Technische Verbeteringen en Hun Grenzen

Er bestaan technieken om betrouwbaarheid te vergroten:

  • RAG (Retrieval-Augmented Generation): Het model zoekt in externe, verifieerbare bronnen
  • Constitutional AI: Modellen getraind om ethische principes te volgen
  • Fine-tuning: Specialisatie voor specifieke domeinen

Deze verbeteringen zijn substantieel, maar lossen het fundamentele spanningsveld (nog) niet op: de scheiding tussen overtuigende taal en waarheidsgrond blijft.

pastedGraphic.png


3: Reflectie en Toekomst

AI als Spiegel van Onszelf

In een wereld waar ook menselijke bronnen – van social media tot wetenschappelijke tijdschriften – kampen met desinformatie en bias, zijn taalmodellen niet uniek problematisch. Ze zijn een nieuwe laag in een complex informatiesysteem dat altijd al kritisch denken vereiste.

Taalmodellen weerspiegelen onze collectieve kennis, inclusief onze vooroordelen, mythes en misverstanden. Ze confronteren ons met de vraag: hoe betrouwbaar is onze eigen informatievoorziening eigenlijk?

De Paradox van Toegankelijkheid

Taalmodellen maken eigenlijk kennis voor iedereen toegankelijk. Iedereen heeft toegang tot een assistent die complexe concepten kan uitleggen. Maar ze vereisen ook nieuwe vaardigheden: kritisch prompten, verificatie, contextualisering. We vervangen dus eigenlijk één vorm van ongelijkheid (toegang tot informatie) door een andere (vaardigheid om AI kritisch te gebruiken). Wie al meer AI-vaardigheden/middelen heeft en slimmere vragen kan stellen, profiteert relatief meer.

Naar een Wijze Omgang met AI

Net als met elk krachtig gereedschap – van de drukpers tot het internet – ligt de waarde niet in het gereedschap zelf, maar in hoe we het gebruiken. Ik zeg nu nog bewust ‘gereedschap’ omdat de huidige modellen nog ondergeschikte systemen zijn, maar dat zal binnen enkele jaren op z’n minst uitgroeien tot het niveau gelijkwaardige ‘sparringpartners’.

Het gebruik van de huidige Taalmodellen vereist:

Individuele Verantwoordelijkheid:

  • Ontwikkel “AI-geletterdheid”
  • Blijf kritisch en verifieer
  • Begrijp de grenzen van het gereedschap

Collectieve Wijsheid:

  • Educatie over AI in het onderwijs
  • Transparantie van tech-bedrijven
  • Ethische richtlijnen en regulering
  • Open debat over de rol van AI in de samenleving

Institutionele Waarborgen:

  • De EU AI Act (sinds augustus 2024) stelt eisen aan transparantie
  • Professionele standaarden voor AI-gebruik
  • Verificatiesystemen in kritische sectoren

De Kern: Waarheid als Discipline

Taalmodellen beloven snelheid, vloeiendheid en gemak. Maar waarheid is zelden snel, zelden glad, zelden gemakkelijk. Ze vereist afstand, context, controle en twijfel.

De vraag is niet: “Hoe slim is AI?”
Maar: “Hoe kritisch zijn wij?”

De vraag is niet: “Kan AI de waarheid vinden?”
Maar: “Hoe gebruiken we AI om waarheid te benaderen?”

Want taalmodellen dwingen ons om scherper na te denken over wat waarheid is, hoe kennis tot stand komt, en wat onze eigen rol daarin is.

Conclusie: Voorlopig nog even Gereedschap, Geen Orakel

Beschouw een taalmodel als een ongelooflijk krachtige, maar feilbare assistent. Zijn kracht ligt in het verwerken van taal, het structureren van informatie, het genereren van ideeën. Zijn zwakte is het vaststellen van absolute waarheid.

Jouw rol als gebruiker is die van een kritische redacteur: altijd verifiëren, specificeren, en de grenzen begrijpen. Het model genereert opties, jij verifieert en beslist.

In het AI-tijdperk is waarheid geen knop die je indrukt bij ChatGPT of Claude. Het is een discipline die we samen moeten cultiveren – waarbij we de kracht van AI benutten zonder onze kritische vermogens uit te schakelen.

De waarheid is geen knop. Ze is een discipline.
En in het AI-tijdperk is die discipline belangrijker dan ooit.

 

Jeroen Teelen

29 oktober

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.