168 De Onderstroom van AI (2): Ethiek: Transparantie Wordt de Nieuwe Machtsfactor
Ethiek: Transparantie Wordt de Nieuwe Machtsfactor
Een analyse van de stille revolutie die zich onder onze neus afspeelt
Video Wordt Vloeibaar: Het Einde van Visueel Bewijs?
Sora 2, de nieuwste video-AI van OpenAI, heeft een grens overschreden die velen voor onmogelijk hielden. Dit systeem kan nu korte films maken die niet alleen geloofwaardig ogen, maar die ook aan alle technische eisen voldoen:
- De fysica klopt (objecten vallen zoals ze horen te vallen)
- Het geluid is perfect gesynchroniseerd
- De belichting is consistent
- Gezichtsuitdrukkingen zijn natuurlijk
- Er is een samenhangende verhaallijn
Een stem nasynchroniseren? Een gezicht verwisselen? Een complete achtergrond vervangen? Het is allemaal in minuten gepiept. Voor filmmakers en marketeers is dit een goudmijn. Geen dure filmsets meer nodig. Geen weken wachten op de juiste weersomstandigheden. Geen logistieke nachtmerries met acteurs, crew en apparatuur. Ik weet zelf nog donders goed dat ik die beloftes altijd te groot vond en het resultaat van zelf aan de slag gaan altijd te klein, maar ja, ik ben de categorie early adopter in de particuliere wereld en in niet in de prof-wereld natuurlijk. Neemt niet weg dat we ons bij elk bijzonder filmpje toch steeds vaker afvragen: “Is dit AI?” Daarmee is de subtitel van dit stukje dus eigenlijk ook aangetoond… Bewijs moet buiten twijfel zijn en dat is video op dit moment al lang niet meer natuurlijk.
Maar de bredere impact op onze samenleving? Dat is een heel ander verhaal.
De drempel om ook een realistisch ogend nep-journaal te maken is nu lager dan ooit. Een vervalste toespraak van een politicus? Nog even los van die domme nep-montage van de BBC natuurlijk, maar het illustreert wel hoe onze ‘waarheden’ gemanipuleerd (kunnen) worden. Een paar prompts. Een fake getuigenverklaring die een onschuldig persoon in een kwaad daglicht stelt? Enkele minuten werk. Een video waarin een CEO iets zegt wat de beurskoers kan laten crashen? Kinderlijk eenvoudig en daarmee dus ook zeer zorgelijk en schreeuwend om regulering.
We stevenen af op een wereld waarin visueel bewijs zijn bewijskracht verliest. Waarin “ik heb het met eigen ogen gezien” niet langer voldoende is. Waarin elk filmpje, elke foto, elk audiofragment potentieel vals kan zijn.
AI en bewijs: vanzelfsprekendheid weg, bewijskracht niet
AI ondermijnt de vanzelfsprekende geloofwaardigheid van beeld en geluid, maar daarmee staat het bewijsrecht zelf niet op losse schroeven. Zolang een video of opname niet gemotiveerd wordt betwist, geldt die nog steeds als bewijs. Pas als de authenticiteit wordt aangevochten, verschuift de zaak naar ‘versterkt bewijs’: herkomstanalyse, chain-of-custody, C2PA-signing en technisch deskundigenonderzoek.
Deepfakes maken dat soort verificatie noodzakelijker en frequenter, maar ze maken bewijs niet onmogelijk. De kern verschuift: wie herkomst, keten en authenticiteit kan aantonen, wint het bewijsdebat. Transparantie wordt daarmee niet alleen maatschappelijk, maar ook juridisch een nieuwe machtsfactor.
Wat kunnen we hiertegen doen?
Er zijn technische oplossingen in ontwikkeling:
- Watermerken en provenance-technologie (technieken om herkomst, maakproces en wijzigingen van data, software of content verifieerbaar vast te leggen, zodat je kunt aantonen wie iets maakte, wanneer, waarmee en wat er daarna is gebeurd), zoals C2PA (Coalition for Content Provenance and Authenticity)
- Verplichte labeling op platforms (YouTube doet dit al: creators moeten aangeven of ze AI hebben gebruikt)
- Detectietools die kunnen redelijk goed herkennen of content door AI is gegenereerd
- Blockchain-gebaseerde authenticatie voor belangrijke opnames
Maar ook hier zit natuurlijk weer een addertje onder het gras. Als alleen het ‘echte’ content watermerken krijgt, wat gebeurt er dan met alles daartussen? Dat blijft in een schemerzone hangen. Is het echt? Is het nep? Niemand die het zeker weet. In die situaties bepaalt de emotionele toestand van het moment, de impact op de ontvanger en daarmee ook het ‘oordeel’ en de eventuele gevolgen. Er is dan dus geen enkele ‘rem’ op de ‘boodschap’ en dat lijkt me op zich al zeer ongewenst. Een boodschap kan in principe van eenieder op deze wereld komen (en zelfs dát weken we niet zeker als AI ook een eigen identiteit en eigen belangen ontwikkelt).
Transparantie wordt zo een nieuwe machtsfactor. Wie het vertrouwen geniet en/of kán aantonen dat iets authentiek is – bijvoorbeeld nieuwsorganisaties met gecertificeerde opnameapparatuur – heeft straks een enorme voorsprong. De rest opereert in de schaduw van permanente twijfel.
Zorgdata: Waardevol, Kwetsbaar en Vaak Vergeten
Als je in het ziekenhuis ligt, of wanneer je bloed laat prikken voor onderzoek, sta je waarschijnlijk niet stil bij de enorme datastromen die achter de schermen lopen. Die bloeduitslag? Dat is data. Die MRI-scan? Data. Je hartritme, je medicijngebruik, je familiegeschiedenis? Allemaal data.
Voor AI in de zorg zijn deze gegevens van onschatbare waarde. Ze vormen de grondstof waarmee modellen worden getraind om betere diagnoses te stellen, behandelingen te personaliseren, en nieuwe medicijnen te ontwikkelen.
Maar deze data is ook extreem gevoelig.
Gebruik je AI met celdata of patiënt-profielen? Dan zijn er strenge randvoorwaarden die niet onderhandelbaar zijn:
Expliciete toestemming is een must. Niet verstopt in pagina’s vol kleine lettertjes. Niet als onderdeel van een algemene toestemmingsverklaring. Maar duidelijk, specifiek en begrijpelijk. “Wij willen uw scan-resultaten gebruiken om onze AI te trainen die longkanker eerder kan detecteren. Bent u hiermee akkoord?”
Bias moet actief worden gemonitord. AI-modellen kunnen onbedoeld discrimineren op basis van geslacht, leeftijd, etniciteit of sociaaleconomische status. Een model dat vooral is getraind op data van witte mannen van middelbare leeftijd? Dat werkt mogelijk veel slechter voor vrouwen, jongeren of mensen met een andere achtergrond.
Een leuk voorbeeld in dit kader is het trainen van taalmodellen om wolven en Huskies te kunnen onderscheiden. Dat ging prima totdat een Husky op een grasland werd getoond. AI meende dat het een wolf was omdat bij de training alle husky-foto’s in de sneeuw waren genomen. De sneeuw bleek toen voor de training de meest onderscheidende factor… Een wolf in de sneeuw was ineens een Husky en de Husky in een bos zonder sneeuw, ineens een wolf. Kortom, van échte intelligentie is bij taalmodellen nog geen sprake, maar van conclusies wel! Dus zuinig omgaan. met belangen, delen en frame is essentieel.
Elk model moet controleerbaar blijven via audit-trails. Elke beslissing, elke aanbeveling, elke diagnose moet traceerbaar zijn. Wie heeft het model getraind? Met welke data? Wanneer is het voor het laatst geüpdatet? Welke aannames zitten erin?
De data moet veilig worden opgeslagen en overgedragen. Een datalek met medische gegevens is niet alleen een privacy-schending – het kan levens verwoesten. Denk aan iemand wiens HIV-status op straat komt te liggen, of wiens psychische problemen bij de werkgever terechtkomen.
Zonder deze waarborgen worden deze (AI) taalmodellen in de zorg, maar ook bij instanties (denk aan belastingdienst, gemeentelijke fraiming voor toeslagen e.d.) een ethische ramp. Of erger nog: een governance-miskleun die het vertrouwen in zowel AI als de zorg voor jaren kan beschadigen.
Jeroen Teelen (met dank aan Jan van Hal)
20 november 2025

Suoerbedankt Jan! Ik heb het aangepast!
Jeroen,
er is één juridisch punt dat ik aan jouw analyse wil toevoegen, omdat het de discussie vaak scherper maakt dan mensen denken. AI ondermijnt inderdaad de vanzelfsprekende geloofwaardigheid van beeld en geluid, maar het bewijsrecht zelf wankelt daarmee niet.
De kern is dit:
AI kan perfect ogende beelden maken, maar laat altijd detecteerbare sporen achter.
Dat kan in structuur, compressie, ruis, temporele inconsistenties of metadata zitten. De technieken om dat te zien ontwikkelen zich minstens zo snel als de generatie-modellen zelf.
Daarmee blijft het klassieke regime overeind:
Een video geldt als bewijs zolang de wederpartij niet gemotiveerd betwist dat het echt is.
Wordt er wél betwist, dan verschuift de zaak naar versterkt bewijs: herkomstanalyse, chain-of-custody, C2PA-signing, deskundigenonderzoek.
Met andere woorden:
visueel bewijs verliest zijn vanzelfsprekendheid, maar niet zijn juridische bruikbaarheid.
Het betekent alleen dat authenticiteit actiever moet worden aangetoond wanneer het er echt toe doet.
In jouw stuk zit die lijn eigenlijk al impliciet, maar door dit expliciet te maken laat je zien dat transparantie niet alleen maatschappelijk, maar ook juridisch de nieuwe machtsfactor wordt: wie herkomst en keten kan aantonen, wint het bewijsdebat.
Dat maakt jouw analyse nog sterker – en het voorkomt dat lezers denken dat “niets meer bewijs kan zijn”, wat simpelweg niet klopt.