117 Ongeziene Stromen: AI Kent Jou Beter dan Jij Jezelf: De Gevaren van Radicale Personalisatie

, ,

Nog In Bewerking (dus nog niet op Social Media gepost)

AI Kent Jou Beter dan Jij Jezelf: De Gevaren van Radicale Personalisatie

Inleiding: Van gemak naar beïnvloeding

Het begint onschuldig. Je scrollt op je telefoon en Spotify stelt net dat ene nummer voor dat precies aansluit op je stemming. Netflix weet exact welke serie je nodig hebt na een vermoeiende dag. Je e-mail biedt je alvast antwoorden aan op berichten die je nog moet lezen. Wat gemak lijkt, verandert ongemerkt in een subtiel proces van sturing. Wat wij ‘keuze’ noemen, is steeds vaker een geoptimaliseerde suggestie, berekend op basis van miljoenen gedragsdata van mensen zoals jij – en, belangrijker nog, van jou zelf!

Spotify past bijvoorbeeld dynamisch afspeellijsten aan op basis van stemming, tijdstip en luistergedrag, zoals blijkt uit hun gepersonaliseerde “Daily Mix” en “Time Capsule” features.

We staan aan het begin van een tijdperk waarin AI zich niet alleen aanpast aan wat we willen, maar vooral aan wie we zijn. Niet aan de hand van wie we denken te zijn, maar op basis van ons daadwerkelijke gedrag. En dat is een cruciaal verschil. Want als een systeem jouw impulsen, voorkeuren, verslavingen en zwaktes beter begrijpt dan jijzelf – en zich daar geruisloos op aanpast – wie zit er dan nog écht aan het roer?

Wat AI doet: Van profileren naar sturen

Personalisatie was het lokaas. Radicale personalisatie is de val.

Aanpassingsvermogen is de grote kracht van AI-systemen. Wat begon met het filteren van irrelevante informatie, is geëvolueerd naar het hyperpersoonlijk inrichten van onze digitale omgevingen. Zoekresultaten zijn niet meer universeel, maar uniek. Wat jij ziet op Google, TikTok of Instagram is speciaal voor jou op maat aangeboden, vaak zelfs geoptimaliseerd om maximale ‘engagement’ te genereren.

YouTube optimaliseert bijvoorbeeld zijn aanbevelingsalgoritme puur op kijktijd, wat leidt tot het steeds vaker aanraden van extremere of sensationelere video’s. Dit blijkt uit onderzoek van Guillaume Chaslot, voormalig AI-ingenieur bij Google.

En dat werkt… het voelt als persoonlijke aandacht… AI voelt als ‘maatje’, zoals ik in eerder blogs al eens heb geroepen.

Maar de sprong van ‘aanpassing aan gedrag’ naar ‘sturing van gedrag’ is geen technische, maar een morele grens – en die wordt steeds achtelozer overschreden. AI optimaliseert niet voor jouw welzijn, maar voor de doelen van de partij die het systeem in handen heeft. Dat kan commercieel zijn (meer kliks, meer koopgedrag), maar ook politiek (meer bevestiging, meer radicalisering) of sociaal (meer schermtijd, minder weerstand).

In de praktijk is AI daarmee de perfecte beïnvloeder geworden: stil, onzichtbaar, zonder ego of vermoeidheid, maar met volledige toegang tot jouw psychologische profiel. Wat je aanklikt, waar je blijft hangen, hoe lang je kijkt, op welke woorden je reageert – alles wordt vastgelegd. En alles wordt gebruikt want ook in die grote chaos aan gegevens, is AI de feilloze selectietrol die bepaalt welke parameters tot welke beïnvloeding zullen leiden.

Een voorbeeld: een rationeel, kritisch en stabiel persoon krijgt steeds meer complotachtige video’s in zijn feed. Waarom? Omdat hij uit nieuwsgierigheid een paar keer had doorgeklikt. Niet uit overtuiging, maar uit interesse. Het algoritme zag geen verschil. Wat volgde, was een cascade van content die subtiel zijn wereldbeeld begon te vervormen. Niet omdat hij wilde veranderen, maar omdat het systeem dat gedrag zag als ‘waardevol’.

Dit effect werd bevestigd in onderzoek van Mozilla Foundation tijdens de COVID-19-pandemie, waarbij YouTube gebruikers richting desinformatie stuurde, zelfs wanneer hun kijkgedrag daarvoor neutraal was.

Deze tendens is ruimschoots wetenschappelijk onderbouwd. Onderzoek naar recommender systems toont aan dat platforms zoals Netflix en YouTube content aanbieden op basis van eerder gedrag, wat kan leiden tot zelfversterkende feedback loops en ‘filter bubbles’.

Het rapport “The Algorithmic Trap” van de Oxford Internet Institute bevestigt dat gebruikers hierdoor steeds minder diverse informatie te zien krijgen, wat hun perspectieven op de wereld vernauwt.

Is dit niet gewoon bangmakerij?

Een terechte vraag natuurlijk, want toen ik aan deze blog werkte kreeg ik sterk het gevoel dat ik met paniekzaaierij bezig was. Maar dat is dus ook precies de reden waarom dit onderwerp met scherpe bewoordingen besproken móet worden. Want als de feiten zelf al ongemakkelijk voelen, dan is dat geen bewijs van overdrijving, maar van urgentie. Wat ik hier beschrijf is niet hypothetisch. Alles wat in deze blog aan bod komt – van gedragssturing via AI tot systemische bias – is al vastgesteld en gedocumenteerd. We hoeven geen angst te hebben om kritisch te kunnen zijn, maar we hebben wel bewustzijn nodig om niet naïef te blijven.

Verwar ongemak niet met paniek, want die verwarring maakt het gesprek over deze technologie moeilijk en onevenwichtig. Het gaat erom dat we verantwoordelijkheid nemen, voordat een systeem onzichtbaar de regie overneemt!

Waarom we dit laten gebeuren

Waarom accepteren we deze ontwikkeling, zelfs als we de gevaren wél degelijk kennen? Het antwoord is complex en ook ongemakkelijk. Het is een combinatie van gemakzucht/wegkijken, afhankelijkheid zonder aantrekkelijk alternatief, economische belangen en een fundamentele onderschatting van hoe diep deze technologie ons beïnvloedt.

Het gemak wint het dus van de principes. Elke stap richting personalisatie is verkocht als vooruitgang. Minder tijd kwijt aan zoeken, betere aanbevelingen, ‘meer relevantie’. Maar dat gemak is ‘een verslaving’ geworden. We laten ons gedrag steeds vaker leiden door wat het algoritme voorschotelt. Kritisch nadenken kost energie, swipen niet.

We zijn deel van het verdienmodel. Techbedrijven hebben geen belang bij autonomie van de gebruiker. Ze verdienen aan aandacht en gedragsbeïnvloeding. AI is de machine die dat mechanisme schaalt en perfectioneert. Je moet niet beter worden, je moet voorspelbaar blijven. Amazon’s AI-recruitment tool toonde dit haarscherp aan: getraind op historische data met een mannelijke bias, leerde het systeem vrouwelijke kandidaten afwijzen.

Deze casus is inmiddels berucht en wordt vaak aangehaald in discussies over bias in AI. De tool werd uiteindelijk offline gehaald, maar toonde hoe gemakkelijk historische data discriminatie reproduceert.

Beleidsmakers lopen vaak achter de feiten aan. Zo duurt het bij wetgeving rondom AI al snel vijf tot tien jaar voordat regels zijn ingevoerd, terwijl de technologie zich razendsnel ontwikkelt. De Europese AI Act probeert hier wel op in te spelen, maar mist een belangrijk punt: het feit dat personalisatie op zichzelf al een ethisch probleem kan zijn. De Algemene Rekenkamer waarschuwde daar in 2021 al voor: veel algoritmes die de overheid gebruikt zijn niet transparant, en burgers weten vaak niet hoe ze bezwaar kunnen maken tegen beslissingen die door zulke systemen zijn genomen.

Even wat etra info:  De AI Act classificeert AI-systemen op basis van risico:Vogue Business+4WIRED+4Medium+4

        • Onacceptabel risico: AI-toepassingen die een duidelijke bedreiging vormen voor de veiligheid en rechten van mensen, zoals sociale scoring en real-time biometrische identificatie in openbare ruimtes, zijn verboden.Wikipedia

        • Hoog risico: Systemen die aanzienlijke risico’s met zich meebrengen voor gezondheid, veiligheid of fundamentele rechten, zoals toepassingen in de gezondheidszorg, onderwijs en rechtshandhaving, zijn onderworpen aan strikte eisen op het gebied van transparantie, nauwkeurigheid en menselijk toezicht.Wikipedia

        • Beperkt risico: Toepassingen zoals chatbots moeten voldoen aan minimale transparantie-eisen, zodat gebruikers weten dat ze met een AI-systeem communiceren.

        • Minimaal risico: Voor toepassingen zoals spamfilters gelden geen specifieke verplichtingen.viso.ai+2Wikipedia+2Financial Times+2

Kritiekpunten:

Ondanks de intentie om AI te reguleren, zijn er zorgen geuit over de effectiviteit van de AI Act:

        • Personalisatie en ethiek: Critici stellen dat de wetgeving onvoldoende aandacht besteedt aan de ethische implicaties van personalisatie, waarbij AI wordt gebruikt om gebruikersgedrag te sturen.

        • Transparantie en bezwaar: De Algemene Rekenkamer heeft in 2021 gewaarschuwd dat veel overheidsalgoritmen niet transparant zijn, waardoor burgers vaak niet weten hoe beslissingen tot stand komen of hoe ze bezwaar kunnen maken.Mensenrechten Publicaties

Het is essentieel dat beleidsmakers deze kwesties blijven adresseren om een balans te vinden tussen innovatie en bescherming van burgerrechten.

In 2023 uitte ook AlgorithmWatch stevige kritiek op de AI Act. Zij vonden het zorgelijk dat personalisatie pas als risicovol wordt gezien wanneer er sprake is van duidelijke gedragsbeïnvloeding. Terwijl de invloed vaak juist sluipend en onzichtbaar is.

Veel mensen denken nog steeds dat ze volledig controle hebben over hun keuzes. “Ik weet heus wel wanneer ik beïnvloed word,” hoor je dan. Maar dát is precies het probleem. Radicale personalisatie werkt onder de radar. Je merkt het niet eens. Je wordt niet overtuigd – je wordt bijgestuurd. Met kleine, nauwelijks merkbare aanpassingen die je gedrag langzaam maar zeker veranderen.

Wat doen andere landen – en wat kunnen wij leren?

In China (DeepSeek) is personalisatie een staatsinstrument. Het algoritme bepaalt welke normen en waarden je te zien krijgt, welk gedrag wordt beloond, welke producten en denkbeelden worden gepromoot. Maar vergis je niet: in Silicon Valley gebeurt hetzelfde, alleen vermomd als ‘customer experience’. In beide gevallen draait het om gedragssturing – het verschil is slechts ideologisch verpakt.

In de VS is AI inmiddels standaard onderdeel van de politieke beïnvloedingsmachine. Cambridge Analytica was een voorproefje. De combinatie van psychografische profielen en microtargeting verandert niet alleen campagnes, maar raakt aan de fundamenten van democratie zelf: vrije meningsvorming en geïnformeerde keuzevorming worden steeds vaker gefragmenteerd en gestuurd door op data gebaseerde manipulatie.

Bij het Cambridge Analytica-schandaal werden data van 87 miljoen Facebookgebruikers zonder toestemming verzameld en gebruikt om gerichte politieke advertenties te maken, vooral in verkiezingscampagnes in de VS en het VK. Het Britse parlement concludeerde dat dit de democratische processen heeft ondermijnd.

De mens als dataset

Wat betekent dit alles voor de langere termijn? Radicale personalisatie betekent in feite dat je geen ‘neutraal’ web meer ervaart. Elke digitale interactie bevestigt wat het systeem al over je weet. Je wereldbeeld wordt niet alleen gevormd, maar ook afgeschermd. Nieuwe ideeën krijgen minder kans, afwijkende perspectieven verdwijnen uit je bubbel. Je groeit vast in je eigen profiel. AI optimaliseert je naar jezelf terug.

En dat is het gevaarlijkste effect van allemaal: je dénkt nog steeds dat je zelf kiest, terwijl het systeem al lang jouw keuze was voorgeprogrammeerd.

Is een ethische AI-toekomst nog mogelijk?

Er zijn alternatieven, maar ze zijn moeilijker, trager en minder winstgevend. Denk aan:

  • Onpersoonlijke feeds. Minder comfortabel, maar eerlijker en diverser.
  • Transparante algoritmes. Niet alleen weten dát je gestuurd wordt, maar hóe.
  • AI die voor jou werkt, niet over jou beslist. Open-source, ethisch ontworpen en zonder verborgen verdienmodellen.
  • Data-eigenaarschap. Geen techbedrijf dat jouw psyche bezit, maar jijzelf die bepaalt wat gedeeld mag worden.

Er bestaan al alternatieven zoals DuckDuckGo voor zoeken en Mastodon voor sociale media, die expliciet geen gebruikersdata opslaan en geen gepersonaliseerde feeds aanbieden. Mozilla werkt daarnaast aan transparante recommender systems met open parameters.

Maar deze alternatieven vragen een andere houding. Geen gemakzucht, maar bewustzijn. Geen overgave, maar controle. En die strijd – tegen het gemak, tegen jezelf – is misschien wel de moeilijkste van allemaal.

Ik merk het ook bij mezelf: ik blijf sociale media gebruiken, omdat een biertje in de kroeg nu eenmaal meer verbindt dan een glas melk in een schoolkantine, ook al is dat laatste ‘gezonder en veiliger’. Daarom geloof ik dat wetgeving transparantie en een open-source-aanpak bij grote platforms zou moeten afdwingen. Dat zal spanningen opleveren, maar het dwingt ook de grote spelers tot een bredere discussie over hun rol in de samenleving.

Uiteindelijk geloof ik niet in het oprichten van een nieuwe ‘AI-religie’ als tegengewicht voor bestaande systemen. Liever investeer ik in het vergroten van bewustzijn binnen die bestaande structuren. Verandering van binnenuit, stap voor stap.

Conclusie: het systeem liegt niet, het optimaliseert

Radicale personalisatie van AI is niet inherent kwaadaardig. Het doet wat het moet doen: optimaliseren. Alleen is de vraag wát er geoptimaliseerd wordt en voor wie. Als het antwoord niet ‘jouw welzijn’ is, maar ‘hun winst’, dan weet je dat er een fundamenteel probleem ligt.

De gevaarlijkste technologie is diegene die werkt zoals bedoeld, maar zonder dat we nog in de gaten hebben dat we zelf het product zijn geworden. Dat is precies waar we nu staan.

Wie zich niet bewust wordt van de onzichtbare sturing, wordt vanzelf een volgzaam profiel. Wie zichzelf wil blijven, zal uit de bubbel moeten breken – met alle ongemakken van dien.

Maar dat is precies waar autonomie begint.

Ik heb deze les eerder geleerd. In de jaren zeventig, toen prof. Rathenau het land wakker schudde met zijn waarschuwing over micro-elektronica, mocht ik zelf meewerken aan de reactie daarop, bij het toen opgerichte Centrum voor Micro-Electronica Twente. We zagen toen al wat er op ons afkwam, en hoe slecht voorbereid we waren. Die ervaring raakt me nu opnieuw. Want opnieuw lijkt het land te slapen. En opnieuw is er dringend behoefte aan richting, aan wetgeving, aan technische infrastructuur die bewust, transparant en ethisch gebruik van krachtige technologie mogelijk maakt.

Laat dit geen herhaling van toen worden – maar het moment waarop we het deze keer wél op tijd zien en vooral ook wetgeving, bescherming van kwetsbare groepen en transparantie van achterliggende doelen en eigenaarschap een rol laten spelen in wat we acceptabel vinden en wat niet. Ik ben benieuwd… weer een Rathenau-wake-up-call?

Wat kunnen wij zelf doen?

Deel dit artikel met iemand die blind vertrouwt op zijn algoritmisch comfort. Start het gesprek. Vraag je af: wanneer was de laatste keer dat jij zelf koos – en niet de machine?

“Je denkt nog steeds dat je zelf kiest, terwijl het systeem al lang jouw keuze was voorgeprogrammeerd.”

De Europese Commissie heeft in 2024 aangekondigd strengere kaders te willen ontwikkelen rond het gebruik van ‘dark patterns’ en microtargeting. Bron: europa.eu.

Jeroen Teelen

april 2025

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.