120 De Ongeziene Stromen van Macht: AI en de Vorming van Publieke Opinie: Van Chomsky tot ChatGPT
Bepaalt straks een Trump, Musk, Xi of Poetin onze waarheid – en de grenzen van ons denken?
Zonder transparante technologie geen democratische controle. Open-source-alternatieven voor AI, algoritmes en media-infrastructuur zijn geen nice-to-have meer, maar bittere noodzaak. Wie de code niet begrijpt en controleert, wordt erdoor bestuurd.
Open Source alleen is niet genoeg: ook macht moet worden begrensd. Big Tech, overheden en platformmonopolies beschikken over ongecontroleerde macht via technologie. Democratische controle betekent ook juridische, technologische én culturele begrenzing van die macht. Zonder die remmen blijven we speelbal van systemen die geen tegenspraak kennen.
…en nee, ik ben echt geen doemdenker en een groot voorstander van technologische vooruitgang, zelfs als die ons mens-zijn een geheel nieuw perspectief biedt. Ik denk echter wel dat het hoog tijd wordt om onze primaire ‘waarden’ kritisch tegen het licht te houden van de ontwikkelingen die gaande zijn… Beter op tijd en voorzichtig dan te laat en beschadigd!
Van Propaganda naar Programmering: De Nieuwe Mediaorde onder AI
Woord Vooraf:
Ik ben altijd al een fan geweest van technologische vooruitgang – zelfs als die ons mens-zijn een heel nieuw perspectief geeft. In de jaren tachtig en negentig mocht ik voorlichting geven aan burgers en bedrijven in Nederland over de opkomst en mogelijkheden van computers, en ik zag hoe die trendbreuk de maatschappij veranderde: banen verdwenen, privacy werd een strijd, en overheden hadden geen idee hoe ze moesten reguleren. Nu, met AI, voelt het als een herhaling van zetten – maar dan van een ongekend veel grotere orde. Ik ben geen doemdenker, maar ik denk wel dat het hoog tijd is om onze waarden kritisch tegen het licht te houden. Beter op tijd en voorzichtig dan te laat en beschadigd, toch?
Inleiding: De algoritmische sluier
AI bepaalt wat je ziet, denkt, en gelooft – een onzichtbare sluier die vrijheid tot een illusie maakt. In Amerika herschreef Trump “waarheid” tot “fake news,” in China onderdrukt AI-surveillance burgers (Amnesty International, 2024), en in Nederland zwichten bestuurders voor de luidste schreeuwers (blog 118). In 1988 legde Noam Chomsky in Manufacturing Consent bloot hoe media de belangen van elites dienen. Vandaag, in 2025, versterkt AI dit propagandamodel tot een digitale ideologische staatsmachine, waarin algoritmes waarheid manipuleren en polarisatie voeden. De façade van objectiviteit doorprikken begint bij bewustwording… en dat is het doel van deze blog. Van propaganda naar programmering…
In 1988 legde Noam Chomsky samen met Edward Herman in Manufacturing Consent (het beïnvloeden van onze ’toestemming’) genadeloos bloot hoe massamedia geen objectieve informatie leveren, maar systematisch de belangen van economische en politieke elites dienen. Zijn model was een messcherpe analyse van traditionele mediamechanismen. Vandaag, in 2025, is dat model relevanter dan ooit – niet ondanks technologie, maar vanwege technologie. AI heeft het propagandamodel niet vervangen, maar versterkt. Chomsky’s filters ontwikkelen zich in het AI-tijdperk tot een digitale ideologische staatsmachine, een netwerk van onzichtbare censuur, gestuurd door code. Laten we de façade van vrijheid en objectiviteit doorprikken en de realiteit onder ogen zien: van propaganda naar programmering.
Chomsky’s propagandamodel
Chomsky identificeerde vijf filters waarmee media informatie manipuleren:
- Eigendom: Grote mediabedrijven dienen conglomeraten – nieuws dat aandeelhouders schaadt, verdwijnt.
- Advertenties: Media kiezen content die adverteerders behaagt, niet wat waar is.
- Nieuwsbronnen: Journalisten leunen op ‘officiële’ bronnen, wat eenzijdige framing geeft.
- Flak: Kritische stemmen krijgen tegenreacties – ontslag, reputatieschade, of erger.
- Anti-ideologie: Vijandbeelden zoals ‘desinformatie’ delegitimeren afwijkende meningen.
Chomsky’s samenvatting is messcherp: “The smart way to keep people passive and obedient is to strictly limit the spectrum of acceptable opinion, but allow very lively debate within that spectrum.”
In 1988 was dit al een aanklacht, maar in 2025 maakt AI het nog erger met een zesde filter: algoritmische manipulatie. Big Tech zoals Google, Meta, en X, in handen van miljardairs zoals Musk en Zuckerberg, bepaalt wat je ziet – in 2022 onthulde The Guardian dat Facebook’s algoritme extreemrechtse content pushte voor engagement. Kritische video’s over Big Pharma werden in 2023 op YouTube ‘beperkt geschikt’ gemarkeerd (Media Matters), Google News marginaliseert onafhankelijke stemmen zoals De Andere Krant (2023), en AI-gestuurde bots belagen journalisten zoals Eric Smit van Follow the Money (2021). Vijandbeelden zoals ‘anti-vaxxers’ worden versterkt, terwijl TikTok pro-Palestijnse content onderdrukte (Al Jazeera, 2023). Algoritmes kiezen woede boven nuance, zoals Frances Haugen in 2020 lekte over Facebook.
Gomsky vertaald naar deze tijd met AI als zesde filter: De logica van het algoritme
- Eigendom en Big Tech: Google, Meta, en X, in handen van miljardairs zoals Musk en Zuckerberg, sturen via AI wat je ziet. In 2022 onthulde The Guardian dat Facebook’s algoritme extreemrechtse content promootte voor engagement.
- Advertenties en micro-targeting: AI degradeert kritische content, zoals video’s over Big Pharma, omdat adverteerders dat niet willen (Media Matters, 2023).
- Nieuwsbronnen en AI: Google News geeft mainstreambronnen voorrang, marginaliseert onafhankelijke stemmen zoals De Andere Krant (2023).
- Flak geautomatiseerd: Kritische journalisten, zoals Eric Smit van Follow the Money (2021), worden belaagd door AI-gestuurde bots, gelinkt aan lobbygroepen.
- Anti-ideologie in de cloud: AI versterkt wij-zij-denken door gepersonaliseerde feeds. TikTok onderdrukte in 2023 pro-Palestijnse content, terwijl “anti-vaxxers” als vijand werden geframed (Al Jazeera, Nature Communications, 2022).
- Algoritmische manipulatie: AI bepaalt wat je ziet en niet ziet, zoals deepfakes,” wat wantrouwen voedt.
AI als ideologie: De nieuwe religie van vooruitgang
De cultus rond AI heeft, wellicht verrassend voor lezers van mijn vorige blogs, religieuze trekken: data als dogma, algoritmes als predikers, en Big Tech als priesterschap. Kritiek is ketterij. Deze ideologisering van technologie verhult de belangen erachter. Shoshana Zuboff noemt het surveillance capitalism: onze gedragingen worden geanalyseerd, geclassificeerd en vervolgens gemanipuleerd – niet voor jouw welzijn, maar voor hun omzet.
In plaats van de burger te informeren, programmeert AI het gedrag. Jouw ‘feed’ is geen venster op de wereld, maar een spiegel die je laat zien wat je algorithmisch geacht wordt te willen zien. Wat Chomsky beschreef als ‘manufacturing consent’ is nu ‘manufacturing perception’ geworden: een totale beeldvorming onder onzichtbare controle.
De illusie van keuze: Vrijheid als interface
We denken dat we toegang hebben tot alle informatie, maar krijgen een persoonlijk gekleurde werkelijkheid. Door algoritmes en AI gegenereerde beelden wordt het steeds moeilijker om feit van fictie te onderscheiden. In 2023 circuleerden deepfakes van president Biden waarin hij ogenschijnlijk nepverklaringen aflegde over Oekraïne. Ondanks snelle ontkrachting hadden deze video’s hun werk al gedaan: ze versterkten bestaande wantrouwen.
Dit is geen menselijke fout, maar een systeemfout: desinformatie verspreidt zich sneller omdat het beter ‘presteert’ in het algoritme. Facebooks interne documenten, gelekt door klokkenluider Frances Haugen in 2020, bevestigden dat polariserende content voorrang kreeg. Waarom? Omdat woede langer vasthoudt dan nuance. Het algoritme kiest niet de waarheid, maar de verontwaardiging.
Van poortwachters naar programmeurs: Media als systeem van controle
Waar vroeger hoofdredacteuren bepaalden wat nieuws was, bepalen nu engineers en data scientists het bereik van je mening. AI-factcheckers, zoals bij Meta, gebruiken uitsluitend ‘officiële’ bronnen zoals de WHO of het RIVM. In 2021 werd een artikel uit The BMJ over vaccinbijwerkingen ten onrechte als desinformatie gemarkeerd. Niet vanwege inhoudelijke fouten, maar omdat het niet strookte met het denkkader.
De journalistiek raakt geïntegreerd in een technologisch systeem dat afwijking automatisch corrigeert. Het is geen complot. Het is software. En juist dat maakt het gevaarlijker dan ooit.
De zwakte van de intellectueel: Conformisme als zelfcensuur?
Chomsky hekelde in 1988 de intellectuelen die zich conformeerden aan macht. Vandaag is die kritiek urgenter. Veel academici en journalisten schikken zich in de logica van platforms. In 2022 zweeg een bekende Nederlandse hoogleraar over de censuur van AI-factcheckers, uit angst voor reputatieschade, terwijl klokkenluider Frances Haugen juist de moed had om Big Tech te confronteren.
Bang voor flak – online aanvallen, demonetisering, of carrièrische schade – vermijden ze gevoelige onderwerpen. Kritiek op NAVO-beleid? Te riskant. Vragen over digitale controlemechanismen? Te complex. Liever ‘veilig kritisch’ binnen het toegestane spectrum. Maar waar zijn de nieuwe Pilgers, de nieuwe Ellsbergs? Wie durft nog echt te schuren tegen de technologische consensus?
De zwakte van Rijkdom/Macht: Narcisme als zelfcensuur?
De zwakte van macht: Narcisme als systeemrisico
Macht zonder zelfreflectie wordt gevaarlijk als technologie die macht versterkt. Figuren zoals Musk en Trump gebruiken AI om hun narratief te sturen – Musk’s X-algoritmes gaven in 2023 voorrang aan zijn eigen tweets, wat de verspreiding van zijn politieke standpunten versterkte (The Verge, 2023). In Nederland kan AGI dit escaleren: een deepfake van Kaag die “boeren haat” kan verkiezingen ontwrichten, terwijl bestuurders zwichten uit angst voor ophef (blog 122). Narcisme wordt geen persoonlijkheidskenmerk meer – het wordt een systeemrisico.
Oplossingsrichtingen: Hoe breek je de code?
- Open-source algoritmes: Democratische controle vereist transparantie. Algoritmes moeten controleerbaar zijn, net als stemprocedures. Wat publiek ingrijpt, moet publiek toegankelijk zijn.
- Publieke platforms: Investeer in mediakanalen die zich niet hoeven te onderwerpen aan advertentiedruk of engagementlogica.
- Media-educatie: Burgers moeten leren hoe AI werkt, hoe filterbubbels ontstaan en wie bepaalt wat zichtbaar is. Zonder digitale geletterdheid is er geen geïnformeerde samenleving. Denk aan de jaren negentig waar ‘digitale geletterdheid’ betekende dat je met een computer moest kunnen omgaan… Deze AI-stap is vele malen ingrijpender dan de opkomst van de computers toen. N,B. Als deze opmerking je verbaast, loop je dus achter!
- Wetgeving en machtbegrenzing: Een AI-variant van de Wet Openbaarheid van Bestuur is nodig. Wie bepaalt de filters? Op basis van welke criteria? En waar liggen de wettelijke grenzen voor niet-open-source-oplossingen? Transparantie moet gepaard gaan met structurele grenzen aan wat bedrijven en overheden mogen doen.
- Is begrenzing van ‘rijkdom’ (bezit van schaarse bronnen) haalbaar? Het lijkt me een groot belang voor de gehele samenleving dat we de ‘gap’ tussen bevolkingsgroepen beperkt houden.
Conclusie: Manufacturing Consent 2.0
AI is niet neutraal. Het is het zesde filter in Chomsky’s model: een machinale ideologie die de publieke opinie programmeert. De illusie van vrijheid wordt versterkt door gepersonaliseerde feeds, deepfakes en factcheckers die meer bevestigen dan corrigeren. We bevinden ons in een digitale dictatuur waarin vrijheid een interface is, geen realiteit.
Net als de irrationele steun voor Trump, kan het AI-dogma een groeiende groep aanhangers creëren die niet altijd evenwichtige keuzes maakt, wat polarisatie en manipulatie verder versterkt.
Chomsky’s waarschuwing uit 1988 is urgenter dan ooit. Zijn oproep tot kritisch denken, media-alfabetisering en intellectuele moed moet hernieuwd worden. Anders worden wij – de burgers – de eindgebruikers van een systeem dat ons allang niet meer dient.
Jeroen Teelen
25 april 2025

Plaats een Reactie
Meepraten?Draag gerust bij!