178 Het jaar 2025 in één blog: mijn rode draad tussen AI, waarheid en bestuur
178 Het jaar 2025 in één blog: mijn rode draad tussen AI, waarheid en bestuur
Een terugblik op m’n blogs… (overzicht alle blogs)
2025 was voor mij het jaar waarin één vraag alles begon te verbinden:
Wie (of wat) bepaalt wat waar is — en wie betaalt de prijs als dat niet transparant, openbaar en toetsbaar gebeurt?
Het einde van het jaar is een bezinningsmoment: terugkijken op wat me bezig hield, wat ik leerde, en vooral: welke rode draad achteraf bezien, boven is komen drijven.
Dit jaar was die draad opvallend helder.
Die ene vraag liep door mijn AI-blogs, door de reeks over de infrastructuur van waarheid en levensbeschouwelijke claims, en eindigde onverwacht in een lokaal dossier dat ineens exemplarisch bleek: Twello Unplugged. Het wast “maar een festival”, maar het liet zien wat er gebeurt als besluitvorming wél gevolgen heeft, maar onvoldoende toetsbaar wordt en je als burger volledig het vertrouwen verliest in de kwaliteit van lokaal bestuur. (voor details zie: 177 Twello Unplugged: Waarom een succesvol festival stopt). Ik schaam me zelfs voor de kwaliteit van ons lokale bestuur en een formele klacht bij de ombudsman brengt hopelijk een moment van bestuurlijke bezinning in vermeende koninkrijkjes en ambtelijk machtsvertoon..
1. Voorjaar: AI als machtslaag, niet als gadget
Eind 2022 werd ChatGPT breed zichtbaar voor het grote publiek. In drie jaar tijd hebben taalmodellen zich dus razendsnel genesteld in werk, onderwijs, media en beleid. Velen zien het slechts als een nieuwe tool, maar ik heb al vroeg in 2025 geprobeerd het anders te framen: AI is een game-changer op alle gebied; als machtslaag, technisch, economisch, geopolitiek en cultureel (o.a. in 167 De Onderstroom van AI (1)).
In de blog over DeepSeek en de “Chinese schaduw” ging het me om de kern: een taalmodel kan overtuigend zijn zonder waar te zijn. En erger: de sturing achter de schermen — data, doelen, filters, bias — kan zó onzichtbaar zijn dat de gebruiker denkt dat hij “neutraal” wordt geïnformeerd, terwijl hij in werkelijkheid wordt gestuurd, bijgesneden of subtiel gekneed (zie: 107 De ongeziene stromen: AI en de ‘Chinese schaduw’? DeepSeek: …).
Mijn kernpunt was eenvoudig: AI verandert niet alleen wat we kunnen, maar vooral wie aan de knoppen zit. En dus is de centrale vraag niet “wat kan het?”, maar:
-
wie stuurt het?
-
waar kunnen we dat controleren?
-
en hoe zorgen we dat deze ontwikkeling niet uit de hand loopt (AGI & ASI)?
2. Zomer: schaarste verschuift van kennis naar vertrouwen, aandacht en energie
In de zomer heb ik geprobeerd één beschouwelijke stap terug te doen. Niet nóg een AI-toepassing, maar de onderliggende verschuiving: als kennis goedkoop wordt en overal beschikbaar, wat wordt dan schaars?
Het antwoord: vertrouwen, aandacht en energie.
Wie die drie kan sturen, kan in de praktijk ook het gesprek sturen: wat zichtbaar wordt, wat plausibel voelt, wat “waar” lijkt. De paradox is dat een informatierijke, intensief communicerende samenleving daardoor juist kwetsbaarder kan worden voor ruis, framing en pseudozekerheid.
In augustus en september maakte ik die analyse concreet met de reeks De Kunst van het Schrijven met AI:
-
151 De Kunst van het Schrijven met AI (1): De Illusie dat je Niet hoeft Mee te Doen
-
152 De Kunst van het Schrijven met AI (2): De Illusie van Kennis
-
153 De Kunst van het Schrijven met AI (3): De Illusie van één Slimme AI
-
(en als vervolg) 154 De Kunst van het Schrijven met AI (4): De Illusie dat het Niet Meer Jouw Tekst is (linkt via overzicht; directe URL staat daar ook)
De kern: AI verschuift je rol van auteur naar regisseur, maar haalt je verantwoordelijkheid niet weg. Integendeel. Wie AI gebruikt, móét scherper worden op vraagstelling, bron- en claimdiscipline, stijl en eigenaarschap, en ethiek.
Op een verjaardag vroeg iemand: “Wat is dan nog van jezelf?”
Mijn antwoord: net als een timmerman met een elektrische zaag — het gereedschap maakt je beter, niet minder vakman. De ideeën, de structuur, de kritische reflectie: die blijven van mij. AI helpt me sneller ordenen, scherper formuleren en grondiger checken. Maar de stem is van mij. De verantwoordelijkheid ook. (Zie ook: 146 AI? maar wat is er dan nog van jezelf…). Ik herken in dit soort vragen de angst van de jaren tachtig… “Gaat de computer mijn werk overnemen?” Met die vraag zet je jezelf in de ‘probleemgroep’, je adopteert de slachtofferrol en dat is niet nodig! Neem de uitdaging aan en kijk hoe AI je verder kan helpen binnen je werk…. Wat wordt gemakkelijker, beter, sneller etcetera.
Ik zie taalmodellen (ik gebruik er zelf minstens vijf tegelijk) als sparringpartners: snelle ordenaars, taalverbeteraars, tegenlezers, en soms ook fact-checkers — mits je weet wat je doet. Die modellen zijn “collega’s” die je eerst moet leren aansturen voordat ze je echt helpen. Dat kost tijd. Je moet ervaring opdoen, goede vragen leren stellen (in plaats van alleen antwoorden te consumeren), en ontdekken dat verschillende modellen complementair kunnen zijn.
Die complementariteit ontdek je nooit als je slechts één model gebruikt — en dat zet je op achterstand. Doe dus zoveel mogelijk ervaring op, en besef: ze veranderen ook nog eens continu. Je komt in een andere wereld van waarheidsdiscipline en reactiesnelheid. Je werk verandert, maar je omgeving ook! Maakt dat dan dat iedereen alleen maar taalmodellen moet gaan gebruiken om te schrijven? Tuurlijk niet! Net als de ‘artist’ die graag met een beitel een steen of een stuk hout bewerkt, is er altijd ruimte voor degene die het werk graag blijft doen zoals ie altijd heeft gedaan. Daar is ook niets mis mee. Voor degene die een opdracht te vervullen heeft betekent het echter wel dat er dus alternatieven zijn die je heel goed kunnen helpen om zelfs nóg betere stukken te produceren in minder tijd…
3. Najaar: van “kan het?” naar “is het veilig, eerlijk en uitlegbaar?”
Daarna verschoof mijn focus naar de maatschappelijke consequenties: systemen die selecteren, filteren en sturen. Niet als futuristische horror, maar als alledaagse bestuurlijke realiteit: algoritmes die besluiten beïnvloeden, platforms die bereik verdelen, modellen die output produceren die als “antwoord” en daarmee ook als “waarheid” wordt behandeld.
In die fase werd één criterium voor mij steeds dominanter:
Uitlegbaarheid + bezwaar + correctie = democratische hygiëne.
Zonder die drie krijg je geen “slimme samenleving”, maar een samenleving waarin mensen besluiten over zich heen voelen komen zonder dat ze nog weten waarom.
We vechten steeds minder over losse feiten, en steeds meer over de filters die bepalen welke “feiten” überhaupt bij je binnenkomen. Google toont andere resultaten dan ChatGPT. Je X-feed is totaal anders dan die van je buurman. We leven niet langer in dezelfde informatiewereld. We leven in parallelle realiteiten, gecureerd door algoritmes die we niet begrijpen en niet kunnen controleren. Dat is geen technisch probleem. Dat is een democratisch probleem.
Naast dit alles ontwikkelen de taalmodellen zich verder en liggen AGI en ASI op de loer waarbij AI binnen enkele jaren de kennis van de mens evenaart op alle gebied en alle cognitieve taken kan vervullen (Artificial General Intelligence). ASI (Artificial Super Intelligence) gaat daar ver overheen. We hebben geen idee meer hoe de verhoudingen dan komen te liggen. Bestaat er ‘safe-AI’ of worden wij de apen in kooitjes? Moeten we daartegen nu al actie nemen?
4. Winter: waarheid als infrastructuur — en als politieke kwetsbaarheid
In de laatste maanden van het jaar werd het expliciet filosofisch én praktisch: wat bedoelen we eigenlijk met waarheid in een gefragmenteerde samenleving?
Mijn hoofdconclusie is dit: veel conflicten gaan niet over losse feiten, maar over de spelregels waaronder iets als feit mag gelden. Daarom schreef ik over een infrastructuur van waarheid: de meetmethoden, instituties, media en toezichthouders die claims toetsbaar, corrigeerbaar en convergent maken.
En precies daar zit de politieke kwetsbaarheid: als die infrastructuur erodeert, groeit het wantrouwen. Niet omdat mensen “dom” zijn, maar omdat het toetsbare pad van claim → onderbouwing → correctie onzichtbaar wordt. Ik heb er vele blogs aan geweid en Lale Gül had er in de Telegraaf van 27 december 2026 een prima verwoorde column over. Juist de ideologieën hebben de neiging hun claims breder te trekken dan houdbaar in een divers, pluriform publiek domein. Als we daar niet pro-actief en duidelijk op ageren en alles maar zien als een mooi voorbeeld van inclusiviteit, scheppen we de chaos voor onze kinderen.
In mijn reeks Infrastructuur van Waarheid / Waarheid & Realiteit vroeg ik: welke waarheidsclaims zijn publiek bruikbaar — en welke niet?
Die vraag kwam ook terug in de blogs over religieuze identiteit in de publieke ruimte. Het ging me niet om het afbreken van geloof, maar om een fundamentele vraag: welke rol mag levensbeschouwing spelen in publieke functies en instellingen?
-
171 De CGK-scheuring: Religieuze Waarheid Is Geen Publieke Norm!
-
172 David de Vos en de Logica van Liefde: Exclusieve Waarheid is Moreel Onhoudbaar…
Hier ligt een belangrijke nuance. Een democratie ontleent haar bestaansrecht aan een gedeelde basis van verifieerbare feiten en universele mensenrechten. Dit is het fundament waarop we wetten bouwen en beleid toetsen. Geloofsovertuigingen die zich principieel aan elke vorm van externe toetsing onttrekken, kunnen dat fundament niet vervangen.
Tegelijkertijd moet een democratie ook ruimte bieden aan diepgewortelde, niet louter verifieerbare waarden en morele overtuigingen. Veel van onze belangrijkste debatten — over rechtvaardigheid, solidariteit, of de grenzen van vrijheid — gaan niet over “is”-feiten, maar over “ought”-vragen: hoe behoren we te leven? Die vragen worden gevoed door filosofie, cultuur, en inderdaad ook door levensbeschouwing.
Het democratische kunstwerk is daarom dubbellaags:
-
Op de procedurele laag moeten de spelregels helder zijn: transparantie, toetsbaarheid en correctie. Hier geldt: geen privilege voor ontoetsbare claims.
-
Op de inhoudelijke laag moet ruimte zijn voor een voortdurend gesprek tussen verschillende visies op het goede leven — zolang die visies onderworpen blijven aan de spelregels van de eerste laag.
De uitdaging — en de kwetsbaarheid — is dat deze twee lagen voortdurend met elkaar in wisselwerking staan. Wanneer het vertrouwen in de procedurele laag (de infrastructuur) afbrokkelt, verhardt het gesprek op de inhoudelijke laag tot een botsing van ontoetsbare waarheden. Dan valt de basis voor gesprek weg.
5. De harde consequentie: Twello Unplugged als casus over bestuur en toetsbaarheid
En toen landde het jaar in Twello Unplugged: een burgerinitiatief waarbij ik als mede-initiatiefnemer bestuurlijk heel intensief betrokken was. Juist dit project liet zien wat wél kan: samen maken, zonder winstmotief, voor de gemeenschap.
De eerste editie in juni was een groot succes. 3000 bezoekers, nul klachten, spontane sponsors en vrijwilligers voor 2026. Een festival van, voor en door de gemeenschap met alleen maar lovende woorden 9ook van het gemeentebestuur en de ambtenaren).
Maar het vervolg strandde op iets wat ik dit jaar steeds vaker als patroon ben gaan herkennen: onvoorspelbaar en kwalitatief onvoldoende en niet toetsbaar bestuur.
Als argumenten verschuiven, afwegingen niet transparant worden gemaakt, en de route naar een rationele “ja, mits” verdwijnt, dan wordt het voor vrijwilligers simpelweg onverantwoord om door te gaan.
Niet uit emotie, maar uit logica: je kunt geen energie blijven investeren in een proces waarvan de spelregels onderweg veranderen. Het is een fundamenteel ondergraven van de eigen betrouwbaarheid en dus ook het publieke draagvlak van het gemeentebestuur.
Dat is de link met mijn andere thema’s: ook hier gaat het om een infrastructuur. Niet van waarheid, maar van bestuur. En die infrastructuur moet net zo goed aan eisen voldoen: consistent, traceerbaar, transparant en corrigeerbaar.
Daarom stopten we. Niet omdat het festival faalde, maar omdat onze tijd te kostbaar is voor zinloze strijd tegen ondoorzichtige processen (uitgewerkt in: 177 Twello Unplugged: Waarom een succesvol festival stopt).
Toch blijft één ding overeind: de menselijke maat. De ambtenaren op de werkvloer die wél meedachten. De vrijwilligers die wél wilden bouwen. De bewoners die wél betrokken waren. Het zijn óók die mensen die mij blijven motiveren om te schrijven.
Wat ik zelf meeneem uit 2025 (in vijf zinnen)
-
Waarheid zonder infrastructuur (toetsing, transparantie, correctie) is politiek speelgoed.
-
AI vergroot niet alleen productiviteit, maar vooral de macht van filters — en dus de noodzaak van tegenmacht (o.a. 107 DeepSeek/Chinese schaduw, 167 De Onderstroom van AI).
-
Schrijven met AI is geen trucje; het is discipline: proces, bronnen, stijl, verantwoordelijkheid (zie de serie: 151, 152, 153).
-
Wantrouwen is vaak geen emotieprobleem, maar een structuurprobleem: onduidelijke regels en oncontroleerbare besluiten.
-
De grootste strijd van nu is niet “wie heeft gelijk?”, maar: wie mag de spelregels van gelijk bepalen? (zie o.a. 173, 174, 175).
Opening naar 2026: minder ruis, meer toetsbaarheid
Meestal kan ik niet precies aangeven welke onderwerpen tot een blog zullen leiden, maar als 2025 mij iets heeft geleerd, is het dit: we kunnen best leven met meningsverschil, pluraliteit en botsende waarden — maar niet met systemen die invloed uitoefenen zonder transparantie en controle. Ik vermoed dus, dat dit wel weer uitgebreid en met casuïstiek als aanleiding, tot nieuwe blogs zal leiden.
Ik wil in 2026 één lijn nog explicieter maken: toetsbaarheid als burgerrecht.
-
Toetsbaarheid van AI-systemen (wat doen ze, met welke data, welke belangen?)
-
Toetsbaarheid van platforms (wie krijgt bereik en waarom?)
-
Toetsbaarheid van bestuur (welke afwegingen, welke kaders, welk bezwaar, welke correctie?)
Ik heb geen behoefte aan een samenleving waarin “de uitkomst” leidend is en de route ernaartoe geheim blijft. Ik wil een samenleving waarin het juist andersom is: de route is openbaar, zodat de uitkomst legitiem kan zijn.
Dank
Dank aan iedereen die dit jaar meelas, reageerde, tegensprak, aanvulde of doorstuurde. Ik schrijf niet om gelijk te krijgen, maar om scherp te blijven: claims uit elkaar te trekken en te relativeren, aannames zichtbaar te maken, en het gesprek terug te brengen naar dat ene woord dat we te vaak vergeten: toetsbaar — of op z’n minst aannemelijk en begrijpelijk.
Op naar 2026. Met minder ruis, meer ratio, en hopelijk meer bestuur dat weer durft te zeggen: ja, mits — en dit zijn de toetsbare voorwaarden. Ik weet dat dit voor een gemeente een bijna onmogelijke stap zal blijken, maar laten we beginnen met introspectie: Zijn we er voor de burger? Nemen we de burger voldoende serieus? Zijn we procesmatig op de goede weg of moeten hier andere keuzes gemaakt worden? Vaak is de taal eenvoudig “Natuurlijk!” en de ervaren werkelijkheid van de burger “Helemaal Niet!”. Wie heeft er in zo’n geval gelijk? Wat is de te koesteren waarheid?
Fijne jaarwisseling.
P.S. Over Transparantie: Ik schreef voor deze blog eerst een opzet: “Wat moet er in, wat is de rode draad, wat zijn de belangrijkste elementen en welke conclusies horen daar bij… Vervolgens laat ik de taalmodellen; Claude, ChatGPT, Gemini, Copilot, DeepSeek en Grok een voorzet doen en gebruik ze daarna als sparringpartners voor verdere fine-tuning. Zij hielpen hier dus bij structuur, samenvattingen en formuleringen; de keuzes, standpunten, voorbeelden en eindredactie zijn van mij. Dat is precies waar ik het hele jaar over schreef: AI ‘slechts’ als gereedschap in dit geval en niet als waarheid of dictaat. De verantwoordelijkheid blijft menselijk. En ja: dankzij die gereedschappen kan ik in ongeveer de helft van de tijd een betere blog schrijven — maar alleen omdat ik de lat voor mezelf hoger leg, niet lager.
Jeroen Teelen
31 december 2025

Plaats een Reactie
Meepraten?Draag gerust bij!