185 Toekomst-Scenario’s van de samenleving met Artificial Intelligence (3): Sturing zonder illusies

, ,

Blog 3 in de reeks: Toekomst-Scenario’s van de samenleving met Artificial Intelligence (3): Sturing zonder illusies

Sturing zonder illusies

Welke keuzes en instituties maken het verschil in het AI-tijdperk

Inleiding – Van begrenzing naar sturing

In Blog 1 werd de AI-transitie gepositioneerd als een maatschappelijke systeemverschuiving. Geen vraag over wat AI allemaal kan, maar welke samenleving ontstaat wanneer AI zich ontwikkelt terwijl bestaande machts-, eigendoms- en waardestructuren grotendeels intact blijven. Dat resulteerde in vier scenario’s – Grote Divergentie, Verzorgde Tuin, Symbiose en Balkanisatie – geen voorspellingen, maar plausibele uitkomsten van keuzes die nú worden gemaakt.

In Blog 2 werd duidelijk waarom die uitkomsten niet door technologie zelf worden bepaald. AI kan middelen optimaliseren, maar geen doelen legitimeren; zij kan botsende waarden niet oplossen en geen betekenis produceren. Precies waar normatieve keuzes en collectieve afwegingen nodig zijn, houdt technologie principieel op.

Blog 3 stelt daarom de kernvraag: als AI niet kan sturen, wie of wat doet dat dan wél? Die vraag roept vaak onmiddellijke weerstand op. De actuele politieke situatie rondom AI voelt niet als “kiezen”, maar als machteloosheid. Staten lijken te traag, techbedrijven te machtig, burgers te gefragmenteerd. De klassieke instrumenten – wetgeving, regulering, belastingheffing – lijken te werken met de snelheid van een stoommachine in een wereld van glasvezel.

Toch is die machteloosheid zelf een politieke positie. Niet-kiezen is geen neutraliteit. Het laat onuitgesproken aannames en bestaande machtsverhoudingen ongestoord doorwerken. En dat produceert geen open toekomst, maar een voorspelbare: Grote Divergentie, het default-scenario dat zich vanzelf stabiliseert wanneer niemand ingrijpt.

De meetlat: drie testvragen

Deze blog gaat niet over “welke wet is goed” of “welk beleid werkt”. Zij gaat over de structurele voorwaarden waaronder keuzes daadwerkelijk verschil maken. Om te bepalen of een keuze echt stuurt – en niet slechts symbolisch is – gebruik ik drie testvragen die als meetlat door de hele analyse lopen:

1. Waar zit de hefboom? Raakt het beleid inderdaad de plekken waar macht, afhankelijkheid en richting ontstaan (architectuur, eigendom, standaardsetting, compute, data) of alleen de uitkomsten?

2. Wie heeft mandaat? Is er een aanspreekbaar instituut met brede macht om ook door te zetten, of blijft verantwoordelijkheid versnipperd? Wie kan worden aangesproken, en wie kan ingrijpen?

3. Wat is tijdkritisch? Wordt ingegrepen vóór lock-ins ontstaan, of achteraf wanneer alternatieven zijn weggevallen en sturing verschuift van “wat willen we” naar “hoe beperken we de schade”?

Beleidsteksten, intentieverklaringen en commissies zijn prima, maar zolang je deze drie vragen niet concreet kunt beantwoorden, verandert er in de praktijk weinig.

Deel I – Klassieke sturing schiet hier tekort!

Klassieke overheids-instrumenten falen hier omdat hun ‘aanknopingspunt’ structureel verschoven is.

1. Drie instrumenten onder druk

De overheid stuurt traditioneel via drie instrumenten: wetgeving, regulering/toezicht, en belastingheffing. In het AI-domein komen deze instrumenten structureel onder druk omdat de beslissende keuzes steeds eerder in de keten vallen, namelijk bij ontwerp, infrastructuur en toegang. Welke data beschikbaar zijn, wie over rekenkracht beschikt, welke architecturen dominant worden. De genoemde klassieke instrumenten grijpen veel later aan – bij naleving, gedrag of fiscale uitkomsten – wanneer afhankelijkheden al zijn ontstaan. Dan is het dus ‘reparatie achteraf’ in plaats van sturing.

Wetgeving veronderstelt afgebakende jurisdicties: vastgelegde bevoegdheden, territoriale gelding, handhaafbare normen. AI-infrastructuur past daar maar deels bij. Dataverwerking, modeltraining, chipproductie en cloudinfrastructuur zijn verspreid over meerdere ‘rechtsgebieden’ (vaak zelfs world-wide) en worden dan ook gecoördineerd door private ecosystemen met wereldwijde reikwijdte. Nationale wetgeving kan gedrag binnen een rechtsgebied normeren, maar kan mondiale infrastructuur slechts indirect beïnvloeden: via markttoegang, producteisen of aansprakelijkheid. Kortom, onze mondiale wetgeving loopt zwaar achter op de technologische ontwikkeling en de lokale wetgeving schiet eigenlijk al per definitie tekort bij AI.

De traagheid van wetgeving is een bewuste eigenschap van de democratische rechtsstaat en precies dát botst met AI.

Waarom?

  • Wetgeving is expres “frictievol”. Een wet moet door consultaties, adviesrondes, parlementaire behandeling, amendementen, uitvoerbaarheidstoetsen, rechterlijke toetsbaarheid, enz. Dat proces is de kern van legitimiteit: tegenspraak, transparantie, minderheidsbescherming en voorspelbaarheid.

  • AI verandert sneller (op willekeurig moment) dan die frictie kan bijbenen. Niet alleen “de techniek”, maar vooral: marktstructuren, dominante modellen, platform-integraties, compute-allianties, en lock-in via data en standaarden. Tegen de tijd dat je achteraf bijstuurt (handhaving, boetes, reparatiewet), zijn de afhankelijkheden en netwerkeffecten al geconsolideerd.

  • Daarom werkt AI-wetgeving beter “vooraf” dan “achteraf”.

    • Vooraf: regels die bepalen wat überhaupt mag landen in de samenleving: ontwerp-voorwaarden, toelating, auditability, interoperabiliteit, data-governance, transparantie-eisen, export/compute-voorwaarden, publieke standaarden. Dit zijn structuurregels.

    • Achteraf: normen die pas ingrijpen als schade optreedt of gedrag afwijkt. Dat zijn eventuele correctieregels. Bij AI komen die vaak te laat, omdat de maatschappelijke en economische inrichting dan al vastligt en eventuele schade al mondiaal is opgetreden.

Kort gezegd: omdat democratische wetgeving terecht langzaam en zorgvuldig is, moet ze haar kracht vooral inzetten waar dat tempo geen nadeel is: bij het zetten van randvoorwaarden aan het begin van de keten(design/infrastructuur/toegang), niet bij het oplappen aan het einde.

Regulering en toezicht zijn traditioneel gericht op gedrag van marktpartijen: naleving, correct gebruik, zorgvuldige toepassing. Bij AI is dat aanknopingspunt fundamenteel verschoven. Het waarneembare gedrag van een AI-systeem is grotendeels het gevolg van vooraf vastgelegde ontwerpkeuzes: doelfuncties, trainingsdata, optimalisatiecriteria, feedback-loops.

Een concreet voorbeeld:
Een algoritme dat hypotheekaanvragen beoordeelt, “kiest” niet zelf wat risicovol is – het berekent volgens patronen die vooraf zijn vastgelegd door engineers, op basis van historische data die bepaalde groepen systematisch kunnen benadelen. Wanneer toezicht zich primair richt op gebruik, komt het structureel te laat: de onderliggende beslislogica ligt dan al vast.

Belastingheffing veronderstelt dat economische waarde binnen territoria zichtbaar wordt als winst, loon of transacties. AI-bedrijven opereren echter veelal met immateriële activa en internationale structuren waarin winst flexibel kan worden gealloceerd (zowel lokatie als vorm). Belangrijker: macht in AI-ecosystemen is niet uitsluitend gebaseerd op winst, maar op controle over rekenkracht, data, distributiekanalen en standaarden. Deze controlerechten maken waarde-extractie mogelijk, maar vallen zelf grotendeels buiten klassieke belastinggrondslagen.

Schema 1 – Klassieke instrumenten en hun beperkingen

Instrument Aanknopingspunt Beperking bij AI
Wetgeving Territoriale jurisdictie, naleving Infrastructuur is transnationaal; kernkeuzes liggen buiten bereik
Regulering/toezicht Gedrag van marktpartijen Gedrag is voorgestructureerd door ontwerp; toezicht komt te laat
Belastingheffing Winst, loon, transacties Macht zit in toegang en controle, niet alleen in winst

2. De Collingridge-paradox: waarom timing cruciaal is

De structurele spanning tussen technologie en sturing is geen nieuw inzicht. De techniekfilosoof David Collingridge formuleerde in 1980 wat sindsdien de Collingridge-paradox heet: wanneer een technologie nieuw is, kunnen we de maatschappelijke impact niet goed voorspellen – dus weten we niet hoe we moeten sturen. Maar wanneer de impact duidelijk wordt, is de technologie zo diep ingebed dat sturing bijna onmogelijk is geworden.

Bij AI is deze paradox bijzonder acuut. AI-systemen produceren structurele lock-ins: infrastructuur, standaarden, afhankelijkheden en netwerkeffecten die zichzelf versterken. Zodra een model of platform eenmaal als standaard functioneert – in onderwijs, recruitment, kredietverlening of zorgtriage – ontstaat een ecosysteem van tooling, integraties, training, contracten en institutionele routines. Die omgeving stabiliseert het bestaande systeem, ongeacht de kwaliteit of wenselijkheid. Migreren naar een alternatief is dan geen technische keuze meer, maar een organisatorische, juridische en sociale herstructurering. In dat stadium zijn switching costs geen marktfactor, maar een bestuurlijk feit. Ze beperken de handelingsvrijheid van politiek en toezichthouders.

De lock-in keten: hoe afhankelijkheid ontstaat:  Compute    Data    Model    Ecosysteem    Afhankelijkheid    Macht

Elke schakel versterkt de volgende: wie over rekenkracht beschikt, kan data verwerken; wie data heeft, kan modellen trainen; wie modellen heeft, bouwt ecosystemen; wie ecosystemen beheerst, creëert afhankelijkheid; wie afhankelijkheid creëert, verwerft macht. Deze keten is niet toevallig, maar het resultaat van rationele strategieën in platformmarkten.

Daarom is “later bijsturen” vaak een eufemisme voor: “nu de facto macht laten ontstaan” om vervolgens later te proberen de schade te beperken zonder de machtsbron aan te raken. Het venster om op de kern te sturen – ontwerp, standaarden, toegang – sluit meestal vóórdat de maatschappelijke effecten volledig zichtbaar zijn.

Schema 2 – Keuzevensters en omkeerbaarheid

Fase Omkeerbaarheid Type sturing
Ontwerp & standaardzetting Hoog – architectuur ligt nog open Ingrijpen in ontwerp is effectief
Dominante standaard Beperkt – lock-ins nemen toe Bijsturen is kostbaar en politiek zwaar
Vastliggende infrastructuur Laag – ecosystemen zijn verankerd Sturing verschuift naar schadebeperking

3. Architectuur is ‘beleid in code’

Een derde obstakel is de voorstelling dat technologie “op zichzelf” neutraal is en dat alleen het gebruik gestuurd hoeft te worden. Maar elke AI-toepassing bevat normatieve keuzes, ook als niemand dat zo bedoelt. Welke doelen worden geoptimaliseerd? Welke variabelen gelden als relevant? Welke fouten zijn acceptabel, en voor wie?

Die keuzes zitten niet in de gebruikersinterface, maar in ontwerp: in labeling, loss functions (statistische correcties van fouten), evaluatiemetrieken, thresholds, default-instellingen, feedback-loops.

Een systeem dat sollicitanten rangschikt, bevat al een definitie van “geschikt” voordat het in HR wordt ingezet. Een recommender die nieuws personaliseert, bevat al een definitie van “relevant” voordat iemand het leest. Een taalmodel dat beleidsopties genereert, bevat al aannames over wat “optimaal” is.

Daarom is “sturing van gebruik” vaak sturing van symptoom. Je kunt regels maken over toepassing, maar als de architectuur de normatieve keuzes al verankert, corrigeer je achteraf wat je vooraf had moeten borgen. Technologie is dus geen neutraal ‘voorveld’ meer maar een politiek domein. “Architectuur is beleid in code”.

Implicatie: als we ontwerp, standaarden en toegang niet adresseren, sturen we dus op de buitenkant van systemen terwijl de binnenkant onveranderd blijft. Dan is sturing dus een illusie.

Deel II – Sturing vereist drie fundamentele verschuivingen in denken én handelen.

De drie obstakels uit Deel I – jurisdictie, timing en neutraliteitsillusie – maken één ding duidelijk: sturing vereist niet alleen andere instrumenten, maar een fundamenteel ander denkkader. Dat kader heeft drie pijlers.

1. Van regulering naar architectuur: sturen via ontwerpvoorwaarden

Traditionele sturing gaat over regels die gedrag beperken. Bij AI wordt gedrag voorgestructureerd door architectuur. Een algoritme “kiest” niet in morele zin; het berekent volgens patronen en doelen die vooraf zijn vastgelegd. Die patronen zijn dus ontwerp en geen gedrag.

Kernpunt (samengevat)

Daarom wordt sturing van de architectuur noodzakelijk: het verankeren van normatieve randvoorwaarden in de ontwerpfase. Concreet gaat het bijvoorbeeld om:

  • Transparantie-by-design: niet alleen rapporten, maar interfaces voor auditing
  • Uitlegbaarheid als functionele eis waar relevant
  • Recht op menselijke tussenkomst bij bepaalde beslissingen
  • Logging en traceerbaarheid
  • Interoperabiliteit om lock-ins te beperken
  • Eisen aan datakwaliteit en representativiteit

De EU AI-Act is een aanzet, maar blijft grotendeels categoriserend (risicoklassen) en compliance-gericht (regels naleven in plaats van doelen bereiken). Echte architecturale sturing gaat verder: het creëert voorwaarden waardoor controle, toetsing en migratie structureel mogelijk blijven. Dat is in feite politieke macht: het recht om systemen te kunnen inspecteren, betwisten en vervangen.

En dan komt de politieke kernvraag: wie bepaalt die ontwerp-voorwaarden? Daarmee zitten we dus bij ‘mandaat’.

2. Van eigendom naar toegang: herverdeling als toegangspolitiek

Klassiek eigendom gaat over fysieke schaarste. Data en modellen zijn anders: eenmaal geproduceerd zijn reproductiekosten laag, terwijl de waarde juist in exclusieve controle, integratie en netwerkpositie zit.

Daarom is herverdeling in een AI-tijdperk niet alleen inkomenspolitiek, maar vooral ook toegangspolitiek. De vraag is: wie heeft toegang tot de middelen die AI-macht mogelijk maken?

  • Compute: rekenkracht en cloudtoegang
  • Hoogwaardige datasets en dataruimtes
  • Modellen en model-interfaces
  • Standaarden en ecosystemen
  • Distributiekanalen (besturingssystemen, appstores, enterprise-integraties)

Wie toegang bepaalt, bepaalt ook macht. Dat kan via instituties die niet primair winstgedreven zijn: publieke data-infrastructuur, open-source modellen met publieke onderhoudsstructuren, coöperatieve eigendomsvormen of data-trusts waarbij burgers collectief voorwaarden stellen.

Wie alleen herverdeelt via geldstromen maar toegang concentreert, krijgt alsnog Grote Divergentie – maar dan met een dun sociaal vangnet. Het Alaska Permanent Fund – waarbij olie-inkomsten als dividend onder burgers worden verdeeld – biedt een rudimentair model voor hoe AI-productiviteit publiek kan terugvloeien, maar omvat niet de hefbomen.

3. Van representatie naar legitimiteit: bestuur voorbij de stembus

Traditioneel werkt democratie zo: we stemmen → politici maken wetten → die worden uitgevoerd.

Bij AI loopt dat anders. Veel beslissingen (zoals een hypotheekscore) worden niet door gekozen politici genomen, maar door algoritmes die zijn ontworpen door techneuten en gebruikt door organisaties. Democratische controle komt vaak pas achteraf, via toezicht of klachten.

Omdat AI snel, ingewikkeld en grensoverschrijdend is, werkt alleen stemmen en wetgeving niet meer. Daarom krijgt legitimiteit bij AI meer dan één basis:

  • Procedureel: het systeem wordt getoetst, is controleerbaar, en mensen kunnen bezwaar maken of een mens om een oordeel vragen.

  • Inhoudelijk: sommige beslissingen mogen simpelweg niet door AI worden genomen (zoals strafoplegging of asielbesluiten).

  • Participatief: burgers worden indirect betrokken, bijvoorbeeld via onafhankelijke commissies van deskundigen die belangen en risico’s beoordelen.

Kort gezegd
AI valt vaak buiten de klassieke democratische keten.
Daarom moet legitimiteit niet alleen uit de stembus komen, maar ook uit regels, grenzen en controle tijdens ontwerp en gebruik.

Eenvoudige, tastbare voorbeelden
  1. Procedurele legitimiteit – hypotheek-algoritme
    Niet democratisch gekozen, wél gelegitimeerd doordat: het model extern wordt geaudit, burgers uitleg krijgen en bezwaar kunnen maken, een mens de beslissing kan overrulen.
    → Legitimiteit dus via procedure, niet via verkiezing.

  2. Substantiële legitimiteit – strafrecht
    Je kunt een AI gebruiken om dossiers te ordenen, maar niet om automatisch straffen op te leggen.
    → De grens (“dit mag nooit volledig geautomatiseerd”) is zelf een politieke keuze.

  3. Participatieve legitimiteit – gemeentelijk algoritme
    Gemeente gebruikt AI voor fraude-opsporing. Niet alle burgers doen mee aan het ontwerp, maar: een onafhankelijke commissie (juristen, datawetenschappers, burgerrechtenorganisaties) toetst het systeem vooraf en periodiek.
    → Belangenvertegenwoordiging via deskundige tussenlagen.

  4. Vergelijking met klassieke democratie
    Verkiezingen legitimeren wie beslist. AI-governance legitimeert vooral hoe er beslist wordt en wat niet mag worden beslist.

Kernpunt (samengevat)
AI valt buiten de stembusketen.
Legitimiteit verschuift van representatie naar een mix van procedures, grenzen en betrokkenheid.
Dat is dus geen vervanging van democratie, maar een noodzakelijke aanvulling op terreinen waar klassieke instituties niet meer volstaan.

Geen van deze vormen is genoeg op zichzelf. Samen vormen ze wat je een infrastructuur van legitimiteit zou kunnen noemen: parallel aan de technische infrastructuur. En precies die infrastructuur is nu onderontwikkeld. Dat is de kern van het sturingsprobleem.

Schema 3 – Drie domeinen, drie logica’s

Domein Logica Kernfunctie
Technologie Optimalisatie Middelen versnellen voor gegeven doelen
Bestuur Legitimering Keuzes rechtvaardigen, conflicten afhandelen
Samenleving Betekenisgeving Zingeving en erkenning produceren

Problemen escaleren wanneer deze logica’s worden vermengd: als optimalisatie de plaats inneemt van legitimiteit, of als betekenis wordt geoutsourcet aan systemen die daar principieel niet toe in staat zijn.

Deel III – Institutionele antwoorden per ‘eind-scenario’

Dit deel laat zien: elk scenario uit Blog 1 vereist specifieke instituties.

Sturing vereist instituties. Maar welke? Er bestaat geen consensus over wat die instituties moeten bereiken. Blog 1 schetste vier scenario’s met verschillende normatieve uitgangspunten. Daarom kan deze sectie geen blauwdruk geven. Wel kan ze laten zien welke mechanismen elk scenario structureel vereist als toets.

4. Grote Divergentie: de default bij uitblijven van tegenmacht

Dit scenario is geen bewuste keuze, maar het gevolg van het ontbreken ervan. Als geen nieuwe instituties worden opgebouwd, blijven bestaande structuren intact – en die leiden voorspelbaar tot concentratie. Niet door kwade wil, maar door rationele prikkels in platformmarkten:

  • Schaalvoordelen: meer rekenkracht → betere modellen
  • Netwerkeffecten: meer gebruikers → meer data → betere prestaties
  • Integratie en lock-ins: ecosystemen, standaarden, tooling
  • Kapitaalintensiteit: hoge toetredingsdrempels

Dit zijn zelfversterkende mechanismen zolang ze niet actief worden begrensd. Wie controle heeft over essentiële AI-infrastructuur, verkrijgt feitelijke macht over wat mogelijk is – grotendeels los van democratische besluitvorming.

De kernvraag is daarom niet of spanning ontstaat, maar hoe lang democratieën het verschil tussen formele representatie en feitelijke machtsconcentratie kunnen opvangen voordat de bestuurlijke legitimiteit onder druk komt te staan.

Concrete illustratie: de dominantie van OpenAI / Microsoft in foundation models (2023–heden) laat zien hoe snel concentratie kan ontstaan wanneer vroege spelers schaal- en netwerkeffecten effectief benutten.

5. Verzorgde Tuin: instituties voor spreiding en betekenis

Dit scenario veronderstelt dat AI-productiviteit niet alleen private winst oplevert, maar publiek wordt benut. Zo’n samenleving ontstaat niet vanzelf; zij steunt op drie soorten instituties.

A. Toegang en eigendom: Naast private spelers ook publieke voorzieningen, coöperaties en commons. Toegang tot rekenkracht, open modellen, publieke dataruimtes. Zonder brede toegang wordt AI-productiviteit automatisch geconcentreerd.

B. Herverdeling: Als AI productiever wordt terwijl menselijk werk minder nodig is, valt inkomen steeds minder samen met arbeid. Dan is herverdeling geen noodmaatregel, maar een structurele functie – via basisinkomen, digitale dividenden, of vermogensheffing.

C. Betekenis en erkenning: Als betaald werk minder bepalend wordt voor status en identiteit, moet de samenleving andere bronnen van erkenning ondersteunen: cultuur, onderwijs, zorg, lokale gemeenschappen, publieke ruimte. Dat klinkt vertrouwd, maar krijgt nieuwe urgentie zodra werk niet langer de spil van het sociale leven is.

In één zin: de Verzorgde Tuin vraagt instituties die toegang spreiden, inkomensschokken opvangen en betekenis organiseren – anders wordt AI-productiviteit geen publieke winst, maar een bron van nieuwe ongelijkheid.

6. Symbiose: versterking vraagt democratische toegang

Symbiose veronderstelt dat mensen AI gebruiken om eigen cognitieve capaciteiten te vergroten. Dat is geen gadget-vraagstuk maar ongelijkheidspolitiek. Als die versterking ongelijk verdeeld is, ontstaat een nieuwe kloof: niet alleen inkomensverschil, maar capaciteitsverschil. Wie sneller kan leren, analyseren en beslissen, verwerft structurele macht.

Symbiose vereist daarom instituties die:

  • Toegang tot krachtige AI-assistenten democratiseren (publieke voorziening)
  • Onderwijs transformeren (AI-geletterdheid als basisvaardigheid)
  • Normeren wat “toelaatbare” versterking is in kritieke domeinen
  • Verantwoordelijkheid en aansprakelijkheid herdefiniëren

Want als beslissingen mede tot stand komen via AI-ondersteuning: wie is dan verantwoordelijk? De mens? De leverancier? De organisatie? Symbiose dwingt tot herziening van wat “menselijk handelen” juridisch en moreel betekent.

Concrete illustratie: de toekomstige toegang tot Neuralink-achtige technologieën kan een kloof creëren tussen cognitief versterkte en niet-versterkte burgers – een nieuwe as van ongelijkheid.

7. Balkanisatie: fragmentatie als strategie

Fragmentatie wordt vaak gezien als mislukking: het internet en AI zouden juist mondiaal moeten functioneren. Dat oordeel is begrijpelijk, maar een te simpele conclusie. Fragmentatie kan ook een bewuste en rationele reactie zijn op bijvoorbeeld grote machtsverschillen/culturele ongelijkheden – niet omdat het ideaal is, maar om afhankelijkheidsrisico’s te beperken.

Als geen mondiale afspraken bestaan over AI-sturing, en als cruciale infrastructuur zich onttrekt aan democratische controle, kan fragmentatie een manier zijn om autonomie te behouden. Het is soms rationeler om meerdere, deels gescheiden systemen te hebben dan één dominant platform waar je geen invloed op hebt.

Daarbij geldt een harde voorwaarde: balkanisatie werkt alleen bij digitale soevereiniteit. Dat betekent beschikken over eigen infrastructuur, eigen technische capaciteit en eigen standaarden. Zonder die basis is soevereiniteit vooral een woord, geen werkelijkheid. En die afhankelijkheid is actueel: als iedereen de iCloud gebruikt en een buitenlandse regering de schakelaar kan omdraaien, is dat geen beschikbaarheid maar risico.

Tegelijk blijft fragmentatie ambivalent: ze kan beschermen tegen machtsconcentratie, maar maakt mondiale samenwerking lastiger op terreinen waar die nodig is – klimaat, pandemieën, veiligheid.

Samengevat: balkanisatie is geen ideale uitkomst, maar soms een verdedigbare keuze wanneer mondiale sturing ontbreekt en afhankelijkheid te groot wordt. Anno nu, zou deze keuze zomaar eens de onze kunnen zijn!

Schema 4 – Scenario’s en vereiste instituties

Scenario Eigendom/Toegang Legitimiteit Herverdeling
Grote Divergentie Private concentratie Zwak/afwezig Beperkt/compensatoir
Verzorgde Tuin Commons/publiek/hybride Co-governance Structureel (dividend/UBI)
Symbiose Gedeelde toegang nodig Herdefinitie verantwoordelijkheid Cognitieve rechtvaardigheid
Balkanisatie Regionaal/soeverein Regionaal Variabel

Deel IV – Schaal, tijd en macht: drie dimensies

Dit deel laat zien dat zelfs goede instituties falen als ze de structurele dimensies (zoals schaal, tijd en macht) negeren.

1. Geopolitieke asymmetrie: macht en instituties hebben niet meer dezelfde schaal

AI-macht concentreert zich rond enkele bedrijven, datacenters, supply chains en ecosystemen. Die schaal is grensoverschrijdend – netwerkachtig, niet territoriaal. Daartegenover staan nationale staten met territoriale bevoegdheden en trage besluitvorming. Sleutelhefbomen – compute, cloud, chips, data, standaarden – liggen grotendeels buiten directe staatscontrole.

Drie governance-modellen tekenen zich af, elk met eigen logica en risico’s:

VS-model (markt/scale-first): innovatie via private schaal, sturing achteraf via aansprakelijkheid en sectorregulering. Risico: lock-in bij private infrastructuur, democratische controle als bijzaak.

China-model (staat/strategie-first): hoge centralisatie, snelle implementatie, legitimiteit meer performance-gedreven dan procedureel. Risico: export van autoritaire governance-patronen, broosheid op lange termijn.

EU-model (rechten/regels-first): nadruk op rechten, markttoegang en normering. Risico: afhankelijkheid van externe hardware/compute, interne fragmentatie, regelgeving zonder infrastructurele basis. Digitale soevereiniteit vereist technologische capaciteit – en die ontbreekt grotendeels.

Geen model is neutraal. Daarom is “mondiale governance” makkelijk gezegd en moeilijk gerealiseerd. Balkanisatie verschijnt dan niet als irrationeel falen, maar als rationele reactie op het ontbreken van gedeelde sturing.

Schema 5 – Geopolitieke governance-modellen

Model Primaire logica Kernrisico Snelheid
VS Markt, private schaal Lock-in, democratisch tekort Hoog
China Staat, strategische integratie Autoritaire export, broosheid Hoog
EU Rechten, markttoegang Afhankelijkheid, fragmentatie Laag

2. Tijd en onomkeerbaarheid: Sturing als timing-vraagstuk

Technologische systemen kennen lock-ins: dominante standaarden, datamonopolies, geïntegreerde ecosystemen, organisatorische afhankelijkheden. Later corrigeren wordt duurder en politiek moeilijker. Sturing is daarom niet alleen “wat”, maar ook “wanneer”.  Deze lock-ins zijn ook niet toevallig, maar gevolg van strategisch ontwerp. Bedrijven bouwen ecosystemen waarin klanten, ontwikkelaars en overheden afhankelijk worden. Dat is rationeel gedrag in platformmarkten.

De kernvragen zijn:

  • Wanneer wordt “neutraliteit” feitelijk een keuze?
  • Wanneer sluit het venster voor ontwerpinterventie?
  • Wanneer verschuift beleid van “wat willen we” naar “hoe beperken we de schade”?

Democratische besluitvorming is ontworpen voor deliberatie. Dat is waardevol, maar maakt timing cruciaal. Als je de kernhefbomen mist, blijft je democratische proces intact terwijl je feitelijke controle verdampt. Sturing is daarmee ook een kwestie van timing: te vroeg is onverstandig, maar te laat is irreversibel.

3. Burgers buiten de stembus: legitimiteit vraagt tegenmacht

In klassieke democratische modellen zijn burgers vooral kiezers: eens per vier jaar een stem uitbrengen. In het AI-tijdperk zijn burgers óók data-producenten, gebruikers, object van algoritmische beslissingen en dragers van maatschappelijke gevolgen. Daarmee worden ze ook mede-actoren in legitimiteit – niet omdat iedereen alles moet beslissen, maar omdat zonder hen geen duurzame legitimiteit bestaat. Hier past een waarschuwing tegen participatiefetisjisme. Inspraak lost niet alles op en daarom drie harde voorwaarden:

  • Participatie zonder invloed is theater. Burgerberaden zonder mandaat produceren cynisme, geen legitimiteit.
  • Participatie zonder erkenning is cynisme. Als bijdragen niet worden erkend, trekt betrokkenheid zich terug.
  • Participatie zonder structuur is chaos. Participatie vereist institutionele inbedding: duidelijke opdrachten, opvolgingsmechanismen, bindende uitkomsten waar relevant.

Wat wel nodig is: institutionele tegenmacht. Onafhankelijke toetsing, audit-rechten, burgerberaden met duidelijke opdracht en opvolgingsmechanismen, data-trusts, coöperatieve governance. Dit is noodzakelijk omdat legitimiteit anders verdwijnt in een ’technostructuur’ die weliswaar optimaliseert, maar niet kan rechtvaardigen.

En hier raakt deze blog terug aan Blog 2: zingeving en erkenning ontstaan sociaal. Als arbeid minder vanzelfsprekend status levert, kan participatie in sturing een vorm van erkende bijdrage worden – politieke arbeid: het vormgeven van instituties die je eigen leven structureren.

Slot – Sturen zonder illusies

Sturing is nooit neutraal. Zij is altijd:

  • Normatief: welke waarden verankeren we in ontwerp en instituties?
  • Tijdgebonden: welke lock-ins voorkomen we nu, welke accepteren we?
  • Machtsgevoelig: welke asymmetrieën erkennen we en hoe bouwen we tegenmacht?

De gevaarlijkste illusie is niet dat AI te machtig wordt, maar dat maatschappelijke keuzes kunnen worden uitbesteed aan systemen – of simpelweg worden vermeden door niets te doen. Niet-kiezen is de meest radicale keuze die een bestuurder of burger kan maken, want het laat onuitgesproken aannames en bestaande machtsverhoudingen ongestoord hun werk doen.

Een paar simpele vragen dwingen eerlijkheid af:

  • Wie “innovatie stimuleren” zegt zonder eigendomsstructuren te adresseren, kiest impliciet voor concentratie.
  • Wie “verantwoorde AI” belooft zonder onafhankelijke toetsing en audit-rechten, claimt legitimiteit zonder die te organiseren.
  • Wie “geen mening” heeft over AI-sturing, accepteert stilzwijgend dat anderen (Big Tech als metafoor) de keuzes maken en dus de macht overnemen.

Sturen zonder illusies betekent: keuzes maken die soms pijnlijk zijn, instituties bouwen die macht verschuiven, en legitimiteit organiseren vóórdat lock-ins die mogelijkheid uitsluiten. Een nuchtere eis aan volwassen politiek.

Nog enkele concrete voorbeelden van hefbomen: van analyse naar actie van bestuur

Illustratie van wat “werkzame hefbomen” in de praktijk kunnen betekenen.

1. Waar zit de hefboom? – Acties die de kern raken

Publieke inkoop als directe hefboom – Verplicht in alle aanbestedingen: open standaarden, dataportabiliteit, exit-plan, audit-rechten, transparantie over model/dataset/compute, geen vendor lock-in. Maak “niet voldoen” een uitsluitingsgrond. Dit is morgen inzetbaar.

Standaarden en interoperabiliteit afdwingen – Nationale/EU-profielen vaststellen voor: model-API’s, logging, evaluatie, model cards, dataset cards, provenance/traceerbaarheid, security-by-design. Interoperabiliteitseisen koppelen aan vergunningen/markttoegang in kritieke sectoren (zorg, energie, overheid).

Eigendom en toegang tot data juridisch hardmaken – Wettelijk verankeren: data die in publieke taakuitvoering ontstaan blijven onder publiek regime (toegang, hergebruik, governance). Datadeling via data-trusts/coöperaties met duidelijke rechten/plichten in plaats van ad-hoc contracten.

Compute en infrastructuur als fysieke hefboom – Classificeer “kritieke AI-infra” (datacenters, accelerators, sovereign cloud) en koppel daar eisen aan: leveringszekerheid, audit, incidentmelding, energie- en netimpact, concentratierisico. Richt een publiek/Europees compute-instrument in: gereserveerde capaciteit voor wetenschap, MKB, publieke sector.

Distributiekanalen reguleren – In sectoren waar AI “de interface” wordt (zorgtriage, uitkeringsbesluiten, onderwijsadvies): regels voor menselijke escalatie, uitleg, bezwaarbaarheid, logging, en verbod op black-box als beslissende schakel.

2. Wie heeft mandaat? – Acties die legitimiteit hardmaken

Eén verantwoordelijke minister met doorzettingsmacht – Wijs expliciet een bewindspersoon aan als systeemverantwoordelijke voor AI-macht en -afhankelijkheden (niet versnipperen). Geef die rol instrumenten: budget, aanwijzingsbevoegdheid richting uitvoerders, escalatierecht bij conflicten.

Heldere aansprakelijkheid in ketens – Leg wettelijk vast wie aansprakelijk is bij schade: leverancier, integrator, gebruiker/overheid – inclusief bewijs- en logplicht. Verplicht model- en datalogging zó dat een rechter/inspectie achteraf kan reconstrueren wat er gebeurde.

Toezicht ‘met tanden’ – Versterk een inspectie (of bundel) met: bevoegdheid tot inzage in modellen, evaluaties, incidenten en contracten; boetebevoegdheid; stop-knop bij onveilige inzet. Maak jaarlijkse “AI-risicorekening” verplicht voor grote publieke uitvoerders (zoals jaarrekening, maar dan risico/afhankelijkheid/incidenten).

Parlementaire controle operationaliseren – Niet “hoorzittingen”, maar: verplicht kwartaalrapport over (a) afhankelijkheden, (b) incidenten, (c) lock-ins, (d) voortgang open-standaarden, (e) grote contracten.

3. Wat is tijdkritisch? – Acties die lock-ins vóór zijn

Lock-in toets verplichten – Bij elk groot AI/IT-contract: verplichte lock-in-toets (exitkosten, dataportabiliteit, substitueerbaarheid, concentratierisico). Als de uitkomst “hoog lock-in”: alleen toestaan met parlementaire melding + mitigerend pakket (escrow, dual sourcing, open interfaces).

Sunset clauses en herbeoordeling – AI-inzet in publieke kerntaken krijgt een afloopdatum (bijv. 2–3 jaar) met verplichte hercertificering op basis van gemeten effecten, bias, fouten, security.

Snel pad voor standaarden – Stel binnen 6–12 maanden een minimale set nationale/EU-eisen vast (logging, audit, interoperabiliteit), en breid daarna iteratief uit. Reden: zodra systemen breed zijn uitgerold, worden eisen politiek/operationeel “onbetaalbaar”.

Strategische stop/go-momenten – Definieer expliciete “niet verder” criteria: onverklaarbare foutklassen, ontbrekende logs, oncontroleerbare derde-land datastromen, onacceptabele afhankelijkheid van één leverancier.

Deze maatregelen zijn technisch en juridisch haalbaar. Wat ontbreekt is niet kennis, maar politieke wil en institutionele capaciteit. De vraag is nu wanneer ze worden ingezet – vóór of ná de lock-ins.

Aannames en onzekerheden

Een serieuze analyse erkent haar grenzen. Deze blog berust op aannames die je kunt betwisten – maar die discussies voeren is beter dan ze te ontkennen:

  • AI-capaciteiten groeien snel en diffunderen breed; ook zonder “AGI” verschuift de machtsbalans al merkbaar.
  • Collectieve ‘waarheid’ migreert.
  • Eigendom en toegang blijven geconcentreerd tenzij er actieve tegenmacht ontstaat – dit is een aanname over marktdynamiek, geen feit.
  • Geopolitieke rivaliteit beperkt mondiale governance; regionaal beleid wordt daarom cruciaal – maar internationale doorbraken zijn niet uitgesloten.
  • Democratische instituties zijn deliberatief en dus traag, maar kunnen wél vooraf sturen als ontwerphefbomen expliciet worden gemaakt.
  • Burgers kunnen mede-actor zijn als er echte invloed, structuur en erkenning bestaat; zonder die voorwaarden werkt participatie averechts.

De toekomst is onzeker. De ambitie van deze blog is dus niet voorspellen, maar de structuur van keuzes blootleggen.

Het gaat in deze blogs dus slechts om ‘being prepared’ – niet om ‘wijsheid in pacht!’

Dat vraagt om het combineren van vele inzichten en verwachtingen. Niet te doen natuurlijk, maar wel waard om te proberen en discussie op gang te brengen– in belang van onze (klein)kinderen.

 

Jeroen Teelen (schrijver-regisseur, voor deze blog-serie, met zes taalmodellen als sparringpartners in concurrentie)

30 januari 2026

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.