167 De Onderstroom van AI (1): Een analyse van de stille revolutie die zich onder onze neus afspeelt: ‘Beleid en Afweging’
Een analyse van de stille revolutie die zich onder onze neus afspeelt-Deel 1
Ook deze maand stond het nieuws weer bol van de nieuwste AI-wonderen. Personal agents die in een oogwenk je declaraties regelen. Haarscherpe video’s die binnen seconden uit het niets tevoorschijn worden getoverd. Slimme tools die je overvolle mailbox afhandelen alsof het niets is.
Het zijn de headlines die we inmiddels gewend zijn. De snelle successen, de wow-momenten, de beloftes van een efficiëntere toekomst. Maar terwijl wij ons laten betoveren door deze glimmende gadgets en indrukwekkende demo’s, gebeurt er onder die oppervlakte iets veel ingrijpenders. Iets dat fundamenteler is dan welke app of tool dan ook.
AI transformeert stilletjes van een ‘slimme tool’ naar een onmisbare laag in onze infrastructuur.
Het gaat straks niet meer alleen over slimme software maar over een complete nieuwe structuur van macht, afhankelijkheden en ethische dilemma’s, die zich nu aan het vormen is. Een structuur die ook bepaalt wie straks toegang heeft tot de digitale toekomst – en wie niet.
De échte vraag is dus: wie stuurt het systeem erachter? Of, nog belangrijker misschien: Wie heeft straks nog de luxe om te kunnen weigeren? We kúnnen niet meer zonder, in een moderne samenleving… Het wordt even belangrijk als Social-Media, E-mail en computertechnologie bij elkaar! Toch terug naar het ‘hutje op de hei’?
Beleid: AI Wordt (Autonome?) Kritieke Infrastructuur
Van Chatbot naar Stroomslurper van Formaat
OpenAI, de club van o.a. ChatGPT, heeft aangekondigd dat ze vanaf 2026 eigen AI-chips gaan uitrollen. Dit doen ze niet alleen – Broadcom is hun partner in deze ambitieuze onderneming. En ambitieus is nog zacht uitgedrukt. We hebben het niet over een paar rekencentra hier en daar. Nee, OpenAI bouwt een complete infrastructuur die maar liefst een continue capaciteit van 10 gigawatt aan energie (10 moderne kerncentrales) gaat vragen.
Om dat in perspectief te plaatsen: dat is ongeveer evenveel elektriciteit als Finland of Tsjechië in een jaar verbruikt. Één AI-bedrijf gebruikt dus de consumptie van een compleet land!
Waarom is dit zo’n game-changer?
AI draait allang niet meer alleen op slimme algoritmes en mooie modellen. Het draait op harde, fysieke infrastructuur:
-
gigantische hoeveelheden stroom
-
schaarse materialen voor chips
-
enorme koelinstallaties
-
netcapaciteit die nu al kraakt onder de belasting
Wie de hele keten beheerst – van chipontwerp tot datacenters – bouwt feitelijk een moderne digitale spoorweginfrastructuur. Anderen mogen wel meerijden, maar jij bepaalt de dienstregeling, de prijzen en wie er überhaupt op het perron mag staan.
Daarom moeten overheden zich niet alleen bezighouden met wat AI-toepassingen doen, maar met de volledige infrastructuur erachter:
-
energie-inpassing (waar halen we die extra gigawatts vandaan?)
-
netimpact (kan het net dit aan?)
-
vergunningen (wie mag waar bouwen?)
-
leveringszekerheid (wat als de stroom wegvalt?)
-
geopolitieke afhankelijkheden (van wie zijn onze chips en machines?)
Politici die dan maar “tegen AI zijn” omdat het te veel energie kost, maken een fundamentele fout: zij schuiven de regie door naar partijen die wél investeren en worden zo afhankelijk van andermans keuzes. Dat is geen duurzaam energiebeleid, het is stoppen met wetenschap en technologische ontwikkeling.
Beleidskeuzes rond AI staan dus niet op zichzelf. Klimaat, ruimtelijke ordening, energietransitie, wetenschap, gezondheidszorg en internationale handel grijpen direct in elkaar. De echte vraag wordt: wie mag rekencapaciteit bouwen, onder welke voorwaarden, en wat betekent het als wij “nee” zeggen — en anderen elders volmondig “ja” zeggen?
Het vraagteken in het kopje van dit stukje is misschien voor je gevoel een beetje prematuur, maar specialisten denken daar heel anders over. Dat heeft meer te maken met de verwachte ontwikkelingen, zelfs op de kortere termijn, waarbij AI het niveau van de mens overstijgt, en niet zomaar een klein beetje, maar met een exponentiële groei...
AI in de Kliniek: Veelbelovend, Maar de Weg is Lang
AlphaFold
Het AI-systeem van Google DeepMind dat de 3D-structuur van eiwitten voorspelt op basis van alleen hun aminozuursequentie. Dit belooft veel snellere en betere ontwikkeling van medicijnen en behandelingen, omdat onderzoekers dankzij AlphaFold veel sneller kunnen zien hoe eiwitten eruitzien en werken, zonder jarenlange dure proef-en-foutexperimenten.
Bijvoobeeld:
-
meer kans op (zelfs persoonlijk) gerichte medicijnen (dus minder of geen bijwerkingen);
-
beter begrip van ziektes (zoals kanker, erfelijke ziekten, infecties);
-
publiek toegankelijke kennis in plaats van alleen bij farmaceuten.
Gemma
In de onderzoekslaboratoria van DeepMind in Londen werken wetenschappers aan iets wat nog maar een paar jaar geleden pure sciencefiction leek. Hun AI-model, met de bescheiden naam Gemma, richt zich op een van de meest hardnekkige problemen in de oncologie: ‘koude’ tumoren.
Deze tumoren zijn bijzonder gevaarlijk omdat ze normaal gesproken volledig onzichtbaar blijven voor ons immuunsysteem. Ze hebben trucjes ontwikkeld om onder de radar te blijven, waardoor ons lichaam ze niet als vijand herkent. Gemma’s aanpak? De tumor zo manipuleren dat het immuunsysteem ze wél ziet en aanvalt.
Het klinkt als een medische doorbraak van de eerste orde. En dat is het ook – maar alleen op papier!
Want het model bevindt zich nog in de preklinische fase. De weg van laboratorium naar ziekenhuisbed is lang en bezaaid met obstakels. Wat is er allemaal nodig voordat dit soort AI daadwerkelijk de stap naar de kliniek mag maken?
Ten eerste: toestemming van ethische commissies.
En niet zomaar één commissie, maar vaak meerdere. Elke stap in het onderzoek moet worden goedgekeurd. Elke trial moet worden gemonitord. Elk resultaat moet worden geëvalueerd.
Ten tweede: transparante versies van het model.
Artsen en toezichthouders moeten exact kunnen begrijpen waarom de AI een bepaalde beslissing neemt. Een black box die zegt “vertrouw me, deze tumor moet je zo aanpakken” is onacceptabel in de medische wereld. Reproduceerbaarheid is heilig.
Ten derde: zorgvuldige datadeling.
Patiënten mogen nooit gereduceerd worden tot louter datapunten. Hun privacy moet worden beschermd. Hun data moet veilig worden opgeslagen. En ze moeten expliciet toestemming geven en niet verstopt worden in ‘pagina 47 van de algemene voorwaarden’.
Ten vierde: aansprakelijkheid.
Als er iets misgaat, wie is er dan verantwoordelijk? De AI? De ontwikkelaar? De arts die het systeem gebruikte? Het ziekenhuis? Deze vragen moeten beantwoord zijn voordat ook maar één patiënt wordt behandeld.
Anders gezegd: de AI-technologie is er bijna. Maar de zorg-governance? Die loopt mijlenver achter.
AI als arts-assistent? Dat kan zeker. Maar dan wel eentje met een uitgebreid logboek, strikte protocollen, en mogelijk zelfs een eigen tuchtcollege. Want in de gezondheidszorg gaat het niet alleen om innovatie – het gaat om mensenlevens.
Mijn persoonlijke reflectie op enkele punten:
- Misschien is deze niet in lijn met onze huidige waarden, maar ik vraag me echt af hoe lang we deze ‘checks and balances’ nog op deze wijze zullen kunnen maken! Het duurt niet lang meer en AI levert zoveel gigantische bijdragen in onze samenleving waarbij dit soort afwegingen achterwege moeten blijven, domweg omdat we de snelheid niet bijhouden of zelfs de technologie of ontwikkeling er achter niet eens meer kunnen volgen. Reproduceerbaarheid van conclusies is goed haalbaar voor AI, maar precies doorzien waarom welke redenering en nuances een uitkomst bepalen wordt een stuk lastiger, zeker als AI zichzelf verder ontwikkelt en dat staat op de stoep.
- Hoe gaan we straks om met de ‘entiteit AI’, compleet met eigen bewustzijn en belangen… We gaan een samenleving aan met een nieuwe Homo syntheticus (of een Cyborg voor de Star-trek kenners).
- Wie denkt dat dit een dystopisch doemscenario is, vergist zich. De kern is niet dat AI ons “overkomt”, maar dat we nu een machtsarchitectuur bouwen die we óf democratisch verankeren, óf overlaten aan een kleine club spelers. Wie straks zowel de rekenkracht, de modellen als de infrastructuur controleert, krijgt een hefboom waarmee je publieke waarden, informatievoorziening, economie en zelfs veiligheid kunt sturen. De geschiedenis laat zien hoe kwetsbaar systemen worden wanneer te veel afhankelijkheid samenkomt bij te weinig mensen: het hoeft maar één incompetente leider, één cynische aandeelhouder of één autocratisch regime te zijn dat de voorwaarden herschrijft.
- De enige rationele reactie is daarom geen moralisme tegen “de techniek”, maar hard ontwerp van tegenmacht. Zie rekencapaciteit als kritieke infrastructuur: gespreid, toetsbaar, auditplichtig, onderworpen aan democratische regels en met een ingebouwde nooduitgang: altijd een alternatief, nooit één verplichte leverancier. Dat vraagt om bewuste keuzes over eigendom, transparantie, open standaarden, publieke infrastructuur en internationale afspraken. Niet omdat we bang zijn voor technologie, maar omdat het naïef zou zijn om zóveel macht zó geconcentreerd zó zonder garanties weg te geven.
- Het bovenstaande is echter nog steeds geen garantie dat we AI in de hand houden (specialisten als Geoffrey Hinton en Roman Yampolskiy achten dat zelfs onmogelijk) en voorspellen zelfs een Apocalyps als we niet in staat blijken ASI (Artificial Super Intelligence) tijdig te beteugelen, hetgeen door andere specialisten zelfs voor onmogelijk wordt gehouden.
Misschien voor sommigen straks toch aanleiding om inderdaad terug te gaan naar het ‘hutje op de hei’… als dat dan nog mogelijk is tenminste…
Jeroen Teelen
november 2026

Plaats een Reactie
Meepraten?Draag gerust bij!