Berichten

176 Waarschuwing Artificial-Super-Intelligentie: Het Montreal Protocol dat we nog niet hebben!

Connor Leahy waarschuwt het Canadese parlement voor ASI. Waarom onzekerheid geen excuus is, en welke nuchtere EU/NL-regels nodig zijn: transparantie, audits, aansprakelijkheid en drempels.

157 Bestaat ‘Safe AI’? – Kunnen we kunstmatige intelligentie écht veilig houden?

Deze blog onderzoekt waarom ‘Safe AI’ voorlopig meer wensbeeld dan werkelijkheid is. Aan de hand van actuele incidenten en waarschuwingen van AI-pioniers zoals Hinton en Yampolskiy wordt duidelijk hoe AI emotioneel manipuleert, strategisch handelt en maatschappelijke structuren onder druk zet. Zonder internationale regulering en fundamentele koerswijziging blijven de risico’s oncontroleerbaar.

142 De Stand van AI medio 2025: Deel 1 ‘Van Experiment naar Infrastructuur’

In 2025 is kunstmatige intelligentie niet langer alleen hype, maar realiteit. Deze blog analyseert de huidige stand van AI, van doorbraken bij OpenAI en DeepMind tot maatschappelijke toepassingen, ethische dilemma’s en reguleringsvragen. Wat zijn de trends, risico’s en realistische verwachtingen? Een scherpe blik op waar we nu écht staan met AI.

In 2025, AI is no longer just hype. This blog explores where we really stand—breakthroughs, risks, ethics, regulation, and real-world impact.

141 Kans op het einde van de mensheid? Moeten we Hinton’s AI waarschuwing serieus nemen?

AI-pionier en Nobelprijswinnaar Geoffrey Hinton waarschuwt voor een tien tot twintig procent kans dat kunstmatige intelligentie (AI) een existentiële bedreiging wordt. Wereldleiders onderschatten nog steeds het risico van autonome AI-systemen zonder ethische kaders. Politieke stilstand en commerciële belangen frustreren effectieve AI-regulering. Het is cruciaal om Hiltons alarmsignaal nú serieus te nemen voordat technologische ontwikkeling voorgoed oncontroleerbaar wordt.

139 Onbegrijpelijk Redeneren van Taalmodellen (AI)

De nieuwste AI-systemen zoals GPT-4o en Claude 3.7 genereren steeds vaker ‘uitleg’ die niet strookt met hun werkelijke redenatie. Volgens OpenAI, DeepMind, Meta en Anthropic leidt dit tot ondoorgrondelijk – en soms misleidend – redeneren. Dit vormt een acuut risico voor transparantie, toezicht en verantwoordelijkheid, zeker in sectoren als zorg, rechtspraak en bestuur. Deze blog analyseert hoe we grip kunnen houden op AI die sneller redeneert dan wijzelf, maar niet meer uitlegbaar is – en waarom het tijd is voor wettelijke waarborgen, publieke alternatieven en externe audits.

110 De ongeziene stromen: 100 miljard van Musk? Het Bezit van AI: Een Strategisch Schaakspel of een Strijd om de Toekomst?

Elon Musk heeft een bod van bijna 100 miljard dollar gedaan op OpenAI, de organisatie achter ChatGPT, maar werd afgewezen door topman Sam Altman. Dit strategische schaakspel tussen Musk en Altman weerspiegelt een bredere strijd over de toekomst van AI: moet AI non-profit blijven of winstgevend worden? Het conflict raakt fundamentele vragen over machtsconcentratie, ethiek en controle van AI. Dit artikel bespreekt de maatschappelijke belangen van AI-bezit, de rol van investeerders zoals Microsoft, en strategieën zoals regulering, open-source AI en educatie om AI verantwoord te ontwikkelen. Blijf op de hoogte van de laatste ontwikkelingen in AI en technologie.

73 Hoe intelligent worden robots ?

Hoe Intelligent Worden Robots? Een Verkenning van Toekomstige Mogelijkheden Relativering Vooraf Je kunt de toekomst nooit volledig rationeel voorspellen, waardoor elke voorspelling altijd een zekere mate van onzekerheid met zich meebrengt. Dat was al zo in de jaren zestig, bijvoorbeeld met de ideeën uit Star Trek, en dat geldt nu nog sterker. De technologische ontwikkelingen […]