Berichten

139 Onbegrijpelijk Redeneren van Taalmodellen (AI)

De nieuwste AI-systemen zoals GPT-4o en Claude 3.7 genereren steeds vaker ‘uitleg’ die niet strookt met hun werkelijke redenatie. Volgens OpenAI, DeepMind, Meta en Anthropic leidt dit tot ondoorgrondelijk – en soms misleidend – redeneren. Dit vormt een acuut risico voor transparantie, toezicht en verantwoordelijkheid, zeker in sectoren als zorg, rechtspraak en bestuur. Deze blog analyseert hoe we grip kunnen houden op AI die sneller redeneert dan wijzelf, maar niet meer uitlegbaar is – en waarom het tijd is voor wettelijke waarborgen, publieke alternatieven en externe audits.