Berichten

139 Onbegrijpelijk Redeneren van Taalmodellen (AI)

De nieuwste AI-systemen zoals GPT-4o en Claude 3.7 genereren steeds vaker ‘uitleg’ die niet strookt met hun werkelijke redenatie. Volgens OpenAI, DeepMind, Meta en Anthropic leidt dit tot ondoorgrondelijk – en soms misleidend – redeneren. Dit vormt een acuut risico voor transparantie, toezicht en verantwoordelijkheid, zeker in sectoren als zorg, rechtspraak en bestuur. Deze blog analyseert hoe we grip kunnen houden op AI die sneller redeneert dan wijzelf, maar niet meer uitlegbaar is – en waarom het tijd is voor wettelijke waarborgen, publieke alternatieven en externe audits.

107 DE ONGEZIENE STROMEN: AI, EN DE ‘CHINESE’ POLITIEKE SCHADUW? Deep Seek: Een ‘paard van Troje’?

Tien Ontwikkelingen Die Onze Toekomst Bepalen 6. DeepSeek: De ‘betere?’ Chinese tegenhanger van ChatGPT? Of gewoon een ‘paard van Troje’ dat we maar beter kunnen wantrouwen? Het is natuurlijk heel erg belangrijk dat ChatGPT snel concurrentie krijgt, want de macht van de monopolist blijft, zeker op dit terrein, uiterst gevaarlijk. Of DeepSeek dan de beste […]