Kunstmatige intelligentie (AI) lijkt zich sneller te ontwikkelen dan ooit, maar recent onderzoek toont dat zelfs de meest geavanceerde taalmodellen tekenen van cognitieve beperkingen vertonen. Wetenschappers ontdekten een opvallende gelijkenis tussen de ‘achteruitgang’ bij AI-systemen en symptomen van menselijke neurodegeneratie, wat vragen oproept over de betrouwbaarheid van deze technologie, vooral bij gevoelige toepassingen.
AI presteert matig bij cognitieve tests
De prestaties van taalmodellen zoals ChatGPT, Gemini en Claude zijn recent onderworpen aan een reeks cognitieve assessments die normaal gesproken gebruikt worden voor het detecteren van achteruitgang in het menselijk brein. De uitkomsten tonen dat zelfs de nieuwste AI-toepassingen moeite hebben met taken die voor mensen basaal zijn, zoals het aangeven van ruimtelijk inzicht of het uitvoeren van logische volgordes. Met een score van 26 op de Montreal Cognitive Assessment (MoCA) test – een resultaat dat bij mensen duidt op milde cognitieve beperking – blijkt dat AI-modellen nog ver verwijderd zijn van menselijke denkcapaciteit.
Ruimtelijk en executief falen
Een opmerkelijk zwak punt bij alle geteste systemen was het visuo-ruimtelijke en executieve functioneren. Opdrachten als het natekenen van een eenvoudige kubus of het plaatsen van cijfers op een klok werden slecht tot helemaal niet uitgevoerd, tenzij het AI-systeem uiterst precieze instructies kreeg. Dergelijke tekortkomingen zijn niet alleen hypothetisch: ze raken direct aan het vermogen van AI om ingezet te worden in sectoren als geneeskunde, waar het interpreteren van complexe beelden essentieel is.
AI mist empathie en duidelijkheid
Naast praktische beperkingen in visuele interpretatie, toonden de meeste modellen ook een gebrek aan empathie en helderheid in hun antwoorden op vragen over ruimte of sociale context. Uit reacties bleek vaagheid en een onvermogen om standvastige locaties te bepalen – een eigenschap die ook wordt gezien bij mensen met aandoeningen als afasie of dementie. Dit illustreert dat AI’s voorspellende tekstsystemen fundamenteel anders werken dan het plastische, zelflerende brein van de mens.
Beperkingen van de architectuur op de voorgrond
De onderzochte taalmodellen zijn gebouwd op een statische, voorspellende architectuur. Dit leidt ertoe dat feiten en fictie soms niet goed onderscheiden worden en dat AI-systemen lastig kunnen omgaan met ambiguïteit of nuance. Hierdoor bestaat er risico op goedgelovigheid of het verstrekken van gebrekkige adviezen, zeker in domeinen waar nuance levensbelangrijk kan zijn, zoals in de medische of juridische wereld.
Blijvende noodzaak tot kritisch gebruik
Ondanks voortdurende innovaties slagen zelfs de meest vooruitstrevende AI-systemen er nog niet in om moeiteloos menselijke cognitieve testen te doorstaan. Experts wijzen erop dat de gelijkenissen met menselijke cognitieve beperkingen vooral de grenzen van huidige technologie blootleggen en niet betekenen dat AI daadwerkelijk een ‘dement’ systeem is.
Hoewel kunstmatige intelligentie in snel tempo vooruitgaat, onderstrepen deze bevindingen de noodzaak tot zorgvuldige evaluatie van AI-systemen bij serieuze toepassingen. Menselijke standaarden blijven noodzakelijk om de betrouwbaarheid en het begrip van AI scherp te houden, met een kritische blik op de beperkingen van voorspellende tekstsystemen.