AI-ul care simula gândirea umană sau o memoriza? - Foto Growtika Unsplash

În iulie 2025, revista Nature a publicat un studiu care a produs reacții neobișnuit de puternice în psihologie și neuroștiință. Cercetătorii prezentaseră un model de inteligență artificială numit Centaur — construit pe arhitecturi de tip large language model și rafinat cu date din experimente psihologice — care pretindea să simuleze comportamentul cognitiv uman pe 160 de sarcini diferite: luarea deciziilor, controlul executiv, atenția, memoria, raționamentul. Performanța raportată era remarcabilă. Titlurile au apărut imediat: „AI reproduce gândirea umană.”

Câteva luni mai târziu, o echipă de la Universitatea Zhejiang a publicat în National Science Open o contraargumentație directă. Concluzia: Centaur nu gândea. Memoriza.

Distincția care contează

Cercetătorii chinezi au testat Centaur pe sarcini noi — variante ale acelorași probleme cognitive, dar formulate în moduri pe care modelul nu le întâlnise în antrenament. Performanța a scăzut dramatic. Echipa a argumentat că succesul inițial se datora overfitting-ului: modelul recunoscuse tipare din datele de antrenament și reprodusese răspunsurile așteptate, fără să înțeleagă cu adevărat instrucțiunile sarcinilor.

Diferența este fundamentală. Un model care memorează tipare poate performa excelent pe sarcini familiare și poate eșua pe variante ușor diferite ale aceleiași probleme. O minte care înțelege transferă cunoașterea — adaptează, generalizează, rezolvă probleme noi prin principii, nu prin recunoaștere.

Dezbaterea mai veche pe care o reactualizează Centaur

Psihologii dezbat de decenii dacă mintea umană poate fi explicată printr-o teorie unificată sau trebuie descompusă în componente separate — memorie, atenție, limbaj, raționament. Centaur fusese prezentat ca un posibil răspuns: dacă un model unic poate simula toate aceste procese simultan, poate că și mintea umană funcționează printr-un mecanism unificat.

Contraargumentația de la Zhejiang nu infirmă această întrebare. O complică. Dacă Centaur nu înțelege sarcinile, atunci performanța sa nu spune nimic despre arhitectura minții — spune doar că datele de antrenament pot fi exploatate statistic.

Paralel cu această dezbatere tehnică, o a doua controversă a câștigat teren în 2025: dacă modelele de limbaj mari au sau nu ceva analog conștiinței. Un cercetător de la Google DeepMind, Alexander Lerchner, a publicat o analiză care separă simularea conștiinței de instanțierea ei. Concluzia: a reproduce structural conștiința în cod nu înseamnă a o produce. O mașină care se comportă ca și cum ar fi conștientă nu este prin asta conștientă — pentru că conștiința, dacă există, ar depinde de constituția fizică a sistemului, nu de sintaxa sa computațională.

O altă linie de cercetare, publicată în Mind and Language de o echipă de la Cambridge la sfârșitul lui 2025, a concluzionat că singura poziție intelectual onestă față de conștiința AI este agnosticismul: nu există în prezent nicio metodă fiabilă de a determina dacă un sistem AI este conștient, și această incertitudine ar putea persista indefinit.

Ce înseamnă asta pentru psihologie și neuroștiință

Dezbaterea generată de Centaur are implicații dincolo de AI. Dacă un model care nu înțelege instrucțiunile poate totuși reproduce comportamentul cognitiv uman pe sute de sarcini, înseamnă că testele psihologice standard nu discriminează între înțelegere și simulare statistică. Aceasta este o problemă metodologică serioasă pentru domeniu.

Psihologia cognitivă și-a construit instrumentele de măsurare pornind de la premisa că performanța pe sarcini cognitive reflectă procese mentale reale. AI a demonstrat că același scor poate fi obținut prin mecanisme complet diferite. Asta nu înseamnă că testele psihologice sunt inutile — înseamnă că au nevoie de revizuire și că criteriile pentru „simularea minții” sunt mai exigente decât se credea.