Oamenii de știință din întreaga lume au testat limitele inteligenței artificiale. Modelul actualizat „Ultimul examen al umanității” a fost descris în The Conversation, iar rezultatele au fost publicate în Nature. Rezultatele au fost surprinzător de slabe, chiar și pentru cele mai puternice modele.
O echipă de aproape o mie de cercetători a lucrat la acest test. Aceștia au creat testul suprem al inteligenței artificiale. Numele testului a dat imediat tonul: „Examenul final al umanității”.
Examenul a inclus 2.500 de întrebări dificile, acoperind matematică, biologie, fizică și științe umaniste. Chiar și modele avansate precum GPT-5 și Gemini 2.5 Pro au obținut un scor de aproximativ 25%.
A te înghesui în loc să gândești
Inteligența artificială gestionează cu încredere sarcinile școlare și cele standard. Dar în acest test, s-a dovedit neputincioasă. Motivul constă în modul în care sunt antrenate rețelele neuronale.
Dacă răspunsul este disponibil online sau în datele de antrenament, modelul îl găsește. Însă întrebările de examen nu au soluții gata făcute. Ele necesită logică și aplicarea cunoștințelor în situații noi.
Traducerea unei inscripții într-o limbă antică a servit drept exemplu. Astfel de texte nu se găsesc în manuale. A devenit clar că memoria se ascunde adesea în spatele „inteligenței”.
Cursa pentru puncte
După publicarea testului, dezvoltatorii au început antrenarea modelelor. Noile versiuni, cum ar fi GPT-5.2 și Gemini 3 Pro, obțin deja un succes de 30-38%. Oamenii de știință subliniază: aceasta nu este o creștere a inteligenței.
Autorii articolului notează: „Inteligența umană este primordială, limbajul este un instrument.” Pentru modele, limbajul este inteligență, nimic subiacent. Scorurile mari nu indică capacitatea de a lua decizii complexe.
Cercetătorii recomandă evitarea încrederii oarbe în teste de referință. Examenul a arătat că mașinile sunt încă departe de a atinge inteligența flexibilă a oamenilor.






