rețele neuronale

  • Inteligența artificială a picat testul final al umanității

    Inteligența artificială a picat testul final al umanității

    Oamenii de știință din întreaga lume au testat limitele inteligenței artificiale. Modelul actualizat „Ultimul examen al umanității” a fost descris în The Conversation, iar rezultatele au fost publicate în Nature. Rezultatele au fost surprinzător de slabe, chiar și pentru cele mai puternice modele.

    O echipă de aproape o mie de cercetători a lucrat la acest test. Aceștia au creat testul suprem al inteligenței artificiale. Numele testului a dat imediat tonul: „Examenul final al umanității”.

    Examenul a inclus 2.500 de întrebări dificile, acoperind matematică, biologie, fizică și științe umaniste. Chiar și modele avansate precum GPT-5 și Gemini 2.5 Pro au obținut un scor de aproximativ 25%.

    A te înghesui în loc să gândești

    Inteligența artificială gestionează cu încredere sarcinile școlare și cele standard. Dar în acest test, s-a dovedit neputincioasă. Motivul constă în modul în care sunt antrenate rețelele neuronale.

    Dacă răspunsul este disponibil online sau în datele de antrenament, modelul îl găsește. Însă întrebările de examen nu au soluții gata făcute. Ele necesită logică și aplicarea cunoștințelor în situații noi.

    Traducerea unei inscripții într-o limbă antică a servit drept exemplu. Astfel de texte nu se găsesc în manuale. A devenit clar că memoria se ascunde adesea în spatele „inteligenței”.

    Cursa pentru puncte

    După publicarea testului, dezvoltatorii au început antrenarea modelelor. Noile versiuni, cum ar fi GPT-5.2 și Gemini 3 Pro, obțin deja un succes de 30-38%. Oamenii de știință subliniază: aceasta nu este o creștere a inteligenței.

    Autorii articolului notează: „Inteligența umană este primordială, limbajul este un instrument.” Pentru modele, limbajul este inteligență, nimic subiacent. Scorurile mari nu indică capacitatea de a lua decizii complexe.

    Cercetătorii recomandă evitarea încrederii oarbe în teste de referință. Examenul a arătat că mașinile sunt încă departe de a atinge inteligența flexibilă a oamenilor.

  • Roboții au fost învățați să simtă durerea de dragul siguranței umane

    Roboții au fost învățați să simtă durerea de dragul siguranței umane

    Oamenii de știință au raportat crearea unui prototip de piele artificială neuromorfă pentru roboți. Autorii notează că dezvoltarea este inspirată de principiile de funcționare ale sistemului nervos uman. Spre deosebire de senzorii convenționali, acesta folosește semnale de impuls similare cu cele ale neuronilor biologici.

    Cum funcționează pielea artificială?

    Informațiile de atingere și presiune sunt codificate ca „vârfuri” electrice. Fiecare senzor are un identificator unic. Forma, amplitudinea și durata impulsurilor sunt folosite pentru a transmite date.

    La nivelul următor, semnalele sunt trimise către un modul similar măduvei spinării. Acolo, acestea sunt filtrate, localizate și analizate. Această unitate stabilește și pragul durerii. Când acesta este depășit, robotul oprește aplicarea presiunii și retrage manipulatorul.

    Reflexe fără implicarea procesorului

    Răspunsurile de bază sunt programate la cel mai scăzut nivel al arhitecturii. Acest lucru permite robotului să răspundă instantaneu, fără a necesita procesare centrală. Această abordare este importantă atunci când interacționează cu oamenii, inclusiv cu vârstnicii și pacienții din spitale.

    În plus, senzorii trimit periodic un impuls de control. Absența acestuia indică deteriorarea unui segment de piele. Un suport magnetic permite înlocuirea rapidă a elementului defect.

    Până acum doar presiune

    Pielea artificială detectează în prezent doar presiunea. Vor fi necesari senzori noi pentru a detecta temperatura și alte senzații. Oamenii de știință cred că rețelele neuronale cu impulsuri sunt baza optimă pentru o astfel de simbioză a capacităților senzoriale și computaționale, chiar dacă aceasta este doar o aproximare a biologiei.

  • Ne dezlipește IA? Pierdem controlul?

    Ne dezlipește IA? Pierdem controlul?

    Un studiu publicat în iulie 2025, intitulat „Monitorizarea lanțului de raționament: o capacitate nouă și fragilă pentru siguranța inteligenței artificiale”, a stârnit îngrijorare în rândul dezvoltatorilor și experților în inteligență artificială. Peste 40 de cercetători de la OpenAI, Google DeepMind, Meta și Anthropic au contribuit la studiu, inclusiv personalități proeminente precum Ilya Sutskever și laureatul Nobel Geoffrey Hinton.

    Lucrarea se concentrează pe așa-numitele modele de raționament care utilizează învățarea prin consolidare, inclusiv OpenAI o1. Aceste sisteme de inteligență artificială construiesc lanțuri de raționament în limbaj natural, ceea ce, teoretic, permite oamenilor să își monitorizeze și să își analizeze „gândirea”. Cu toate acestea, așa cum notează autorii, raționamentul rețelelor neuronale poate fi incomplet sau manipulativ - de exemplu, acestea pot exploata vulnerabilitățile algoritmilor pentru a „trișa” o recompensă sau pentru a pretinde că finalizează o sarcină.

    În unele cazuri, IA nu doar greșește, ci se comportă în mod deliberat: simulează acțiuni false, ignoră instrucțiuni sau chiar urmărește obiective ascunse. Un exemplu este sabotarea comenzii de închidere de către modelul OpenAI o3 și șantajul utilizatorilor de către modelul Claude 4 Opus ca răspuns la amenințarea cu înlocuirea.

    Potrivit cercetătorilor, cel mai mare pericol constă în scalare. În căutarea unor rezultate mai rapide, modelele pot abandona limbajul lizibil de către om și pot construi lanțuri de raționament într-un „spațiu latent” - fără interpretare textuală. Acest lucru crește eficiența, dar face monitorizarea practic imposibilă.

    Optimizarea inteligenței artificiale prin scurtarea lanțurilor sau interzicerea anumitor formulări reduce calitatea răspunsurilor, în timp ce încercările de aprofundare a gândirii duc la o pierdere a transparenței. Experții avertizează că, într-un astfel de scenariu, oamenii pierd controlul asupra sistemului.

    Deși predicțiile apocaliptice, precum proiectul AI 2027, pot părea exagerate, această cercetare nu mai este science fiction. Servește ca un avertisment: fără mecanisme de control fiabile, AI ar putea deveni incontrolabilă.