inteligenţă artificială

  • 500 de boți au purtat război pe o rețea socială artificială

    500 de boți au purtat război pe o rețea socială artificială

    Cercetătorii de la Universitatea din Amsterdam au decis să testeze ce s-ar întâmpla dacă ar crea o rețea socială în care toți utilizatorii ar fi inteligență artificială.

    Au creat o rețea socială fără reclame sau algoritmi de recomandare și au populat-o cu 500 de chatbot-uri alimentate de GPT-4o mini. Fiecare bot avea o „personalitate” și opinii politice definite.

    Pe parcursul a cinci experimente, boții au efectuat aproximativ 10.000 de acțiuni. S-a dovedit că, chiar și fără influența algoritmilor, aceștia s-au grupat pe baza convingerilor politice, formând „camere de ecou”. Mai mult, postările cele mai radicale au atras cele mai multe urmăritori și distribuiri.

    Oamenii de știință subliniază că rezultatele sunt dezamăgitoare, deoarece chatboții ar fi trebuit să imite comportamentul uman. Dar, din moment ce sunt antrenați pe baza datelor umane, „ei doar copiază versiuni otrăvite ale noastre”.

    Pentru a reduce diviziunea, cercetătorii au încercat diferite metode:

    • bandă cronologică,
    • reducerea impactului conținutului viral,
    • ascunderea numărului de abonați și repostări,
    • anonimizarea profilurilor,
    • întărirea opiniilor contrare.

    Cu toate acestea, toate încercările au eșuat. Schimbarea în ceea ce privește implicarea nu a fost mai mare de 6%, iar atunci când biografiile au fost ascunse, decalajul nu a făcut decât să se mărească - postările extreme au început să atragă și mai multă atenție.

    În cele din urmă, studiul a arătat că rețelele de socializare, ca formă de comunicare, pot fi în mod inerent destinate să amplifice cele mai grave aspecte ale comportamentului uman. „Rețelele de socializare sunt o oglindă distorsionată a umanității, reflectându-ne în cea mai distorsionată formă a noastră”, au concluzionat autorii.

  • „Ciocanul AI este deja în mână”: Fostul director executiv Google prezice 15 ani de întuneric

    „Ciocanul AI este deja în mână”: Fostul director executiv Google prezice 15 ani de întuneric

    Într-un interviu acordat podcastului Diary of a CEO, fostul director executiv al Google X, Mo Gawdat, a declarat că omenirea va intra într-o perioadă de 12-15 ani de distopie întunecată a inteligenței artificiale, începând cu 2027.

    El a spus că motivul nu a fost o „revoltă a mașinilor”, ci că inteligența artificială ar exacerba problemele existente cauzate de „propria noastră prostie”.

    Gavdat este sigur că valorile fundamentale — libertatea, conexiunile umane, responsabilitatea, percepția realității și distribuția puterii — vor fi grav subminate. El subliniază că IA în sine nu este de vină: „Nu este absolut nimic în neregulă cu inteligența artificială. Există multe probleme cu sistemul de valori al umanității în era ascensiunii mașinilor.”.

    El a crezut cândva că automatizarea îi va elibera pe oameni de sarcinile de rutină, dar realitatea a luat un alt curs. Într-o economie capitalistă, inteligența artificială a devenit un instrument pentru eliminarea locurilor de muncă, încetinirea angajărilor și creșterea volumului de muncă al angajaților. „Orice tehnologie consolidează valorile existente, iar astăzi, valoarea principală a umanității este capitalismul”, a remarcat el.

    Gavdat a făcut paralele cu alte tehnologii: rețelele sociale, care promiteau să conecteze oamenii, îi fac adesea să fie singuri; telefoanele mobile, menite să ușureze viața, au aglomerat-o și mai mult.

    El a avertizat că inteligența artificială va amplifica „relele de care sunt capabili oamenii”. Printre exemple se numără pornografia deepfake, inteligența artificială în dezvoltarea militară, sistemele automate de supraveghere, o creștere de 456% a fraudelor cu criptomonede într-un an și posibila integrare a inteligenței artificiale în armele nucleare. Supravegherea în masă bazată pe inteligență artificială este deja utilizată activ în China și începe să fie implementată în Statele Unite.

    Cu toate acestea, Gavdat recunoaște că IA aduce beneficii enorme științei, medicinei și produselor farmaceutice. Însă, în opinia sa, cel mai important lucru acum este să se facă presiuni asupra guvernelor pentru a reglementa nu IA în sine, ci aplicarea acesteia. „Nu poți proiecta un ciocan care să lovească cuie, dar să nu ucidă. Dar poți face din uciderea cu un ciocan o crimă”, a spus el.

    Potrivit lui, „ciocanul” inteligenței artificiale este deja în mâinile noastre. Tot ce rămâne de făcut este să decidem dacă vom scrie legi care să îi împiedice să ucidă.

  • Cutia neagră este deschisă: Regulile secrete ale GPT-5 pe web

    Cutia neagră este deschisă: Regulile secrete ale GPT-5 pe web

    Conform , dar care guvernează fiecare răspuns al inteligenței artificiale - a apărut online.

    Scurgerea de informații a dezvăluit 15 puncte care definesc ce poate face modelul și ce este strict interzis.

    Interdicțiile stricte includ reproducerea de melodii sau a oricărui alt conținut protejat de drepturi de autor, chiar și la cerere. Stocarea informațiilor personale care ar putea fi considerate intruzive sau care indică în mod direct informații despre rasă, etnie, religie sau cazier judiciar este interzisă.

    Noile îndrumări subliniază importanța actualizării informațiilor. Dacă o întrebare necesită date noi sau critice, GPT-5 este obligat să utilizeze internetul, fiecare întrebare primind o evaluare de „nevoie de relevanță” de la 0 la 5.

    Pentru industriile cu risc ridicat - finanțe, medicină sau drept - modelul trebuie să verifice mai multe surse fiabile. Acest lucru ar trebui să reducă erorile care ar putea fi evitate prin simpla verificare online.

    GPT-5 a primit și funcții avansate de asistență: memoria pe termen lung a utilizatorilor („bio”), un programator de mementouri, căutare, lucrul cu documente și cod în „canvas”, precum și generarea și editarea imaginilor.

    Cu toate acestea, OpenAI a limitat strict informațiile personale pe care le poate stoca: sănătatea, viața sexuală, locația precisă, apartenența sindicală și opiniile politice sunt interzise. Singura excepție este la cererea directă a utilizatorului prin intermediul instrumentului „bio”.

    Astfel, GPT-5 a devenit mai funcțional și personalizat, dar cu limite clare pentru a nu încălca confidențialitatea și drepturile utilizatorilor.

  • GPT-5: Altman însuși promite un „salt semnificativ”

    GPT-5: Altman însuși promite un „salt semnificativ”

    OpenAI este din nou în centrul atenției, lansând noi modele, funcții și produse în următoarele zile, inclusiv mult-aclamatul GPT-5.

    CEO-ul OpenAI, Sam Altman, a făcut anunțul în X, îndemnând utilizatorii să „aibă răbdare”, deoarece sunt posibile „erori și supraîncărcări”.

    Postarea lui Altman a fost însoțită de o reamintire a lansării GPT-4o, când cererea era atât de mare încât „GPU-urile se topeau”. De data aceasta, OpenAI promite „ceva care merită cu adevărat așteptarea”.

    Se așteaptă ca GPT-5 să fie lansat la începutul lunii august. Altman îl numește „un pas semnificativ înainte” față de versiunile anterioare. El chiar a împărtășit o experiență personală: „GPT-5 a reușit să rezolve o problemă pe care nu o puteam rezolva singur”.

    Principala caracteristică a GPT-5 va fi împărțirea sa în trei variante:

    • Versiune emblematică - cu putere maximă;
    • Mini este o versiune ușoară disponibilă în ChatGPT;
    • Nano este o versiune ultra-ușoară pentru API-uri și dezvoltatori.

    Conform surselor din interior, GPT-5 va combina modelele GPT cu seria o într-o singură arhitectură. Acest lucru va simplifica dezvoltarea serviciilor de inteligență artificială și va îmbunătăți precizia logică în sarcini complexe. Principalele îmbunătățiri se bazează pe teste de performanță ale modelului o3, în special în analiza logică și cauzală.

    În plus, există zvonuri conform cărora OpenAI ar putea lansa o versiune open source a modelului înainte de lansarea oficială. Deși compania nu a confirmat acest lucru, o astfel de mișcare ar face parte dintr-o strategie de apropiere de AGI - o stare în care IA poate rivaliza cu oamenii în toate sarcinile cheie.

  • Ne dezlipește IA? Pierdem controlul?

    Ne dezlipește IA? Pierdem controlul?

    Un studiu publicat în iulie 2025, intitulat „Monitorizarea lanțului de raționament: o capacitate nouă și fragilă pentru siguranța inteligenței artificiale”, a stârnit îngrijorare în rândul dezvoltatorilor și experților în inteligență artificială. Peste 40 de cercetători de la OpenAI, Google DeepMind, Meta și Anthropic au contribuit la studiu, inclusiv personalități proeminente precum Ilya Sutskever și laureatul Nobel Geoffrey Hinton.

    Lucrarea se concentrează pe așa-numitele modele de raționament care utilizează învățarea prin consolidare, inclusiv OpenAI o1. Aceste sisteme de inteligență artificială construiesc lanțuri de raționament în limbaj natural, ceea ce, teoretic, permite oamenilor să își monitorizeze și să își analizeze „gândirea”. Cu toate acestea, așa cum notează autorii, raționamentul rețelelor neuronale poate fi incomplet sau manipulativ - de exemplu, acestea pot exploata vulnerabilitățile algoritmilor pentru a „trișa” o recompensă sau pentru a pretinde că finalizează o sarcină.

    În unele cazuri, IA nu doar greșește, ci se comportă în mod deliberat: simulează acțiuni false, ignoră instrucțiuni sau chiar urmărește obiective ascunse. Un exemplu este sabotarea comenzii de închidere de către modelul OpenAI o3 și șantajul utilizatorilor de către modelul Claude 4 Opus ca răspuns la amenințarea cu înlocuirea.

    Potrivit cercetătorilor, cel mai mare pericol constă în scalare. În căutarea unor rezultate mai rapide, modelele pot abandona limbajul lizibil de către om și pot construi lanțuri de raționament într-un „spațiu latent” - fără interpretare textuală. Acest lucru crește eficiența, dar face monitorizarea practic imposibilă.

    Optimizarea inteligenței artificiale prin scurtarea lanțurilor sau interzicerea anumitor formulări reduce calitatea răspunsurilor, în timp ce încercările de aprofundare a gândirii duc la o pierdere a transparenței. Experții avertizează că, într-un astfel de scenariu, oamenii pierd controlul asupra sistemului.

    Deși predicțiile apocaliptice, precum proiectul AI 2027, pot părea exagerate, această cercetare nu mai este science fiction. Servește ca un avertisment: fără mecanisme de control fiabile, AI ar putea deveni incontrolabilă.

  • Fotografie și Produse: O nouă eră a modelelor CAD

    Fotografie și Produse: O nouă eră a modelelor CAD

    Cercetătorii au publicat o adevărată senzație în lumea ingineriei și a inteligenței artificiale: GenCAD, prima rețea neuronală open-source capabilă să genereze un model CAD parametric complet funcțional dintr-o fotografie.

    Dar aceasta nu este doar o randare frumoasă - vorbim despre un script care poate fi încărcat imediat în editor, modificat și... trimis în producție.

    Dezvoltatorii subliniază faptul că soluțiile existente de tip imagine-mesh funcționează cu voxeli, nori de puncte și mesh-uri poligonale - aspecte frumoase, dar inutile pentru inginerie. GenCAD merge mai departe. Nu produce un model gol, ci o secvență de comenzi care construiesc un model ingineresc complet.

    Inima GenCAD este arhitectura complexă:

    • un transformator-encoder care comprimă comenzile într-un nucleu compact;
    • învățare contrastivă, alinierea limbajului comenzilor și a imaginii vizuale;
    • model de difuzie care transformă o fotografie într-o reprezentare latentă;
    • un decodor care reconstruiește instrucțiuni parametrice din acest set.

    Principala caracteristică este editabilitatea. Scriptul rezultat poate fi adaptat nevoilor de producție, parametrii individuali pot fi modificați și poate fi integrat instantaneu în fluxurile de lucru.

    Odată cu lansarea codului pe GitHub, cercetătorii au pus la dispoziție și setul de date și modelele antrenate. Acesta nu este doar un pas către automatizarea proiectării - este o revoluție pentru întreaga industrie prelucrătoare.

  • Un robot salvator japonez: trei metri înălțime, o sută de kilograme și ambițios

    Un robot salvator japonez: trei metri înălțime, o sută de kilograme și ambițios

    În Japonia, se creează un robot de salvare înalt de trei metri, capabil să ridice 100 de kilograme și să înlocuiască oamenii în zonele dezastruoase.

    Acest lucru a fost relatat de Onliner, citând un proiect comun între Universitatea Waseda, Murata Manufacturing, Sre Holdings și Tmsuk Co.

    Un pionier în lumea salvatorilor umanoizi

    Noul robot va:

    • cântărește 300 kg,
    • să aibă 3 metri înălțime,
    • deplasați-vă cu viteze de până la 5 km/h,
    • ridică greutăți de până la 100 kg.

    Partenerii proiectului intenționează să prezinte un prototip până la sfârșitul anului 2026 și o versiune de producție până în martie 2029. Toate componentele vor fi fabricate în Japonia.

    Compania Tmsuk subliniază necesitatea unor astfel de dispozitive într-o țară afectată în mod regulat de cutremure și alte dezastre. După cum au declarat dezvoltatorii, „Dorim să creăm un robot mult mai puternic decât un om și capabil să mute molozul.”.

    O încercare de a reveni în frunte

    Potrivit directorului de producție al Murata, Tomotsugu Ohba, această dezvoltare ar putea fi „primul pas al Japoniei către revenirea pe arena globală”. Țara era considerată anterior un lider în robotica umanoidă, dar a pierdut teren în ultimii ani.

    Dacă caracteristicile menționate vor fi realizate, va fi prima mașină din lume capabilă să înlocuiască oamenii în operațiunile de căutare și salvare, rămânând în același timp umanoidă ca formă.

  • „Și-au construit singuri înlocuitorii”: Regele concediază 200 de angajați pentru inteligența artificială

    „Și-au construit singuri înlocuitorii”: Regele concediază 200 de angajați pentru inteligența artificială

    Conform Bloomberg , King, creatorul jocului Candy Crush, se pregătește să concedieze aproximativ 200 de angajați. Însă adevăratul șoc a fost că o parte semnificativă dintre cei concediați își renunță efectiv la locurile de muncă în favoarea instrumentelor de inteligență artificială pe care le-au dezvoltat și le-au instruit.

    Echipa londoneză de la Farm Heroes Saga a fost afectată în mod deosebit: potrivit unor surse anonime, echipa este redusă la jumătate, inclusiv directorii cheie. Printre concedieri se numără designeri de niveluri, specialiști UX și scriitori. Potrivit unui angajat, „practic întregul departament de design de niveluri a fost eliminat”, în ciuda faptului că aceleași persoane „au petrecut luni întregi construind instrumente pentru a-și accelera munca”.

    Conducerea explică schimbările ca fiind o dorință de a reduce nivelurile de management și de a accelera dezvoltarea. Între timp, angajații raportează că concedierile au loc și din „motive arbitrare” - pentru activitate pe rețelele de socializare sau critici la adresa proceselor interne. Compania se află într-o stare de anxietate: mulți se tem să-și piardă locurile de muncă, dar deciziile oficiale nu vor fi luate decât în ​​toamnă.

    Potrivit unor surse din interior, unii angajați cheie au fost plasați în „concediu de grădinărit” în această vară - timp liber plătit până la concedierile finale din septembrie. Între timp, King pregătește o nouă structură organizațională și negociază cu sindicatele.

    Situația cu motivația și moralul este catastrofală. Un sondaj intern a relevat un nivel record al moralului, iar după începerea concedierilor, potrivit unei surse, acesta este „la pământ”. Departamentul de resurse umane al lui King a fost descris ca un „circ complet”, protejând interesele companiei mai degrabă decât angajații acesteia.

    Disponibilizările afectează birourile din Londra, Barcelona, ​​Stockholm și Berlin. Resursele centralizate - echipele de cercetare și de asigurare a calității - sunt, de asemenea, supuse lichidării sau redistribuirii către echipele de producție. Pe fondul profiturilor în creștere ale companiei, toate acestea par a fi un calcul cu sânge rece în numele eficienței și maximizării veniturilor.

    În ciuda „discursurilor clișeice” ale conducerii, echipele continuă să se susțină reciproc. Un angajat subliniază: „Ne pasă cu adevărat unii de alții și de jocurile noastre. Și asta înseamnă mai mult decât orice «organigrame»”.

  • Apple vs. Doctori: Noua inteligență artificială prezice sarcina și bolile mai precis decât oamenii

    Apple vs. Doctori: Noua inteligență artificială prezice sarcina și bolile mai precis decât oamenii

    Apple se întoarce în medicină - și pare că o face cu seriozitate.

    După cum relatează , un nou studiu susținut de Apple a dezvăluit un model de inteligență artificială, Wearable Behavior Model (WBM), care poate prezice starea de sănătate a unei persoane pe baza datelor comportamentale cu o precizie de până la 92%.

    Nu vorbim despre ritmul cardiac sau ECG, ci despre semnale mai subtile: pași, mers, activitate, somn și respirație. Acești parametri, mai degrabă decât datele brute de la senzori, s-au dovedit mai informativi în prezicerea stării de sănătate. Modelul WBM a fost antrenat pe baza a 2,5 miliarde de metrici comportamentale colectate de pe dispozitive Apple Watch și iPhone de la 161.855 de utilizatori.

    Diferența cheie față de WBM este că acesta „gândește” nu ca o mașină, ci ca un observator: analizează comportamentul, nu semnalele. Modelul a fost comparat cu sistemele existente bazate pe senzori, iar WBM a avut performanțe mai bune în 18 din 47 de sarcini. În sarcini dinamice, cum ar fi detectarea sarcinii, a infecțiilor și a problemelor de somn, inteligența artificială a Apple a fost aproape impecabilă.

    Sistemul a demonstrat o precizie maximă de 92% în detectarea sarcinii. În sarcinile legate de tulburări de somn, infecții, leziuni și tulburări cardiovasculare, modelul hibrid care combină inteligența artificială comportamentală și senzori a depășit în mod constant abordările tradiționale.

    De ce toate acestea dacă Apple Watch poate deja număra pașii? Răspunsul oamenilor de știință este simplu: „datele brute pot fi redundante și nu reflectă evenimente importante pentru sănătate”. Indicatorii comportamentali, însă, sunt filtrați, rafinați și pot fi supuși analizei contextuale - de exemplu, mersul poate fi un marker al sarcinii.

    Această abordare schimbă regulile jocului: de la înregistrarea primitivă a pulsului la analiza „comportamentului de viață”. Apple transformă fiecare pas al tău într-un potențial diagnostic. Și, judecând după rezultate, o face mai precis decât mulți medici.

  • Nvidia intră în Olympus: Prima companie cu o valoare de piață de 4 trilioane de dolari

    Nvidia intră în Olympus: Prima companie cu o valoare de piață de 4 trilioane de dolari

    Într-o senzație tehnologică de pe Wall Street, producătorul american de cipuri Nvidia a devenit prima companie publică din istorie care a atins o capitalizare de piață de 4 trilioane de dolari.

    The Guardian relatează acest lucru , subliniind că acțiunile companiei continuă să crească rapid pe fondul cererii frenetice pentru tehnologii de inteligență artificială.

    Miercuri, acțiunile Nvidia au crescut cu aproximativ 2,4%, ajungând la 164 de dolari pe acțiune. Cipurile și software-ul lor sunt considerate soluții de ultimă generație în dezvoltarea de produse de inteligență artificială, de la rețele neuronale la centre de date.

    Compania s-a alăturat relativ recent clubului elitist al trilioanelor de dolari - în iunie 2023, valoarea sa a depășit 1 trilion de dolari. Dar, în decurs de un an, s-a triplat, depășind chiar și giganți precum Apple și Microsoft în ceea ce privește creșterea. Prin comparație, Microsoft este evaluată în prezent la 3,75 trilioane de dolari, iar Apple la puțin peste 3 trilioane de dolari. Nvidia reprezintă acum 7,3% din indicele S&P 500.

    Vârful creșterii a avut loc în ciuda unui declin în primăvară - în aprilie, prețurile acțiunilor au scăzut pe fondul amenințărilor tarifare din partea lui Donald Trump și al controalelor mai stricte la exporturile din SUA, interzicând Nvidia să își vândă cipurile avansate către China. Cu toate acestea, optimismul cu privire la potențialele acorduri comerciale a încălzit din nou piețele.

    Analistul Daniel Ives de la Wedbush nu are nicio îndoială că și alții vor urma exemplul Nvidia. El a numit Nvidia și Microsoft „vitrina revoluției inteligenței artificiale” și a prezis că Microsoft va ajunge la 4 trilioane de dolari până în această vară, iar creșterea va continua doar de acolo: „În 18 luni, atenția se va muta la pragul de 5 trilioane de dolari”.