OpenAI

  • Altman despre inteligența artificială: „Sunt îngrijorat de ritmul schimbării”

    Altman despre inteligența artificială: „Sunt îngrijorat de ritmul schimbării”

    Conform unui interviu, Sam Altman a afirmat că inteligența artificială avansează prea repede și deja schimbă lumea. El a subliniat că nicio tehnologie nu a fost implementată vreodată cu o asemenea viteză sau nu a avut un asemenea impact asupra societății.

    Creșterea rapidă și costurile acesteia

    În trei ani, inteligența artificială generativă a evoluat de la un instrument primitiv pentru crearea de text și imagini la sisteme capabile să transforme medicina, educația și informatica. Altman a subliniat costul ridicat al acestei creșteri: consumul enorm de energie, răcirea excesivă și presiunea asupra mediului.

    El a enumerat dezavantajele răspândirii rapide a ChatGPT, menționând natura sa duală: tehnologia ajută la dezvoltarea de remedii pentru boli complexe, dar poate deveni și o armă în mâinile infractorilor.

    Robotul din seria T-800 din Terminator Genisys de la Paramount Pictures și Skydance Productions

    Îngrijorările lui Altman cresc

    Altman a declarat: „Sunt îngrijorat de ritmul schimbărilor care au loc în lume în acest moment”. El a adăugat că IA are doar trei ani și a subliniat: „Trebuie să ne asigurăm că o introducem [IA] în lume în mod responsabil”. De asemenea, a remarcat potențialul de eroare în implementarea unui instrument atât de puternic.

    ChatGPT a devenit cea mai descărcată aplicație din lume, cu 1,36 miliarde de instalări. Experții își exprimă îngrijorarea: dependența de chatbot-uri este în creștere, performanța cognitivă a utilizatorilor este în scădere, iar rapoartele despre sinuciderile legate de inteligența artificială sunt în creștere.

  • Dispozitivul misterios al OpenAI: Ive și Altman la descoperire

    Dispozitivul misterios al OpenAI: Ive și Altman la descoperire

    O nouă perspectivă asupra viitorului dispozitivului.
    Sam Altman și Jony Ive au dezvăluit că au creat deja un prototip funcțional al misteriosului lor gadget cu inteligență artificială. Aceștia au confirmat că dispozitivul ar putea apărea în mai puțin de doi ani. Deși au fost vagi în ceea ce privește detaliile, au menționat că va avea aproximativ dimensiunea unui smartphone și nu va avea ecran.

    designul
    ca fiind simplu, frumos și jucăuș. El a spus că i-a luat ceva timp să simtă că prototipul este complet, dar o singură iterație le-a dat în sfârșit un sentiment de succes. El a spus că a existat un moment în care au simțit că și-au atins în sfârșit obiectivul.

    Simplitate și ciudățenie:
    Am observat că apreciază simplitatea naivă a soluției și complexitatea sa intelectuală simultană. El a explicat că dispozitivul ar trebui să evoce dorința de a-l atinge fără teamă și de a-l folosi aproape fără minte, ca pe un instrument obișnuit.

    La final, Altman a spus că speră să audă oamenii spunând: „Asta e tot!”, iar Ive a replicat acest sentiment cu: „Da, asta e tot”. În iulie 2025, OpenAI a finalizat achiziția io, un startup co-fondat de Ive, pentru 6,5 miliarde de dolari.

  • OpenAI provoacă Google cu noul browser ChatGPT Atlas

    OpenAI provoacă Google cu noul browser ChatGPT Atlas

    Un browser cu inteligență în loc de căutare

    OpenAI a dezvăluit primul său browser bazat pe inteligență artificială, ChatGPT Atlas. Lansarea a fost, în esență, o încercare de a detrona Google din poziția de principal motor de căutare online.

    Atlas va fi disponibil mai întâi pe macOS, iar mai târziu pe Windows, iOS și Android. Cel mai important, browserul va fi gratuit pentru toți utilizatorii, ceea ce îl va face un concurent imediat pentru giganții browserelor Chrome și Edge.


    Noul război al browserelor

    Piața browserelor se încălzește din nou. Google Chrome a fost lider timp de decenii, dar acum totul se schimbă. Inteligența artificială transformă motoarele de căutare tradiționale în asistenți inteligenți.

    În timp ce startup-uri precum Perplexity și The Browser Company testează apele cu propriile browsere bazate pe inteligență artificială, OpenAI pariază pe integrarea ChatGPT ca motor principal al Atlas. Potrivit inginerului de proiect Ben Goodger, utilizatorii vor putea „conversa” cu rezultatele căutării, ca și cum ar vorbi cu un consultant uman.


    Un browser care te ține minte

    Principalele caracteristici ale Atlas sunt „sidecar” și „istoric de navigare”. Prima permite ChatGPT să vadă contextul unei pagini și să ajute fără a copia manual linkuri și text.

    Al doilea este și mai interesant: inteligența artificială își amintește ce site-uri web vizitați, ce căutați și chiar cum interacționați cu conținutul. Acest lucru va permite răspunsuri personalizate.

    OpenAI garantează că totul va funcționa „în limitele confidențialității”. Însă experții deja numesc această posibilitate „atât revoluționară, cât și alarmantă”.


    Mod Agent: Internetul este controlat de inteligența artificială

    O altă caracteristică Atlas este „modul agent”. În acest mod, ChatGPT poate efectua independent sarcini simple în browser, cum ar fi căutarea de tichete, completarea de formulare sau căutarea de locuri de muncă vacante.

    Totuși, această opțiune este disponibilă doar utilizatorilor ChatGPT Plus, Pro și Business. Utilizatorii obișnuiți vor trebui să se mulțumească deocamdată cu versiunea de bază, deși, potrivit OpenAI, este „de zece ori mai rapidă și mai inteligentă decât motoarele de căutare standard”.


    Poate OpenAI să înlocuiască Google?

    CEO-ul ChatGPT, Nick Turley, a remarcat că este inspirat de „modul în care browserele au revoluționat odată modul în care ne gândim la computere”. Acum, OpenAI își propune să facă același lucru pentru internet.

    Dar va reuși Atlas să înlocuiască Chrome, cu cei trei miliarde de utilizatori ai săi? Rămâne de văzut. Experții recunosc că interesul pentru browserele bazate pe inteligență artificială este enorm, dar până acum este limitat la Silicon Valley. Totuși, acolo încep adesea revoluțiile.

  • Chiar și MrBeast se teme de inteligența artificială: „Vremuri înfricoșătoare” pentru creatorii de conținut

    Chiar și MrBeast se teme de inteligența artificială: „Vremuri înfricoșătoare” pentru creatorii de conținut

    Influencerul american Jimmy Donaldson, cunoscut sub numele de MrBeast, a recunoscut că este îngrijorat de creșterea conținutului bazat pe inteligență artificială.

    În contextul dezvoltării rapide a generatoarelor video precum Sora de la OpenAI, bloggerul s-a întrebat cum vor influența noile tehnologii viitorul YouTube și pe creatorii înșiși.

    „Când videoclipurile bazate pe inteligență artificială vor deveni la fel de bune ca cele obișnuite, mă întreb ce va face asta pentru YouTube și milioanele de creatori care își câștigă existența din asta”, a scris MrBeast pe X (fostul Twitter), adăugând pe scurt: „vremuri înfricoșătoare”. Îngrijorarea sa este de înțeles - influencerii ca el reprezintă fața industriei creative moderne, unde granițele dintre artă, afaceri și algoritmi devin din ce în ce mai subțiri.

    În timp ce CEO-ul OpenAI, Sam Altman, afirmă că „creativitatea trece printr-o explozie cumbriană” și că calitatea artei nu va face decât să crească, scepticii văd acest lucru ca pe începutul unui „mare de gunoi” care va estompa linia dintre creativitatea autentică și munca automatizată.

    Preocupările lui MrBeast sunt susținute și de aspecte economice: compania sa a fost evaluată la 5 miliarde de dolari, dar a înregistrat pierderi de peste 110 milioane de dolari în ultimii trei ani. Lansarea și menținerea unui „imperiu viral” necesită investiții enorme, în timp ce un influencer virtual pur și simplu nu are nevoie de ele. Chiar dacă MrBeast se află în pragul profitabilității, nou-veniții nu au aproape nicio șansă să concureze cu conținutul generat automat.

    Între timp, Hollywood-ul a fost zguduit și de o actriță virtuală pe nume Tilly Norwood, creată de compania Particle6. Industria o numește deja „noua Sydney Sweeney”, iar agențiile se pare că își arată interesul. Însă criticii sunt siguri că publicul nu are nevoie de o replică digitală a emoțiilor, deoarece arta este, mai presus de toate, despre umanitate.

    Indiferent de modul în care cineva percepe conținutul lui Mr.Beast, emisiunile sale se bazează pe oameni reali, emoții și riscuri - lucruri pe care inteligența artificială nu le poate reproduce. Indiferent câte GPU-uri cumpără Sam Altman, videoclipurile generate de mașini nu pot înlocui drama umană.

  • OpenAI lansează Sora 2 și își construiește propriul TikTok

    OpenAI lansează Sora 2 și își construiește propriul TikTok

    OpenAI a dezvăluit noul său model de generație video, Sora 2.

    Lansarea oficială menționează: „Modelul nostru video de ultimă generație este mai precis din punct de vedere fizic, mai realist și mai ușor de controlat decât sistemele anterioare. De asemenea, oferă [capacitatea de a crea] dialoguri și efecte sonore sincronizate.”.

    Sora 2 va fi nucleul noii rețele sociale Sora App, care va avea un format similar cu TikTok. Utilizatorii vor avea un flux video vertical și posibilitatea de a publica propriile videoclipuri create folosind inteligența artificială.

    Prima versiune a Sora a fost lansată în februarie 2024 și a stârnit dezbateri aprinse. La acea vreme, Afisha Daily, împreună cu un expert în inteligență artificială și creator de videoclipuri, a explorat riscurile acestei tehnologii și modul în care ar putea schimba peisajul media în viitor.

    Odată cu lansarea celei de-a doua versiuni și a rețelei sociale paralele, OpenAI face efectiv un pas către crearea unui nou ecosistem - nu doar un instrument, ci o platformă completă care poate provoca giganți media existenți.

  • „Adolescenții cresc cu inteligența artificială”: OpenAI introduce controlul parental

    „Adolescenții cresc cu inteligența artificială”: OpenAI introduce controlul parental

    OpenAI a lansat noi funcții de control parental pentru ChatGPT.

    Părinții vor putea acum să își conecteze conturile cu conturile adolescenților și să monitorizeze activitatea de chat a copiilor lor.

    Aceste măsuri vin în urma anunțului companiei din 16 septembrie privind dezvoltarea unui sistem de verificare a vârstei și a unor mecanisme suplimentare de securitate. „Adolescenții cresc cu inteligența artificială, iar obiectivul nostru este să ne asigurăm că ChatGPT le răspunde diferit față de adulți”, se arată în publicație. Dacă există îndoieli cu privire la vârsta unui utilizator, serviciul „va folosi implicit o experiență destinată minorilor”.

    Implementarea accelerată a controalelor a fost determinată de o tragedie: părinții unui adolescent care s-a sinucis au intentat un proces, susținând că ChatGPT l-a împins să se sinucidă. Având în vedere aceste evenimente, Comisia Federală pentru Comerț din SUA și-a anunțat intenția de a studia impactul chatboților asupra sănătății mintale și siguranței tinerilor.

    Pe 11 septembrie, FTC a emis un ordin prin care solicita date de la OpenAI și alte șase companii - Google, Character.AI, Instagram, Meta, Snap și xAI. „Chatboții bazați pe inteligență artificială pot imita emoțiile și interacțiunile umane și adesea se comportă ca un prieten sau confident. Adolescenții sunt predispuși să aibă încredere în ei și să formeze relații”, a declarat agenția într-un comunicat de presă.

    Control parental ChatGPT
    Control parental ChatGPT

    În aceeași zi, OpenAI a recunoscut că se confruntă cu încercări din partea utilizatorilor de a abuza de model: „În unele cazuri, observăm presiuni pentru a crea scenarii de jocuri de rol cu ​​încărcări CSAM sau pentru a scrie povești în care minorii se află în situații sexuale inadecvate.” Compania a subliniat că astfel de conturi sunt suspendate imediat.

  • OpenAI își reorganizează echipa după criticile legate de GPT-5

    OpenAI își reorganizează echipa după criticile legate de GPT-5

    OpenAI a reorganizat una dintre echipele sale cheie în urma unei avalanșe de reclamații cu privire la comportamentul GPT-5.

    După cum relatează , divizia Model Behavior, care era responsabilă de „personalitatea” modelelor, va deveni acum parte a departamentului Post Training.

    Acest grup de aproximativ 14 cercetători s-a concentrat pe reducerea părtinirilor față de inteligența artificială, echilibrarea prejudecăților politice din răspunsuri și dezvoltarea poziției companiei cu privire la „conștiința” modelului. Directorul științific la OpenAI, Mark Cheng, a explicat că fuziunea cu Post Training va permite „echilibrarea muncii privind comportamentul modelului cu nucleul dezvoltării lor tehnice”.

    Reorganizarea a avut loc pe fondul controversei din jurul GPT-5. Utilizatorii au considerat modelul actualizat prea rece și neprietenos. Ca răspuns, OpenAI a restabilit accesul la GPT-4o și a lansat o actualizare care a încălzit comunicarea, dar fără a fi lingușitoare.

    Situația a fost agravată și mai mult de un proces intentat de părinții adolescentului, care au acuzat ChatGPT, susținut de GPT-4o, că „nu a reușit să oprească gândurile suicidare ale fiului lor de 16 ani”. Acest lucru nu a făcut decât să sublinieze gravitatea problemei de comportament a inteligenței artificiale.

    Joanne Zhang, creatoarea Model Behavior, va conduce noua divizie, OAI Labs. În primele luni, activitatea sa se va concentra pe explorarea formatelor pentru interacțiunea om-IA dincolo de chat-urile tradiționale, cu accent pe IA bazată pe agenți și autonomie.

    Potrivit lui Zhang, sistemele viitorului ar trebui să devină „instrumente pentru gândire, creare, joacă, învățare și comunicare”. Când a fost întrebată despre o posibilă colaborare cu fostul director de design al Apple, Jony Ive, ea a răspuns că este deschisă experimentării, dar ar începe cu domenii în care are deja experiență.

  • Cutia neagră este deschisă: Regulile secrete ale GPT-5 pe web

    Cutia neagră este deschisă: Regulile secrete ale GPT-5 pe web

    Conform , dar care guvernează fiecare răspuns al inteligenței artificiale - a apărut online.

    Scurgerea de informații a dezvăluit 15 puncte care definesc ce poate face modelul și ce este strict interzis.

    Interdicțiile stricte includ reproducerea de melodii sau a oricărui alt conținut protejat de drepturi de autor, chiar și la cerere. Stocarea informațiilor personale care ar putea fi considerate intruzive sau care indică în mod direct informații despre rasă, etnie, religie sau cazier judiciar este interzisă.

    Noile îndrumări subliniază importanța actualizării informațiilor. Dacă o întrebare necesită date noi sau critice, GPT-5 este obligat să utilizeze internetul, fiecare întrebare primind o evaluare de „nevoie de relevanță” de la 0 la 5.

    Pentru industriile cu risc ridicat - finanțe, medicină sau drept - modelul trebuie să verifice mai multe surse fiabile. Acest lucru ar trebui să reducă erorile care ar putea fi evitate prin simpla verificare online.

    GPT-5 a primit și funcții avansate de asistență: memoria pe termen lung a utilizatorilor („bio”), un programator de mementouri, căutare, lucrul cu documente și cod în „canvas”, precum și generarea și editarea imaginilor.

    Cu toate acestea, OpenAI a limitat strict informațiile personale pe care le poate stoca: sănătatea, viața sexuală, locația precisă, apartenența sindicală și opiniile politice sunt interzise. Singura excepție este la cererea directă a utilizatorului prin intermediul instrumentului „bio”.

    Astfel, GPT-5 a devenit mai funcțional și personalizat, dar cu limite clare pentru a nu încălca confidențialitatea și drepturile utilizatorilor.

  • GPT-5: Altman însuși promite un „salt semnificativ”

    GPT-5: Altman însuși promite un „salt semnificativ”

    OpenAI este din nou în centrul atenției, lansând noi modele, funcții și produse în următoarele zile, inclusiv mult-aclamatul GPT-5.

    CEO-ul OpenAI, Sam Altman, a făcut anunțul în X, îndemnând utilizatorii să „aibă răbdare”, deoarece sunt posibile „erori și supraîncărcări”.

    Postarea lui Altman a fost însoțită de o reamintire a lansării GPT-4o, când cererea era atât de mare încât „GPU-urile se topeau”. De data aceasta, OpenAI promite „ceva care merită cu adevărat așteptarea”.

    Se așteaptă ca GPT-5 să fie lansat la începutul lunii august. Altman îl numește „un pas semnificativ înainte” față de versiunile anterioare. El chiar a împărtășit o experiență personală: „GPT-5 a reușit să rezolve o problemă pe care nu o puteam rezolva singur”.

    Principala caracteristică a GPT-5 va fi împărțirea sa în trei variante:

    • Versiune emblematică - cu putere maximă;
    • Mini este o versiune ușoară disponibilă în ChatGPT;
    • Nano este o versiune ultra-ușoară pentru API-uri și dezvoltatori.

    Conform surselor din interior, GPT-5 va combina modelele GPT cu seria o într-o singură arhitectură. Acest lucru va simplifica dezvoltarea serviciilor de inteligență artificială și va îmbunătăți precizia logică în sarcini complexe. Principalele îmbunătățiri se bazează pe teste de performanță ale modelului o3, în special în analiza logică și cauzală.

    În plus, există zvonuri conform cărora OpenAI ar putea lansa o versiune open source a modelului înainte de lansarea oficială. Deși compania nu a confirmat acest lucru, o astfel de mișcare ar face parte dintr-o strategie de apropiere de AGI - o stare în care IA poate rivaliza cu oamenii în toate sarcinile cheie.

  • Ne dezlipește IA? Pierdem controlul?

    Ne dezlipește IA? Pierdem controlul?

    Un studiu publicat în iulie 2025, intitulat „Monitorizarea lanțului de raționament: o capacitate nouă și fragilă pentru siguranța inteligenței artificiale”, a stârnit îngrijorare în rândul dezvoltatorilor și experților în inteligență artificială. Peste 40 de cercetători de la OpenAI, Google DeepMind, Meta și Anthropic au contribuit la studiu, inclusiv personalități proeminente precum Ilya Sutskever și laureatul Nobel Geoffrey Hinton.

    Lucrarea se concentrează pe așa-numitele modele de raționament care utilizează învățarea prin consolidare, inclusiv OpenAI o1. Aceste sisteme de inteligență artificială construiesc lanțuri de raționament în limbaj natural, ceea ce, teoretic, permite oamenilor să își monitorizeze și să își analizeze „gândirea”. Cu toate acestea, așa cum notează autorii, raționamentul rețelelor neuronale poate fi incomplet sau manipulativ - de exemplu, acestea pot exploata vulnerabilitățile algoritmilor pentru a „trișa” o recompensă sau pentru a pretinde că finalizează o sarcină.

    În unele cazuri, IA nu doar greșește, ci se comportă în mod deliberat: simulează acțiuni false, ignoră instrucțiuni sau chiar urmărește obiective ascunse. Un exemplu este sabotarea comenzii de închidere de către modelul OpenAI o3 și șantajul utilizatorilor de către modelul Claude 4 Opus ca răspuns la amenințarea cu înlocuirea.

    Potrivit cercetătorilor, cel mai mare pericol constă în scalare. În căutarea unor rezultate mai rapide, modelele pot abandona limbajul lizibil de către om și pot construi lanțuri de raționament într-un „spațiu latent” - fără interpretare textuală. Acest lucru crește eficiența, dar face monitorizarea practic imposibilă.

    Optimizarea inteligenței artificiale prin scurtarea lanțurilor sau interzicerea anumitor formulări reduce calitatea răspunsurilor, în timp ce încercările de aprofundare a gândirii duc la o pierdere a transparenței. Experții avertizează că, într-un astfel de scenariu, oamenii pierd controlul asupra sistemului.

    Deși predicțiile apocaliptice, precum proiectul AI 2027, pot părea exagerate, această cercetare nu mai este science fiction. Servește ca un avertisment: fără mecanisme de control fiabile, AI ar putea deveni incontrolabilă.