Cel mai recent model de imagine al OpenAI face posibilă crearea de documente false realiste în câteva secunde.
Conform habr.com , un utilizator cu porecla „God of Prompt” (Zeul Promptului) a demonstrat clar cum GPT-4o poate genera fotografii false cu zboruri anulate, transferuri bancare, diplome și rețete medicale. Acum, falsificarea este disponibilă pentru toată lumea!
Automatizarea contrafacerii cu ajutorul inteligenței artificiale amenință sistemele de securitate existente. În timp ce crearea de documente false necesita anterior ore întregi de muncă și abilități specializate, oricine poate crea acum o imagine realistă aproape instantaneu. Acest lucru ridică îngrijorări serioase cu privire la potențialul de contrafacere pe scară largă.
Deosebit de alarmant este faptul că multe organizații efectuează adesea doar verificări superficiale. În aceste circumstanțe, chiar și cererile minore de despăgubire sau de angajare pot trece neobservate. Mecanismele actuale de control, inclusiv cele din companii și agenții guvernamentale, pot fi copleșite de numărul de documente falsificate.
OpenAI, recunoscând riscurile potențiale, a integrat caracteristici de securitate în GPT-4o: fiecare imagine conține metadate C2PA speciale care indică originea sa artificială. Cu toate acestea, aceste metadate pot fi verificate doar folosind un instrument dedicat, reducând semnificativ eficacitatea protecției. În plus, utilizatorii experimentați pot încerca să elimine aceste etichete digitale.
OpenAI și-a dezvoltat, de asemenea, propriul instrument pentru urmărirea imaginilor generate, dar încă nu este clar cum este folosit exact sau de către cine. În harta sistemului său GPT-4o, compania declară că se străduiește să „maximizeze utilitatea și libertatea creativă, minimizând în același timp daunele”, recunoscând necesitatea îmbunătățirii continue a mecanismelor sale de siguranță.




