OpenAI-ի վերջին պատկերի մոդելը հնարավորություն է տալիս վայրկյանների ընթացքում ստեղծել իրատեսական կեղծ փաստաթղթեր։.
Ինչպես հաղորդում է habr.com-ը, «Արագության Աստված» մականունով օգտատերը հստակ ցույց է տվել, թե ինչպես է GPT-4o-ն կարող կեղծ լուսանկարներ ստեղծել չեղարկված չվերթների, բանկային փոխանցումների, դիպլոմների և բժշկական դեղատոմսերի մասին: Այժմ կեղծիքը հասանելի է բոլորին:
Արհեստական բանականության միջոցով կեղծարարության ավտոմատացումը սպառնում է առկա անվտանգության համակարգերին: Մինչդեռ կեղծ փաստաթղթերի ստեղծումը նախկինում պահանջում էր ժամեր աշխատանք և մասնագիտացված հմտություններ, այժմ յուրաքանչյուրը կարող է գրեթե անմիջապես ստեղծել իրատեսական պատկեր: Սա լուրջ մտահոգություններ է առաջացնում լայնածավալ կեղծարարության հնարավորության վերաբերյալ:.
Հատկապես մտահոգիչ է այն փաստը, որ շատ կազմակերպություններ հաճախ անցկացնում են միայն մակերեսային ստուգումներ: Այս պայմաններում նույնիսկ աննշան փոխհատուցման պահանջները կամ աշխատանքի դիմումները կարող են աննկատ մնալ: Գործող վերահսկողության մեխանիզմները, այդ թվում՝ ընկերություններում և պետական մարմիններում գործողները, կարող են ծանրաբեռնված լինել կեղծ փաստաթղթերի քանակով:.
OpenAI-ը, գիտակցելով հնարավոր ռիսկերը, GPT-4o-ում ներառեց անվտանգության առանձնահատկություններ. յուրաքանչյուր պատկեր պարունակում է հատուկ C2PA մետատվյալներ, որոնք ցույց են տալիս դրա արհեստական ծագումը: Այնուամենայնիվ, այս մետատվյալները կարող են ստուգվել միայն հատուկ գործիքի միջոցով, ինչը զգալիորեն նվազեցնում է պաշտպանության արդյունավետությունը: Ավելին, փորձառու օգտատերերը կարող են փորձել հեռացնել այս թվային պիտակները:.
OpenAI-ը նաև մշակել է իր սեփական գործիքը՝ ստեղծված պատկերները հետևելու համար, սակայն դեռևս պարզ չէ, թե ինչպես է այն ճիշտ օգտագործվում կամ ում կողմից: Իր GPT-4o համակարգի քարտեզում ընկերությունը նշում է, որ ձգտում է «առավելագույնի հասցնել օգտակարությունն ու ստեղծագործական ազատությունը՝ միաժամանակ նվազագույնի հասցնելով վնասը», ընդունելով իր անվտանգության մեխանիզմների անընդհատ կատարելագործման անհրաժեշտությունը:.

