OpenAI-ը ներկայացրել է իր նոր տեսանյութերի ստեղծման մոդելը՝ Sora 2-ը։.
Պաշտոնական թողարկման մեջ նշվում է. «Մեր վերջին տեսանյութերի ստեղծման մոդելը ֆիզիկապես ավելի ճշգրիտ, իրատեսական և կառավարելի է, քան նախորդ համակարգերը: Այն նաև ներառում է [սինխրոն երկխոսություններ և ձայնային էֆեկտներ ստեղծելու] հնարավորություն»:.
Sora 2-ը կլինի նոր սոցիալական ցանցի՝ Sora App-ի միջուկը, որը ձևաչափով նման կլինի TikTok-ին: Օգտատերերը կունենան ուղղահայաց տեսանյութերի հոսք և արհեստական բանականության միջոցով ստեղծված իրենց սեփական տեսանյութերը հրապարակելու հնարավորություն:.
Sora-ի առաջին տարբերակը թողարկվել է 2024 թվականի փետրվարին և բուռն քննարկումների առիթ է դարձել։ Այդ ժամանակ Afisha Daily-ն, արհեստական բանականության փորձագետի և տեսանյութերի ստեղծողի հետ միասին, ուսումնասիրել է այս տեխնոլոգիայի ռիսկերը և այն, թե ինչպես այն կարող է փոխել մեդիա լանդշաֆտը ապագայում։.
Իր երկրորդ տարբերակի և զուգահեռ սոցիալական ցանցի թողարկմամբ՝ OpenAI-ը փաստացի քայլ է կատարում դեպի նոր էկոհամակարգի ստեղծումը՝ ոչ միայն գործիք, այլև լիարժեք հարթակ, որը կարող է մարտահրավեր նետել արդեն իսկ գոյություն ունեցող մեդիա հսկաներին։.
OpenAI-ը ChatGPT-ի համար գործարկել է ծնողական վերահսկողության նոր գործառույթներ։.
Ծնողները այժմ կկարողանան իրենց հաշիվները կապել դեռահասների հաշիվների հետ և վերահսկել իրենց երեխաների չաթի ակտիվությունը։.
Այս միջոցառումները հաջորդում են ընկերության սեպտեմբերի 16-ի հայտարարությանը տարիքի ստուգման համակարգի և լրացուցիչ անվտանգության մեխանիզմների մշակման մասին: «Դեռահասները մեծանում են արհեստական ինտելեկտի միջոցով, և մեր նպատակն է ապահովել, որ ChatGPT-ը նրանց արձագանքի այլ կերպ, քան մեծահասակներին», - նշվում է հրապարակման մեջ: Եթե օգտատիրոջ տարիքը կասկածի տակ է, ծառայությունը «կօգտագործի անչափահասների համար նախատեսված փորձառություն»:.
Վերահսկողության արագացված կիրառումը պայմանավորված էր ողբերգությամբ. ինքնասպանություն գործած դեռահասի ծնողները դատական հայց էին ներկայացրել՝ պնդելով, որ ChatGPT-ն է իրեն դրդել ինքնասպանության: Այս իրադարձությունների լույսի ներքո ԱՄՆ Դաշնային առևտրի հանձնաժողովը հայտարարեց չաթբոտների ազդեցությունը երիտասարդների հոգեկան առողջության և անվտանգության վրա ուսումնասիրելու մտադրության մասին:.
Սեպտեմբերի 11-ին FTC-ն հրամանագիր է հրապարակել, որով տվյալներ է պահանջում OpenAI-ից և վեց այլ ընկերություններից՝ Google-ից, Character.AI-ից, Instagram-ից, Meta-ից, Snap-ից և xAI-ից: «Արհեստական բանականությամբ աշխատող չաթբոտները կարող են ընդօրինակել մարդկային հույզերն ու փոխազդեցությունները և հաճախ գործում են որպես ընկեր կամ վստահելի անձ: Դեռահասները, հավանաբար, կվստահեն նրանց և կկազմեն հարաբերություններ», - ասվում է գործակալության մամուլի հաղորդագրության մեջ:.
ChatGPT ծնողական վերահսկողություն
Նույն օրը OpenAI-ը խոստովանեց, որ օգտատերերի կողմից մոդելը չարաշահելու փորձեր են եղել. «Որոշ դեպքերում մենք ճնշում ենք տեսնում CSAM վերբեռնումներով դերային խաղերի սցենարներ ստեղծելու կամ պատմություններ գրելու համար, որտեղ անչափահասները հայտնվում են սեռական առումով անպատշաճ իրավիճակներում»։ Ընկերությունը շեշտեց, որ նման հաշիվները անմիջապես կասեցվում են։.
Ինչպես հաղորդում է , արհեստական բանականությունը գնալով ավելի ու ավելի է դառնում «խորհրդատու» մասնավոր ներդրողների համար։
Ըստ eToro միջնորդական ընկերության՝ մանրածախ առևտրականների 13%-ն արդեն հարցեր է տալիս ChatGPT-ին, Gemini-ին և այլ չաթբոտներին այն մասին, թե որ բաժնետոմսերը գնել: Ուսումնասիրությանը մասնակցել է տարբեր երկրներից 11,000 ներդրող, և գրեթե կեսը խոստովանել է, որ ապագայում մտադիր է ապավինել նման գործիքներին՝ գնման կամ վաճառքի որոշումներ կայացնելիս:.
Մեծ Բրիտանիայում Finder-ի կողմից անցկացված հարցումը նմանատիպ արդյունքներ է ցույց տվել. հարցվածների 40%-ը անձնական ֆինանսների վերաբերյալ խորհրդատվություն ստանալու համար օգտագործում է չաթբոտներ և արհեստական բանականություն: Իսկ Research and Markets-ի վերլուծաբանները կանխատեսում են ալգորիթմական ֆինանսական օգնականների շուկայի պայթյունային աճ՝ 600% մինչև 2029 թվականը, երբ ծավալը կգերազանցի 470 միլիարդ դոլարը:.
Սակայն մասնագետները զգուշացնում են, որ այս կախվածությունն ունի վտանգավոր կողմ։ eToro-ի Մեծ Բրիտանիայի գործողությունների ղեկավար Դեն Մոչուլսկին ընդգծեց. «Արհեստական բանականության մոդելները կարող են հիանալի լինել։ Ռիսկն առաջանում է, երբ մարդիկ սկսում են ChatGPT-ի կամ Gemini-ի նման հիմնական մոդելներին վերաբերվել որպես բյուրեղյա գնդիկների»։ Նա պնդեց, որ նման գործիքները աղավաղում են տվյալները և չափազանց շատ են հիմնվում անցյալի գների տատանումների վրա՝ ապագան կանխատեսելու համար։.
Chatgpt Զրուցեք արհեստական բանականության կամ արհեստական բանականության տեխնոլոգիայի հետ, բիզնեսը օգտագործում է արհեստական բանականության խելացի տեխնոլոգիան՝ մուտքագրելով, խորը սովորելով նեյրոնային ցանցերը՝ օգտատիրոջ մուտքագրումներին հասկանալու և դրանց արձագանքելու համար: Ապագայի տեխնոլոգիա
Նախկին UBS վերլուծաբան Ջերեմի Լյունգը, ով ChatGPT-ն օգտագործում է իր անձնական պորտֆելը կառուցելու համար, կիսում է նրա կասկածամտությունը։ Նա կարծում է, որ անփորձ ներդրողները կարող են խոցելի հայտնվել. «Եթե մարդիկ սովորեն արհեստական բանականությամբ ներդրումներ կատարել և այդպես գումար վաստակել, նրանք կարող են չկարողանալ հաղթահարել ճգնաժամը կամ անկումը»։.
Այսպիսով, ChatGPT-ի և դրա մրցակիցների ժողովրդականության արագ աճը շուկան վերածում է փորձարարական հարթակի. ոմանք այն համարում են հեշտ փողի ճանապարհ, մյուսները՝ նոր ռիսկերի ուղիղ ճանապարհ։.
Ըստ ի ՝ մի քանի շաբաթվա ընթացքում Velvet Sundown հանելուկային խումբը Spotify-ում հավաքել է մեկ միլիոնից ավելի լսումներ։
Սակայն ավելի ուշ պարզվեց, որ ո՛չ երաժիշտները, ո՛չ էլ նրանց պատմությունը գոյություն չունեն. ամեն ինչ ստեղծվել է արհեստական բանականության կողմից։.
Խումբը թողարկեց երկու ալբոմ՝ «Floating On Echoes» և «Dust And Silence» , երկուսն էլ ոճավորված էին 70-ականների ֆոլկ ռոքի ոճով։ Սկզբում Velvet Sundown-ը հերքեց նրանց «սինթետիկ» բնույթը՝ նախագիծն անվանելով «արհեստական երաժշտական փորձ մարդկային ղեկավարության ներքո»։ Սակայն շուտով նրանք խոստովանեցին, որ իրենք «ոչ այնքան մարդկային, ոչ այնքան մեքենայական» են, այլ ինչ-որ «միջանկյալ» բան։
Սկանդալը փոթորիկ է առաջացրել երաժշտական արդյունաբերության մեջ: Ivors Academy-ի գործադիր տնօրեն Ռոբերտո Ներին նշել է. «Արհեստական բանականությամբ աշխատող խմբերը, ինչպիսին է Velvet Sundown-ը, լուրջ հարցեր են առաջացնում թափանցիկության, վերագրման և համաձայնության վերաբերյալ»: Նա ընդգծել է, որ ճիշտ օգտագործման դեպքում արհեստական բանականությունը կարող է օգնել երգերի ստեղծմանը, սակայն այսօրվա մտահոգությունները բարձրացնում են «խորապես մտահոգիչ խնդիրներ»:.
Բրիտանական ֆոնոգրաֆիկ արդյունաբերության ներկայացուցիչ Սոֆի Ջոնսը կողմ էր երգերի պարտադիր պիտակավորման կոչերին. «Մենք կարծում ենք, որ արհեստական բանականությունը պետք է ծառայի մարդկային ստեղծագործականությանը, այլ ոչ թե փոխարինի այն»։ Նա պաշտպանում է հեղինակային իրավունքը և թափանցիկությունը պաշտպանելու նոր կանոններ։.
«Mood Machine» գրքի հեղինակ Լիզ Փելլին զգուշացրել է, որ անկախ արտիստները կարող են շահագործվել։ Նա ասել է, որ ոչ ոք չգիտի, թե Velvet Sundown-ը ինչ նյութ է օգտագործել մարզումների համար։ Փելլին մեջբերել է 2023 թվականի մի աղմկահարույց դեպք, երբ The Weeknd-ի և Drake-ի վոկալով երգը կեղծիք էր, որը ստեղծվել էր արհեստական ինտելեկտի կողմից։
Սկեպտիկները նշում են, որ Spotify-ը և այլ հարթակներ դեռևս պարտավոր չեն պիտակավորել արհեստական բանականության կողմից ստեղծված երաժշտությունը: Ավելին, Spotify-ը նախկինում մեղադրվել է «ուրվական արտիստների» օգտագործման մեջ՝ երգացանկերը լրացնելու համար: Ի տարբերություն դրա, Deezer-ը արդեն ներդրել է արհեստական բանականության երգերը հայտնաբերելու և պիտակավորելու համակարգ, բայց խոստովանում է, որ նման հոսքերի մինչև 70%-ը խարդախ են:.
Երաժշտության մասնագետները վստահ են, որ առանց խիստ կանոնների, արհեստական բանականությունը կարժանանա նույն ճակատագրին, ինչ հոսքային հեռարձակումը, որտեղ տեխնոլոգիական հսկան շահույթ է ստանում, իսկ ստեղծողները մնում են ոչնչով։ Առայժմ «Velvet Sundown»-ը դարձել է նոր դարաշրջանի խորհրդանիշ՝ մի դարաշրջանի, որտեղ լսողները միշտ չէ, որ գիտեն, թե ով է կանգնած երգի ետևում։.
OpenAI-ը վերակազմակերպել է իր հիմնական թիմերից մեկը GPT-5-ի վարքագծի վերաբերյալ բողոքների ալիքից հետո։.
Ինչպես հաղորդում է , մոդելների վարքագծի բաժինը, որը պատասխանատու էր մոդելների «անհատականության» համար, այժմ կդառնա հետուսուցողական բաժնի մաս։
Մոտ 14 հետազոտողներից բաղկացած այս խումբը կենտրոնացած էր արհեստական բանականության կողմնակալության նվազեցման, արձագանքներում քաղաքական կողմնակալությունների հավասարակշռման և մոդելի «գիտակցության» վերաբերյալ ընկերության դիրքորոշման մշակման վրա։ OpenAI-ի գլխավոր գիտնական Մարկ Չենգը բացատրեց, որ Post Training-ի հետ միավորումը թույլ կտա «հավասարակշռել մոդելի վարքագծի վրա աշխատանքը իրենց տեխնիկական զարգացման միջուկի հետ»։.
Վերակազմակերպումը տեղի ունեցավ GPT-5-ի շուրջ առաջացած հակասությունների ֆոնին։ Օգտատերերը թարմացված մոդելը համարեցին չափազանց սառը և անբարյացակամ։ Ի պատասխան՝ OpenAI-ը վերականգնեց GPT-40-ին հասանելիությունը և թողարկեց թարմացում, որը բարելավեց հաղորդակցությունը, բայց առանց գրավիչ լինելու։.
Իրավիճակն էլ ավելի սրվեց դեռահասի ծնողների կողմից ներկայացված դատական հայցով, որոնք մեղադրում էին GPT-4o-ով աշխատող ChatGPT-ին «իրենց 16-ամյա որդու ինքնասպանության մտքերը կանխելու անկարողության» մեջ։ Սա միայն ընդգծեց արհեստական ինտելեկտի վարքագծի խնդրի լրջությունը։.
Model Behavior-ի ստեղծող Ջոան Չժանը կղեկավարի նոր՝ OAI Labs բաժինը: Առաջին ամիսներին դրա աշխատանքը կկենտրոնանա մարդ-արհեստական բանականություն փոխազդեցության ձևաչափերի ուսումնասիրության վրա՝ ավանդական չաթերից այն կողմ, կենտրոնանալով գործակալների վրա հիմնված արհեստական բանականության և ինքնավարության վրա:.
Չժանի խոսքով՝ ապագայի համակարգերը պետք է դառնան «մտածելու, ստեղծագործելու, խաղալու, սովորելու և շփվելու գործիքներ»։ Երբ նրան հարցրին Apple-ի նախկին գլխավոր դիզայներ Ջոնի Այվի հետ հնարավոր համագործակցության մասին, նա պատասխանեց, որ բաց է փորձարկումների համար, բայց կսկսի այն ոլորտներից, որտեղ արդեն իսկ փորձ ունի։.
Ամստերդամի համալսարանի հետազոտողները որոշել են ստուգել, թե ինչ կլինի, եթե ստեղծեն սոցիալական ցանց, որտեղ բոլոր օգտատերերը արհեստական ինտելեկտից են։
Նրանք ստեղծեցին սոցիալական ցանց՝ առանց գովազդի կամ առաջարկությունների ալգորիթմների, և այն լրացրին GPT-4o mini-ով աշխատող 500 չաթբոտներով։ Յուրաքանչյուր բոտ ուներ որոշակի «անհատականություն» և քաղաքական հայացքներ։.
Հինգ փորձերի ընթացքում բոտերը կատարել են մոտավորապես 10,000 գործողություն։ Պարզվել է, որ նույնիսկ առանց ալգորիթմների ազդեցության, նրանք խմբավորվել են քաղաքական համոզմունքների հիման վրա՝ կազմելով «արձագանքային խցիկներ»։ Ավելին, հենց ամենաարմատական գրառումներն էին, որոնք գրավել էին ամենաշատ հետևորդներն ու կիսումները։.
Գիտնականները ընդգծում են, որ արդյունքները հիասթափեցնող են, քանի որ չաթբոտները պետք է ընդօրինակեին մարդկային վարքագիծը։ Սակայն, քանի որ նրանք մարզվում են մարդկային տվյալների վրա, «նրանք պարզապես պատճենում են մեր թունավորված տարբերակները»։.
Պառակտումը նվազեցնելու համար հետազոտողները փորձել են տարբեր մեթոդներ
ժամանակագրական ժապավեն,
նվազեցնելով վիրուսային բովանդակության ազդեցությունը,
թաքցնելով բաժանորդների և վերահրապարակումների քանակը,
պրոֆիլների անանունացում,
Հակառակ կարծիքների ամրապնդում։.
Սակայն բոլոր փորձերը ձախողվեցին։ Ակտիվության տատանումը կազմեց ոչ ավելի, քան 6%, իսկ երբ կենսագրությունները թաքցվեցին, տարբերությունը միայն մեծացավ. ծայրահեղ գրառումները սկսեցին ավելի մեծ ուշադրություն գրավել։.
Վերջիվերջո, ուսումնասիրությունը ցույց տվեց, որ սոցիալական մեդիան, որպես հաղորդակցման ձև, կարող է բնույթով նախատեսված լինել մարդկային վարքի ամենավատ կողմերը ուժեղացնելու համար։ «Սոցիալական մեդիան մարդկության աղավաղված հայելին է, որը արտացոլում է մեզ մեր ամենաաղավաղված տեսքով», - եզրակացրել են հեղինակները։.
«Diary of a CEO» փոդքասթին տված հարցազրույցում Google X-ի նախկին գործադիր տնօրեն Մո Գաուդատը նշել է, որ մարդկությունը 2027 թվականից սկսած կմտնի 12-15 տարվա մութ արհեստական ինտելեկտի դիստոպիայի շրջան։.
Նա ասաց, որ պատճառը «մեքենաների ապստամբությունը» չէ, այլ այն, որ արհեստական բանականությունը կսրի «մեր սեփական հիմարության» պատճառով առաջացած առկա խնդիրները։.
Գավդաթը վստահ է, որ հիմնարար արժեքները՝ ազատությունը, մարդկային կապերը, պատասխանատվությունը, իրականության ընկալումը և իշխանության բաշխումը, լրջորեն կխաթարվեն։ Նա ընդգծում է, որ արհեստական բանականությունն ինքնին մեղավոր չէ. «Արհեստական բանականության մեջ բացարձակապես ոչ մի վատ բան չկա։ Մեքենաների վերելքի դարաշրջանում մարդկության արժեքային համակարգում շատ վատ բան կա»։.
Նա մի ժամանակ կարծում էր, որ ավտոմատացումը կազատի մարդկանց առօրյա գործերից, սակայն իրականությունն այլ ընթացք է ստացել։ Կապիտալիստական տնտեսությունում արհեստական բանականությունը դարձել է աշխատատեղերը վերացնելու, վարձման տեմպը դանդաղեցնելու և աշխատակիցների աշխատանքային ծանրաբեռնվածությունը մեծացնելու գործիք։ «Ցանկացած տեխնոլոգիա ամրապնդում է առկա արժեքները, և այսօր մարդկության հիմնական արժեքը կապիտալիզմն է», - նշեց նա։.
Գավդաթը զուգահեռներ անցկացրեց այլ տեխնոլոգիաների հետ. սոցիալական ցանցերը, որոնք խոստանում էին մարդկանց կապել, հաճախ նրանց միայնակ են դարձնում, իսկ բջջային հեռախոսները, որոնք նախատեսված էին կյանքը հեշտացնելու համար, այն ավելի են գերբեռնված դարձրել։.
Նա զգուշացրեց, որ արհեստական բանականությունը կբազմապատկի «մարդկանց կողմից ընդունակ չարիքները»։ Օրինակներից են խորը կեղծ պոռնոգրաֆիան, արհեստական բանականությունը ռազմական զարգացման մեջ, ավտոմատացված հսկողության համակարգերը, մեկ տարվա ընթացքում կրիպտոարժույթային խարդախության 456%-ով աճը և արհեստական բանականության հնարավոր ինտեգրումը միջուկային զենքի մեջ։ Արհեստական բանականությամբ հագեցած զանգվածային հսկողությունն արդեն ակտիվորեն օգտագործվում է Չինաստանում և սկսում է ներդրվել նաև Միացյալ Նահանգներում։.
Այնուամենայնիվ, Գավդաթը ընդունում է, որ արհեստական բանականությունը հսկայական օգուտներ է բերում գիտությանը, բժշկությանը և դեղագործությանը: Սակայն, նրա կարծիքով, այժմ ամենակարևորը կառավարությունների վրա ճնշում գործադրելն է՝ կարգավորելու ոչ թե արհեստական բանականությունն ինքնին, այլ դրա կիրառումը: «Դուք չեք կարող մուրճ նախագծել մեխեր խփելու համար, բայց չսպանելու համար: Բայց դուք կարող եք մուրճով սպանությունը հանցագործություն դարձնել», - ասաց նա:.
Նրա խոսքով՝ արհեստական բանականության «մուրճն» արդեն մեր ձեռքում է։ Մնում է միայն որոշել, թե արդյոք մենք կգրենք օրենքներ, որոնք կկանխեն նրանց սպանելը։.
ի տվյալներով ՝ GPT-5 համակարգային հուշումը՝ թաքնված կանոնների ամբողջություն, որը օգտատերերը երբեք չեն տեսնում, բայց որը կարգավորում է արհեստական ինտելեկտի յուրաքանչյուր պատասխան, արտահոսել է առցանց։
Արտահոսքը բացահայտեց 15 կետ, որոնք սահմանում էին, թե ինչ կարող է անել մոդելը և ինչն է խստիվ արգելված։.
Խիստ արգելքները ներառում են երգերի կամ որևէ այլ հեղինակային իրավունքով պաշտպանված բովանդակության վերարտադրությունը, նույնիսկ պահանջի դեպքում: Արգելվում է պահպանել անձնական տեղեկություններ, որոնք կարող են համարվել ներխուժող կամ ուղղակիորեն մատնանշել ռասայի, էթնիկ պատկանելության, կրոնի կամ քրեական գործի մասին տեղեկություններ:.
Նոր ուղեցույցները ընդգծում են տեղեկատվության արդիականության կարևորությունը։ Եթե հարցը պահանջում է թարմ կամ կարևոր տվյալներ, GPT-5-ը պարտավոր է օգտագործել ինտերնետը, որտեղ յուրաքանչյուր հարցում ստանում է «համապատասխանության կարիք» գնահատական 0-ից 5։.
Բարձր ռիսկային ոլորտների՝ ֆինանսների, բժշկության կամ իրավաբանական, համար մոդելը պետք է ստուգի բազմաթիվ հուսալի աղբյուրներ։ Սա պետք է նվազի սխալները, որոնք կարելի է խուսափել պարզապես առցանց ստուգելով։.
GPT-5-ը նաև ստացել է առաջադեմ օգնականի գործառույթներ՝ օգտատերերի երկարատև հիշողություն («կենսագրություն»), հիշեցումների ժամանակացույց, որոնում, փաստաթղթերի և կոդի հետ աշխատանք «կտավում», ինչպես նաև պատկերների ստեղծում և խմբագրում։.
Սակայն OpenAI-ը խստորեն սահմանափակել է իր կողմից պահպանվող անձնական տեղեկությունները. արգելվում են առողջության, սեռական կյանքի, ճշգրիտ գտնվելու վայրի, արհմիության անդամակցության և քաղաքական հայացքների վերաբերյալ տեղեկությունները: Միակ բացառությունը օգտատիրոջ անմիջական խնդրանքն է՝ «կենսագրություն» գործիքի միջոցով:.
Այսպիսով, GPT-5-ը դարձել է ավելի ֆունկցիոնալ և անհատականացված, բայց հստակ սահմաններով՝ օգտատերերի գաղտնիությունն ու իրավունքները չխախտելու համար։.
Հետազոտողները հրապարակել են իսկական սենսացիա ճարտարագիտության և արհեստական բանականության աշխարհում՝ GenCAD-ը՝ առաջին բաց կոդով նեյրոնային ցանցը, որը կարող է լուսանկարից ստեղծել լիարժեք ֆունկցիոնալ պարամետրիկ CAD մոդել։
Բայց սա պարզապես գեղեցիկ ռենդերինգ չէ. մենք խոսում ենք սկրիպտի մասին, որը կարող է անմիջապես բեռնվել խմբագրիչի մեջ, փոփոխվել և... ուղարկվել արտադրության։.
Մշակողները ընդգծում են, որ գոյություն ունեցող պատկերից ցանց լուծումները աշխատում են վոքսելների, կետային ամպերի և բազմանկյուն ցանցերի հետ՝ գեղեցիկ, բայց անօգուտ ինժեներիայի համար: GenCAD-ը գնում է ավելի հեռու: Այն ստեղծում է ոչ թե դատարկ մոդել, այլ հրամանների հաջորդականություն, որոնք կառուցում են լիարժեք ինժեներական մոդել:.
GenCAD-ի սիրտը բարդ ճարտարապետությունն է
տրանսֆորմատոր-կոդավորիչ, որը սեղմում է հրամանները կոմպակտ միջուկի մեջ։
հակադրական ուսուցում, հրամանների լեզվի և տեսողական պատկերի համապատասխանեցում;
դիֆուզիոն մոդել, որը լուսանկարը վերածում է թաքնված ներկայացման։
դեկոդեր, որը վերակառուցում է պարամետրիկ հրահանգները այս հավաքածուից։.
Հիմնական առանձնահատկությունը դրա խմբագրելիությունն է։ Արդյունքում ստացված սկրիպտը կարող է հարմարեցվել արտադրական կարիքներին, առանձին պարամետրերը կարող են փոփոխվել, և այն կարող է անմիջապես ինտեգրվել աշխատանքային հոսքերի մեջ։.
GitHub-ում կոդի թողարկմանը զուգընթաց, հետազոտողները հասանելի դարձրին նաև տվյալների հավաքածուն և մարզված մոդելները: Սա պարզապես քայլ չէ դեպի նախագծման ավտոմատացում, այլ հեղափոխություն է ամբողջ արտադրական արդյունաբերության համար:.
ի տվյալներով ՝ Candy Crush-ի ստեղծող Քինգը պատրաստվում է կրճատել մոտ 200 աշխատակցի։ Սակայն իրական ցնցումն այն էր, որ կրճատվածների զգալի մասը, ըստ էության, իրենց աշխատանքը հանձնում են հենց իրենց մշակած և մարզած արհեստական ինտելեկտի գործիքներին։
Farm Heroes Saga-ի լոնդոնյան թիմը հատկապես ծանր հարված է ստացել. անանուն աղբյուրների համաձայն՝ թիմը կիսով չափ կրճատվում է, այդ թվում՝ հիմնական ղեկավարների: Կրճատումների մեջ են մտնում մակարդակի դիզայներները, UX մասնագետները և գրողները: Մեկ աշխատակցի խոսքով՝ «գործնականում ամբողջ մակարդակի դիզայնի բաժինը վերացվել է», չնայած այն հանգամանքին, որ այս նույն մարդիկ «ամիսներ են ծախսել իրենց աշխատանքը արագացնելու համար գործիքներ ստեղծելու վրա»:.
Ղեկավարությունը փոփոխությունները բացատրում է կառավարման շերտերը կրճատելու և զարգացումը արագացնելու ցանկությամբ։ Միևնույն ժամանակ, աշխատակիցները հայտնում են, որ կրճատումները տեղի են ունենում նաև «կամայական պատճառներով»՝ սոցիալական ցանցերում ակտիվության կամ ներքին գործընթացների քննադատության պատճառով։ Ընկերությունը անհանգստության մեջ է. շատերը վախենում են կորցնել իրենց աշխատանքը, բայց պաշտոնական որոշումները կկայացվեն միայն աշնանը։.
Ըստ ներքին աղբյուրների՝ որոշ կարևոր աշխատակիցներ այս ամռանը տեղափոխվել են «այգեգործական արձակուրդի»՝ վճարովի արձակուրդի մինչև սեպտեմբերին կայանալիք վերջնական կրճատումները։ Մինչդեռ Քինգը պատրաստում է նոր կազմակերպչական կառուցվածք և բանակցություններ է վարում արհմիությունների հետ։.
Մոտիվացիայի և մարտական ոգու հետ կապված իրավիճակը աղետալի է։ Ներքին հարցումը ցույց տվեց մարտական ոգու ռեկորդային ցածր մակարդակ, և, ըստ մեկ աղբյուրի, կրճատումների սկսվելուց հետո այն «ջրի երեսին» է։ Քինգի մարդկային ռեսուրսների բաժինը նկարագրվել է որպես «լիակատար կրկես», որը պաշտպանում է ընկերության շահերը, այլ ոչ թե նրա աշխատակիցների։.
Կրճատումները վերաբերում են Լոնդոնի, Բարսելոնայի, Ստոկհոլմի և Բեռլինի գրասենյակներին: Կենտրոնացված ռեսուրսները՝ հետազոտական և որակի ապահովման թիմերը, նույնպես ենթակա են լուծարման կամ վերաբաշխման արտադրական թիմերին: Ընկերության աճող շահույթի ֆոնին այս ամենը նման է սառնասիրտ հաշվարկի՝ արդյունավետության և եկամուտների մաքսիմալացման անվան տակ:.
Չնայած ղեկավարության «կլիշեացված ելույթներին», թիմերը շարունակում են աջակցել միմյանց։ Մի աշխատակից ընդգծում է. «Մենք անկեղծորեն հոգ ենք տանում միմյանց և մեր խաղերի մասին։ Եվ դա ավելին է նշանակում, քան ցանկացած «կազմակերպչական սխեմա»։.