OpenAI компаниясы Sora 2 атты жаңа бейне генерациялау моделін таныстырды.
Ресми шығарылымда былай делінген: «Біздің ең соңғы бейне жасау моделіміз бұрынғы жүйелерге қарағанда физикалық тұрғыдан дәлірек, шынайы және басқарылатын. Сондай-ақ, ол синхрондалған диалогтар мен дыбыстық эффектілерді [жасау мүмкіндігін] ұсынады».
Sora 2 жаңа Sora App әлеуметтік желісінің негізі болады, ол TikTok-қа ұқсас форматта болады. Пайдаланушылар тік бейне ағынына және жасанды интеллект арқылы жасалған өз бейнелерін жариялау мүмкіндігіне ие болады.
Sora ойынының алғашқы нұсқасы 2024 жылдың ақпан айында шығарылды және қызу пікірталас тудырды. Сол кезде Afisha Daily басылымы жасанды интеллект маманы және бейне жасаушымен бірлесіп, бұл технологияның қауіптерін және оның болашақта медиа әлемін қалай өзгерте алатынын зерттеді.
Екінші нұсқасы мен параллель әлеуметтік желісін іске қосу арқылы OpenAI жаңа экожүйе құруға қадам жасап жатыр – бұл тек құрал ғана емес, сонымен қатар қолданыстағы медиа алыптарына қарсы тұра алатын толыққанды платформа.
OpenAI ChatGPT үшін жаңа ата-аналық бақылау мүмкіндіктерін іске қосты.
Енді ата-аналар өз аккаунттарын жасөспірімдердің аккаунттарымен байланыстырып, балаларының чаттағы белсенділігін бақылай алады.
Бұл шаралар компанияның 16 қыркүйекте жасты тексеру жүйесін және қосымша қауіпсіздік механизмдерін әзірлеу туралы мәлімдемесінен кейін қабылданды. «Жасөспірімдер жасанды интеллектпен өсіп келеді, және біздің мақсатымыз - ChatGPT оларға ересектерге қарағанда басқаша жауап беретініне көз жеткізу», - делінген басылымда. Егер пайдаланушының жасына күмән туындаса, қызмет «кәмелетке толмағандарға арналған тәжірибені әдепкі бойынша пайдаланады».
Бақылау шараларын жеделдетіп енгізу қайғылы оқиғаға байланысты болды: өзіне-өзі қол жұмсаған жасөспірімнің ата-анасы ChatGPT оны өзіне-өзі қол жұмсауға итермеледі деп сотқа шағым түсірді. Осы оқиғаларды ескере отырып, АҚШ Федералды сауда комиссиясы чатботтардың жастардың психикалық денсаулығы мен қауіпсіздігіне әсерін зерттеу ниетін жариялады.
11 қыркүйекте FTC OpenAI және тағы алты компаниядан — Google, Character.AI, Instagram, Meta, Snap және xAI — деректерді сұрайтын бұйрық шығарды. «Жасанды интеллектпен жұмыс істейтін чатботтар адамның эмоциялары мен өзара әрекеттесуін имитациялай алады және көбінесе дос немесе сенімді адам сияқты әрекет етеді. Жасөспірімдер оларға сеніп, қарым-қатынас орнатуы мүмкін», - делінген агенттіктің баспасөз хабарламасында.
ChatGPT ата-ана бақылауы
Сол күні OpenAI пайдаланушылардың модельді теріс пайдалану әрекеттеріне тап болғанын мойындады: «Кейбір жағдайларда біз CSAM жүктемелерімен рөлдік ойындар сценарийлерін жасауға немесе кәмелетке толмағандар жыныстық жағынан қолайсыз жағдайларға тап болатын әңгімелер жазуға қысым жасаймыз». Компания мұндай аккаунттардың дереу тоқтатылғанын атап өтті.
агенттігінің хабарлауынша , жасанды интеллект жеке инвесторлар үшін «кеңесшіге» айналуда.
eToro брокерлік компаниясының мәліметі бойынша, бөлшек саудагерлердің 13%-ы қазірдің өзінде ChatGPT, Gemini және басқа да чатботтардан қандай акцияларды сатып алу керектігі туралы сұрақтар қойып жатыр. Зерттеуге әртүрлі елдерден барлығы 11 000 инвестор қатысты, ал олардың жартысына жуығы болашақта сатып алу немесе сату туралы шешімдер қабылдаған кезде осындай құралдарға сүйенуді жоспарлап отырғанын мойындады.
Ұлыбританияда Finder жүргізген сауалнама ұқсас нәтижелерді көрсетті: респонденттердің 40%-ы жеке қаржы бойынша кеңес алу үшін чатботтар мен жасанды интеллектті пайдаланады. Ал Research and Markets аналитиктері алгоритмдік қаржы көмекшілері нарығының 2029 жылға қарай 600%-ға дейін өсетінін болжайды, бұл кезде көлем 470 миллиард доллардан асады.
Дегенмен, сарапшылар бұл тәуелділіктің қауіпті жағы бар екенін ескертеді. eToro компаниясының Ұлыбританиядағы операцияларының басшысы Дэн Моцульски былай деп атап өтті: «Жасанды интеллект модельдері керемет болуы мүмкін. Тәуекел адамдар ChatGPT немесе Gemini сияқты негізгі модельдерге хрусталь шарлар сияқты қарай бастағанда пайда болады». Ол мұндай құралдар деректерді бұрмалайтынын және болашақты болжау үшін өткен баға қозғалыстарына тым көп сүйенетінін алға тартты.
Chatgpt Жасанды интеллект немесе жасанды интеллект технологиясымен чат, бизнес пайдаланушы енгізген мәліметтерді түсіну және жауап беру үшін нейрондық желілерді терең оқыту арқылы жасанды интеллекттің ақылды технологиясын пайдаланады. Болашақ технологиясы
Жеке портфолиосын құру үшін ChatGPT пайдаланатын бұрынғы UBS талдаушысы Джереми Леунг та өз күмәнін бөліседі. Ол тәжірибесіз инвесторлар өздерін осал сезінуі мүмкін деп санайды: «Егер адамдар жасанды интеллектпен инвестиция салуға және осылайша ақша табуға үйренсе, олар дағдарысқа немесе құлдырауға төтеп бере алмауы мүмкін».
Осылайша, ChatGPT және оның әріптестерінің танымалдылығының тез өсуі нарықты эксперименттік платформаға айналдыруда: кейбіреулер оны оңай ақшаға апаратын жол ретінде, ал басқалары жаңа тәуекелдерге тікелей жол ретінде қарастырады.
басылымының хабарлауынша , бірнеше апта ішінде жұмбақ Velvet Sundown тобы Spotify-да миллионнан астам стрим жинады.
Бірақ кейінірек музыканттардың да, олардың тарихының да жоқ екені белгілі болды - бәрі жасанды интеллект арқылы жасалған.
Топ «Floating On Echoes» және «Dust And Silence» атты екі альбом шығарды. Алғашында Velvet Sundown олардың «синтетикалық» табиғатын жоққа шығарып, жобаны «адам басшылығымен жасалған жасанды музыкалық эксперимент» деп атады. Бірақ көп ұзамай олар «толықтай адам емес, толықтай машина емес», бірақ «орталықтағы» нәрсе екенін мойындады.
Бұл жанжал музыка индустриясында дауыл тудырды. Ivors Academy бас директоры Роберто Нери: «Velvet Sundown сияқты жасанды интеллектпен жұмыс істейтін топтар ашықтық, атрибуция және келісім туралы күрделі сұрақтар туғызады», - деді. Ол дұрыс қолданылған кезде жасанды интеллект ән жазуға көмектесе алатынын, бірақ бүгінгі мәселелер «терең алаңдатарлық мәселелерді» тудыратынын атап өтті.
British Phonographic Industry компаниясының өкілі Софи Джонс міндетті түрде тректер таңбалауын енгізу туралы талаптарды қолдады: «Біз жасанды интеллект адамның шығармашылығын алмастырмай, оған қызмет етуі керек деп санаймыз». Ол авторлық құқық пен ашықтықты қорғау үшін жаңа ережелерді жақтайды.
Mood Machine авторы Лиз Пелли тәуелсіз әртістердің қаналу қаупі бар екенін ескертті. Ол Velvet Sundown жаттығу үшін қандай материал қолданғанын ешкім білмейтінін айтты. Пелли 2023 жылғы The Weeknd пен Дрейктің вокалы бар трек жасанды интеллект жасаған жалған болып шыққан кездегі танымал жағдайды келтірді.
Скептиктер Spotify және басқа платформалардың әлі күнге дейін жасанды интеллект жасаған музыканы белгілеуге міндетті емес екенін атап өтеді. Сонымен қатар, Spotify бұрын ойнату тізімдерін толтыру үшін «елестер әртістерін» пайдаланды деп айыпталған. Керісінше, Deezer жасанды интеллект тректерін анықтау және белгілеу жүйесін енгізген, бірақ мұндай ағындардың 70%-ға дейіні жалған екенін мойындайды.
Музыка мамандары қатаң ережелер болмаса, жасанды интеллекттің де стриминг сияқты тағдырға тап болатынына сенімді, мұнда технологиялық алыптар пайда табады, ал жасаушылар ештеңесіз қалады. Қазіргі уақытта Velvet Sundown жаңа дәуірдің символына айналды, бұл дәуір тыңдаушылар әннің артында кім тұрғанын әрқашан біле бермейді.
OpenAI GPT-5-тің жұмысына қатысты көптеген шағымдардан кейін негізгі командаларының бірін қайта құрды.
TechCrunch хабарлағандай , модельдердің «жеке басына» жауапты болған модельдік мінез-құлық бөлімі енді оқудан кейінгі бөлімнің құрамына кіреді.
Шамамен 14 зерттеушіден тұратын бұл топ жасанды интеллектке қатысты бейімділікті азайтуға, жауаптардағы саяси бейімділіктерді теңестіруге және компанияның модель «санасы» бойынша ұстанымын дамытуға бағытталған. OpenAI бас ғалымы Марк Ченг Post Training-мен бірігу «модельдік мінез-құлық бойынша жұмысты олардың техникалық дамуының өзегімен теңестіруге» мүмкіндік беретінін түсіндірді.
Қайта ұйымдастыру GPT-5 айналасындағы дау-дамай аясында өтті. Пайдаланушылар жаңартылған модельді тым суық және жағымсыз деп тапты. Жауап ретінде OpenAI GPT-4o-ға қол жеткізуді қалпына келтіріп, байланысын жақсартатын жаңартуды шығарды, бірақ бұл жағымды болмады.
Жағдай жасөспірімнің ата-анасының GPT-4o қолдауымен жұмыс істейтін ChatGPT-ті «16 жасар ұлының суицидтік ойларын тоқтата алмады» деп айыптаған сот ісі жағдайды одан әрі ушықтырды. Бұл тек жасанды интеллект мінез-құлық мәселесінің күрделілігін көрсетті.
Model Behavior компаниясының негізін қалаушы Джоан Чжан жаңа бөлімше OAI Labs-ты басқарады. Алғашқы айларда оның жұмысы агенттерге негізделген жасанды интеллект пен автономияға баса назар аудара отырып, дәстүрлі чаттардан тыс адам мен жасанды интеллект өзара әрекеттесу форматтарын зерттеуге бағытталады.
Чжанның айтуынша, болашақ жүйелер «ойлау, жасау, ойнау, үйрену және қарым-қатынас құралдарына» айналуы керек. Apple компаниясының бұрынғы бас дизайнері Джони Айвпен ынтымақтастық туралы сұрағанда, ол эксперименттерге ашық екенін, бірақ тәжірибесі бар салалардан бастайтынын айтты.
Амстердам университетінің зерттеушілері барлық пайдаланушылары жасанды интеллект болатын әлеуметтік желі құрса, не болатынын тексеруді
Олар жарнамасыз немесе ұсыныс алгоритмдері жоқ әлеуметтік желі құрып, оны GPT-4o mini қолдайтын 500 чатботпен толтырды. Әрбір боттың өзіндік «тұлғасы» мен саяси көзқарастары болды.
Бес тәжірибе барысында боттар шамамен 10 000 әрекет жасады. Алгоритмдердің әсерінсіз де, олар саяси сенімдерге негізделіп, «жаңғырық камераларын» құрайтыны белгілі болды. Сонымен қатар, ең көп оқырман мен бөлісуді тартқан ең радикалды жазбалар болды.
Ғалымдар нәтижелердің көңіл көншітпейтінін атап көрсетеді, себебі чатботтар адамның мінез-құлқын қайталауы керек еді. Бірақ олар адами деректерге үйретілгендіктен, «олар тек біздің уланған нұсқаларымызды қайталайды».
Бөлінуді азайту үшін зерттеушілер әртүрлі әдістерді қолданып көрді:
хронологиялық таспа,
вирустық мазмұнның әсерін азайту,
жазылушылар санын жасыру және қайта жариялау,
профильдерді анонимдеу,
қарама-қарсы көзқарастарды нығайту.
Дегенмен, барлық әрекеттер сәтсіз аяқталды. Қатысудағы өзгеріс 6%-дан аспады, ал өмірбаяндар жасырылған кезде алшақтық тек артты — экстремалды жазбалар одан да көп назар аудара бастады.
Түптеп келгенде, зерттеу әлеуметтік медианың коммуникация түрі ретінде адам мінез-құлқының ең жаман жақтарын күшейтуге бейім болуы мүмкін екенін көрсетті. «Әлеуметтік медиа – адамзаттың бұрмаланған айнасы, ол бізді ең бұрмаланған түрде көрсетеді», - деп қорытындылады авторлар.
Google X компаниясының бұрынғы басшысы Мо Гавдат «Күнделік бас директорының» подкастына берген сұхбатында адамзат 2027 жылдан бастап 12-15 жылдық қараңғы жасанды интеллект дистопиясына енеді деп мәлімдеді.
Ол себеп «машина көтерілісі» емес, жасанды интеллект «өзіміздің ақымақтығымыздан» туындаған бар мәселелерді ушықтыратынын айтты.
Гавдат негізгі құндылықтар – бостандық, адамдар арасындағы байланыстар, жауапкершілік, шындықты қабылдау және билікті бөлу – қатты бұзылатынына сенімді. Ол жасанды интеллекттің өзі кінәлі емес екенін атап көрсетеді: «Жасанды интеллектте ешқандай қателік жоқ. Машиналардың өркендеу дәуірінде адамзаттың құндылықтар жүйесінде көптеген қателіктер бар».
Ол бір кездері автоматтандыру адамдарды күнделікті міндеттерден босатады деп сенген, бірақ шындық басқаша бағыт алды. Капиталистік экономикада жасанды интеллект жұмыс орындарын жою, жұмысқа қабылдауды баяулату және қызметкерлердің жұмыс жүктемесін арттыру құралына айналды. «Кез келген технология қолданыстағы құндылықтарды нығайтады, ал бүгінде адамзаттың басты құндылығы - капитализм», - деп атап өтті ол.
Гавдат басқа технологиялармен ұқсастықтар жасады: адамдарды байланыстыруға уәде берген әлеуметтік желілер көбінесе оларды жалғызсыратады; өмірді жеңілдетуге арналған ұялы телефондар оны одан сайын тығыз етті.
Ол жасанды интеллект «адамдар жасай алатын зұлымдықтарды» күшейтетінін ескертті. Мысал ретінде терең жалған порнография, әскери дамудағы жасанды интеллект, автоматтандырылған бақылау жүйелері, бір жыл ішінде криптовалюта алаяқтығының 456%-ға өсуі және жасанды интеллекттің ядролық қаруға интеграциялану мүмкіндігін айтуға болады. Жасанды интеллект арқылы жаппай бақылау Қытайда қазірдің өзінде белсенді түрде қолданылып келеді және Америка Құрама Штаттарында енгізіле бастады.
Соған қарамастан, Гавдат жасанды интеллекттің ғылымға, медицинаға және фармацевтикаға орасан зор пайда әкелетінін мойындайды. Бірақ, оның пікірінше, қазіргі уақытта ең маңыздысы - үкіметтерге жасанды интеллекттің өзін емес, оны қолдануды реттеуге қысым жасау. «Сіз шегеге соғу үшін балға жасай алмайсыз, бірақ өлтіре алмайсыз. Бірақ балғамен өлтіруді қылмысқа айналдыра аласыз», - деді ол.
Оның айтуынша, жасанды интеллект «балғасы» қазірдің өзінде біздің қолымызда. Енді тек олардың өлтіруіне жол бермейтін заңдар жазамыз ба, жоқ па, соны шешу ғана қалды.
мәліметтері бойынша , GPT-5 жүйесінің шақыруы – пайдаланушылар ешқашан көрмейтін, бірақ әрбір жасанды интеллект жауабын басқаратын жасырын ережелер жиынтығы – интернетте тарап кетті.
Ағып кету модельдің не істей алатынын және не қатаң тыйым салынғанын анықтайтын 15 тармақты анықтады.
Қатаң тыйымдарға әндерді немесе кез келген басқа авторлық құқықпен қорғалған мазмұнды, тіпті сұраныс бойынша да көшіру кіреді. Кедергі ретінде қарастырылуы мүмкін немесе нәсіліне, этникалық тегіне, дініне немесе қылмыстық жазба туралы ақпаратты тікелей көрсететін жеке ақпаратты сақтауға тыйым салынады.
Жаңа нұсқаулар ақпараттың өзектілігінің маңыздылығын атап көрсетеді. Егер сұрақ жаңа немесе маңызды деректерді қажет етсе, интернетті пайдалану үшін GPT-5 талап етіледі, әрбір сұраныс 0-ден 5-ке дейін «өзектілік қажеттілігі» рейтингін алады.
Қаржы, медицина немесе құқық салалары үшін модель бірнеше сенімді дереккөздерді тексеруі керек. Бұл жай ғана онлайн тексеру арқылы болдырмауға болатын қателіктерді азайтуы керек.
GPT-5 сонымен қатар кеңейтілген көмекші функцияларды алды: пайдаланушылардың ұзақ мерзімді жады («био»), еске салғыш жоспарлағыш, іздеу, «кенепте» құжаттармен және кодпен жұмыс істеу, сондай-ақ кескіндерді жасау және өңдеу.
Дегенмен, OpenAI сақтай алатын жеке ақпаратты қатаң шектеді: денсаулық, жыныстық өмір, нақты орналасқан жері, кәсіподақ мүшелігі және саяси көзқарастары тыйым салынады. Жалғыз ерекшелік - пайдаланушының «био» құралы арқылы тікелей өтініші бойынша.
Осылайша, GPT-5 функционалдығы мен жекелендірілгендігі артты, бірақ пайдаланушылардың құпиялылығы мен құқықтарын бұзбау үшін айқын шекаралары бар.
Зерттеушілер инженерия және жасанды интеллект әлемінде нағыз сенсация жариялады
Бірақ бұл жай ғана әдемі рендеринг емес — біз редакторға бірден жүктелетін, өзгертілетін және... өндіріске жіберілетін сценарий туралы айтып отырмыз.
Әзірлеушілер қолданыстағы кескіннен торға айналдыру шешімдерінің вокселдермен, нүктелік бұлттармен және көпбұрышты торлармен жұмыс істейтінін атап өтеді — бұл өте жақсы, бірақ инженерия үшін пайдасыз. GenCAD одан әрі қарай жүреді. Ол бос модельді емес, толыққанды инженерлік модельді құратын командалар тізбегін жасайды.
GenCAD-тың негізі күрделі архитектура болып табылады:
қарама-қарсы оқыту, командалар тілі мен көрнекі бейнені үйлестіру;
фотосуретті жасырын көрініске айналдыратын диффузиялық модель;
осы жиынтықтан параметрлік нұсқауларды қайта құратын декодер.
Негізгі ерекшелігі - оны өңдеу мүмкіндігі. Алынған скриптті өндірістік қажеттіліктерге бейімдеуге, жеке параметрлерді өзгертуге және оны жұмыс процестеріне бірден біріктіруге болады.
GitHub-та кодтың шығарылуымен қатар, зерттеушілер деректер жиынтығы мен оқытылған модельдерді де қолжетімді етті. Бұл тек дизайнды автоматтандыруға бағытталған қадам ғана емес, бұл бүкіл өндіріс саласы үшін революция.
мәліметі бойынша , Candy Crush ойынын жасаушы Кинг шамамен 200 қызметкерін жұмыстан шығаруға дайындалып жатыр. Бірақ нағыз таңқаларлық жайт, жұмыстан шығарылғандардың айтарлықтай бөлігі жұмыстарын өздері әзірлеп, үйреткен жасанды интеллект құралдарына беріп жатыр.
«Farm Heroes Saga» фильміндегі Лондон командасы әсіресе қатты зардап шекті: белгісіз дереккөздердің айтуынша, команда екі есеге қысқартылып жатыр, оның ішінде негізгі басшылар да бар. Жұмыстан босатылғандар қатарында деңгей дизайнерлері, UX мамандары және жазушылар бар. Бір қызметкердің айтуынша, «деңгей дизайны бөлімі түгелдей дерлік жойылды», дегенмен дәл осы адамдар «жұмыстарын жеделдету үшін бірнеше ай бойы құралдарды жасауға» жұмсаған.
Басшылық бұл өзгерістерді басқарушылық деңгейлерді азайту және дамуды жеделдету ниетімен түсіндіреді. Сонымен қатар, қызметкерлер жұмыстан босатулардың «кездейсоқ себептермен» - әлеуметтік желілердегі белсенділік немесе ішкі процестерді сынау үшін де болып жатқанын хабарлайды. Компания алаңдаушылық жағдайында: көпшілігі жұмысынан айырылып қалудан қорқады, бірақ ресми шешімдер күзге дейін қабылданбайды.
Инсайдерлердің айтуынша, кейбір негізгі қызметкерлер осы жазда «бағбандық демалысына» жіберілген — қыркүйектегі соңғы қысқартуға дейін ақылы демалыс. Сонымен қатар, Кинг жаңа ұйымдастырушылық құрылымды дайындап, кәсіподақтармен келіссөздер жүргізуде.
Мотивация мен моральға қатысты жағдай апатты. Ішкі сауалнама моральдың рекордтық төмен екенін көрсетті, ал бір дереккөздің айтуынша, қысқартулар басталғаннан кейін бұл «жойылып бара жатқан». Кингтің кадрлар бөлімі қызметкерлерінің емес, компанияның мүдделерін қорғайтын «толық цирк» деп сипатталды.
Жұмыстан босату Лондон, Барселона, Стокгольм және Берлиндегі кеңселерге әсер етті. Орталықтандырылған ресурстар - зерттеу және сапаны бақылау топтары - да таратылуға немесе өндіріс топтарына қайта бөлінуге жатады. Компанияның өсіп келе жатқан пайдасы аясында мұның бәрі тиімділік пен кірісті барынша арттыру атынан жасалған салқынқанды есептеу сияқты көрінеді.
Басшылықтың «клишелік сөздеріне» қарамастан, командалар бір-бірін қолдап отыр. Бір қызметкер: «Біз бір-бірімізге және ойындарымызға шынымен қамқорлық жасаймыз. Бұл кез келген «ұйымдық кестелерден» де көп нәрсені білдіреді», - деп атап өтті.