Алаяқтар жасанды интеллектті пайдаланып, ресейлік дауыстарды жалған жасай бастады

Алаяқтар жасанды интеллектті пайдаланып, ресейлік дауыстарды жалған жасай бастады

Алаяқтар жасанды интеллект арқылы ресейлік дауыстарды жалған жасай бастады, деп хабарлайды Орталық банктің деректеріне сілтеме жасай отырып.

Жаңа біріктірілген алаяқтық жеке ақпаратты іздеуден басталады. Алаяқтар әлеуетті жәбірленушінің отбасы мен достарының дауыс үлгілерін әлеуметтік желілерден іздейді. Содан кейін дауыстық жалған мәліметтер жасалады.

Орталық банк сарапшылары қоңырау шалып немесе хабар алмасу қолданбалары арқылы хабарласып жатқан адамдардың өтініші бойынша қаржылық операциялар жасамауды ескертеді, тіпті дауыс таныс болып көрінсе де. Күмәніңіз болса, олар кім атынан сөйлеп жатқанына қоңырау шалыңыз.

Қаңтардың басында RBC Telegram-да жалған дауыстық хабарламалар жасау үшін жасанды интеллекттің қолданылғаны туралы хабарлаған болатын. Қылмыскерлер аккаунтқа кіріп, дауысты имитациялап, ақша аударымдарын сұрайтын аудио хабарламалар жібере бастайды. Бұл сұраныстар әлеуетті құрбандарға олардың байланыс тізімінен жіберіледі.

Дереккөзді оқыңыз