Как сообщает RT, технологии подделки голоса становятся всё более опасным инструментом в руках мошенников.
Генеральный директор «Диджитал Маркетс» Илья Назаров предупредил, что для имитации чужой речи злоумышленникам достаточно всего 30 секунд записи.
По его словам, источником для алгоритма может быть любое аудио — голосовое сообщение, ролик из соцсетей или даже фрагмент интервью. «Алгоритм учится на звуковых особенностях, а чем больше материала, тем качественнее подделка», — пояснил Назаров.
Эксперт отметил, что технологии voice cloning и deepfake позволяют использовать фальшивый голос как в записи, так и в реальном звонке. «Это создает иллюзию, что с жертвой общается знакомый человек: друг, родственник или коллега», — предупредил он.
Назаров посоветовал не доверять только голосу и всегда перепроверять срочные просьбы через другие каналы связи.
МВД России также сообщило, что мошенники активно манипулируют эмоциями жертв: давят на страх, доверие или жадность. Часто применяется приём «искусственной срочности», когда аферисты требуют немедленно перевести деньги.
Кроме того, злоумышленники перегружают собеседника потоком информации, чтобы снизить способность к критическому мышлению.
В МВД напомнили и о признаках взлома аккаунтов: «странные» просьбы («срочно переведи деньги», «выручай, у меня неприятности»), а также необычный стиль общения. Чтобы защититься, в ведомстве советуют:
- прерывать разговор, если чувствуете давление,
- использовать «правило паузы»,
- изучать типовые схемы обмана для развития настороженности.
Добавить комментарий
Для отправки комментария вам необходимо авторизоваться.